JP7664702B2 - 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース - Google Patents
高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース Download PDFInfo
- Publication number
- JP7664702B2 JP7664702B2 JP2020537522A JP2020537522A JP7664702B2 JP 7664702 B2 JP7664702 B2 JP 7664702B2 JP 2020537522 A JP2020537522 A JP 2020537522A JP 2020537522 A JP2020537522 A JP 2020537522A JP 7664702 B2 JP7664702 B2 JP 7664702B2
- Authority
- JP
- Japan
- Prior art keywords
- control
- user
- signals
- score
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient; User input means
- A61B5/742—Details of notification to user or communication with user or patient; User input means using visual displays
- A61B5/7435—Displaying user selection data, e.g. icons in a graphical user interface
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
- A61B5/333—Recording apparatus specially adapted therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/372—Analysis of electroencephalograms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/377—Electroencephalography [EEG] using evoked responses
- A61B5/378—Visual stimuli
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/384—Recording apparatus or displays specially adapted therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient; User input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0202—Constructional details or processes of manufacture of the input device
- G06F3/0219—Special purpose keyboards
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Educational Technology (AREA)
- Dermatology (AREA)
- Hospice & Palliative Care (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Social Psychology (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- Cardiology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Description
[0001] 本願は、参照によりその開示の全体を本明細書に援用する、2018年1月18日に出願され「高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース(Brain-Computer Interface with Adaptations for High-Speed, Accurate, and Intuitive User Interactions)」と題された米国仮特許出願第62/618,846号の優先権及び利益を主張する。
[0002] 本明細書に記載する実施形態は、リアルタイムの眼球運動及び/又は頭部動作追跡を脳活動追跡と統合して、人間-マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェース(UI)又はユーザエクスペリエンス(UX)を提示し更新する、脳-コンピュータインタフェースの実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、リアルタイムの視標追跡及び神経活動のオンライン分析を使用してマシンのユーザ操作を仲介する、ハードウェアに依存しない脳-コンピュータインタフェースの実装にも関する。
[0006] 眼球運動及び脳活動を追跡してユーザの注視又は注目のリアルタイムの位置決め及び所望のアクションの選択/活性化を仲介するための、ハードウェアに依存しない統合型動眼神経ハイブリッド脳コンピュータインタフェース(BCI)プラットフォームの様々な実施形態のためのシステム、装置、及び方法を本明細書に記載する。本開示は、高速度及び高精度で動作する脳コンピュータインタフェースの需要に対処するための統合型BCIシステムを提示する。
[0031] 本明細書に記載する実施形態は、人間-マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェース(UI)又はユーザエクスペリエンス(UX)をユーザに提示する間に記録される脳活動を分析する脳-コンピュータインタフェース(BCI)の実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、神経脳信号の分析を使用してインタフェース、装置、及び/又はマシンのユーザ操作を仲介する、ハードウェアに依存しない脳-コンピュータインタフェースの実装にも関する。
[0033] 本明細書で説明するように、BCIは脳活動単独で又は脳活動を動眼活動若しくは運動神経(例えばEMG)活動等の他の活動と組み合わせてコンピュータ又は外部装置を制御できるようにするハードウェア及びソフトウェア通信システムである。BCIシステムは、インタフェースによる刺激の表示、インタフェース上のユーザの注目箇所を位置決めするためのハードウェア機器、脳活動を記録し処理するための装置、及びインタフェースの制御を行うための機器を含み、インタフェースの制御はユーザの環境を制御することになり得る。これらの標準機能は(1)ポインティング制御機能、(2)アクション制御機能、及び(3)ユーザインタフェース/ユーザエクスペリエンス(UI/UX)機能として特徴付けることができる。ポインティング制御機能は、制御するための1つ又は複数のマニピュレータの小さなセットまでユーザが絞り込むことを可能にするマウスポインタ等の従来のポインティング装置と類比で説明することができる。アクション制御機能は、ユーザがアクションを実施してUI/UXの変更、ひいては接続されたマシンの変更を生じさせることを可能にする、アクション(例えば選択、選択解除等)、例えばマウスのクリック又はキーボード上のキーストロークを仲介する装置と類比で説明することができる。BCIシステムにおけるUI/UX機能は、選択メニュー、ナビゲーション制御等を提供するような他の機能に加えて、ポインティング制御機能及びアクション制御機能を実装する環境を作成し維持するオペレーティングシステムと類比で説明することができる。
[0040] 一部の実施形態では、アイトラッカ102は、2次元空間又は3次元空間内のユーザの眼球運動を素早くたどることにより、ユーザが自らの視野内のどこを見ているのかを決定するために使用することができる。例えばユーザが自らの眼球運動の随意調節を有するという条件で、ビデオベースアイトレーサ102を使用して、ユーザの目のそれぞれがユーザの視野内のどの部分空間を「指しているのか」を決定することができる。換言すれば、アイトラッカ102は、ポインティング制御機能としてユーザの眼球運動の軌跡を使用することができ、被験者の意図及び挙動に関する重要な情報を明らかにする。一部の実施形態では、ユーザが視覚空間内のどこに注目しているのか、どの刺激に注目しているのか、又はどの刺激に反応したのかの側面がBCIシステム100内で効果的に使用され得る。互いに対する両方の目の動き軌道を同時に追跡することにより、アイトラッカ102はユーザの注目の奥行をレジスタし、従って3次元空間内のポインティング制御を可能にすることもできる。
[0044] BCIシステム100の目的は、例えばユーザが意図するアクションを予測すること及び/又はユーザの活動に関連する信号を解釈してユーザが意図するアクションを決定すること等、脳活動をモニタすることでユーザの意図を明らかにすることにより、関連するUI/UX、及び/又は接続された外部装置、及び/又はマシンを能動的に制御することである。この目的の要は、脳信号をアクション制御機能にする、ユーザの意図を示し得る脳信号である。BCIシステム100は、ユーザによって行われる認知的作業によって同時に誘発され又はかかる認知的作業に関係する幾つかのシグネチャ脳信号のうちの1つ又は複数を使用することができる。これらの脳信号の一部は、人がそれらを自在に変調できるようになり得るやり方で復号することができる。制御信号と見なされるこれらの信号を使用することは、BCIシステム100がユーザの意図を解釈することを可能にし得る。
[0050] 本明細書で説明するように、BCIシステム100内のUI/UXは、ユーザ(例えばユーザの脳、目、筋肉/運動神経等)とBCI装置110との間の通信のリンクとして機能し、ユーザがポインティング制御機能によって特定の刺激に注目しそれを指さし、アクション制御機能を使用して特定の刺激を選択し又は選択解除することを可能にする。本明細書で述べるように、UI/UXは制御インタフェースの一例であり得る。UI/UXは、ディスプレイによって提示される一連の視覚的に刺激のある2次元画像を含むことができる。UI/UXは、ユーザにとって最も直感的でありユーザの意図を識別することをより容易且つ明白にするやり方で提示されるようにBCI装置110によって設計され操作され得る。UI/UXは、ユーザの注目を集めるように設計される、及び/又はユーザ制御の方法の可用性に関する情報を含むUI/UXに関する情報を伝えるように設計される1つ又は複数の刺激を提示することができる。刺激は任意の適切なやり方で提示することができる。例えば、UI/UXは刺激として「タグ」(例えば制御項目)を提示するように設計することができる。それぞれの刺激は1つ又は複数のタグを含み得る。例えばタグは、ユーザの注目を集めるために且つUI/UXを制御するその可用性を示すために特定のやり方で外観を変える視覚的アイコンとすることができる。例えば、1つ又は複数のタグのグループを特定のやり方で点滅させ又はその外観を変えさせることができる。タグ又は制御項目はアクションに関連することができる。例えば、本明細書では「タグ点滅」とも呼ぶタグの外観の一過性の変化は、1つ又は複数の特定のアクションを行うためにそれらのタグが使用可能であることを示すことができる。一度に2つ以上のタグを点滅させることができ、タグのグループ分け(「タググループ」とも呼ぶ)は任意の特定のやり方で行われる(例えばタグの行、列、疑似ランダムグループ分け等)。タグ点滅の後、ユーザがタグ点滅の位置までfoveateしたことを示す信号をアイトラッカ102が捕捉することができ、及び/又はシグネチャ脳活動の発生を示す信号を神経記録ヘッドセット104が捕捉することができる。BCI装置110は、本明細書で更に詳細に説明するように、これらの信号を分析しユーザの意図を明らかにすることができる。この決定に基づき、UI/UXはタグ点滅に関連する1つ又は複数の特定のアクションを実施することができる。
[0054] 一部の実施形態では、BCIシステム100が、幾つかの周辺センサ108(図1の破線の四角形によって示す任意選択的なユニットとして示す)及び周辺アクチュエータ(図1には不図示)を含むことができる。1つ又は複数の周辺アクチュエータは豊かで多様なユーザエクスペリエンスを提供するように構成することができ、1つ又は複数の周辺センサ108はユーザ及びユーザの環境のそれぞれから多様な入力を捕捉するように構成することができる。これらの周辺アクチュエータ112及びセンサ108は個々に又は(アイトラッカ102のように)他の装置に組み込んで適切に搭載することができる。例えばBCIシステム100は、聴覚刺激を中継するためのイヤフォン及びユーザの音声コマンド等の音を捕捉するためのマイクロフォンを含むことができる。イヤフォン(聴覚アクチュエータ又は聴覚出力装置)及びマイクロフォン(聴覚センサ又は聴覚入力装置)は、ハイブリッドシステム100に有線チャネル又は無線チャネルによって接続される独立型装置とすることができる。或いはイヤフォン及びマイクロフォンは、アイトラッカ102又は神経記録ヘッドセット104に搭載し、統合することができる。同様に、体の動きのレジスタするために、加速度計、角度計、捻転計、赤外線カメラ等の光センサ、奥行センサ、マイクロフォン等の周辺センサをBCIシステム100に含める及び/又は結合することができる。例えば、角度計を使用することができるジェスチャを形成する手足の動きをレジスタする、加速度計は体の動きをレジスタするために使用することができる。周辺センサは、ユーザの現実世界の視野を捕捉するように構成される視野カメラも含むことができる。視野カメラによって取得される信号は分析し、選択可能な選択肢等を用いてUI/UXによってスーパーインポーズされる現実世界の画像を有する拡張現実エクスペリエンス又は複合現実エクスペリエンスを生成しユーザに提示するために使用することができる。BCIシステム100に接続可能な周辺アクチュエータは、提供されるユーザエクスペリエンスを豊かにする接触及び振動等の力を加え作り出すことができる触覚装置又は運動感覚装置を含むことができる。
[0055] 一部の実施形態では、脳-コンピュータインタフェース装置(即ちBCI装置)110がとりわけ3つの主要な機能を達成するように構成され得る。第1に、BCI装置110は、本明細書に記載したように戦略的に設計されたUI/UXを生成するように構成することができる。例えば、戦略的に設計されたユーザエクスペリエンスは訓練セッション用又は試験セッション用であり得る。一部の実施形態では、ユーザエクスペリエンスは仮想現実環境及び/又は拡張現実環境として設計され得る。一部の実施形態では、UI/UXは例えば特定のユーザの履歴、反応時間、ユーザ選択等の特定のニーズに合わせて調整することができる。BCI装置110はUI/UXを生成し更新する際にこれらの全ての要件を考慮することができる。第2に、UI/UXの設計及び生成に加えて、BCI装置110は(例えばアイトラッカ102から)ポインティング制御信号及び(例えば神経記録ヘッドセット104から)アクション制御信号(及び該当する場合は周辺センサ108から周辺信号)を受信し、それらの信号を個々に又はアンサンブルとして処理してユーザの意図を明らかにするように構成することができる。BCI装置110は分析に適した任意の方法を実行することができる。例えばBCI装置110は、信号から有意味の特徴を検出し、統計モデルを構築し適用して信号を解釈し、信号を分類し、信号及び信号を誘発する刺激を採点し、任意の所与のタグ又は刺激がユーザの意図する点(例えば標的タグ又は標的刺激)である確率を計算し、標的タグ又は標的刺激及びユーザが望む関連するアクションを決定すること等ができる。第3にBCI装置110は、ユーザの意図に応じて指示されている標的タグ又は標的刺激の変更を実施することにより、ポインティング制御機能及びアクション制御機能を実装するように構成することができる。
[0061] 図2は、入力記号の一例にユーザが注目しその選択を制御する具体例の一例に関する(上記のシステム100と同様の)BCIシステムの機能を示す。図2の説明のための一連の操作上の事象の例は、刺激(例えば1組のアクションに関連する1組のタグを含む刺激)を提示すること、結果として生じる神経活動信号及び動眼信号、及び/又は該当する場合は周辺信号を取得すること、取得した信号を分析し、それらの信号を解釈してユーザの意図を推論し又は復号すること、及び(例えばアクションの1つ又は複数に関連するタグの1つ又は複数を選択することによって)UI/UXの変更を生じさせることを含む。UI/UXを変更するために実施される1つ又は複数のアクションは、ひいてはUI/UXによって接続される1つ又は複数の外部マシンを制御することもできる。
[0068] 図3A~図3Gは、上記で開示したBCIシステム100と構造及び又は機能の点で同じ又は同様であり得る、BCIシステム300とのユーザ対話の一例及びBCIシステム300内の基礎を成す処理の一部を示す。例えば、BCIシステム300はアイトラッカ302、神経記録ヘッドセット304、BCI装置(不図示)、及びディスプレイ306を含み得る。図示の例では、ユーザが単語及び/又は文をスペルするのを助けるために、BCIシステム300がポインティング制御を実施する動眼信号並びにアクション制御を実施する神経信号の両方を使用することができる。例えばBCIシステム300は、2ステッププロセスで単語をスペルするために使用されるUI/UX371、及びUI/UX371を提示するディスプレイ306を含むことができる。図3A~図3Cに示すように、UI/UX371はタググループ点滅379(例えばキーボード上でよく見られる文字、数字、及び記号)形式の刺激を提示することができる。
[0072] 図2に示すプロセスシーケンス、並びに図3に示すポインティング制御及びアクション制御の実装例は個々の刺激について例示され得るが、UI/UX又はユーザエクスペリエンスによって仮想的な又は拡張された多様な環境を提示する間、一連の同様のステップを有する同様のプロセスをたどることができる。プロセス400の一例を図4に示す。図4に示すように、プロセス400は、訓練セッションを形成する一連のサブステップ(破線の四角形によって任意選択的として示す)を含むことができ、又は如何なる訓練データもなしに新たな刺激を提示するために使用することができる。
[0076] 本明細書に記載の通り、BCIシステム100、300は動眼活動信号及び神経活動信号(及び他の周辺信号)をアンサンブルとして組み合わせて又は個々に処理して、高速度及び高精度でユーザの意図を明らかにしユーザの意図に作用することができる。プロセス200又はプロセス400等の1つ又は複数のプロセスを使用して適切な刺激を提示し、ユーザの意図を明らかにすることができる。以下で説明するように、BCIシステムは信号を分析しユーザの意図を明らかにするのに適した分析パイプラインを採用することができる。
[0079] 動眼信号、神経信号、又は他の周辺信号(例えばジェスチャ、体位、音声コマンド等)を含む、刺激の提示中に及び提示後に取得される信号は情報が豊富であり得る。しかし、分析手続きは、関連するエポック及び/又は特徴を信号から抽出して標的タグを分析し決定することができる。例えばBCIシステムは、単語をスペルする際に使用するための図5Aに示すUI/UX571を含むことができる。ユーザが単語をスペルするためにIの文字を使用したい可能性がある例では、図5A~図5Bに示すようにIの文字が標的タグ585になる。図5Aに示す例では、刺激又はタグ点滅の一例が可視タグ又は文字の行又は列であり得る。例えばタグ点滅579Aの一例は、タグG~Lの行を含む強調表示されたタググループ形式で刺激を提示する。タグ点滅579Bの別の例(現在は提示されていない、例えば文字が強調表示されていない)はタグA、G、M、S、Y、及び5を含むことができる。タグ点滅は行、列、又は外観の特定の変更によって(例えば強調表示、拡大、太文字化等によって)一緒に提示される任意選択されたタググループであり得る。
[0082] BCIシステム100、300の一部の実施形態では、又はBCIシステムを実装するためのプロセス200又は400の一部の実施形態では、ユーザの意図に関する情報を集めるために刺激の提示後に取得される信号が完全に使用され得る。BCIシステム100、300の他の一部の実施形態では、又はBCIシステムを実装するためのプロセス200又は400の一部の実施形態では、取得済みの信号によって提供される情報を最適に使用するために1つ又は複数の次元縮退法を使用することができる。例えばユーザの意図を明らかにするために使用される分析手続きは、上記で開示したように取得済みの信号から特徴を検出し及び/又は抽出する1つ又は複数のステップを含み得る。信号の特徴は、信号を表す幾つかのパラメータを含むことができる。一部の条件の例では、特徴は信号の成分(例えば主成分又は独立成分)又は他の同様の次元縮退法を使用して得られる値又はベクトルを含むこともできる。特徴の一部の例は、ピーク振幅、持続時間、周波数帯域幅、基準線からの平均偏差等を含むこともできる。特徴の1つ又は複数は他の特定のパラメータに固有であり得る。例えば特徴は、刺激提示後200ms~500msにおけるピーク振幅、又は特定の周波数範囲内の周波数応答のピーク振幅等を含み得る。
[0084] 上記で説明したように、BCIシステムの目的の1つは1組の選択肢を刺激として提示し、特定のアクションを仲介し得る或る特定の刺激を選択するユーザの意図を脳活動の神経信号から復号することである。1組の刺激は1組の可視タグとすることができ、そのうちのユーザにとって関心のある或る特定のタグを標的タグとすることができる。従って別の言い方をすれば、BCIシステムの目的は利用可能な1組の可視タグから標的タグの同一性を特定の精度及び信頼度で識別することであり得る。標的タグを識別するプロセスは、特定のタグが提示される事前尤度、特定のタグがシグネチャ脳活動反応を誘発し得る尤度等の幾つかの情報源を組み込むことができる。
[0087] システム100、300等のBCIシステムのUI/UXにより、ユーザに刺激又はタグの一連又は組み合わせを提示することができる。タグは、マシン、装置、及び/又はインタフェースの制御をユーザに与える1つ又は複数のアクションにそれぞれ関連し得る。任意の所与のステップにおいて、タグの1つ(又は複数)が、選択時にユーザが望むアクションをもたらすことができる標的タグであり得る。上記で説明したように、目的は提示されるタグ又はタググループの組み合わせの中の標的タグを神経信号(及び動眼信号又は周辺信号等の他の関連信号)から識別することである。
[0096] 上記で説明したように、一部の実施形態ではスコアテーブルを生成するために2つ以上の分析方法を使用することができ、その方法は1つ又は複数の性能パラメータに基づいて評価される。例えば、神経活動信号は幾つかの分類器によって処理することができ、各分類器は他の分類器に対して評価される。次いで分類器のアンサンブルを一緒に使用して、スコアテーブル内に供給される複合分類スコアを形成することができる。スコアテーブルは、他の様々な情報源(例えば刺激情報、動眼信号等の他の信号源からの情報等)を用いて更新することができる。図9は、様々な特徴ベクトル及び分類方式を使用する3つ以上の異なる分類器を使用する方法の一例を示す。図9のプロットの一例に示すように、分類器のそれぞれからのラベル付けを評価する。最も優れたN個の分類器を選択し(Nは所定数又はユーザの自由裁量等である)、アンサンブル分類器又は「メランジュ」が生成される。メランジュを使用して神経信号を分析することにより、複合スコアテーブルが生成される。この複合スコアテーブルは、他の情報源(例えば刺激情報、眼球運動情報等)を用いて更新することができる。例えば複合スコアテーブルは距離テーブルによって更新されるように供給することができ、距離テーブルは、以下でより詳細に説明する他の近くのタグに対して誘発される反応に対するタグの近接度に基づく効果を組み込む。
[0099] BCIシステム100、300、及び/又はBCIシステムを実装するプロセス200、400、及び/又は700の一部の実施形態では、刺激がどのように提示されたのかに関して入手可能な情報を使用して標的タグの識別精度を改善することができる。例えばプロセス700に関して上記で説明した神経信号から計算される尤度及び信頼スコアと共に、UI/UXによって提示される刺激又はタグ点滅の空間的配置、タグ点滅の時間順序又は時系列、タググループ内のタグのグループ分け、タグ点滅に関連する突出度等を使用することができる。
[0110] BCIシステム(例えばシステム100、300)の一部の実施形態では、又はBCIシステムを実装するためのプロセス(例えばプロセス200、400、700、1100、及び/又は1400)は、1つ又は複数のアイトラッカから入手可能な眼球運動情報を組み込むように構成され得る。つまり、スコアテーブルを更新して利用可能な1組のタグから標的タグを識別するために、1つ又は複数の動眼信号に由来する情報を使用することができる。
[0116] BCIシステム(例えばシステム100、300)の一部の実施形態では、又はBCIシステムを実装するためのプロセス(例えばプロセス200、400、700、1100、1400、及び/又は1600)は、生体(又は非生体)データを取得する任意の数のセンサから入手可能な情報を組み込むように構成することができる。例えば、複合スコアテーブルを更新して利用可能な1組のタグから標的タグを識別するために、1つ又は複数の生理学的信号、又は挙動信号、又は外部信号(摂動又はユーザが現在置かれている環境内の事象等を示す)の情報を使用することができる。
[0118] 図17は、標的タグを識別するのを助けるための幾つかの情報源を組み込む、マスタスコアテーブルを生成する方法1700の一例を示す。例えば図17に示すように、スコアセットを生成するために幾つかの情報源をそれぞれ使用することができ、標的タグの識別を更新するために様々なスコアセットを適切に組み合わせることができる。
[0122] 要約すると、ユーザによってリアルタイムで操作可能な統合型脳コンピュータインタフェースの実装に使用するためのシステム及び方法を本明細書に記載した。開示したシステムは、ポインティング制御機能を実装するための眼球運動追跡システム、及びアクション制御機能を実装するための脳活動追跡システムを含む。高速且つ正確な操作を可能にするように戦略的に設計されるUI/UXの提示により、両方の機能が実装される。加えて、開示したシステム及び方法は、任意の適切なプラットフォーム上にリアルタイムBCIを実装して仮想環境、拡張環境、又は実環境のユーザ操作を仲介するために、ハードウェアに依存しないように構成される。図11は本発明のBCIシステム及び方法の使用空間の説明図を示す。
Claims (20)
- ユーザに制御インタフェースを提示するように構成されるディスプレイであって、前記制御インタフェースはアクションにそれぞれ関連する複数の制御項目を含む、ディスプレイと、
前記ユーザに関連する神経信号を記録するように構成される神経記録装置と、
前記ディスプレイ及び前記神経記録装置に動作可能に結合されるインタフェース装置であって、
メモリ、並びに
前記メモリに動作可能に結合され、
前記制御インタフェースによって1組の制御項目を含む刺激を提示することであって、前記1組の制御項目の各制御項目は前記制御インタフェースの所定位置において提示される、提示すること、
前記刺激を提示した後、前記刺激に関連する1組の神経信号を前記神経記録装置から受信すること、
前記1組の神経信号から前記刺激に関連する制御信号を識別するために前記1組の神経信号を分類することであって、前記制御信号は前記ユーザの意図を示す、分類すること、
前記刺激に含まれる前記1組の制御項目のうちの各制御項目に関連する確率メトリクを計算することであって、前記確率メトリクは、前記制御信号が該刺激に含まれる該制御項目によって誘発された確率を示す、計算すること、
該制御項目に関連する前記確率メトリクに基づいた第1のスコアであって、前記1組の制御項目の各制御項目に関連する第1のスコアを決定すること、
前記1組の制御項目の各制御項目に関連する第2のスコアを決定することであって、前記第2のスコアは、前記1組の制御項目の残りの制御項目のうちの少なくとも1つの他の制御項目の提示の前記所定位置に対する該制御項目の提示の前記所定位置に基づいている、決定すること、及び
前記1組の制御項目の各制御項目に関連する前記第1のスコア及び前記第2のスコアに基づいて前記ユーザの注目箇所を決定することであって、前記注目箇所は前記複数の制御項目の少なくとも1つの制御項目に関連する、決定すること、
を行うように構成されるプロセッサ
を含む、インタフェース装置と
を含む、機器。 - 前記神経信号が、事象関連電位(ERP)、運動心像信号、定常状態視覚誘発電位(SSVEP)、一過性視覚誘発電位(TVEP)、視覚誘発電位(VEP)、P300誘発電位、感覚誘発電位、運動誘発電位を含む誘発電位、ミュー律動又はベータ律動等の感覚運動律動、事象関連脱同期(ERD)、事象関連同期(ERS)、緩徐脳電位(SCP)、又は脳状態依存信号の少なくとも1つを含む脳波記録(EEG)信号を含み、
前記1組の神経信号を分類するように構成された前記プロセッサが、前記1組の刺激の各刺激の前記1組の神経信号を処理して前記EEG信号から1組の特徴に関連する情報を抽出するように更に構成され、
前記プロセッサが、前記1組の特徴に関連する前記情報を使用して、前記1組の制御項目の各制御項目に関連する前記第1のスコアを決定するように構成される、
請求項1に記載の機器。 - 前記1組の特徴が、神経信号に含まれる反応の振幅、前記反応の持続時間、前記反応の形状、前記1組の刺激からの刺激を前記提示することに対する前記反応のタイミング、又は前記神経信号に関連する周波数の少なくとも1つを含む、請求項2に記載の機器。
- 前記ユーザに関連する眼球運動信号を記録するように構成される視標追跡装置を更に含み、
前記プロセッサが、前記刺激を提示した後、前記刺激に関連する1組の眼球運動信号を前記視標追跡装置から受信するように更に構成され、
前記プロセッサが、前記刺激に関連する前記1組の神経信号及び前記1組の眼球運動信号に基づいて前記1組の制御項目の各制御項目に関連する前記第1のスコアを決定するように構成される、
請求項1に記載の機器。 - 前記1組の制御項目の各制御項目が視覚的表現に関連し、
前記プロセッサが、その刺激に含まれる前記1組の制御項目の各制御項目に関連する前記視覚的表現の外観を変更するように構成される、
請求項1に記載の機器。 - 前記外観を変更することが、前記視覚的表現のサイズ、色、色調、テクスチャ、輪郭、向き、輝度、厚さ、又は移動度の少なくとも1つを変更することを含む、請求項5に記載の機器。
- 前記プロセッサが、前記注目箇所に基づいて前記ユーザが意図するアクションを決定するように構成される、請求項1に記載の機器。
- 前記プロセッサは、前記ユーザが意図する前記アクションを実施するように更に構成され、前記アクションは前記複数の制御項目からの制御項目の活性化又は非活性化の少なくとも1つである、請求項7に記載の機器。
- 前記注目箇所が第1の期間中の第1の注目箇所であり、前記アクションが第1のアクションであり、前記プロセッサが、
前記第1の期間の後の第2の期間中に前記ユーザの第2の注目箇所を決定することであって、前記第2の注目箇所は前記1組の制御項目の少なくとも1つの制御項目に関連する、決定すること、
前記ユーザが意図する第2のアクションを前記第2の注目箇所に基づいて決定することであって、前記第2のアクションは前記第1のアクションと異なる、決定すること、及び
前記第1のアクションを実施した後、前記ユーザが意図する前記第2のアクションを実施すること
を行うように更に構成される、請求項8に記載の機器。 - 前記プロセッサが、1組の統計モデルを使用して少なくとも1つの分類方式に従って前記刺激に関連する前記1組の神経信号を分類するように更に構成される、
請求項1に記載の機器。 - プロセッサによって実行される命令を表すコードを記憶する非一時的プロセッサ可読媒体であって、前記命令は、
1組のアクションを実行するためにユーザによって操作されるように構成される制御インタフェースを生成すること、
前記制御インタフェースによって前記ユーザに刺激を提示することであって、前記刺激は1組の制御項目を含み、前記1組の制御項目の各制御項目は前記1組のアクションの少なくとも1つのアクションに関連し、且つ、前記制御インタフェースの所定位置において提示される、提示すること、
前記ユーザに前記刺激を提示した後、前記ユーザに関連する情報を神経記録装置から受信することであって、前記情報は前記刺激に関連する1組の神経信号を含む、受信すること、 前記1組の神経信号から前記刺激に関連する制御信号を識別するために前記1組の神経信号を分類することであって、前記制御信号は前記ユーザの意図を示す、分類すること、
前記刺激に含まれる前記1組の制御項目のうちの各制御項目に関連する確率メトリクを計算することであって、前記確率メトリクは、前記制御信号が該刺激に含まれる該制御項目によって誘発された確率を示す、計算すること、
該制御項目に関連する前記確率メトリクに基づいた第1のスコアであって、前記1組の制御項目の各制御項目に関連する第1のスコアを決定すること、
前記1組の制御項目の各制御項目に関連する第2のスコアを決定することであって、前記第2のスコアは、前記1組の制御項目の残りの制御項目のうちの少なくとも1つの他の制御項目の提示の前記所定位置に対する該制御項目の提示の前記所定位置に基づいている、決定すること、及び
前記1組の制御項目の各制御項目に関連する前記第1のスコア及び前記第2のスコアに基づいて前記ユーザの注目箇所を決定すること、
を前記プロセッサに行わせるためのコードを含む、非一時的プロセッサ可読媒体。 - 1組の神経信号が、事象関連電位(ERP)、運動心像信号、定常状態視覚誘発電位(SSVEP)、一過性視覚誘発電位(TVEP)、視覚誘発電位(VEP)、P300誘発電位、感覚誘発電位、運動誘発電位を含む誘発電位、ミュー律動又はベータ律動等の感覚運動律動、事象関連脱同期(ERD)、事象関連同期(ERS)、緩徐脳電位(SCP)、又は脳状態依存信号の少なくとも1つを含む脳波記録(EEG)信号を含み、
前記命令が、前記神経信号を処理して前記EEG信号から1組の特徴に関連する情報を抽出することを前記プロセッサに行わせるためのコードを更に含み、
前記1組の制御項目の各制御項目に関連する前記第1のスコアを前記処理に決定させるための前記コードが、前記1組の特徴に関連する前記情報を使用して前記1組の制御項目の各制御項目に関連する前記第1のスコアを前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記1組の制御項目の各制御項目に関連する前記第1のスコアを決定することを前記プロセッサに行わせるための前記コードが、
前記ユーザの前記注目箇所に基づいて前記ユーザが意図するアクションを前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記第1のスコア及び前記第2のスコアの加重平均に少なくとも部分的に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記1組の制御項目の各制御項目に関連する前記第1のスコアを前記プロセッサに決定させるための前記コードが、前記1組の制御項目の前記制御項目の提示の時点に基づいて、前記第1のスコアを前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記命令が、
前記ユーザの眼球運動信号を視標追跡装置から受信すること、及び
前記眼球運動信号に基づいて前記1組の制御項目の各制御項目に関連する1組の動眼スコアを決定すること
を前記プロセッサに行わせるためのコードを更に含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組の動眼スコアに更に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記第1のスコア、前記第2のスコア、及び前記1組の制御項目の各制御項目に関連する前記動眼スコアの加重平均に少なくとも部分的に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記1組の神経信号を前記プロセッサに分類させるための前記コードが、
複数の分類器に関連する1組の性能パラメータを評価することに基づいて前記複数の分類器から1組の分類器を選択すること、
前記1組の分類器を使用してアンサンブル分類器を生成すること、及び
前記アンサンブル分類器を使用して前記1組の神経信号を分類すること
を前記プロセッサに行わせるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 制御インタフェースによってユーザに刺激を提示することであって、前記刺激は1組のアクションに関連する1組の制御項目を含む、提示すること、
前記ユーザの挙動に関連する1組の神経信号を神経記録装置から受信すること、
前記1組の神経信号から前記刺激に関連する制御信号を識別するためのモデルを使用して前記1組の神経信号を分類することであって、前記制御信号は前記ユーザの意図を示す、分類すること、
前記1組の神経信号から前記刺激に関連する制御信号を識別するためのモデルを使用して前記1組の神経信号を分類することであって、前記制御信号は前記ユーザの意図を示す、分類すること、
前記刺激に含まれる前記1組の制御項目のうちの各制御項目に関連する確率メトリクを計算することであって、前記確率メトリクは、前記制御信号が前記制御項目の該刺激に含まれる該制御項目によって誘発された確率を示す、計算すること、
該制御項目に関連する前記確率メトリクに基づいた第1のスコアであって前記1組の制御項目の各制御項目に関連する第1のスコアを生成すること、
前記1組の制御項目の各制御項目に関連する第2のスコアを決定することであって、前記第2のスコアは、前記1組の制御項目の残りの制御項目のうちの少なくとも1つの他の制御項目の提示の前記所定位置に対する該制御項目の提示の前記所定位置に基づいている、決定すること、
前記1組の制御項目の各制御項目に関連する前記第1のスコア及び前記第2のスコアに基づいて前記ユーザの注目箇所を決定すること、及び
前記注目箇所に基づいて前記ユーザが意図するアクションを決定すること、
を含む、方法。 - 前記ユーザに意図された実際のアクションに関連するフィードバック情報を受信すること、及び
前記ユーザに意図された前記予測されたアクションと前記ユーザに意図された前記実際のアクションとの間の比較に基づいて前記モデルを更新すること、
を更に含む、請求項19に記載の方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024026938A JP2024075573A (ja) | 2018-01-18 | 2024-02-26 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201862618846P | 2018-01-18 | 2018-01-18 | |
| US62/618,846 | 2018-01-18 | ||
| PCT/US2019/014315 WO2019144019A1 (en) | 2018-01-18 | 2019-01-18 | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024026938A Division JP2024075573A (ja) | 2018-01-18 | 2024-02-26 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021511567A JP2021511567A (ja) | 2021-05-06 |
| JP7664702B2 true JP7664702B2 (ja) | 2025-04-18 |
Family
ID=67301248
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020537522A Active JP7664702B2 (ja) | 2018-01-18 | 2019-01-18 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース |
| JP2024026938A Pending JP2024075573A (ja) | 2018-01-18 | 2024-02-26 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024026938A Pending JP2024075573A (ja) | 2018-01-18 | 2024-02-26 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース |
Country Status (6)
| Country | Link |
|---|---|
| US (2) | US12053308B2 (ja) |
| EP (1) | EP3740126A4 (ja) |
| JP (2) | JP7664702B2 (ja) |
| KR (1) | KR102848051B1 (ja) |
| CN (1) | CN111712192B (ja) |
| WO (1) | WO2019144019A1 (ja) |
Families Citing this family (36)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12201427B2 (en) | 2012-06-14 | 2025-01-21 | Medibotics Llc | Headband with brain activity sensors |
| US12310749B2 (en) | 2012-06-14 | 2025-05-27 | Medibotios MC | Eyewear (eyeglasses) with electrodes (EEG sensors) for prediction and/or detection of health events or use as a brain-to-computer interface (BCI) |
| WO2019040665A1 (en) | 2017-08-23 | 2019-02-28 | Neurable Inc. | BRAIN-COMPUTER INTERFACE PROVIDED WITH HIGH-SPEED OCULAR FOLLOWING CHARACTERISTICS |
| CN111542800B (zh) | 2017-11-13 | 2024-09-17 | 神经股份有限公司 | 具有对于高速、精确和直观的用户交互的适配的大脑-计算机接口 |
| US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
| US11301044B1 (en) | 2019-01-28 | 2022-04-12 | Meta Platforms, Inc. | Wearable brain computer interface |
| US12093456B2 (en) | 2019-07-31 | 2024-09-17 | Nextmind Sas | Brain-computer interface |
| CN114730213B (zh) * | 2019-11-20 | 2025-07-15 | 奈克斯特曼德公司 | 脑计算机接口 |
| CN114746830B (zh) * | 2019-11-20 | 2024-12-13 | 奈克斯特曼德公司 | 视觉脑机接口 |
| KR20210076451A (ko) * | 2019-12-16 | 2021-06-24 | 현대자동차주식회사 | 사용자 인터페이스 시스템 및 그의 동작 방법 |
| EP4078341A1 (en) * | 2019-12-18 | 2022-10-26 | Nextmind Sas | Brain-computer interface |
| CN114902161A (zh) * | 2020-01-03 | 2022-08-12 | 奈克斯特曼德公司 | 人机接口系统 |
| CN119597151A (zh) * | 2020-01-07 | 2025-03-11 | 奈克斯特曼德公司 | 关于脑机接口的方法和机器 |
| CN112207816B (zh) * | 2020-08-25 | 2022-08-26 | 天津大学 | 基于视图编解码的脑控机械臂系统和控制方法 |
| US11461991B2 (en) | 2020-12-30 | 2022-10-04 | Imagine Technologies, Inc. | Method of developing a database of controllable objects in an environment |
| CN112817451B (zh) * | 2021-01-28 | 2022-07-08 | 清华大学 | 基于稳态视觉诱发电位的多目标定位方法和装置 |
| WO2022162469A1 (en) * | 2021-01-29 | 2022-08-04 | Xr Health Il Ltd | Systems and methods for assessing partial impulsivity in virtual or augmented reality |
| CN115390655A (zh) * | 2021-05-24 | 2022-11-25 | 华为技术有限公司 | 人机交互方法、人机交互装置及存储介质 |
| FR3123794B1 (fr) * | 2021-06-14 | 2024-03-15 | Centre Hospitalier Regional Univ De Tours | Interface de communication adaptee en fonction d’une evaluation cognitive pour patients prives de la parole |
| EP4374242A1 (en) | 2021-07-21 | 2024-05-29 | Dolby Laboratories Licensing Corporation | Screen interaction using eog coordinates |
| CN113934300B (zh) * | 2021-10-19 | 2022-08-23 | 北京烽火万家科技有限公司 | 基于脑机接口的设备控制方法、装置、电子设备及介质 |
| CN114020158B (zh) * | 2021-11-26 | 2023-07-25 | 清华大学 | 网页搜索方法及装置、电子设备和存储介质 |
| US11715130B2 (en) * | 2021-12-13 | 2023-08-01 | Fmr Llc | Systems and methods for designing targeted marketing campaigns |
| US12197551B2 (en) * | 2022-03-28 | 2025-01-14 | Lenovo (Singapore) Pte. Ltd. | Device and method for accessing electronic device |
| GB2618335B (en) * | 2022-05-03 | 2024-07-24 | L Univ Ta Malta | A method of determining a point of regard using electrooculography under non-stationary head pose and position conditions |
| CN115358367B (zh) * | 2022-08-09 | 2023-04-18 | 浙江大学 | 一种基于多模型学习集成的动态自适应脑机接口解码方法 |
| KR102835607B1 (ko) * | 2022-12-07 | 2025-07-17 | 고려대학교산학협력단 | 뇌 신호 기반의 사용자 보조 방법 및 장치 |
| US12524198B1 (en) | 2022-12-16 | 2026-01-13 | Amazon Technologies, Inc. | Gaze based device control |
| CN116301345B (zh) * | 2023-02-17 | 2026-02-06 | 清华大学 | 基于视觉脑机接口的vr设备控制方法 |
| US12443286B2 (en) | 2023-06-02 | 2025-10-14 | Apple Inc. | Input recognition based on distinguishing direct and indirect user interactions |
| US12118200B1 (en) * | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
| WO2025023867A1 (ru) * | 2023-07-26 | 2025-01-30 | Общество С Ограниченной Ответственностью "Нейроспутник" | Способ интеллектуальной обратной связи для стимулирования мозга |
| WO2025043050A1 (en) * | 2023-08-24 | 2025-02-27 | Carnegie Mellon University | Training and use of a posture invariant brain-computer interface |
| WO2025054671A1 (en) * | 2023-09-15 | 2025-03-20 | University Of Technology Sydney | Brain-computer interface |
| US12386938B2 (en) * | 2023-12-29 | 2025-08-12 | COGNTIV Neurosystems Ltd. | Authentication using a biometric template related to neural activity, and applications thereof |
| US12578795B2 (en) | 2024-03-29 | 2026-03-17 | Cvs Pharmacy, Inc. | Systems and methods for obtaining and using electroencephalography signals to perform an action |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017046698A1 (en) | 2015-09-16 | 2017-03-23 | Liquidweb S.R.L. | System for controlling assistive technologies and related method |
Family Cites Families (201)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4013068A (en) | 1974-10-15 | 1977-03-22 | Settle Wayne L | Electroencephalographic activated control system |
| US4158196A (en) | 1977-04-11 | 1979-06-12 | Crawford George E Jr | Man-machine interface system |
| US4595990A (en) | 1980-12-31 | 1986-06-17 | International Business Machines Corporation | Eye controlled information transfer |
| US5137027A (en) | 1987-05-01 | 1992-08-11 | Rosenfeld Joel P | Method for the analysis and utilization of P300 brain waves |
| US5269325A (en) | 1989-05-26 | 1993-12-14 | Biomagnetic Technologies, Inc. | Analysis of biological signals using data from arrays of sensors |
| US5342410A (en) | 1990-10-05 | 1994-08-30 | Eric Braverman | Apparatus and method for increasing the amplitude of P300 waves in the human brain |
| US5213338A (en) | 1991-09-30 | 1993-05-25 | Brotz Gregory R | Brain wave-directed amusement device |
| US5339826A (en) | 1991-12-09 | 1994-08-23 | Westinghouse Electric Corp. | Method for training material evaluation with method of EEG spectral estimation |
| US5692517A (en) | 1993-01-06 | 1997-12-02 | Junker; Andrew | Brain-body actuated system |
| US5363858A (en) | 1993-02-11 | 1994-11-15 | Francis Luca Conte | Method and apparatus for multifaceted electroencephalographic response analysis (MERA) |
| US5325862A (en) | 1993-03-26 | 1994-07-05 | The United States Of America As Represented By The Secretary Of The Navy | Method and/or system for personal identification and impairment assessment from brain activity patterns |
| JP2899194B2 (ja) | 1993-06-30 | 1999-06-02 | キヤノン株式会社 | 意思伝達支援装置及び意思伝達支援方法 |
| US5638826A (en) | 1995-06-01 | 1997-06-17 | Health Research, Inc. | Communication method and system using brain waves for multidimensional control |
| US5742286A (en) | 1995-11-20 | 1998-04-21 | International Business Machines Corporation | Graphical user interface system and method for multiple simultaneous targets |
| US5899867A (en) | 1996-10-11 | 1999-05-04 | Collura; Thomas F. | System for self-administration of electroencephalographic (EEG) neurofeedback training |
| US5931908A (en) | 1996-12-23 | 1999-08-03 | The Walt Disney Corporation | Visual object present within live programming as an actionable event for user selection of alternate programming wherein the actionable event is selected by human operator at a head end for distributed data and programming |
| JPH10260773A (ja) | 1997-03-19 | 1998-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法及びその装置 |
| JPH1165794A (ja) | 1997-08-25 | 1999-03-09 | Yoshimichi Yonezawa | 誘発脳波を用いた入力装置 |
| US5983129A (en) | 1998-02-19 | 1999-11-09 | Cowan; Jonathan D. | Method for determining an individual's intensity of focused attention and integrating same into computer program |
| US7084884B1 (en) | 1998-11-03 | 2006-08-01 | Immersion Corporation | Graphical object interactions |
| US6090051A (en) | 1999-03-03 | 2000-07-18 | Marshall; Sandra P. | Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity |
| GB2348520B (en) | 1999-03-31 | 2003-11-12 | Ibm | Assisting user selection of graphical user interface elements |
| US6380937B1 (en) * | 1999-11-03 | 2002-04-30 | International Business Machines Corporation | Method and system for dynamically representing cluster analysis results |
| US6626433B2 (en) | 2000-02-22 | 2003-09-30 | Joseph Scibetta | Card game |
| US20020065851A1 (en) | 2000-06-02 | 2002-05-30 | Watson Emerson C. | System and method for creating a website |
| JP2002236957A (ja) | 2001-02-09 | 2002-08-23 | Victor Co Of Japan Ltd | 電子投票装置、電子投票システム |
| US7403814B2 (en) | 2001-05-04 | 2008-07-22 | University Of Virginia Patent Foundation | Method, apparatus, and computer program product for assessment of attentional impairments |
| JP2003114820A (ja) | 2001-07-31 | 2003-04-18 | Sanyo Electric Co Ltd | 電子アルバム装置 |
| JP2003058298A (ja) | 2001-08-20 | 2003-02-28 | Fuji Xerox Co Ltd | 情報分類装置、情報分類方法、情報分類プログラム及びコンピュータ読み取り可能な記録媒体 |
| US7209788B2 (en) | 2001-10-29 | 2007-04-24 | Duke University | Closed loop brain machine interface |
| WO2003042785A2 (en) | 2001-11-13 | 2003-05-22 | Prometric, Inc. | Method and system for computer based testing using customizable templates |
| US6712468B1 (en) | 2001-12-12 | 2004-03-30 | Gregory T. Edwards | Techniques for facilitating use of eye tracking data |
| US20040076930A1 (en) | 2002-02-22 | 2004-04-22 | Steinberg Linda S. | Partal assessment design system for educational testing |
| US20030195798A1 (en) | 2002-04-11 | 2003-10-16 | John Goci | Voter interface for electronic voting system |
| AU2003228850A1 (en) | 2002-05-03 | 2003-11-17 | Sarnoff Corporation | Single trial detection in encephalography |
| US6917370B2 (en) | 2002-05-13 | 2005-07-12 | Charles Benton | Interacting augmented reality and virtual reality |
| US6847844B2 (en) | 2002-06-06 | 2005-01-25 | University Of Pittsburgh Of The Commonwealth System Of Higher Education | Method of data communication with implanted device and associated apparatus |
| US20040092809A1 (en) | 2002-07-26 | 2004-05-13 | Neurion Inc. | Methods for measurement and analysis of brain activity |
| US20040044295A1 (en) | 2002-08-19 | 2004-03-04 | Orthosoft Inc. | Graphical user interface for computer-assisted surgery |
| US7766743B2 (en) | 2002-08-29 | 2010-08-03 | Douglas Schoellkopf Jebb | Methods and apparatus for evaluating a user's affinity for a property |
| US7347818B2 (en) | 2003-02-24 | 2008-03-25 | Neurotrax Corporation | Standardized medical cognitive assessment tool |
| US8292433B2 (en) * | 2003-03-21 | 2012-10-23 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
| US8260428B2 (en) | 2003-05-01 | 2012-09-04 | California Institute Of Technology | Method and system for training a visual prosthesis |
| US7546158B2 (en) | 2003-06-05 | 2009-06-09 | The Regents Of The University Of California | Communication methods based on brain computer interfaces |
| US20040249302A1 (en) | 2003-06-09 | 2004-12-09 | Cyberkinetics, Inc. | Methods and systems for processing of brain signals |
| US20050046698A1 (en) | 2003-09-02 | 2005-03-03 | Knight Andrew Frederick | System and method for producing a selectable view of an object space |
| US20050085744A1 (en) | 2003-10-20 | 2005-04-21 | Stmicroelectronics S.R.I. | Man-machine interfaces system and method, for instance applications in the area of rehabilitation |
| US8583223B2 (en) * | 2003-11-28 | 2013-11-12 | The Australian National University | Assessment of neural function |
| US7120486B2 (en) | 2003-12-12 | 2006-10-10 | Washington University | Brain computer interface |
| JP4026145B2 (ja) * | 2004-01-20 | 2007-12-26 | マツダ株式会社 | 車両用画像表示装置 |
| CA2556210A1 (en) | 2004-02-13 | 2005-09-01 | Georgia Tech Research Corporation | Display enhanced testing for concussions and mild traumatic brain injury |
| US20050191609A1 (en) | 2004-02-14 | 2005-09-01 | Adaptigroup Llc | Method and system for improving performance on standardized examinations |
| US7379562B2 (en) | 2004-03-31 | 2008-05-27 | Microsoft Corporation | Determining connectedness and offset of 3D objects relative to an interactive surface |
| WO2005096206A1 (en) | 2004-03-31 | 2005-10-13 | Neptec Design Group Ltd. | Medical patient monitoring and data input systems, methods and user interfaces |
| US20090099623A1 (en) | 2004-09-13 | 2009-04-16 | Neuronix Ltd. | Systems and methods for treatment of medical conditions related to the central nervous system and for enhancing cognitive functions |
| WO2006051709A1 (ja) | 2004-11-10 | 2006-05-18 | Matsushita Electric Industrial Co., Ltd. | 誤操作検出装置およびこれを有する機器、誤操作検出方法、並びに機器評価方法 |
| US7865235B2 (en) | 2005-09-12 | 2011-01-04 | Tan Thi Thai Le | Method and system for detecting and classifying the mental state of a subject |
| WO2007096706A2 (en) | 2005-09-12 | 2007-08-30 | Emotiv Systems Pty Ltd. | System and method for interaction with a subject based on detection of mental states |
| US20070060830A1 (en) | 2005-09-12 | 2007-03-15 | Le Tan Thi T | Method and system for detecting and classifying facial muscle movements |
| US7513775B2 (en) | 2005-10-05 | 2009-04-07 | Exam Innovations, Inc. | Presenting answer options to multiple-choice questions during administration of a computerized test |
| US20070086773A1 (en) | 2005-10-14 | 2007-04-19 | Fredrik Ramsten | Method for creating and operating a user interface |
| WO2007050029A2 (en) | 2005-10-28 | 2007-05-03 | Tobii Technology Ab | Eye tracker with visual feedback |
| WO2007070876A2 (en) | 2005-12-15 | 2007-06-21 | Posit Science Corporation | Cognitive training using visual stimuli |
| WO2007086222A1 (ja) | 2006-01-24 | 2007-08-02 | Honda Motor Co., Ltd. | 注意領域を推定するシステムおよび方法 |
| US7580742B2 (en) | 2006-02-07 | 2009-08-25 | Microsoft Corporation | Using electroencephalograph signals for task classification and activity recognition |
| US9101279B2 (en) * | 2006-02-15 | 2015-08-11 | Virtual Video Reality By Ritchey, Llc | Mobile user borne brain activity data and surrounding environment data correlation system |
| CA2657762C (en) | 2006-07-25 | 2015-07-21 | Novavision, Inc. | Dynamic stimuli for visual field testing and therapy |
| JP5249223B2 (ja) | 2006-09-07 | 2013-07-31 | ザ プロクター アンド ギャンブル カンパニー | 感情反応及び選択傾向を測定するための方法 |
| CN1927551A (zh) | 2006-09-30 | 2007-03-14 | 电子科技大学 | 一种视导脑声控的残障辅助机器人 |
| US20080218472A1 (en) | 2007-03-05 | 2008-09-11 | Emotiv Systems Pty., Ltd. | Interface to convert mental states and facial expressions to application input |
| JP5132182B2 (ja) | 2007-04-25 | 2013-01-30 | キヤノン株式会社 | 医療用検査システムおよびその処理方法、プログラム、記憶媒体 |
| US20090082692A1 (en) | 2007-09-25 | 2009-03-26 | Hale Kelly S | System And Method For The Real-Time Evaluation Of Time-Locked Physiological Measures |
| US7556377B2 (en) | 2007-09-28 | 2009-07-07 | International Business Machines Corporation | System and method of detecting eye fixations using adaptive thresholds |
| JP4392465B2 (ja) | 2007-10-29 | 2010-01-06 | パナソニック株式会社 | 脳波インタフェースシステムのための起動装置、方法およびコンピュータプログラム |
| EP2227765A1 (en) | 2007-11-02 | 2010-09-15 | Siegbert Warkentin | System and methods for assessment of the aging brain and its brain disease induced brain dysfunctions by speech analysis |
| US9098766B2 (en) | 2007-12-21 | 2015-08-04 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
| US8265743B2 (en) | 2007-12-27 | 2012-09-11 | Teledyne Scientific & Imaging, Llc | Fixation-locked measurement of brain responses to stimuli |
| US8244475B2 (en) | 2007-12-27 | 2012-08-14 | Teledyne Scientific & Imaging, Llc | Coupling human neural response with computer pattern analysis for single-event detection of significant brain responses for task-relevant stimuli |
| CA2711844A1 (en) * | 2008-01-11 | 2009-07-16 | Oregon Health & Science University | Rapid serial presentation communication systems and methods |
| JP4399513B2 (ja) | 2008-01-25 | 2010-01-20 | パナソニック株式会社 | 脳波インタフェースシステム、脳波インタフェース装置、方法およびコンピュータプログラム |
| CN101502418B (zh) | 2008-02-05 | 2011-05-04 | 周常安 | 耳戴式脑电检测装置 |
| JP4399515B1 (ja) * | 2008-05-15 | 2010-01-20 | パナソニック株式会社 | 脳波信号の識別方法を調整する装置、方法およびプログラム |
| RU2495476C2 (ru) | 2008-06-20 | 2013-10-10 | Инвенсис Системз, Инк. | Системы и способы для иммерсивного взаимодействия с действительными и/или имитируемыми техническими средствами для управления технологическим процессом, контроля состояния окружающей среды и производственного контроля |
| JP4465414B2 (ja) * | 2008-07-11 | 2010-05-19 | パナソニック株式会社 | 脳波を用いた機器の制御方法および脳波インタフェースシステム |
| US9592387B2 (en) | 2008-07-11 | 2017-03-14 | Medtronic, Inc. | Patient-defined posture states for posture responsive therapy |
| CN101339455B (zh) | 2008-08-07 | 2010-09-29 | 北京师范大学 | 基于人脸识别特异性波n170成分的脑机接口系统 |
| US8933957B2 (en) | 2008-08-18 | 2015-01-13 | The Boeing Company | Methods and systems for emphasizing selected aviation chart information |
| US20100145215A1 (en) * | 2008-12-09 | 2010-06-10 | Neurofocus, Inc. | Brain pattern analyzer using neuro-response data |
| US20100223549A1 (en) | 2009-02-27 | 2010-09-02 | Greg Edwards | System and method for controlling entertainment devices using a display |
| US8155736B2 (en) | 2009-03-16 | 2012-04-10 | Neurosky, Inc. | EEG control of devices using sensory evoked potentials |
| JP5243318B2 (ja) * | 2009-03-19 | 2013-07-24 | 株式会社野村総合研究所 | コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム |
| US20100240016A1 (en) | 2009-03-20 | 2010-09-23 | Jon Ween | Cognitive assessment tool and method |
| CN101515199B (zh) | 2009-03-24 | 2011-01-05 | 北京理工大学 | 一种基于视线跟踪和p300脑电电位的字符输入装置 |
| CA2765500C (en) | 2009-06-15 | 2019-07-30 | Brain Computer Interface Llc | A brain-computer interface test battery for the physiological assessment of nervous system health. |
| WO2011050414A1 (en) | 2009-10-30 | 2011-05-05 | Richard John Cale | Environmental control method and system |
| KR20110072730A (ko) | 2009-12-23 | 2011-06-29 | 한국과학기술원 | 적응형 뇌-컴퓨터 인터페이스 장치 |
| AU2009251137B2 (en) | 2009-12-23 | 2013-04-11 | Canon Kabushiki Kaisha | Method for Arranging Images in electronic documents on small devices |
| US8758018B2 (en) | 2009-12-31 | 2014-06-24 | Teledyne Scientific & Imaging, Llc | EEG-based acceleration of second language learning |
| US9507418B2 (en) | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
| WO2011105000A1 (ja) | 2010-02-25 | 2011-09-01 | パナソニック株式会社 | 脳波インタフェースシステム、脳波インタフェース提供装置、脳波インタフェースの実行方法、および、プログラム |
| US9357938B2 (en) * | 2010-03-31 | 2016-06-07 | Agency For Science, Technology And Research | Method and system for motor rehabilitation |
| US9361130B2 (en) | 2010-05-03 | 2016-06-07 | Apple Inc. | Systems, methods, and computer program products providing an integrated user interface for reading content |
| WO2011140303A1 (en) | 2010-05-05 | 2011-11-10 | University Of Maryland, College Park | Time domain-based methods for noninvasive brain-machine interfaces |
| WO2011149558A2 (en) | 2010-05-28 | 2011-12-01 | Abelow Daniel H | Reality alternate |
| US20110301486A1 (en) | 2010-06-03 | 2011-12-08 | Cordial Medical Europe | Measurement of auditory evoked responses |
| US9026074B2 (en) | 2010-06-04 | 2015-05-05 | Qualcomm Incorporated | Method and apparatus for wireless distributed computing |
| US8593375B2 (en) | 2010-07-23 | 2013-11-26 | Gregory A Maltz | Eye gaze user interface and method |
| WO2012013535A1 (en) | 2010-07-30 | 2012-02-02 | Katholieke Universiteit Leuven | Brain-computer interfaces and use thereof |
| US20120034583A1 (en) | 2010-08-04 | 2012-02-09 | Vetprep.Com, Inc. | Veterinary exam preparation on mobile devices |
| US8463721B2 (en) * | 2010-08-05 | 2013-06-11 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for recognizing events |
| KR101023249B1 (ko) | 2010-08-13 | 2011-03-21 | 동국대학교 산학협력단 | 뇌파를 이용한 인지 훈련 응용 프로그램 생성 장치, 방법 및 그 기록 매체 |
| US10043351B2 (en) | 2010-08-23 | 2018-08-07 | Ncr Corporation | Self-service terminal |
| JP5544620B2 (ja) | 2010-09-01 | 2014-07-09 | 独立行政法人産業技術総合研究所 | 意思伝達支援装置及び方法 |
| JP6000968B2 (ja) | 2010-11-24 | 2016-10-05 | デジタル アーティファクツ エルエルシー | 認知機能を評価するシステムおよびその作動方法 |
| CN102098639B (zh) | 2010-12-28 | 2013-09-11 | 中国人民解放军第三军医大学野战外科研究所 | 脑机接口短消息发送控制装置及发送控制方法 |
| WO2012137801A1 (ja) | 2011-04-07 | 2012-10-11 | Necカシオモバイルコミュニケーションズ株式会社 | 入力装置及び入力方法並びにコンピュータプログラム |
| US20120257035A1 (en) | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
| CN107656615B (zh) | 2011-05-06 | 2021-09-14 | 奇跃公司 | 大量同时远程数字呈现世界 |
| US10627860B2 (en) | 2011-05-10 | 2020-04-21 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
| JP5816917B2 (ja) | 2011-05-13 | 2015-11-18 | 本田技研工業株式会社 | 脳活動計測装置、脳活動計測方法、及び脳活動推定装置 |
| JP5711056B2 (ja) | 2011-06-21 | 2015-04-30 | アイシン精機株式会社 | 脳波インターフェースシステム |
| KR101293863B1 (ko) * | 2011-06-29 | 2013-08-16 | 한양대학교 산학협력단 | 안정상태 시각유발전위를 이용한 qwerty 타입의 문자 입력 인터페이스 장치 및 문자 입력 방법 |
| CA2842027A1 (en) | 2011-07-16 | 2013-01-24 | Adam J. Simon | Systems and methods for the physiological assessment of brain health and the remote quality control of eeg systems |
| US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
| US8878785B1 (en) | 2011-10-05 | 2014-11-04 | Google Inc. | Intent determination using geometric shape input |
| US20150212695A1 (en) | 2011-10-05 | 2015-07-30 | Google Inc. | Suggested action feedback |
| WO2013059940A1 (en) | 2011-10-27 | 2013-05-02 | Tandemlaunch Technologies Inc. | System and method for calibrating eye gaze data |
| US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
| JP5873362B2 (ja) | 2012-03-13 | 2016-03-01 | 日本放送協会 | 視線誤差補正装置、そのプログラム及びその方法 |
| FR2989482B1 (fr) | 2012-04-12 | 2022-12-23 | Marc Massonneau | Procede de determination de la direction du regard d'un utilisateur. |
| CN103421859B (zh) | 2012-05-14 | 2016-08-31 | 中原工学院 | 用无纺布型填料的液态淋浇发酵塔生产细菌纤维素的方法 |
| JP2013244116A (ja) | 2012-05-24 | 2013-12-09 | Panasonic Corp | 注意状態推定装置及び注意状態推定方法 |
| US9152226B2 (en) | 2012-06-15 | 2015-10-06 | Qualcomm Incorporated | Input method designed for augmented reality goggles |
| US9824604B2 (en) | 2012-09-04 | 2017-11-21 | Conduent Business Services, Llc | Creating assessment model for educational assessment system |
| EP2895970B1 (en) | 2012-09-14 | 2018-11-07 | InteraXon Inc. | Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data |
| US9176581B2 (en) | 2012-09-28 | 2015-11-03 | Intel Corporation | System and method for inferring user intent based on eye movement during observation of a display screen |
| US9743002B2 (en) | 2012-11-19 | 2017-08-22 | Magna Electronics Inc. | Vehicle vision system with enhanced display functions |
| WO2014085910A1 (en) | 2012-12-04 | 2014-06-12 | Interaxon Inc. | System and method for enhancing content using brain-state data |
| US9629976B1 (en) | 2012-12-21 | 2017-04-25 | George Acton | Methods for independent entrainment of visual field zones |
| CN103092340B (zh) | 2012-12-26 | 2016-03-02 | 北京大学 | 一种脑-机接口视觉刺激方法及信号识别方法 |
| WO2014116826A1 (en) | 2013-01-24 | 2014-07-31 | The Trustees Of Columbia University In The City Of New York | Mobile, neurally-assisted personal assistant |
| US10231614B2 (en) | 2014-07-08 | 2019-03-19 | Wesley W. O. Krueger | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance |
| US9788714B2 (en) * | 2014-07-08 | 2017-10-17 | Iarmourholdings, Inc. | Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance |
| US20140228701A1 (en) | 2013-02-11 | 2014-08-14 | University Of Washington Through Its Center For Commercialization | Brain-Computer Interface Anonymizer |
| US10133342B2 (en) | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
| US9619020B2 (en) | 2013-03-01 | 2017-04-11 | Tobii Ab | Delay warp gaze interaction |
| WO2014142962A1 (en) * | 2013-03-15 | 2014-09-18 | Intel Corporation | Brain computer interface (bci) system based on gathered temporal and spatial patterns of biophysical signals |
| WO2014144940A2 (en) | 2013-03-15 | 2014-09-18 | Percept Technologies, Inc. | Enhanced optical and perceptual digital eyewear |
| CA3187490A1 (en) | 2013-03-15 | 2014-09-18 | Interaxon Inc. | Wearable computing apparatus and method |
| US9247870B2 (en) | 2013-03-15 | 2016-02-02 | Neuro Kinetics, Inc. | Method and apparatus for system synchronization in video oculography based neuro-otologic testing and evaluation |
| US9532748B2 (en) | 2013-04-22 | 2017-01-03 | Personal Neuro Devices Inc. | Methods and devices for brain activity monitoring supporting mental state development and training |
| EP3917167A3 (en) | 2013-06-14 | 2022-03-09 | Oticon A/s | A hearing assistance device with brain computer interface |
| US9329682B2 (en) | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
| US10137363B2 (en) * | 2013-06-20 | 2018-11-27 | Uday Parshionikar | Gesture based user interfaces, apparatuses and control systems |
| US10558272B2 (en) | 2013-06-20 | 2020-02-11 | Uday Parshionikar | Gesture control via eye tracking, head tracking, facial expressions and other user actions |
| US9389685B1 (en) | 2013-07-08 | 2016-07-12 | University Of South Florida | Vision based brain-computer interface systems for performing activities of daily living |
| EP3042312B1 (en) | 2013-09-03 | 2021-06-09 | Seeing Machines Limited | Low power eye tracking system and method |
| US20160235323A1 (en) | 2013-09-25 | 2016-08-18 | Mindmaze Sa | Physiological parameter measurement and feedback system |
| CA2963072A1 (en) | 2013-10-29 | 2015-05-07 | Milbat - Giving Quality To Life | Walker-assist device |
| KR101554412B1 (ko) | 2014-01-07 | 2015-09-18 | 한국과학기술원 | 시선 추적 및 뇌파 측정을 이용하여 사용자가 주시하는 물체에 대한 사용자의 의도를 추출하는 웨어러블 디바이스 |
| KR101579364B1 (ko) | 2014-01-16 | 2015-12-21 | 서울대학교산학협력단 | 뇌파 모니터링 및 뇌 컴퓨터 인터페이스를 위한 뇌전도 전극과 취득 시스템을 내장한 무선 이어훅 이어셋 |
| US9552060B2 (en) | 2014-01-28 | 2017-01-24 | Microsoft Technology Licensing, Llc | Radial selection by vestibulo-ocular reflex fixation |
| CN103793058B (zh) | 2014-02-13 | 2016-09-28 | 山西大学 | 一种主动式脑机交互系统运动想象任务分类方法及装置 |
| CN103955269A (zh) | 2014-04-09 | 2014-07-30 | 天津大学 | 一种基于虚拟现实环境的智能眼镜脑-机接口方法 |
| WO2016018488A2 (en) * | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
| US11266342B2 (en) | 2014-05-30 | 2022-03-08 | The Regents Of The University Of Michigan | Brain-computer interface for facilitating direct selection of multiple-choice answers and the identification of state changes |
| CA2960148C (en) * | 2014-09-04 | 2022-10-04 | University Health Network | Method and system for brain activity signal-based treatment and/or control of user devices |
| US10120413B2 (en) | 2014-09-11 | 2018-11-06 | Interaxon Inc. | System and method for enhanced training using a virtual reality environment and bio-signal data |
| US20170139556A1 (en) | 2014-10-01 | 2017-05-18 | Quantum Interface, Llc | Apparatuses, systems, and methods for vehicle interfaces |
| US9946339B2 (en) | 2014-10-08 | 2018-04-17 | Microsoft Technology Licensing, Llc | Gaze tracking through eyewear |
| WO2016064314A1 (en) | 2014-10-24 | 2016-04-28 | Telefonaktiebolaget L M Ericsson (Publ) | Customization of help information based on eeg data |
| US9936195B2 (en) | 2014-11-06 | 2018-04-03 | Intel Corporation | Calibration for eye tracking systems |
| US10884488B2 (en) | 2014-11-24 | 2021-01-05 | Samsung Electronics Co., Ltd | Electronic device and method for controlling display |
| KR102326489B1 (ko) | 2014-11-24 | 2021-11-16 | 삼성전자주식회사 | 디스플레이를 제어하는 전자 장치 및 방법 |
| US20160187976A1 (en) | 2014-12-29 | 2016-06-30 | Immersion Corporation | Systems and methods for generating haptic effects based on eye tracking |
| US9632664B2 (en) * | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
| KR101648017B1 (ko) * | 2015-03-23 | 2016-08-12 | 현대자동차주식회사 | 디스플레이 장치, 차량 및 디스플레이 방법 |
| JP6295995B2 (ja) | 2015-04-28 | 2018-03-20 | 京セラドキュメントソリューションズ株式会社 | 情報処理装置、画像処理装置へのジョブ指示方法 |
| CN104837088A (zh) | 2015-05-29 | 2015-08-12 | 成都腾悦科技有限公司 | 一种基于NFC的脑电α波信号感应蓝牙耳机 |
| IL239191A0 (en) * | 2015-06-03 | 2015-11-30 | Amir B Geva | Image sorting system |
| US20190246982A1 (en) | 2015-08-05 | 2019-08-15 | Emotiv Inc. | Method and system for collecting and processing bioelectrical signals |
| GB2561455B (en) | 2015-08-15 | 2022-05-18 | Google Llc | Systems and methods for biomechically-based eye signals for interacting with real and virtual objects |
| US10491711B2 (en) | 2015-09-10 | 2019-11-26 | EEVO, Inc. | Adaptive streaming of virtual reality data |
| JP6684559B2 (ja) | 2015-09-16 | 2020-04-22 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
| KR102592980B1 (ko) | 2015-11-04 | 2023-10-20 | 매직 립, 인코포레이티드 | 광 필드 디스플레이 계측 |
| KR101723841B1 (ko) | 2015-12-17 | 2017-04-18 | 주식회사 룩시드랩스 | 아이 브레인 인터페이스(ebi) 장치 및 그 제어 방법 |
| WO2017104869A1 (ko) | 2015-12-17 | 2017-06-22 | 주식회사 룩시드랩스 | 아이 브레인 인터페이스(ebi) 장치 및 그 제어 방법 |
| US10209773B2 (en) * | 2016-04-08 | 2019-02-19 | Vizzario, Inc. | Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance |
| US10522106B2 (en) | 2016-05-05 | 2019-12-31 | Ostendo Technologies, Inc. | Methods and apparatus for active transparency modulation |
| US20170322679A1 (en) * | 2016-05-09 | 2017-11-09 | John C. Gordon | Modifying a User Interface Based Upon a User's Brain Activity and Gaze |
| US20180039329A1 (en) * | 2016-08-04 | 2018-02-08 | David M. Tumey | Brain actuated control utilizing visually evoked potentials |
| EP3519066B1 (en) | 2016-09-30 | 2021-09-01 | Sony Interactive Entertainment Inc. | Wireless head mounted display with differential rendering and sound localization |
| RU2627075C1 (ru) | 2016-10-28 | 2017-08-03 | Ассоциация "Некоммерческое партнерство "Центр развития делового и культурного сотрудничества "Эксперт" | Нейрокомпьютерная система для выбора команд на основе регистрации мозговой активности |
| CN110023816A (zh) | 2016-12-01 | 2019-07-16 | 黄绅嘉 | 辨别情绪或心理状态的系统 |
| WO2018127782A1 (en) | 2017-01-03 | 2018-07-12 | Xing Zhou | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command |
| US20210141453A1 (en) | 2017-02-23 | 2021-05-13 | Charles Robert Miller, III | Wearable user mental and contextual sensing device and system |
| WO2019040665A1 (en) | 2017-08-23 | 2019-02-28 | Neurable Inc. | BRAIN-COMPUTER INTERFACE PROVIDED WITH HIGH-SPEED OCULAR FOLLOWING CHARACTERISTICS |
| CN107346179A (zh) * | 2017-09-11 | 2017-11-14 | 中国人民解放军国防科技大学 | 基于诱发式脑机接口的多移动目标选择方法 |
| CN111542800B (zh) | 2017-11-13 | 2024-09-17 | 神经股份有限公司 | 具有对于高速、精确和直观的用户交互的适配的大脑-计算机接口 |
| US20190286234A1 (en) | 2018-03-19 | 2019-09-19 | MindMaze Holdiing SA | System and method for synchronized neural marketing in a virtual environment |
| US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
-
2019
- 2019-01-18 JP JP2020537522A patent/JP7664702B2/ja active Active
- 2019-01-18 CN CN201980013115.5A patent/CN111712192B/zh active Active
- 2019-01-18 WO PCT/US2019/014315 patent/WO2019144019A1/en not_active Ceased
- 2019-01-18 KR KR1020207023722A patent/KR102848051B1/ko active Active
- 2019-01-18 EP EP19741853.6A patent/EP3740126A4/en active Pending
-
2020
- 2020-07-10 US US16/926,331 patent/US12053308B2/en active Active
-
2024
- 2024-02-26 JP JP2024026938A patent/JP2024075573A/ja active Pending
- 2024-06-28 US US18/758,900 patent/US20250186001A1/en active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017046698A1 (en) | 2015-09-16 | 2017-03-23 | Liquidweb S.R.L. | System for controlling assistive technologies and related method |
Also Published As
| Publication number | Publication date |
|---|---|
| EP3740126A1 (en) | 2020-11-25 |
| JP2024075573A (ja) | 2024-06-04 |
| KR102848051B1 (ko) | 2025-08-21 |
| EP3740126A4 (en) | 2022-02-23 |
| US20200337653A1 (en) | 2020-10-29 |
| CN111712192A (zh) | 2020-09-25 |
| CN111712192B (zh) | 2024-07-02 |
| WO2019144019A1 (en) | 2019-07-25 |
| US12053308B2 (en) | 2024-08-06 |
| US20250186001A1 (en) | 2025-06-12 |
| JP2021511567A (ja) | 2021-05-06 |
| KR20200108888A (ko) | 2020-09-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7664702B2 (ja) | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース | |
| US20250093951A1 (en) | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions | |
| US12455625B2 (en) | Brain-computer interface with high-speed eye tracking features | |
| KR102877394B1 (ko) | 사용자 인터랙션들의 고속 및 정확한 추적을 사용하는 인간-컴퓨터 인터페이스 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220117 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221221 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230126 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230418 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230726 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231024 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240226 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240412 |
|
| A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20240502 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250408 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7664702 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |