JP2024075573A - 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース - Google Patents
高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース Download PDFInfo
- Publication number
- JP2024075573A JP2024075573A JP2024026938A JP2024026938A JP2024075573A JP 2024075573 A JP2024075573 A JP 2024075573A JP 2024026938 A JP2024026938 A JP 2024026938A JP 2024026938 A JP2024026938 A JP 2024026938A JP 2024075573 A JP2024075573 A JP 2024075573A
- Authority
- JP
- Japan
- Prior art keywords
- user
- control
- processor
- stimuli
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title abstract description 14
- 230000006978 adaptation Effects 0.000 title description 4
- 238000000034 method Methods 0.000 claims abstract description 146
- 230000001537 neural effect Effects 0.000 claims abstract description 97
- 230000009471 action Effects 0.000 claims description 91
- 230000004044 response Effects 0.000 claims description 75
- 230000008569 process Effects 0.000 claims description 70
- 230000000007 visual effect Effects 0.000 claims description 53
- 210000004556 brain Anatomy 0.000 claims description 45
- 230000003565 oculomotor Effects 0.000 claims description 33
- 230000000763 evoking effect Effects 0.000 claims description 32
- 230000004424 eye movement Effects 0.000 claims description 27
- 238000013179 statistical model Methods 0.000 claims description 15
- 230000033764 rhythmic process Effects 0.000 claims description 12
- 238000000537 electroencephalography Methods 0.000 claims description 10
- 230000006399 behavior Effects 0.000 claims description 8
- 230000001953 sensory effect Effects 0.000 claims description 7
- 230000001419 dependent effect Effects 0.000 claims description 6
- 230000001052 transient effect Effects 0.000 claims description 6
- 230000002123 temporal effect Effects 0.000 claims description 5
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000007177 brain activity Effects 0.000 abstract description 32
- 210000001508 eye Anatomy 0.000 description 56
- 230000006870 function Effects 0.000 description 44
- 230000002093 peripheral effect Effects 0.000 description 35
- 238000004458 analytical method Methods 0.000 description 32
- 238000012549 training Methods 0.000 description 21
- 230000004397 blinking Effects 0.000 description 16
- 238000009826 distribution Methods 0.000 description 16
- 239000002131 composite material Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 230000008904 neural response Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 230000003190 augmentative effect Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000001149 cognitive effect Effects 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 230000004438 eyesight Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 101100063432 Caenorhabditis elegans dim-1 gene Proteins 0.000 description 4
- 101000773151 Homo sapiens Thioredoxin-like protein 4B Proteins 0.000 description 4
- 102100030273 Thioredoxin-like protein 4B Human genes 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000004434 saccadic eye movement Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000001976 improved effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000000638 stimulation Effects 0.000 description 3
- 230000004304 visual acuity Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000002566 electrocorticography Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000002582 magnetoencephalography Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 206010053694 Saccadic eye movement Diseases 0.000 description 1
- 230000036982 action potential Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 206010002026 amyotrophic lateral sclerosis Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 201000007293 brain stem infarction Diseases 0.000 description 1
- 235000012813 breadcrumbs Nutrition 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000036992 cognitive tasks Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 210000001787 dendrite Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000003767 neural control Effects 0.000 description 1
- 238000002610 neuroimaging Methods 0.000 description 1
- 230000000926 neurological effect Effects 0.000 description 1
- 208000018360 neuromuscular disease Diseases 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 208000020431 spinal cord injury Diseases 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 230000007598 synaptic excitation Effects 0.000 description 1
- 230000001720 vestibular Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7435—Displaying user selection data, e.g. icons in a graphical user interface
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
- A61B5/333—Recording apparatus specially adapted therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/372—Analysis of electroencephalograms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/377—Electroencephalography [EEG] using evoked responses
- A61B5/378—Visual stimuli
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0202—Constructional details or processes of manufacture of the input device
- G06F3/0219—Special purpose keyboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Educational Technology (AREA)
- Dermatology (AREA)
- Hospice & Palliative Care (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Social Psychology (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- Artificial Intelligence (AREA)
- Cardiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
【課題】本明細書に記載する実施形態は、人間-マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェース/ユーザエクスペリエンスを提示し更新しながら、追加の情報源を提供する追加のセンサを有する又は有さない、脳活動を追跡する脳-コンピュータインタフェースの実装に使用するためのシステム、装置、及び方法に関する。【解決手段】本明細書に記載する実施形態は、神経信号を使用してマシン及び装置のユーザ操作を仲介する、ハードウェアに依存しない脳-コンピュータインタフェースの実装にも関する。【選択図】図7
Description
関連出願の相互参照
[0001] 本願は、参照によりその開示の全体を本明細書に援用する、2018年1月18日に出願され「高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース(Brain-Computer Interface with Adaptations for High-Speed, Accurate, and Intuitive User Interactions)」と題された米国仮特許出願第62/618,846号の優先権及び利益を主張する。
[0001] 本願は、参照によりその開示の全体を本明細書に援用する、2018年1月18日に出願され「高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース(Brain-Computer Interface with Adaptations for High-Speed, Accurate, and Intuitive User Interactions)」と題された米国仮特許出願第62/618,846号の優先権及び利益を主張する。
背景
[0002] 本明細書に記載する実施形態は、リアルタイムの眼球運動及び/又は頭部動作追跡を脳活動追跡と統合して、人間-マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェース(UI)又はユーザエクスペリエンス(UX)を提示し更新する、脳-コンピュータインタフェースの実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、リアルタイムの視標追跡及び神経活動のオンライン分析を使用してマシンのユーザ操作を仲介する、ハードウェアに依存しない脳-コンピュータインタフェースの実装にも関する。
[0002] 本明細書に記載する実施形態は、リアルタイムの眼球運動及び/又は頭部動作追跡を脳活動追跡と統合して、人間-マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェース(UI)又はユーザエクスペリエンス(UX)を提示し更新する、脳-コンピュータインタフェースの実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、リアルタイムの視標追跡及び神経活動のオンライン分析を使用してマシンのユーザ操作を仲介する、ハードウェアに依存しない脳-コンピュータインタフェースの実装にも関する。
[0003] 脳-コンピュータインタフェース(BCI)は、結線された脳と外部装置との間の直接通信路を用いて脳活動単独でコンピュータ又は外部装置を制御できるようにするハードウェア及びソフトウェア通信システムである。BCIは、脳信号を解釈することにより動作中のマシン及びアプリケーションへのアクセスを直接提供するための支援技術として主に設計されている。BCI開発の主な目的の1つは、他者との効果的なコミュニケーションが極めて困難であり得る筋萎縮性側索硬化症、脳幹卒中、又は脊髄損傷等の神経学的な神経筋疾患によって完全に麻痺し又は「固定」された重度障害者にコミュニケーション能力を与えることである。
[0004] 脳コンピュータインタフェースの一部の既知の実装形態は、Farwell及びDonchinによって設計されたもの等のスペラを含む。このスペラでは、アルファベットの26文字が他の幾つかの記号及びコマンドと共に、無作為に点滅する行及び列を有する6×6行列内で画面上に表示される。ユーザは画面に注意を集中し、書こうとする文字に連続的に意識を置く一方、シグネチャ神経脳信号に関して脳の神経反応がモニタされる。検出されると、シグネチャ脳信号はシステムが所望の記号を識別することを可能にする。このFarwell-Donchinスペラは、人が1分当たり約2文字の速度でスペルすることを可能にする。
[0005] BCIシステムは、マウス及びキーボード等の従来の入出力インタフェースを必要とすることなしに、身体的に能力がある人でさえコンピュータ若しくは他のデータ処理マシン及び/又はソフトウェアアプリケーションを操作することを支援し強化するように設計することができる。BCIは、従来の入力方法よりもコンピュータとの直感的且つ自然な対話のためのインタフェースを提供することもできる。加えてBCIは、人間及び動物の認知体系及び/又は感覚運動体系及びそれらの機能を増強すること、修復すること、並びにマップし調査することを含む他の多くの機能を提供するように開発することもできる。BCIの一部の応用は、とりわけワードプロセッサ、適応ウェブブラウザ、脳による車椅子又は神経プロテーゼの制御、及びゲームを含む。
概要
[0006] 眼球運動及び脳活動を追跡してユーザの注視又は注目のリアルタイムの位置決め及び所望のアクションの選択/活性化を仲介するための、ハードウェアに依存しない統合型動眼神経ハイブリッド脳コンピュータインタフェース(BCI)プラットフォームの様々な実施形態のためのシステム、装置、及び方法を本明細書に記載する。本開示は、高速度及び高精度で動作する脳コンピュータインタフェースの需要に対処するための統合型BCIシステムを提示する。
[0006] 眼球運動及び脳活動を追跡してユーザの注視又は注目のリアルタイムの位置決め及び所望のアクションの選択/活性化を仲介するための、ハードウェアに依存しない統合型動眼神経ハイブリッド脳コンピュータインタフェース(BCI)プラットフォームの様々な実施形態のためのシステム、装置、及び方法を本明細書に記載する。本開示は、高速度及び高精度で動作する脳コンピュータインタフェースの需要に対処するための統合型BCIシステムを提示する。
図面の簡単な説明
[0007]一実施形態による、ハイブリッド脳コンピュータインタフェースシステムの概略図である。
[0008]BCI装置の一実施形態を使用して1つの刺激アイコンを選択/選択解除するためのポインティング制御機能及びアクション制御機能の実装形態の一例における一連のステップの説明図である。
[0009]図3Aは、選択肢を提示する間のUI/UXを示し、図3Bは、ポインティング制御機能の実施後のUI/UXを示し、[0010]図3Dは、一実施形態による、アイトラッカ及び神経記録ヘッドセットを装着したユーザを示す。
[0009]アクション制御機能の実施後のUI/UXを示す。
[0011]図3Dに示すアイトラッカ及び神経記録ヘッドセットによって取得された信号の例を示す。
[0011]図3Dに示すアイトラッカ及び神経記録ヘッドセットによって取得された信号の例を示す。
[0012]一実施形態による、BCI装置で使用される分類器の一例による信号分析の説明図である。
[0013]一実施形態による、ユーザの意図を明らかにするために脳コンピュータインタフェース装置内のプロセッサがたどる動作フローの一例を示す。
[0014]刺激グループ(例えばタググループ点滅)の一例を提示する、BCIシステム、スペラのUI/UXの一例を示す。
[0015]一実施形態によるBCIシステムを使用し、ユーザが意図する標的タグ又は刺激を含む刺激(又はタググループ)、及び含まない刺激(又はタググループ)を提示することに応じて取得された神経信号の例を示す。
[0016]一実施形態によるBCIシステムを使用し、タググループ点滅を繰り返し提示することに応じて様々な脳領域から取得された脳信号の例を示す。
[0017]BCIシステムの一実施形態によって取得された脳活動信号の説明図を示す。
[0018]一実施形態による、BCIシステム内の分類器による脳活動信号の分析の一例を示す。
[0019]一実施形態による、BCIシステムにおいて対象となる標的又はタグを決定する方法の一例を示す流れ図である。
[0020]一実施形態による、BCIシステムを実装する際に使用されるユーザの関心のある標的又はタグを決定するために使用される分析方法の一例を示す。
[0020]一実施形態による、BCIシステムを実装する際に使用されるユーザの関心のある標的又はタグを決定するために使用される分析方法の一例を示す。
[0021]一実施形態による、BCIシステムにおいて対象となるタグを決定する方法の一例の概略的な流れ図を示す。
[0022]一実施形態による、対象となるタグを決定するために使用されるタグ間の距離に依存する関係を示す、可視タグ又は可視記号を有するUI/UXの一例を示す。
[0023]一実施形態による、標的タグを決定するために使用される、近くのタグによって誘発される脳信号活動間の距離に依存する関係を示す。
[0023]一実施形態による、標的タグを決定するために使用される、近くのタグによって誘発される脳信号活動間の距離に依存する関係を示す。
[0024]一実施形態による、BCIシステムにおいて対象となる標的又はタグを決定する方法の一例を示す流れ図である。
[0025]一実施形態による、対象となるタグを決定する際のタグに関連するスコアの距離に基づくスケーリング方法の一例の概略的な流れ図を示す。
[0026]一実施形態による、対象となるタグを決定する際にスコアの距離に基づくスケーリングを組み込む方法の一例の概略的な流れ図を示す。
[0027]一実施形態による、BCIシステムにおいて対象となる標的又はタグを決定する方法の一例を示す流れ図である。
[0028]一実施形態による、眼球運動信号に基づいて視覚スコアを生成する手続きの一例の概略的な流れ図を示す。
[0029]一実施形態による、様々なセンサからの信号を組み込む対象となるタグを決定する方法の一例を示す流れ図である。
[0030]一実施形態による、標的タグを決定するために様々なセンサからの信号の分析を組み合わせる手続きの一例の流れ図を示す。
詳細な説明
[0031] 本明細書に記載する実施形態は、人間-マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェース(UI)又はユーザエクスペリエンス(UX)をユーザに提示する間に記録される脳活動を分析する脳-コンピュータインタフェース(BCI)の実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、神経脳信号の分析を使用してインタフェース、装置、及び/又はマシンのユーザ操作を仲介する、ハードウェアに依存しない脳-コンピュータインタフェースの実装にも関する。
[0031] 本明細書に記載する実施形態は、人間-マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェース(UI)又はユーザエクスペリエンス(UX)をユーザに提示する間に記録される脳活動を分析する脳-コンピュータインタフェース(BCI)の実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、神経脳信号の分析を使用してインタフェース、装置、及び/又はマシンのユーザ操作を仲介する、ハードウェアに依存しない脳-コンピュータインタフェースの実装にも関する。
[0032] BCI技術が患者により適したものになり、一般公衆にとって有用なものになり、現実世界の作業を制御する際に使用されるようになるには、現在の実装と比較して自然な対話のペースに適合するように情報の転送速度を改善しなければならず、誤り率を減らさなければならず、対話インタフェースの複雑さを最低限に抑えなければならない。加えて、BCIの応用はユーザの高い認知的負荷を要求し、従って現実世界へと静かな実験室環境から離れるようにUI/UX及び基礎を成す信号処理を改善する必要がある。BCIの装置及び応用をより容易且つ直感的であるように構成するために、高速度及び高精度で動作して自然な直感的プロセスによるユーザ仲介アクション選択を可能にする、脳マシンインタフェースの実装における改善された装置及び技法が求められている。
BCIシステム
[0033] 本明細書で説明するように、BCIは脳活動単独で又は脳活動を動眼活動若しくは運動神経(例えばEMG)活動等の他の活動と組み合わせてコンピュータ又は外部装置を制御できるようにするハードウェア及びソフトウェア通信システムである。BCIシステムは、インタフェースによる刺激の表示、インタフェース上のユーザの注目箇所を位置決めするためのハードウェア機器、脳活動を記録し処理するための装置、及びインタフェースの制御を行うための機器を含み、インタフェースの制御はユーザの環境を制御することになり得る。これらの標準機能は(1)ポインティング制御機能、(2)アクション制御機能、及び(3)ユーザインタフェース/ユーザエクスペリエンス(UI/UX)機能として特徴付けることができる。ポインティング制御機能は、制御するための1つ又は複数のマニピュレータの小さなセットまでユーザが絞り込むことを可能にするマウスポインタ等の従来のポインティング装置と類比で説明することができる。アクション制御機能は、ユーザがアクションを実施してUI/UXの変更、ひいては接続されたマシンの変更を生じさせることを可能にする、アクション(例えば選択、選択解除等)、例えばマウスのクリック又はキーボード上のキーストロークを仲介する装置と類比で説明することができる。BCIシステムにおけるUI/UX機能は、選択メニュー、ナビゲーション制御等を提供するような他の機能に加えて、ポインティング制御機能及びアクション制御機能を実装する環境を作成し維持するオペレーティングシステムと類比で説明することができる。
[0033] 本明細書で説明するように、BCIは脳活動単独で又は脳活動を動眼活動若しくは運動神経(例えばEMG)活動等の他の活動と組み合わせてコンピュータ又は外部装置を制御できるようにするハードウェア及びソフトウェア通信システムである。BCIシステムは、インタフェースによる刺激の表示、インタフェース上のユーザの注目箇所を位置決めするためのハードウェア機器、脳活動を記録し処理するための装置、及びインタフェースの制御を行うための機器を含み、インタフェースの制御はユーザの環境を制御することになり得る。これらの標準機能は(1)ポインティング制御機能、(2)アクション制御機能、及び(3)ユーザインタフェース/ユーザエクスペリエンス(UI/UX)機能として特徴付けることができる。ポインティング制御機能は、制御するための1つ又は複数のマニピュレータの小さなセットまでユーザが絞り込むことを可能にするマウスポインタ等の従来のポインティング装置と類比で説明することができる。アクション制御機能は、ユーザがアクションを実施してUI/UXの変更、ひいては接続されたマシンの変更を生じさせることを可能にする、アクション(例えば選択、選択解除等)、例えばマウスのクリック又はキーボード上のキーストロークを仲介する装置と類比で説明することができる。BCIシステムにおけるUI/UX機能は、選択メニュー、ナビゲーション制御等を提供するような他の機能に加えて、ポインティング制御機能及びアクション制御機能を実装する環境を作成し維持するオペレーティングシステムと類比で説明することができる。
[0034] アクション制御機能によって実行されるアクションは多くのもののうちの1つとすることができ、様々な装置又はマシンを制御するように設計されるUI/UXの様々なバージョンに合うように適合され得る。幾つか例を挙げると、アクションは活性化又は非活性化、UI/UXの連続的な変更又は半連続的な変更であり得る。とりわけ例えばスクロール、ホバリング、又はピンチ、ズーム、チルト、回転、スワイプである。アクションは、強調表示等の不連続的な開始及び停止を用いてUI/UXの急激な変更を生じさせることもできる。UI/UXによるアクション制御の他の一部の例は仮想キーボード制御、チェックボックス、ラジオボタン、ドロップダウンリスト、リストボックス、トグル、テキストフィールド、検索フィールド、ブレッドクラムナビゲータ、スライダ、メニューナビゲーション、オブジェクト又は項目を配置及び配置解除するアクション、オブジェクト又は項目を移動させるアクション、オブジェクトを拡大し及び/又は縮小するアクション、一人称観察者又はプレーヤの移動又はナビゲーション、観察者の視点の変更、及びグラビング、ピッキング、又はホバリング等のアクションを含み得る。アクション制御のこれらの側面の幾つかを以下で開示する。
[0035] BCIシステムを実装する一部の実施形態では、ポインティング制御機能及びユーザの注目箇所を識別するための方法がUI/UXを操作することによって、及び/又はユーザの注目箇所に関する情報を与え得る脳信号を使用することによって実装され得る。本明細書に記載するBCIシステムの一部の実施形態では、ポインティング制御機能及びユーザの注目箇所を識別することが、眼球運動追跡装置及び/又は頭部動作追跡装置、又は他の身体動作追跡装置若しくは体位追跡装置を含むことができる。更に他の実施形態では、ポインティング制御機能を実装するために、脳信号、視標追跡信号、筋電図(EMG)信号等の運動神経信号、及びUI/UXの戦略的操作の組み合わせを同時に(例えばBCIシステム)又は個々に使用することができる。上述の信号に加えて、ハイブリッド又はその他のBCIシステムは様々な周辺センサからの他の信号(例えば頭部位置追跡信号)をモニタし使用することもできる。一部の実施形態では、ハイブリッド又はその他のBCIシステムは、動眼信号又は神経活動信号と統合可能なEMG信号を記録するための筋電計(EMG)を任意選択的に含むことができる。
[0036] 一部の実施形態では、アクション制御機能及びユーザの意図を識別するための方法が脳内の神経信号のモニタする任意の適切な形態を含むことができる。かかる形態は、例えば電気撮像法、又は光学撮像法、又は磁気撮像法による脳撮像を含み得る。例えば一部の実施形態では、BCIシステムは、ユーザの脳信号をBCIコマンドに変換する増幅器及びプロセッサを介して伝えられる脳活動の神経信号を記録する電極を使用することができる。一部の実施形態では、BCIシステムは脳活動に基づくマシン制御を実施する洗練されたUI/UXを実装することができる。以下で説明するように、BCIシステムとの人間の対話の高速度及び高精度を実現するためにこれらの特徴の1つ又は複数に対する特定の適応を実装することができる。例えば一部の実施形態では、BCIシステムは、参照によりその開示を全て本明細書に援用する、2017年8月25日に出願され「高速視標追跡機能を有する脳-コンピュータインタフェース(Brain-computer interface with high-speed eye tracking features)」と題された米国特許出願第62/549253号(「’253号出願」)に記載されているものとほぼ同様であり得る。
[0037] UI/UXは、BCIシステムによって満たされる需要を考慮して適合させることができる。例えば、移動性を得るために患者によって使用されるBCIシステムは、低い認知的負荷と共に使い易さを目標とするUI/UXを含み得る。別の例として、学習ツールとして子ども向けに使用されるBCIシステムは子どもによる直感的対話に合わせたUI/UXを含み得る。同様に、ゲーム体験を対象としたBCIシステムは高速度及び高精度等を与えるように設計されたUI/UXを含み得る。例えば一部の実施形態では、BCIシステム及び/又はユーザインタフェース/ユーザエクスペリエンス(UI/UX)は、参照によりその開示を全て本明細書に援用する、2017年11月13日に出願され「高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース(Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions)」と題された米国特許出願第62/585209号(「’209号出願」)に記載されているものとほぼ同様であり得る。
[0038] 図1は、一実施形態による脳コンピュータインタフェースシステム100の概略図である。この脳コンピュータインタフェースシステム100(本明細書では「ハイブリッドBCIシステム」又は「BCIシステム」又は「システム」とも呼ぶ)の一例は、ユーザの脳の1つ又は複数の制御信号を記録するための神経記録ヘッドセット104(例えば神経記録装置)を含むBCIシステムである。BCIシステム100は、ビデオベースのアイトラッカであり得るアイトラッカ102(例えば視標追跡装置)も含むことができる。アイトラッカ102は付属品とすることができ、又はBCIシステム100に統合され得る。アイトラッカ102は、任意の時点におけるユーザの注目箇所を示すユーザの目の動眼反応を捕捉し、記録し、及び/又は伝送するように構成され得る(即ちポインティング制御機能)。神経記録ヘッドセット104は、ユーザの認知的な意図を示す1つ又は複数の脳領域からの神経制御信号を捕捉し、記録し、及び/又は伝送するように構成され得る(即ちアクション制御機能)。一部の実施形態では、神経記録ヘッドセット104が、ポインティング制御機能を実装するユーザの注目箇所を示すように適合され得る。神経制御信号は、任意の適切な手法によって記録される任意形式の神経活動、例えば脳波記録(EEG)、皮質脳波記録(ECoG)、又は脳磁気図記録(MEG)、内因性信号イメージング(ISI)等とすることができる。神経活動の形式の例は、事象関連電位(ERP)、運動心像、定常状態視覚誘発電位(SSVEP)、一過性視覚誘発電位(TVEP)、脳状態コマンド、視覚誘発電位(VEP)、P300誘発電位、感覚誘発電位、運動誘発電位等の誘発電位、ミュー律動又はベータ律動等の感覚運動律動、事象関連脱同期(ERD)、事象関連同期(ERS)、緩徐脳電位(SCP)等を含む。このBCIシステム100の一例は、脳-コンピュータインタフェース装置110、1つ又は複数の任意選択的な周辺センサ108、及び任意選択的に視聴覚ディスプレイ106も含むことができる。BCIシステム100の一部の実施形態は、音、接触、向き等の他の様式によってユーザの挙動に関するデータを収集するために、及び豊かで多様なユーザエクスペリエンスを提供するために、(図1には不図示の)他の周辺センサ108及び周辺アクチュエータも含むことができる。
[0039] BCIシステム100の一部の実施形態では、神経記録ヘッドセット104及びアイトラッカ102のそれぞれから収集される神経信号及び動眼信号(及び周辺センサ108からの他の周辺信号)は、それらの信号を個々に又はアンサンブルとして一緒に処理する脳-コンピュータインタフェース(BCI)装置110に伝達することができる。信号の処理に関連して、BCI装置110は、処理される信号を誘発したUI/UXによって提示された刺激に関するデータにアクセスしかかるデータを処理することもできる。組み合わせられた情報により、BCI装置110は、以下でより詳細に説明するように統計モデルに基づいて関連する信号特徴を検出し、適切な信頼スコアを適用してユーザの意図を予測することができる。この予測された意図は、例えばディスプレイ106によって提示されるUI/UXによってユーザに伝達し、UI/UX内の及び任意の接続された制御可能マシン内の変化を生じさせるために使用することができる。
2次元空間及び3次元空間内の視標追跡-ポインティング制御機能
[0040] 一部の実施形態では、アイトラッカ102は、2次元空間又は3次元空間内のユーザの眼球運動を素早くたどることにより、ユーザが自らの視野内のどこを見ているのかを決定するために使用することができる。例えばユーザが自らの眼球運動の随意調節を有するという条件で、ビデオベースアイトレーサ102を使用して、ユーザの目のそれぞれがユーザの視野内のどの部分空間を「指しているのか」を決定することができる。換言すれば、アイトラッカ102は、ポインティング制御機能としてユーザの眼球運動の軌跡を使用することができ、被験者の意図及び挙動に関する重要な情報を明らかにする。一部の実施形態では、ユーザが視覚空間内のどこに注目しているのか、どの刺激に注目しているのか、又はどの刺激に反応したのかの側面がBCIシステム100内で効果的に使用され得る。互いに対する両方の目の動き軌道を同時に追跡することにより、アイトラッカ102はユーザの注目の奥行をレジスタし、従って3次元空間内のポインティング制御を可能にすることもできる。
[0040] 一部の実施形態では、アイトラッカ102は、2次元空間又は3次元空間内のユーザの眼球運動を素早くたどることにより、ユーザが自らの視野内のどこを見ているのかを決定するために使用することができる。例えばユーザが自らの眼球運動の随意調節を有するという条件で、ビデオベースアイトレーサ102を使用して、ユーザの目のそれぞれがユーザの視野内のどの部分空間を「指しているのか」を決定することができる。換言すれば、アイトラッカ102は、ポインティング制御機能としてユーザの眼球運動の軌跡を使用することができ、被験者の意図及び挙動に関する重要な情報を明らかにする。一部の実施形態では、ユーザが視覚空間内のどこに注目しているのか、どの刺激に注目しているのか、又はどの刺激に反応したのかの側面がBCIシステム100内で効果的に使用され得る。互いに対する両方の目の動き軌道を同時に追跡することにより、アイトラッカ102はユーザの注目の奥行をレジスタし、従って3次元空間内のポインティング制御を可能にすることもできる。
[0041] 一部の実施形態では、アイトラッカ102は、ユーザの目を撮像するための頭部装着型の視標追跡ビデオカメラを使用することにより、ユーザの瞳孔及び照明源の表面角膜反射(CR)を追跡することに依拠する。これらの2つの特徴間の位置差を使用して観察者の視線方向を決定することができる。アイトラッカ102として使用可能な頭部装着型の視標追跡装置の一部の例は、数ある商業的なベンダの中でSenseMotoric Instruments、Tobii Eye Tracking、及びPupil-labsから入手可能である。一部の実施形態では、アイトラッカ102はユーザの目を照らす1つ又は複数の照明源を含むことができる。照明源は任意の適切な波長の光を放つことができ、任意の適切な位置に搭載され得る。照明源は、機能制御及びデータ伝送等のために有線通信又は無線通信によって接続され得る。
[0042] アイトラッカ102は、瞳孔及びそれぞれの目からの1つ又は複数の照明源の角膜反射を同時に撮像するようにそれぞれ構成される左右のアイカメラを含むことができる。これらのカメラは有線接続又は無線接続によって互いに接続することができ、図1に示す脳-コンピュータインタフェース(BCI)装置110等の外部装置に接続され得る。アイトラッカは、ユーザの視野を捕捉する追加のシーンカメラを含むこともできる。シーンカメラからの信号も有線通信又は無線通信の方法によってBCI装置110等の外部装置に中継することができる。
[0043] 一部の実施形態では、アイトラッカ102は、別個のディスプレイ106ではなく統合型ディスプレイ106を含むことができる。例えば、ディスプレイ106と一体化されたアイトラッカ102は仮想現実空間を見るように構成されるシステムであり得る。一部の実施形態では、ディスプレイ106と一体化されたアイトラッカ102は拡張現実空間を見るように構成され得る。つまり、ディスプレイ106によって提示されるスーパーインポーズされたUI/UXが追加された状態で現実世界を見るようにアイグラスとして機能する。
脳信号の神経記録-アクション制御機能
[0044] BCIシステム100の目的は、例えばユーザが意図するアクションを予測すること及び/又はユーザの活動に関連する信号を解釈してユーザが意図するアクションを決定すること等、脳活動をモニタすることでユーザの意図を明らかにすることにより、関連するUI/UX、及び/又は接続された外部装置、及び/又はマシンを能動的に制御することである。この目的の要は、脳信号をアクション制御機能にする、ユーザの意図を示し得る脳信号である。BCIシステム100は、ユーザによって行われる認知的作業によって同時に誘発され又はかかる認知的作業に関係する幾つかのシグネチャ脳信号のうちの1つ又は複数を使用することができる。これらの脳信号の一部は、人がそれらを自在に変調できるようになり得るやり方で復号することができる。制御信号と見なされるこれらの信号を使用することは、BCIシステム100がユーザの意図を解釈することを可能にし得る。
[0044] BCIシステム100の目的は、例えばユーザが意図するアクションを予測すること及び/又はユーザの活動に関連する信号を解釈してユーザが意図するアクションを決定すること等、脳活動をモニタすることでユーザの意図を明らかにすることにより、関連するUI/UX、及び/又は接続された外部装置、及び/又はマシンを能動的に制御することである。この目的の要は、脳信号をアクション制御機能にする、ユーザの意図を示し得る脳信号である。BCIシステム100は、ユーザによって行われる認知的作業によって同時に誘発され又はかかる認知的作業に関係する幾つかのシグネチャ脳信号のうちの1つ又は複数を使用することができる。これらの脳信号の一部は、人がそれらを自在に変調できるようになり得るやり方で復号することができる。制御信号と見なされるこれらの信号を使用することは、BCIシステム100がユーザの意図を解釈することを可能にし得る。
[0045] 神経記録ヘッドセット104は、任意の適切な手法を使用し、ニューロン間で情報を交換する電気化学送信機によって生成される神経活動を記録するように適合され得る。神経活動はニューロンによって生成される一次イオン電流を電気的に記録することによって直接捕捉することができ、イオン電流は神経集合体の中及び神経集合体中を流れる。神経活動は、一次電流に関連する又は一次電流から生じる二次電流又は神経系内の他の変化を記録することによって間接的に捕捉することもできる。例えば神経活動は、一次電流の結果として生じる記録中の光学変化により、光学撮像(例えば機能的磁気共鳴画像法、fMRI)等の他の方法によってモニタすることもできる。脳の神経活動を記録する他の手法は、脳波記録(EEG)、皮質脳波記録(ECoG)、機能的近赤外(FNIR)画像法、及び他の同様の内因性信号イメージング(ISI)法、脳磁気図記録(MEG)等を含む。
[0046] 神経活動の形を取る様々なシグネチャ脳信号が、アクション制御機能を実装するために使用される制御信号として使用可能である。時間に関する神経活動の一部の例は、事象関連電位(ERP)、誘発電位(EP、例えば感覚誘発電位、運動誘発電位、視覚誘発電位)、運動心像、緩徐皮質電位、感覚運動律動、事象関連脱同期(ERD)、事象関連同期(ERS)、脳状態依存信号、及び様々な認知的作業又は感覚運動作業の基礎を成す他の未発見のシグネチャ活動電位を含む。神経活動は周波数領域とすることもできる。数ある中でも一部の例は、感覚運動律動、事象関連スペクトル摂動(ERSP)、シータ、ガンマ、又はミュー律動等の特定の信号周波数帯域を含む。
[0047] 本明細書で説明するように、神経記録ヘッドセット104は、脳活動を測定する記録段階によってユーザの意図に関する情報を集めるために神経活動信号を記録することができ、その情報をコマンドに変換可能な扱い易い電気信号に変換する。一部の実施形態では、神経記録ヘッドセット104は、時間分解能が高く、セットアップ及びメンテナンスのコストが低く、携帯性が高く、ユーザに対して非侵襲的な脳波記録(EEG)によって電気生理学的活動を記録するように構成され得る。神経記録ヘッドセット104は、異なる脳領域から脳波記録信号を取得するセンサを有する1組の電極を含み得る。これらのセンサは、ニューロン内の樹状突起のシナプス興奮中の電流の流れによって引き起こされ、それにより二次電流の影響を中継する電気信号を測定することができる。神経信号は、ユーザの頭部、頭皮、顔面、耳、首、及び/又は他の部分上に配置されるとき所望の脳領域上に適切に配置される神経記録ヘッドセット104内の電極によって記録することができる。神経記録ヘッドセットの一例は、とりわけBiosemi、Wearable Sensing、及びG.Tec等の商業的なベンダから入手可能であり得る。例えば一部の実施形態では、神経記録ヘッドセット104、神経脳活動信号を集める際の神経記録ヘッドセット104の動作、及び神経記録ヘッドセット104からの信号転送が、参照によりその開示を全て上記で本明細書に援用する’253号出願に記載されているもの、及び/又は参照によりその開示を全て上記で本明細書に援用する’209号出願に記載されているものとほぼ同様であり得る。
[0048] ユーザの意図を復号するために記録され分析される神経活動は、ユーザの意図を示す任意形式の制御信号であり得る。制御信号の一例は事象関連電位(例えばP300信号)であり得る。事象関連電位、即ちERPは、時間的に相関する事象又は刺激提示に関係するシグネチャ神経活動であり得る。ERPは、その検出及び識別を助ける独特な形状及び特徴(トリガ刺激から約300msでピークに達することが知られているP300信号等)を有することができる。ERPは様々な脳領域にわたって大きさ及び形状に違いがある場合もあり、ERPが脳領域間をどのようにマップするのかは特定の脳機能及び/又はユーザの意図を示し得る。神経記録ヘッドセットから取得される神経活動データは特定のERP信号について分析することができ、適切に検出され分類されると、BCI装置110はUI/UXの所望の部分上で検出済みのERPに関連する任意の特定のアクションを実施することができる。
[0049] 制御信号の別の例は、運動の精神的なプロセスをユーザが経験することに関連する神経活動信号である運動心像信号の形式であり得る。つまり運動心像信号は、ユーザがアクションを想像し及び/又はアクションを行う間、様々な脳領域から記録され、BCIシステム100によって分析され得る脳信号である。BCIシステムは、訓練セッション中に高精細度でジェスチャを認識するのを助けるために、角度計及び捻転計等の周辺センサ108によって収集される情報を使用することもできる。
UI/UXの表示及び提示
[0050] 本明細書で説明するように、BCIシステム100内のUI/UXは、ユーザ(例えばユーザの脳、目、筋肉/運動神経等)とBCI装置110との間の通信のリンクとして機能し、ユーザがポインティング制御機能によって特定の刺激に注目しそれを指さし、アクション制御機能を使用して特定の刺激を選択し又は選択解除することを可能にする。本明細書で述べるように、UI/UXは制御インタフェースの一例であり得る。UI/UXは、ディスプレイによって提示される一連の視覚的に刺激のある2次元画像を含むことができる。UI/UXは、ユーザにとって最も直感的でありユーザの意図を識別することをより容易且つ明白にするやり方で提示されるようにBCI装置110によって設計され操作され得る。UI/UXは、ユーザの注目を集めるように設計される、及び/又はユーザ制御の方法の可用性に関する情報を含むUI/UXに関する情報を伝えるように設計される1つ又は複数の刺激を提示することができる。刺激は任意の適切なやり方で提示することができる。例えば、UI/UXは刺激として「タグ」(例えば制御項目)を提示するように設計することができる。それぞれの刺激は1つ又は複数のタグを含み得る。例えばタグは、ユーザの注目を集めるために且つUI/UXを制御するその可用性を示すために特定のやり方で外観を変える視覚的アイコンとすることができる。例えば、1つ又は複数のタグのグループを特定のやり方で点滅させ又はその外観を変えさせることができる。タグ又は制御項目はアクションに関連することができる。例えば、本明細書では「タグ点滅」とも呼ぶタグの外観の一過性の変化は、1つ又は複数の特定のアクションを行うためにそれらのタグが使用可能であることを示すことができる。一度に2つ以上のタグを点滅させることができ、タグのグループ分け(「タググループ」とも呼ぶ)は任意の特定のやり方で行われる(例えばタグの行、列、疑似ランダムグループ分け等)。タグ点滅の後、ユーザがタグ点滅の位置までfoveateしたことを示す信号をアイトラッカ102が捕捉することができ、及び/又はシグネチャ脳活動の発生を示す信号を神経記録ヘッドセット104が捕捉することができる。BCI装置110は、本明細書で更に詳細に説明するように、これらの信号を分析しユーザの意図を明らかにすることができる。この決定に基づき、UI/UXはタグ点滅に関連する1つ又は複数の特定のアクションを実施することができる。
[0050] 本明細書で説明するように、BCIシステム100内のUI/UXは、ユーザ(例えばユーザの脳、目、筋肉/運動神経等)とBCI装置110との間の通信のリンクとして機能し、ユーザがポインティング制御機能によって特定の刺激に注目しそれを指さし、アクション制御機能を使用して特定の刺激を選択し又は選択解除することを可能にする。本明細書で述べるように、UI/UXは制御インタフェースの一例であり得る。UI/UXは、ディスプレイによって提示される一連の視覚的に刺激のある2次元画像を含むことができる。UI/UXは、ユーザにとって最も直感的でありユーザの意図を識別することをより容易且つ明白にするやり方で提示されるようにBCI装置110によって設計され操作され得る。UI/UXは、ユーザの注目を集めるように設計される、及び/又はユーザ制御の方法の可用性に関する情報を含むUI/UXに関する情報を伝えるように設計される1つ又は複数の刺激を提示することができる。刺激は任意の適切なやり方で提示することができる。例えば、UI/UXは刺激として「タグ」(例えば制御項目)を提示するように設計することができる。それぞれの刺激は1つ又は複数のタグを含み得る。例えばタグは、ユーザの注目を集めるために且つUI/UXを制御するその可用性を示すために特定のやり方で外観を変える視覚的アイコンとすることができる。例えば、1つ又は複数のタグのグループを特定のやり方で点滅させ又はその外観を変えさせることができる。タグ又は制御項目はアクションに関連することができる。例えば、本明細書では「タグ点滅」とも呼ぶタグの外観の一過性の変化は、1つ又は複数の特定のアクションを行うためにそれらのタグが使用可能であることを示すことができる。一度に2つ以上のタグを点滅させることができ、タグのグループ分け(「タググループ」とも呼ぶ)は任意の特定のやり方で行われる(例えばタグの行、列、疑似ランダムグループ分け等)。タグ点滅の後、ユーザがタグ点滅の位置までfoveateしたことを示す信号をアイトラッカ102が捕捉することができ、及び/又はシグネチャ脳活動の発生を示す信号を神経記録ヘッドセット104が捕捉することができる。BCI装置110は、本明細書で更に詳細に説明するように、これらの信号を分析しユーザの意図を明らかにすることができる。この決定に基づき、UI/UXはタグ点滅に関連する1つ又は複数の特定のアクションを実施することができる。
[0051] 上記で説明したように、UI/UXは、インタフェース(UI)としても働くユーザエクスペリエンス(UX)と呼べるものを共に形成する、幾つかの様式にある刺激の豊かな混合とすることもできる。ユーザインタフェースに関して上記で説明したように、戦略的に設計されたユーザエクスペリエンスは、(タグ点滅と同様に)提示を操作する任意の様式によってユーザの刺激を提示するプロセスを含む。脳活動信号及び関連する眼球運動信号及び/又は他の周辺信号を分析し、ユーザの意図を復号すると、UI/UXは提示される刺激に関連する1つ又は複数の特定のアクションを実施することができる。
[0052] 一部の例は視覚刺激、聴覚刺激、触覚刺激、又は前庭刺激を含む。一部の実施形態では、図1に示すディスプレイ106等のディスプレイ上に視覚刺激を提示するUI/UXをレンダリングすることができる。他の様式の刺激は、同じくBCIシステム100の一部である適切な周辺アクチュエータ(図1には不図示)によって届けることができる。
[0053] 一部の実施形態では、ディスプレイ106は、BCIシステム100の残りの部分と接続されデータ通信することができる別個の独立型視聴覚ディスプレイユニットとすることができる。つまりオーディオシステム(例えばスピーカ又はヘッドフォン)を備える独立型ディスプレイ(例えば液晶ディスプレイ)は、BCIシステム100の他の構成要素、例えばBCインタフェース装置110、アイトラッカ102、及び神経記録ヘッドセット104のうちの1つ又は複数と双方向通信することができる。一部の実施形態では、ディスプレイ106がアイグラス領域の一部であるようにアイトラッカ102に統合され得る。統合されるアイトラッカ102及びディスプレイ106は、ディスプレイ106上に提示されるUI/UX形式で仮想現実空間を見るように構成され得る。一部の実施形態では、統合されるアイトラッカ102及びディスプレイ106は、ディスプレイ106が半透明のアイグラス領域上にあり、ユーザが拡張現実空間を見ることを可能にするように構成することができる。つまりユーザは、ユーザが対話可能なUI/UXをユーザに提示する統合型ディスプレイ106でもある半透明のアイグラス領域によって現実世界を見ることができる。
非視覚的様式で動作する周辺装置
[0054] 一部の実施形態では、BCIシステム100が、幾つかの周辺センサ108(図1の破線の四角形によって示す任意選択的なユニットとして示す)及び周辺アクチュエータ(図1には不図示)を含むことができる。1つ又は複数の周辺アクチュエータは豊かで多様なユーザエクスペリエンスを提供するように構成することができ、1つ又は複数の周辺センサ108はユーザ及びユーザの環境のそれぞれから多様な入力を捕捉するように構成することができる。これらの周辺アクチュエータ112及びセンサ108は個々に又は(アイトラッカ102のように)他の装置に組み込んで適切に搭載することができる。例えばBCIシステム100は、聴覚刺激を中継するためのイヤフォン及びユーザの音声コマンド等の音を捕捉するためのマイクロフォンを含むことができる。イヤフォン(聴覚アクチュエータ又は聴覚出力装置)及びマイクロフォン(聴覚センサ又は聴覚入力装置)は、ハイブリッドシステム100に有線チャネル又は無線チャネルによって接続される独立型装置とすることができる。或いはイヤフォン及びマイクロフォンは、アイトラッカ102又は神経記録ヘッドセット104に搭載し、統合することができる。同様に、体の動きのレジスタするために、加速度計、角度計、捻転計、赤外線カメラ等の光センサ、奥行センサ、マイクロフォン等の周辺センサをBCIシステム100に含める及び/又は結合することができる。例えば、角度計を使用することができるジェスチャを形成する手足の動きをレジスタする、加速度計は体の動きをレジスタするために使用することができる。周辺センサは、ユーザの現実世界の視野を捕捉するように構成される視野カメラも含むことができる。視野カメラによって取得される信号は分析し、選択可能な選択肢等を用いてUI/UXによってスーパーインポーズされる現実世界の画像を有する拡張現実エクスペリエンス又は複合現実エクスペリエンスを生成しユーザに提示するために使用することができる。BCIシステム100に接続可能な周辺アクチュエータは、提供されるユーザエクスペリエンスを豊かにする接触及び振動等の力を加え作り出すことができる触覚装置又は運動感覚装置を含むことができる。
[0054] 一部の実施形態では、BCIシステム100が、幾つかの周辺センサ108(図1の破線の四角形によって示す任意選択的なユニットとして示す)及び周辺アクチュエータ(図1には不図示)を含むことができる。1つ又は複数の周辺アクチュエータは豊かで多様なユーザエクスペリエンスを提供するように構成することができ、1つ又は複数の周辺センサ108はユーザ及びユーザの環境のそれぞれから多様な入力を捕捉するように構成することができる。これらの周辺アクチュエータ112及びセンサ108は個々に又は(アイトラッカ102のように)他の装置に組み込んで適切に搭載することができる。例えばBCIシステム100は、聴覚刺激を中継するためのイヤフォン及びユーザの音声コマンド等の音を捕捉するためのマイクロフォンを含むことができる。イヤフォン(聴覚アクチュエータ又は聴覚出力装置)及びマイクロフォン(聴覚センサ又は聴覚入力装置)は、ハイブリッドシステム100に有線チャネル又は無線チャネルによって接続される独立型装置とすることができる。或いはイヤフォン及びマイクロフォンは、アイトラッカ102又は神経記録ヘッドセット104に搭載し、統合することができる。同様に、体の動きのレジスタするために、加速度計、角度計、捻転計、赤外線カメラ等の光センサ、奥行センサ、マイクロフォン等の周辺センサをBCIシステム100に含める及び/又は結合することができる。例えば、角度計を使用することができるジェスチャを形成する手足の動きをレジスタする、加速度計は体の動きをレジスタするために使用することができる。周辺センサは、ユーザの現実世界の視野を捕捉するように構成される視野カメラも含むことができる。視野カメラによって取得される信号は分析し、選択可能な選択肢等を用いてUI/UXによってスーパーインポーズされる現実世界の画像を有する拡張現実エクスペリエンス又は複合現実エクスペリエンスを生成しユーザに提示するために使用することができる。BCIシステム100に接続可能な周辺アクチュエータは、提供されるユーザエクスペリエンスを豊かにする接触及び振動等の力を加え作り出すことができる触覚装置又は運動感覚装置を含むことができる。
脳-コンピュータインタフェース装置
[0055] 一部の実施形態では、脳-コンピュータインタフェース装置(即ちBCI装置)110がとりわけ3つの主要な機能を達成するように構成され得る。第1に、BCI装置110は、本明細書に記載したように戦略的に設計されたUI/UXを生成するように構成することができる。例えば、戦略的に設計されたユーザエクスペリエンスは訓練セッション用又は試験セッション用であり得る。一部の実施形態では、ユーザエクスペリエンスは仮想現実環境及び/又は拡張現実環境として設計され得る。一部の実施形態では、UI/UXは例えば特定のユーザの履歴、反応時間、ユーザ選択等の特定のニーズに合わせて調整することができる。BCI装置110はUI/UXを生成し更新する際にこれらの全ての要件を考慮することができる。第2に、UI/UXの設計及び生成に加えて、BCI装置110は(例えばアイトラッカ102から)ポインティング制御信号及び(例えば神経記録ヘッドセット104から)アクション制御信号(及び該当する場合は周辺センサ108から周辺信号)を受信し、それらの信号を個々に又はアンサンブルとして処理してユーザの意図を明らかにするように構成することができる。BCI装置110は分析に適した任意の方法を実行することができる。例えばBCI装置110は、信号から有意味の特徴を検出し、統計モデルを構築し適用して信号を解釈し、信号を分類し、信号及び信号を誘発する刺激を採点し、任意の所与のタグ又は刺激がユーザの意図する点(例えば標的タグ又は標的刺激)である確率を計算し、標的タグ又は標的刺激及びユーザが望む関連するアクションを決定すること等ができる。第3にBCI装置110は、ユーザの意図に応じて指示されている標的タグ又は標的刺激の変更を実施することにより、ポインティング制御機能及びアクション制御機能を実装するように構成することができる。
[0055] 一部の実施形態では、脳-コンピュータインタフェース装置(即ちBCI装置)110がとりわけ3つの主要な機能を達成するように構成され得る。第1に、BCI装置110は、本明細書に記載したように戦略的に設計されたUI/UXを生成するように構成することができる。例えば、戦略的に設計されたユーザエクスペリエンスは訓練セッション用又は試験セッション用であり得る。一部の実施形態では、ユーザエクスペリエンスは仮想現実環境及び/又は拡張現実環境として設計され得る。一部の実施形態では、UI/UXは例えば特定のユーザの履歴、反応時間、ユーザ選択等の特定のニーズに合わせて調整することができる。BCI装置110はUI/UXを生成し更新する際にこれらの全ての要件を考慮することができる。第2に、UI/UXの設計及び生成に加えて、BCI装置110は(例えばアイトラッカ102から)ポインティング制御信号及び(例えば神経記録ヘッドセット104から)アクション制御信号(及び該当する場合は周辺センサ108から周辺信号)を受信し、それらの信号を個々に又はアンサンブルとして処理してユーザの意図を明らかにするように構成することができる。BCI装置110は分析に適した任意の方法を実行することができる。例えばBCI装置110は、信号から有意味の特徴を検出し、統計モデルを構築し適用して信号を解釈し、信号を分類し、信号及び信号を誘発する刺激を採点し、任意の所与のタグ又は刺激がユーザの意図する点(例えば標的タグ又は標的刺激)である確率を計算し、標的タグ又は標的刺激及びユーザが望む関連するアクションを決定すること等ができる。第3にBCI装置110は、ユーザの意図に応じて指示されている標的タグ又は標的刺激の変更を実施することにより、ポインティング制御機能及びアクション制御機能を実装するように構成することができる。
[0056] 一部の実施形態では、BCI装置110が、BCIシステム100の一部であり得る他の周辺装置、例えば上記で述べた視覚的様式以外の様式で機能する周辺センサ及びアクチュエータにも接続され得る。かかる周辺センサは音声マイクロフォン、触覚センサ、加速度計、角度計等を含むことができ、周辺アクチュエータは音声スピーカ、触覚刺激プロバイダ等を含むことができる。
[0057] 一部の実施形態では、BCI装置110は、有線又は無線通信チャネルによってBCI装置110と1つ又は複数の外部装置との間で信号を送受信するように構成される入出力ユニット140を含むことができる。例えば入出力ユニット140は、1つ又は複数のデータ通信ポートを介してアイトラッカ102、神経記録ヘッドセット104、及び任意選択的な視聴覚ディスプレイ106との間で信号を送受信することができる。BCI装置110は、遠隔サーバ(図1には不図示)に接続し、遠隔サーバ内に含まれるデータベース又は他の適切な情報にアクセスできるようにするように構成することもできる。BCI装置110は、転送されるデータの種類に適合する適切な通信チャネルを扱うように構成されるコミュニケータ180を含むことができる。コミュニケータ180は、BCI装置110の他の部分と共にI/Oユニット140に接続され、入出力ユニット140の機能を制御することができる。信号の転送は有線イーサネット、シリアル、FireWire、若しくはUSB接続等の有線接続によって、又はBluetooth、近距離無線通信等の任意の適切な通信チャネルによって無線で実行することもできる。
[0058] 一部の実施形態では、BCI装置110内の入出力ユニット140の機能が、信号の取得、信号の前処理、及び/又は信号の増強等の幾つかの手続きを含むことができる。取得及び/又は前処理された信号は、BCインタフェース装置110内のプロセッサ120に送ることができる。一部の実施形態では、プロセッサ120及びその下位要素(不図示)は、入力データを処理し、メモリ160との間でデータをやり取りするように構成され得る。プロセッサ120は、遠隔サーバ(図1には不図示)にアクセスし遠隔サーバの情報を利用するためにコミュニケータ180に接続することもできる。
[0059] BCI装置110内のプロセッサ120は、ディスプレイ106上に又はアイトラッカ102に統合されたディスプレイ上にレンダリング可能なUI/UXを構築し維持する機能を実行するように構成され得る。一部の実施形態では、プロセッサ120及びその下位要素は、脳信号のユーザ固有の解釈を可能にするのに必要な機能を実行し、外部装置に中継されるように入出力ユニット140への出力信号をパッケージ化するように構成され得る。プロセッサ120及びその下位要素の他の機能は、特徴抽出、分類、及び制御インタフェースの操作等の幾つかの手続きを含むことができる。
[0060] 一部の実施形態では、ユーザエクスペリエンスを改善するために、アクション制御の実施が5秒以内に、又は4秒以内に、又は3秒以内に、又は2秒以内に、又は1秒以内に、又は0.9秒以内に、又は0.8秒以内に、又は0.7秒以内に、又は0.6秒以内に、又は0.5秒以内に生じるように、速度について最適化するようにBCI装置110を構成することができる。一部の実施形態では、ユーザエクスペリエンスを改善するために、アクション制御速度(秒単位)掛けるシステムの平均精度(%単位)の実施が5(例えば10s*50%精度)未満、又は4未満、又は3未満、2未満、又は1.125(例えば1.5s*75%精度)未満、又は1未満、又は0.9(例えば1s*90%精度)未満、又は0.8未満、又は0.7未満、又は0.6未満、又は0.5(例えば0.6s*83.33%精度)未満、又は0.4未満、又は0.3未満、又は0.2未満、又は更には0.1未満になるように、速度*精度%の値を低減し又は最小化するようにBCI装置110を調整することができる。
アクションの指し示し及び選択-BCIシステムの機能
[0061] 図2は、入力記号の一例にユーザが注目しその選択を制御する具体例の一例に関する(上記のシステム100と同様の)BCIシステムの機能を示す。図2の説明のための一連の操作上の事象の例は、刺激(例えば1組のアクションに関連する1組のタグを含む刺激)を提示すること、結果として生じる神経活動信号及び動眼信号、及び/又は該当する場合は周辺信号を取得すること、取得した信号を分析し、それらの信号を解釈してユーザの意図を推論し又は復号すること、及び(例えばアクションの1つ又は複数に関連するタグの1つ又は複数を選択することによって)UI/UXの変更を生じさせることを含む。UI/UXを変更するために実施される1つ又は複数のアクションは、ひいてはUI/UXによって接続される1つ又は複数の外部マシンを制御することもできる。
[0061] 図2は、入力記号の一例にユーザが注目しその選択を制御する具体例の一例に関する(上記のシステム100と同様の)BCIシステムの機能を示す。図2の説明のための一連の操作上の事象の例は、刺激(例えば1組のアクションに関連する1組のタグを含む刺激)を提示すること、結果として生じる神経活動信号及び動眼信号、及び/又は該当する場合は周辺信号を取得すること、取得した信号を分析し、それらの信号を解釈してユーザの意図を推論し又は復号すること、及び(例えばアクションの1つ又は複数に関連するタグの1つ又は複数を選択することによって)UI/UXの変更を生じさせることを含む。UI/UXを変更するために実施される1つ又は複数のアクションは、ひいてはUI/UXによって接続される1つ又は複数の外部マシンを制御することもできる。
[0062] 図2に示すBCIシステムの機能の具体例は、入力刺激を提示するステップ251から始まる。入力刺激は、例えばUI/UX271の一例に示す1組のタグ又は記号279であり得る。UI/UX271内の全てのタグ279は可視とすることができるが、タグ279の1つ又は複数は、選択にそのタグを使用できるかどうかを示すために視覚的外観を一過性に変更させることができる。外観の変更は、タグの任意の適切な特性(例えば塗りつぶし、透明度、輝度、コントラスト、色、形状、サイズ、向き、テクスチャ、色調、輪郭、位置、3D環境内の奥行、移動度等)の変更であり得る。例えば、潜在的な選択を示すためにタグ279の1つ又は複数を点滅させることができる(他の場合は本明細書では「タグ点滅」と呼ぶ)。可視タグ279の様々なグループを一緒に点滅させ、タグ点滅の幾つかの組み合わせ又はタググループ点滅の幾つかをもたらすことができ、各タグ点滅又はタググループ点滅は刺激である。刺激の例が視覚的様式にあり、変更が視覚的様式で提示されると記載したが、刺激を提示し同様のアクション選択を実行するために任意の適切な様式を使用できることに留意すべきである。例えば、聴覚音をタグとして使用することができる。聴覚タグの任意の適切な聴覚特性を一過性に変更して、それらのタグの選択の可用性を示すことができる。例えば、UI/UXの聴覚空間内のタグ点滅として使用されるように、音量、持続時間、ピッチ、チャープ、音色等の特性を一過性に変更することができる。
[0063] 提示される様々なタグ、例えばUI/UX271内の3つの記号279は、それぞれ仲介であり得る、選択時の別個のアクション。可視タグの1つは、標的タグ又はユーザが選択したいタグであり得る。BCIシステム(上記のBCIシステム100等)の目標は、図2に示す手続きの一例により、ユーザが選択したい標的タグが可視タグ279のどれなのかを決定することである。
[0064] UI/UX271は、ステップ251で、各可視タグ279を刺激として(例えばタグの点滅によって)1回又は複数回提示するように構成することができ、ステップ253でBCIシステム(例えばシステム100)が、刺激の提示277に関する情報(例えばUI/UX271のどの位置に、どの時点において、どのタグ又はタググループが提示されたのか等)と共に、結果として生じる脳活動信号273及び/又は眼球運動信号275並びに他の周辺センサの信号(不図示)を該当する場合は取得する。可視タグ279は、タグを単独で点滅させること又はタググループの組み合わせを点滅させることによって提示することができる。タググループでのタグ点滅は、標的タグ285を特定するのに必要な点滅の回数を減らすことができる。刺激の提示は、ユーザが気付かないことが予期される、タグに結び付いていないゴースト点滅の目に見えない刺激を疑似的に提示することも含み得る。ゴースト点滅はUI/UX271による刺激の提示を較正するために使用することができる。例えばゴースト点滅は、特定のタグ279に対するユーザの注視又は注目を示す信号を分析する間の検出閾値を設定するために使用することができる。
[0065] 図2に示す手続きのステップ255は、取得した動眼信号275及び/又は神経信号273(及び他のセンサからの他の周辺信号)を分析することを含み、この分析は以下で更に開示するように個々に又は統合的手法におけるアンサンブルとして実行することができる。信号神経及び動眼(及び周辺)信号の分析は、刺激情報277(例えば提示される刺激の時空間的特性)の脈絡で行われる。分析は幾つかの計算的方法の1つ又は複数のステップを含むことができる。例えば、信号の前処理、特徴検出及び特徴抽出、次元縮退、教師付き分類、教師なし分類、又は半教師付き分類、信号を解釈するための1つ又は複数の事前構築統計モデルの構築又は適用、各分析の信頼スコア(例えば分類の信頼スコア)の計算、刺激情報277を組み込み使用するための適切なやり方の計算(例えば1つ又は複数のスケーリング関数の適用)、各タグ279が標的タグ285である尤度の計算、標的タグ285の同一性の決定に関する復号及び/又は意思決定等である。
[0066] 例えば、ステップ257は、ステップ255で実行した分析に基づいて標的タグ285の同一性を判定することを含み得る。ステップ257における決定又は判定は任意の適切な方法を使用して行うことができる。例えば、1つ又は複数の閾値交差アルゴリズム又は機械学習ツールを使用する。
[0067] ステップ257における決定は、ステップ259におけるタグ279の1つの選択をもたらし得る。ステップ259における選択は、ひいては関連するアクションが実行されることをもたらし得る。例えば標的タグ285が八角形のタグだと正しく識別される場合、八角形に関連するアクション2を実行することができる。標的タグ285の識別が正しかったかどうかを確かめるために、ユーザ認証の1つ又は複数のステップを含めることもできる。ユーザは、標的タグ285の識別が正しかったのか間違っていたのかに関するフィードバックを与えることができる。このユーザフィードバックは、標的タグ285の決定に使用される様々な分析プロセス及び統計モデルを支持し又は訂正するために使用し、特定のユーザ又は特定の使用事例等により適合するようにBCIシステムを訓練することができる。このフィードバックはユーザを訓練するために使用することもできる。例えば257で決定を下すための情報が、例えば曖昧さ又は1つ若しくは複数の信号が弱すぎることを理由に十分ではない場合、異なる状況(例えばより優れた集中)下で再試行するためのインジケータをユーザに与えることができる。
BCIシステムとのユーザ対話
[0068] 図3A~図3Gは、上記で開示したBCIシステム100と構造及び又は機能の点で同じ又は同様であり得る、BCIシステム300とのユーザ対話の一例及びBCIシステム300内の基礎を成す処理の一部を示す。例えば、BCIシステム300はアイトラッカ302、神経記録ヘッドセット304、BCI装置(不図示)、及びディスプレイ306を含み得る。図示の例では、ユーザが単語及び/又は文をスペルするのを助けるために、BCIシステム300がポインティング制御を実施する動眼信号並びにアクション制御を実施する神経信号の両方を使用することができる。例えばBCIシステム300は、2ステッププロセスで単語をスペルするために使用されるUI/UX371、及びUI/UX371を提示するディスプレイ306を含むことができる。図3A~図3Cに示すように、UI/UX371はタググループ点滅379(例えばキーボード上でよく見られる文字、数字、及び記号)形式の刺激を提示することができる。
[0068] 図3A~図3Gは、上記で開示したBCIシステム100と構造及び又は機能の点で同じ又は同様であり得る、BCIシステム300とのユーザ対話の一例及びBCIシステム300内の基礎を成す処理の一部を示す。例えば、BCIシステム300はアイトラッカ302、神経記録ヘッドセット304、BCI装置(不図示)、及びディスプレイ306を含み得る。図示の例では、ユーザが単語及び/又は文をスペルするのを助けるために、BCIシステム300がポインティング制御を実施する動眼信号並びにアクション制御を実施する神経信号の両方を使用することができる。例えばBCIシステム300は、2ステッププロセスで単語をスペルするために使用されるUI/UX371、及びUI/UX371を提示するディスプレイ306を含むことができる。図3A~図3Cに示すように、UI/UX371はタググループ点滅379(例えばキーボード上でよく見られる文字、数字、及び記号)形式の刺激を提示することができる。
[0069] 図3A~図3Cに関して説明するポインティング制御機能は、(図3Dに一例を示す)アイトラッカ302によって取得されるデータを用いて実装することができる。アイトラッカ302は、ユーザが自分の注視を集中させている場所を検出するための動眼信号を記録し、BCI装置(不図示)によって処理可能なそれぞれの目に対応する信号を出力するように構成され得る。動眼信号の例を図3Eに示す。アクション制御機能(即ち標的タグの決定及び標的タグの活性化)は、(その一例を図3Fに示す)神経記録ヘッドセット304によって記録されるデータを用いて実装される。神経記録ヘッドセット304はユーザの脳内の特定の領域からの神経信号を記録するように構成することができ、BCI装置(不図示)はその信号を分析することができ、その例を図3Fに示す。BCI装置(不図示)は動眼信号(図3E)及び神経信号(図3F)から有意味の特徴を抽出し、教師なし及び/又は半教師付きのやり方で又は訓練によって構築される統計モデルに基づいて信号を分類することによってそれらの特徴を分析することができる。BCI装置は、標的タグ385の決定及び選択において刺激情報を組み込むことができる。
[0070] 例えばユーザは、図3Aに示すように標的タグ(例えばQの文字)を含むタググループに自分の注視を集中させることができる。この例では、タググループ点滅が強調表示された円の形式にあり得る。ユーザがその特定のタググループに集中したことを示す動眼信号を分析した後、図3Bに示すように、図3Aの強調表示された円によって示されるタググループを拡大し、UI/UX371を図3Bに示すものに変更することができる。ユーザが選択するために、図3B及び図3C内の拡大されたグループの1組の異なるタグ点滅379を連続して提示することができる。図3Cに示すように、タグ点滅は文字を拡大すること及び太字にすることであり得る。
[0071] (図3Gに示す)分類に使用する信号の投影381の一例によって示すように、動眼信号、神経信号、及び/又は他の関連信号を適切に分析した後で標的タグ385を選択することができる。使用しようとする各文字を選択するためにこの手続きを繰り返すことにより、上記のBCIシステム300及び実装手続きを使用して単語及び/又は文をスペルすることができる。
神経信号の復号
[0072] 図2に示すプロセスシーケンス、並びに図3に示すポインティング制御及びアクション制御の実装例は個々の刺激について例示され得るが、UI/UX又はユーザエクスペリエンスによって仮想的な又は拡張された多様な環境を提示する間、一連の同様のステップを有する同様のプロセスをたどることができる。プロセス400の一例を図4に示す。図4に示すように、プロセス400は、訓練セッションを形成する一連のサブステップ(破線の四角形によって任意選択的として示す)を含むことができ、又は如何なる訓練データもなしに新たな刺激を提示するために使用することができる。
[0072] 図2に示すプロセスシーケンス、並びに図3に示すポインティング制御及びアクション制御の実装例は個々の刺激について例示され得るが、UI/UX又はユーザエクスペリエンスによって仮想的な又は拡張された多様な環境を提示する間、一連の同様のステップを有する同様のプロセスをたどることができる。プロセス400の一例を図4に示す。図4に示すように、プロセス400は、訓練セッションを形成する一連のサブステップ(破線の四角形によって任意選択的として示す)を含むことができ、又は如何なる訓練データもなしに新たな刺激を提示するために使用することができる。
[0073] 図4に示すプロセス400の一例は、記録済みの信号を解釈すること、ユーザの意図を明らかにすること、及びユーザの意図に基づいて作動することに関与するステップの幾つかを記載する。プロセス400は、所与の時点において、アイトラッカ及び/又は神経記録ヘッドセット(及び他の周辺センサ及び/又はアクチュエータ)を含むシステムに関連する特定のユーザのために、時間指定されたデータ取得及びUI/UXの提示によってBCIシステムを始動する最初のステップ401を含む。この刺激提示及び信号取得の始動は、上記のBCIシステム100又は300と同様のBCIシステムの一部である構成要素によって実行され得る。
[0074] プロセス400は、統計モデルを生成し訓練するためのステップのサブセット(任意選択的に訓練セッションに使用され、図4の破線の四角形内に示す)を含むことができる。(訓練環境に関連し得る)訓練刺激の提示後、訓練セッション用のステップのサブセットは、取得済みの信号及びユーザに提示される訓練刺激に関する情報を受信するステップ403を含むことができる。ステップ405で、BCIシステムは任意の適切な分析手続きによって取得済みの信号を分析することができる。例えば信号内の特定の情報を与える特徴を検出し抽出することにより、及び/又は動眼信号及び/又は神経(及び/又は周辺)信号を考慮する1つ又は複数の統計モデルを構築/適用することにより。ステップ407で、BCIシステムは任意の適切な方法を使用して取得済みの信号を解釈し、分類し、及び/又はラベル付けすることができる。例えばBCIシステムは、各信号を分類済みのグループ及び分類の信頼度を測定する信頼スコアに関連付けることができる。ステップ407は、提示される刺激に関する情報を用いて分類及び/又はラベルを更新することも含むことができる(例えば以下で更に詳細に説明する距離スケーリング法)。ステップ409で、BCIシステムは、信号を解釈するために及びユーザの意図を明らかにするために使用される分析ツールを評価するための相互検証ステップを含むことができる。
[0075] 訓練セッション後に又は訓練セッションなしに、ステップ401のデータ取得開始後にUI/UX又はユーザエクスペリエンスによってユーザに刺激を提示することができる。これらの新たな刺激は、BCIシステムの適切なセンサによって信号として捕捉される動眼反応、神経反応、及び/又は周辺反応を誘発し得る。プロセス400のステップ411に示すように、これらの信号は反応を誘発した刺激に関する情報に関連して受信され得る。ステップ413で、BCIシステムは新たな統計モデルを生成し又は訓練に由来する事前生成され相互検証された統計モデルを使用することができる。統計モデルを使用し、BCIシステムはステップ405及びステップ407に関して記載したのと同様の分析手続きをたどり信号を分析し解釈することができる。例えばBCIシステムは、採点システムに基づいて信号を分類し及び/又はラベル付けすることができ、採点システム内の刺激情報を組み込む。入手可能なそれぞれの刺激及び/又は反応信号に関連するスコアに基づき、ステップ415で、BCIシステムはユーザの意図を明らかにする(例えばユーザにとって関心のある標的タグを識別する)ことができる。ステップ417で、BCIシステムは明らかにされた標的タグの選択を実施することができ、かかる選択は標的タグの選択に関連する1つ又は複数のアクションをもたらし得る。例えばステップ417は、スペラ内の文字を選択すること、又はゲーム内のキャラクタを選択すること、又は拡張現実システム内で操作可能なTVシステムに関連するオン機能を選択すること等を含み得る。
信号の分析
[0076] 本明細書に記載の通り、BCIシステム100、300は動眼活動信号及び神経活動信号(及び他の周辺信号)をアンサンブルとして組み合わせて又は個々に処理して、高速度及び高精度でユーザの意図を明らかにしユーザの意図に作用することができる。プロセス200又はプロセス400等の1つ又は複数のプロセスを使用して適切な刺激を提示し、ユーザの意図を明らかにすることができる。以下で説明するように、BCIシステムは信号を分析しユーザの意図を明らかにするのに適した分析パイプラインを採用することができる。
[0076] 本明細書に記載の通り、BCIシステム100、300は動眼活動信号及び神経活動信号(及び他の周辺信号)をアンサンブルとして組み合わせて又は個々に処理して、高速度及び高精度でユーザの意図を明らかにしユーザの意図に作用することができる。プロセス200又はプロセス400等の1つ又は複数のプロセスを使用して適切な刺激を提示し、ユーザの意図を明らかにすることができる。以下で説明するように、BCIシステムは信号を分析しユーザの意図を明らかにするのに適した分析パイプラインを採用することができる。
[0077] BCIシステム及び/又はBCIシステムを実装するプロセスの一部の実施形態は、例えば受信され処理される様々な信号(例えば動眼信号、神経信号、周辺信号等)に由来する補完的な情報源を使用し、ポインティング制御機能及びアクション制御機能を実装するために統合的手法を使用することができる。更に、信号を処理しBCIインタフェースを実装する統合的手法は、使用状況、ユーザの履歴、及びナビゲートされるUI/UXの特定の詳細等の他のパラメータに従って個々の信号に適切に重み付けすることを可能にし得る。
[0078] 信号(例えば神経活動信号、動眼信号等)を分析してユーザの意図を明らかにするための分析パイプラインの一例は、選択の精度を改善するために(1)1つ又は複数のフィルタシステム(例えば二重カルマンフィルタ又は他の任意の無遅延フィルタ)による信号の1つ又は複数の適切な前処理、(2)信号の有意のエポック(例えば刺激若しくはタグ点滅後の又はそれと同時のエポック)内でレジスタされる事象を分類するためのベイズ線形判別分類器、(3)加重信号パッケージにわたる空間フィルタリング、(4)バギングアンサンブル分類器アルゴリズム、及び(5)実験的作業中にプログラムルーチンと共に分類アルゴリズムからの情報を組み込む高次のオラクルアルゴリズムを含むことができる。
刺激-反応の関係
[0079] 動眼信号、神経信号、又は他の周辺信号(例えばジェスチャ、体位、音声コマンド等)を含む、刺激の提示中に及び提示後に取得される信号は情報が豊富であり得る。しかし、分析手続きは、関連するエポック及び/又は特徴を信号から抽出して標的タグを分析し決定することができる。例えばBCIシステムは、単語をスペルする際に使用するための図5Aに示すUI/UX571を含むことができる。ユーザが単語をスペルするためにIの文字を使用したい可能性がある例では、図5A~図5Bに示すようにIの文字が標的タグ585になる。図5Aに示す例では、刺激又はタグ点滅の一例が可視タグ又は文字の行又は列であり得る。例えばタグ点滅579Aの一例は、タグG~Lの行を含む強調表示されたタググループ形式で刺激を提示する。タグ点滅579Bの別の例(現在は提示されていない、例えば文字が強調表示されていない)はタグA、G、M、S、Y、及び5を含むことができる。タグ点滅は行、列、又は外観の特定の変更によって(例えば強調表示、拡大、太文字化等によって)一緒に提示される任意選択されたタググループであり得る。
[0079] 動眼信号、神経信号、又は他の周辺信号(例えばジェスチャ、体位、音声コマンド等)を含む、刺激の提示中に及び提示後に取得される信号は情報が豊富であり得る。しかし、分析手続きは、関連するエポック及び/又は特徴を信号から抽出して標的タグを分析し決定することができる。例えばBCIシステムは、単語をスペルする際に使用するための図5Aに示すUI/UX571を含むことができる。ユーザが単語をスペルするためにIの文字を使用したい可能性がある例では、図5A~図5Bに示すようにIの文字が標的タグ585になる。図5Aに示す例では、刺激又はタグ点滅の一例が可視タグ又は文字の行又は列であり得る。例えばタグ点滅579Aの一例は、タグG~Lの行を含む強調表示されたタググループ形式で刺激を提示する。タグ点滅579Bの別の例(現在は提示されていない、例えば文字が強調表示されていない)はタグA、G、M、S、Y、及び5を含むことができる。タグ点滅は行、列、又は外観の特定の変更によって(例えば強調表示、拡大、太文字化等によって)一緒に提示される任意選択されたタググループであり得る。
[0080] 1つ又は複数の刺激の提示中に取得される神経活動信号は、制御信号と呼ばれる特定の識別可能なシグネチャ事象又は反応を含むことができる。シグネチャ神経反応又は別様に呼ばれる制御信号は、本明細書に記載するようにユーザの認知的な意図に関連し得る特定の脳活動信号である。従って、刺激又はタグ点滅の提示中に1つ又は複数の脳領域内でシグネチャ脳活動反応又は制御信号が発生することは、そのタグ点滅がユーザの意図を明らかにするために情報を与えることを示し得る。
[0081] 図5Bは、2つの刺激の提示中及び提示後に取得され得る神経活動信号の2つの例を示し、時点0において刺激が提示されている(例えば図5Aに関して説明したタグ点滅579A及び579Bの提示)。例えば信号573Aはタグ点滅579Aの後で誘発され取得された神経信号とすることができ、信号573Bは図5Aのタグ点滅579Bの後で取得された神経信号とすることができる。図示のようにIが標的タグ585であり、標的タグ585はタグ点滅579Aの一部であり、標的タグ585を含むタグ点滅579Aに応じた神経信号573Aは、200ms~300msの時点あたりのトレース573Aの特異な上方向への振れとして示す信号の一過性の振幅変化によって示すシグネチャ神経反応(例えば事象関連電位等)を含み得る。信号を取得する方法に基づき、制御信号は任意の適切なパラメータの変化であり得る。例えば周波数変化の上方向又は下方向への振れ等である。一方、標的タグ585を含まないタグ点滅579Bに応じた信号573Bは如何なるシグネチャ神経反応も欠いている可能性がある。神経活動信号は、作業、提示される刺激、及び信号の記録元である脳領域に基づく制御信号又はシグネチャ反応を含む場合も含まない場合もある。図5Cは、刺激を繰り返し提示する間に脳領域の3つの例から記録される信号の例を示す。図示のように、刺激の提示は1回又は複数回繰り返すことができ、信号対雑音比を上げること及び標的タグを決定する精度を高めることを助けることができる。刺激を繰り返し提示することは、ユーザ対話の速度等の他の要件を考慮して適切に使用することができる。
特徴抽出
[0082] BCIシステム100、300の一部の実施形態では、又はBCIシステムを実装するためのプロセス200又は400の一部の実施形態では、ユーザの意図に関する情報を集めるために刺激の提示後に取得される信号が完全に使用され得る。BCIシステム100、300の他の一部の実施形態では、又はBCIシステムを実装するためのプロセス200又は400の一部の実施形態では、取得済みの信号によって提供される情報を最適に使用するために1つ又は複数の次元縮退法を使用することができる。例えばユーザの意図を明らかにするために使用される分析手続きは、上記で開示したように取得済みの信号から特徴を検出し及び/又は抽出する1つ又は複数のステップを含み得る。信号の特徴は、信号を表す幾つかのパラメータを含むことができる。一部の条件の例では、特徴は信号の成分(例えば主成分又は独立成分)又は他の同様の次元縮退法を使用して得られる値又はベクトルを含むこともできる。特徴の一部の例は、ピーク振幅、持続時間、周波数帯域幅、基準線からの平均偏差等を含むこともできる。特徴の1つ又は複数は他の特定のパラメータに固有であり得る。例えば特徴は、刺激提示後200ms~500msにおけるピーク振幅、又は特定の周波数範囲内の周波数応答のピーク振幅等を含み得る。
[0082] BCIシステム100、300の一部の実施形態では、又はBCIシステムを実装するためのプロセス200又は400の一部の実施形態では、ユーザの意図に関する情報を集めるために刺激の提示後に取得される信号が完全に使用され得る。BCIシステム100、300の他の一部の実施形態では、又はBCIシステムを実装するためのプロセス200又は400の一部の実施形態では、取得済みの信号によって提供される情報を最適に使用するために1つ又は複数の次元縮退法を使用することができる。例えばユーザの意図を明らかにするために使用される分析手続きは、上記で開示したように取得済みの信号から特徴を検出し及び/又は抽出する1つ又は複数のステップを含み得る。信号の特徴は、信号を表す幾つかのパラメータを含むことができる。一部の条件の例では、特徴は信号の成分(例えば主成分又は独立成分)又は他の同様の次元縮退法を使用して得られる値又はベクトルを含むこともできる。特徴の一部の例は、ピーク振幅、持続時間、周波数帯域幅、基準線からの平均偏差等を含むこともできる。特徴の1つ又は複数は他の特定のパラメータに固有であり得る。例えば特徴は、刺激提示後200ms~500msにおけるピーク振幅、又は特定の周波数範囲内の周波数応答のピーク振幅等を含み得る。
[0083] 刺激提示後400msの時点における神経信号673の負の偏差のピーク振幅である特徴687Aの一例を示す、神経信号の一例を図6Aに示す。特徴の別の例は、刺激提示後100msから200msの間にある時点における正の偏差のピーク振幅である687Bであり得る。同様に、標的タグを含む刺激によって誘発される脳活動反応又は神経信号と標的タグを含まない刺激によって誘発される脳活動反応又は神経信号とを区別するために、1つ又は複数の特徴を定め使用することができる。例えば幾つかの刺激又はタグ点滅を提示することができ、同時発生信号を取得することができ、BCIシステムは取得済みの信号に対して1つ又は複数の特徴抽出ルーチンを実行して1つ又は複数の特定の特徴、例えば図6Aに示す特徴687A及び687B(特徴1及び特徴2)を抽出することができる。信号に由来する抽出済みの1つ又は複数の特徴は次元(例えばDim1及びDim2)と見なし、信号を評価するために使用することができる。図6Bは、4つの刺激又はタグ点滅(TF1、TF2、TF3、及びTF4)の一連の繰り返しの提示中に取得される信号から抽出される、抽出済みの特徴687A及び687BをDim1及びDim2として投影するやり方の一例を示す。例えば、タグ点滅TF2は標的タグを含むことができ、軸Dim1及びDim2上にプロットされる特徴687A及び687Bの両方についてより大きな振幅をレジスタするのに対し、タグ点滅TF3は標的タグを含まない可能性があり、それぞれの軸Dim1及びDim2上にプロットされる両方の特徴687A及び687Bについてより小さな(又はゼロの)振幅をレジスタする。以下で説明するように、BCIシステム(例えばシステム100、300)又はBCIシステムを実装するための方法(例えばプロセス200、400)の中の1つ又は複数の分類器又はインタプリタがそれらの特徴及び又は次元を使用して、信号及び信号を誘発する刺激(又はタグ点滅)を適切なやり方で分類し及び又はラベル付けすることができる。
標的タグの識別
[0084] 上記で説明したように、BCIシステムの目的の1つは1組の選択肢を刺激として提示し、特定のアクションを仲介し得る或る特定の刺激を選択するユーザの意図を脳活動の神経信号から復号することである。1組の刺激は1組の可視タグとすることができ、そのうちのユーザにとって関心のある或る特定のタグを標的タグとすることができる。従って別の言い方をすれば、BCIシステムの目的は利用可能な1組の可視タグから標的タグの同一性を特定の精度及び信頼度で識別することであり得る。標的タグを識別するプロセスは、特定のタグが提示される事前尤度、特定のタグがシグネチャ脳活動反応を誘発し得る尤度等の幾つかの情報源を組み込むことができる。
[0084] 上記で説明したように、BCIシステムの目的の1つは1組の選択肢を刺激として提示し、特定のアクションを仲介し得る或る特定の刺激を選択するユーザの意図を脳活動の神経信号から復号することである。1組の刺激は1組の可視タグとすることができ、そのうちのユーザにとって関心のある或る特定のタグを標的タグとすることができる。従って別の言い方をすれば、BCIシステムの目的は利用可能な1組の可視タグから標的タグの同一性を特定の精度及び信頼度で識別することであり得る。標的タグを識別するプロセスは、特定のタグが提示される事前尤度、特定のタグがシグネチャ脳活動反応を誘発し得る尤度等の幾つかの情報源を組み込むことができる。
[0085] この機能を実行するために、BCIシステム100、300は図7に示すプロセス700を実施することができる。プロセス700は、上記で説明したプロセス200及び/又はプロセス400の一部又はかかるプロセスと同じ若しくはほぼ同様であり得る。例えばプロセス700は、訓練刺激及び又は新たな刺激の提示を伴う1つ又は複数の訓練セッション及び/又は試験セッションを含み得る。プロセス700は、神経信号、動眼信号、及び/又は周辺信号等の信号を取得すること及び分析することも含むことができる。従って、そのような同様の部分及び/又は側面は本明細書では更に詳細に説明しない。
[0086] 図7の流れ図に示すように、プロセス700は、刺激を提示する(例えばタグ又は制御項目の点滅)ステップ701、及びステップ701の刺激提示と同時の及び/又はその後の神経活動信号を含む様々な信号を取得するステップ703を含むことができる。例えば、プロセス700は制御インタフェースによって刺激を提示することを含み得る。一部の実施形態では、視覚的表現のサイズ、色、向き、輝度、厚さ、又は移動度等、刺激又はタグ(例えば制御項目)に関連する視覚的表現の外観を変更することによって刺激を提示するようにプロセッサを構成することができる。プロセス700は、ステップ703で、刺激の提示後に刺激に関連するユーザの1組の神経信号を神経記録装置から受信することができる。或いは又は加えて、プロセス700は、刺激に関連する1組の眼球運動信号を視標追跡装置から受信することを含み得る。ステップ705で、上記で説明したように、神経信号を処理することを含め、取得済みの信号(例えば神経信号、眼球運動信号)を適切に処理(例えば前処理、フィルタリング、特徴抽出等)して、例えばEEG信号から1組の特徴に関連する情報(例えば神経信号に含まれる反応の振幅、反応の持続時間、反応の形状、1組の刺激からの刺激を提示することに対する反応のタイミング、神経信号に関連する周波数等)を抽出することができる。ステップ707で、任意の適切な統計モデル又は数学的構造を信号に適用することにより、処理済みの信号を解釈することができる。ステップ707で、信号がシグネチャ神経反応を含む尤度又は神経信号が制御信号を含む尤度を計算するために使用される信頼度採点システムに基づき、処理済みの信号を分類し又はラベル付けし又は採点することもできる。ステップ709で、信号を誘発した刺激又はタグ点滅に処理済みの信号又はラベル付け/採点された信号を関連付けることができる。換言すれば、ステップ709で、神経信号の処理済みの及び分析済みの結果を信号内の反応を引き起こすタグ点滅に関連付け又は結び付けることができる。ステップ701~709は、様々な別個の刺激又はタグ点滅を提示するために、又は単一の刺激若しくはタグ点滅を繰り返し提示するためにも繰り返すことができる(条件が比較可能である限り、信号対雑音比、SNRを高めるために刺激を繰り返し提示することによる信号及び分析結果を平均することができる)。ステップ711で、プロセス700は、それぞれの可視刺激又はタグ(例えば制御項目)が標的タグである尤度又はスコアを決定する(例えば計算する)ことを含み得る。その後、全ての可視タグの尤度又はスコアを評価するステップ713で、最も高い尤度又はスコアを有するタグを標的タグだと決定し、選択のために返す。上記で説明したように、標的タグを識別することはタグが標的タグであり得る尤度又はタグが提示され得る尤度を検討することも含むことができる。例えばUI/UXが英単語のスペラである場合、BCIシステムは英語のアルファベット内の特定の文字が標的タグであり得る尤度又は特定の文字が提示される確率を検討することを含み得る。英語では一部の文字(例えば母音)が他の文字(例えばz、q等の文字)よりもはるかに多く使用されるので、この検討は標的タグを識別する速度及び精度可能である。標的タグを識別することは、ユーザの注目箇所を決定することも含むことができ及び/又は決定することにも関連することができ、注目箇所は刺激又はタグに関連する。タグ及び/又は注目箇所に基づき、BCIシステムはユーザが意図するアクションを突き止めそれを実施する(例えばタグ又は制御項目を活性化し又は非活性化する)ことができる。
スコアテーブル
[0087] システム100、300等のBCIシステムのUI/UXにより、ユーザに刺激又はタグの一連又は組み合わせを提示することができる。タグは、マシン、装置、及び/又はインタフェースの制御をユーザに与える1つ又は複数のアクションにそれぞれ関連し得る。任意の所与のステップにおいて、タグの1つ(又は複数)が、選択時にユーザが望むアクションをもたらすことができる標的タグであり得る。上記で説明したように、目的は提示されるタグ又はタググループの組み合わせの中の標的タグを神経信号(及び動眼信号又は周辺信号等の他の関連信号)から識別することである。
[0087] システム100、300等のBCIシステムのUI/UXにより、ユーザに刺激又はタグの一連又は組み合わせを提示することができる。タグは、マシン、装置、及び/又はインタフェースの制御をユーザに与える1つ又は複数のアクションにそれぞれ関連し得る。任意の所与のステップにおいて、タグの1つ(又は複数)が、選択時にユーザが望むアクションをもたらすことができる標的タグであり得る。上記で説明したように、目的は提示されるタグ又はタググループの組み合わせの中の標的タグを神経信号(及び動眼信号又は周辺信号等の他の関連信号)から識別することである。
[0088] 標的タグを識別することは、提示される各刺激又はタグ(若しくはタググループ)によって誘発される神経信号を分析する任意の適切な方法を使用して実現することができる。方法の一例は、可視タグのそれぞれが標的タグである尤度をあり得る全ての可視タグについて計算することである。計算された尤度を有する各可視タグは、任意の適切な採点方式に従ってスコアを関連付けることもできる。従って、全ての可視タグがスコアテーブルを形成するスコアを有することができ、以下でより詳細に説明するように、かかるスコアテーブルはスコアが最も高い可視タグが標的タグとして識別されるように評価され得る。
[0089] 図8Aは、所与の例においてBCIシステムのUI/UX内の可視タグがユーザにとって関心のある標的タグである尤度を計算するために使用可能な分析方法の一部の例を示す。尤度は提示される刺激又はタグをランク付けするスコア、例えば信頼スコアに関連し得る。例えば、タググループ(t1、t2等)として適切な組み合わせで点滅として提示したとき特定の標的反応及び特定の非標的反応を誘発することが知られているP個のタグをユーザに提示することができる。BCIシステムは、タグ(又はタググループ)点滅tの提示中に誘発される刺激-反応を採点する(yt)ために使用可能な1つ又は複数の特徴を含む特徴ベクトルを生成することができる。スコアytは、既知の刺激に対する反応の事前知識を用いて計算される尤度メトリクに基づき得る。例えば、制御信号又はシグネチャ反応信号(例えばERP又はP300)を含む刺激又はタグ点滅tに対する所与の刺激反応xtの尤度は、タグ点滅が標的タグを含んでいたかどうかに基づいて適切な分析方法によって計算され得る。891及び893等、方法の一部の例を図8Aに示す。図8Bに示す分布の例に示すように、標的タグ及び非標的タグの刺激反応のスコアを使用し、標的反応の平均(μa)及び分散(σa
2)並びに非標的反応の平均(μn)及び分散(σn
2)を伴う分布を計算することができる。
[0090] 刺激として提示したときに特定のタグがシグネチャ反応を誘発する確率は、任意の適切な方法を使用して計算することができる。例えば図8A及び図8Bに示すように、訓練データセットからの既知のシグネチャ反応との比較と共に又はかかる比較なしにタグの提示ごとに誘発される神経信号を分析して、891及び893等の方程式を使用して確率メトリクを生成することができる。分析から生じる確率メトリクは信頼スコア895を生成するために使用することができる。提示されたタグ及び提示されていないタグを含む利用可能な全ての(可視及び不可視)タグに対応する信頼スコアはスコアの分布であり得る。図8Bにスコア分布の2つの例を示す。ゼロスコア付近を中心とするヌル分布は、シグネチャ反応を誘発しない既知のタグに対応する(平均(μn=0)及び分散(σn
2)を有する非標的タグの刺激反応である)。サンプルの分布は、潜在的な標的反応のスコアの平均(μa)及び分散(σa
2)を伴う、シグネチャ反応を誘発した可能性がある潜在的な標的タグから生じるスコアのものである。分布間の分離及び/又は重複は、刺激、ユーザ、及び/又はUI/UXの特性に関係する要因に依存し得る。
[0091] 一部の実施形態では、特定のスコア(例えば0.3及び0.9の値を有するスコア895)がヌル分布に属するのかサンプル分布に属するのかを区別するために、任意の適切な方法を使用することができる。例えば、タグが標的タグかどうかを割り振るのを助けるための基準897として閾値のスコア値(例えばスコア=0.1)を使用することができる。他の一部の実施形態では、全てのタグからのスコアを分類しなくてもよいが互いに比較することができ、最も高いスコアを有するタグを標的タグとして選択することができる。一部の実施形態では、神経反応の特定の特徴に適合するように開発される分類器のアンサンブルを介して神経反応が供給されてもよく、図9に示す方法の例に示し以下で説明するように、分類器のアンサンブルの出力を使用して信頼スコアを生成することができる。
[0092] 一部の実施形態では、例えば取得済みの信号が満たす場合にシグネチャ反応が誘発されたことを示し得る有意味の閾値又は基準を設定するために、訓練データを事前に収集し分析することを使用することができる。例えば特定のシグネチャ反応(例えばP300反応)を誘発することが知られている刺激によって誘発される反応を使用して未知の刺激又は新たな刺激に由来する反応を比較することができる。シグネチャ刺激をレジスタするために、様々なパラメータにおいて1つ又は複数の基準を設定することができる。例えば基準は、振幅、周波数、脳領域、開始潜時、反応の持続時間、反応の形状等のパラメータに対して設定することができる。分布は、シグネチャ反応又は制御反応を誘発する既知の刺激によって誘発される既知の反応に由来するかかるパラメータの1つ又は複数で作られ得る。新たな刺激によって誘発される新たな未知の反応に由来する1つ又は複数のパラメータをそれらの分布と比較して、新たな反応が1つ又は複数のシグネチャ反応を含むかどうかを確かめることができる。例えば、新たな刺激に対する反応期の一例の振幅パラメータをP300信号等の既知の制御反応に由来する振幅パラメータの分布、平均、及び分散と比較することができる。既知のP300信号の分布、平均、及び分散と比較してパラメータがどこに含まれるのかに基づき、P300信号等のシグネチャ又は制御脳信号としての資格を得るかどうかの信頼スコアを新たな刺激又はタグへの反応に与えることができる。かかる信頼スコア(例えばP300スコア)は、新たな刺激又は未知の刺激に対する全ての新たな反応について計算し、例えばスコアテーブル内にまとめることができる。
[0093] 神経反応ごとに計算される信頼スコアは、反応を誘発した対応する刺激又はタグに関連付けることができる。一部の実施形態では、反応ごとにスコアを計算し、(適切に同様の条件下で)同じ刺激によって誘発される反応を平均してより優れた信号対雑音の考慮を実現することができる。一部の実施形態では、パラメータの事前分布又は期待分布と単独で比較されるパラメータから個々の刺激-反応の対のスコアを得ることができる。一部の実施形態では、スコアの事前分布は計算済みのスコアを期待スコア分布と比較するためにも生成することができる。スコアテーブル内にまとめられる、提示される様々な刺激又はタグに関連する信頼スコアを比較することにより、BCIシステムは、最も高い信頼スコアで反応を誘発した刺激又はタグを見つけるように適合され得る。更に、タグは提示中にグループ分けすることができ、最も高い信頼スコアで反応を誘発した標的タグであるタググループ内の個々のタグを容易に検出できるようにするためにグループ分けは変えることができる。
[0094] 一部の実施形態では、信号を分類し又はラベル付けするために1つ又は複数の分析方法を使用することができる。その後、分析方法は、1つ又は複数の性能パラメータに基づいてその利点について評価することができる。次いで、1つ又は複数の分析方法の結果を組み合わせてスコアテーブルを生成することができる。例えば、神経活動信号は幾つかの統計モデルを使用して幾つかの分類器によって処理することができ、処理される各分類を分類の精度に基づいて評価することができる。次いで一緒に使用されるように分類器のアンサンブルを選択して、スコアテーブル内に供給される複合分類スコアを形成することができる。
[0095] 一部の実施形態では、他の様々な変数に基づく採点方式を採用することができる。例えば採点方式は、利用可能な可視タグの数、シグネチャ反応を誘発した既知の刺激又はタグ(例えば既知のP300刺激)の数、シグネチャ反応を誘発する可能性がある様々なタグの差の程度等に基づき得る。例えば採点方式は、0を通る-1から+1の値域の中にあることができ、シグネチャ反応(例えばP300)を誘発した尤度が高い刺激又はタグは+1に近いを有し、シグネチャ反応を誘発した尤度が最も低い刺激は-1に近いスコアを有し、曖昧な反応を有する中間的な刺激は0に近いスコアを有する。
分析方法のアンサンブル:例-メランジュ
[0096] 上記で説明したように、一部の実施形態ではスコアテーブルを生成するために2つ以上の分析方法を使用することができ、その方法は1つ又は複数の性能パラメータに基づいて評価される。例えば、神経活動信号は幾つかの分類器によって処理することができ、各分類器は他の分類器に対して評価される。次いで分類器のアンサンブルを一緒に使用して、スコアテーブル内に供給される複合分類スコアを形成することができる。スコアテーブルは、他の様々な情報源(例えば刺激情報、動眼信号等の他の信号源からの情報等)を用いて更新することができる。図9は、様々な特徴ベクトル及び分類方式を使用する3つ以上の異なる分類器を使用する方法の一例を示す。図9のプロットの一例に示すように、分類器のそれぞれからのラベル付けを評価する。最も優れたN個の分類器を選択し(Nは所定数又はユーザの自由裁量等である)、アンサンブル分類器又は「メランジュ」が生成される。メランジュを使用して神経信号を分析することにより、複合スコアテーブルが生成される。この複合スコアテーブルは、他の情報源(例えば刺激情報、眼球運動情報等)を用いて更新することができる。例えば複合スコアテーブルは距離テーブルによって更新されるように供給することができ、距離テーブルは、以下でより詳細に説明する他の近くのタグに対して誘発される反応に対するタグの近接度に基づく効果を組み込む。
[0096] 上記で説明したように、一部の実施形態ではスコアテーブルを生成するために2つ以上の分析方法を使用することができ、その方法は1つ又は複数の性能パラメータに基づいて評価される。例えば、神経活動信号は幾つかの分類器によって処理することができ、各分類器は他の分類器に対して評価される。次いで分類器のアンサンブルを一緒に使用して、スコアテーブル内に供給される複合分類スコアを形成することができる。スコアテーブルは、他の様々な情報源(例えば刺激情報、動眼信号等の他の信号源からの情報等)を用いて更新することができる。図9は、様々な特徴ベクトル及び分類方式を使用する3つ以上の異なる分類器を使用する方法の一例を示す。図9のプロットの一例に示すように、分類器のそれぞれからのラベル付けを評価する。最も優れたN個の分類器を選択し(Nは所定数又はユーザの自由裁量等である)、アンサンブル分類器又は「メランジュ」が生成される。メランジュを使用して神経信号を分析することにより、複合スコアテーブルが生成される。この複合スコアテーブルは、他の情報源(例えば刺激情報、眼球運動情報等)を用いて更新することができる。例えば複合スコアテーブルは距離テーブルによって更新されるように供給することができ、距離テーブルは、以下でより詳細に説明する他の近くのタグに対して誘発される反応に対するタグの近接度に基づく効果を組み込む。
[0097] 一部の実施形態では、分類器は(例えば1つ又は複数のスコアデータセットを含む)スコアテーブルを使用し、例えば図4に示すような訓練段階中に構成することができる。例えば方法は、制御インタフェースによってユーザに刺激を提示することを含むことができ、刺激はアクションに関連するタグ(例えば制御項目)を含む。この方法は、ユーザの挙動に関連する1組の入力を視標追跡装置及び神経記録装置から受信することを含み得る。この方法は、刺激に関連する1組の入力及び情報に基づいてスコアテーブルを生成すること、及びユーザが意図するアクションに関連する情報(例えばユーザが意図するアクションを示す情報)を受信することを含み得る。次いで、1組の分類器がスコアテーブルをユーザが意図するアクションに関連させ、(例えば後の期間において)例えば図7に示す方法700又は本明細書に記載の他の方法に従ってユーザが意図するアクションを予測し又は明らかにするために後のユーザであることができるように、スコアテーブル及びユーザが意図するアクションに関連する情報を使用して1組の分類器を構成することができる。
[0098] 一部の実施形態では、この方法は、1組の分類器を使用して決定されるアクションの精度を評価することに基づき、1組の分類器を修正して修正済みの1組の分類器を生成することを更に含むことができる。加えて又は或いは、この方法は、決定されるアクションの精度を評価することに基づき、視標追跡装置又は神経記録装置の1つ又は複数から受信される入力に適用される1組の重みを生成することを含み得る。重みは、決定されるアクションの精度、ユーザのエクスペリエンス、及びユーザに関連する履歴情報に関連することができる。次いでこの方法は、後の期間において制御インタフェースによってユーザに刺激を提示すること、並びに後の期間におけるユーザの挙動に関連する1組の入力を視標追跡装置及び神経記録装置から受信することを含む。この方法は、後の期間において提示される刺激に関連する1組の入力及び情報に基づいてスコアテーブル又はスコアデータセットを生成すること、及び任意選択的にスコアテーブル内のスコアに1組の重みを適用することを含み得る。この方法は、修正済みの1組の分類器を使用し、後の期間においてユーザが意図するアクションを決定することも含み得る。
刺激情報の使用:例-距離スケーリング
[0099] BCIシステム100、300、及び/又はBCIシステムを実装するプロセス200、400、及び/又は700の一部の実施形態では、刺激がどのように提示されたのかに関して入手可能な情報を使用して標的タグの識別精度を改善することができる。例えばプロセス700に関して上記で説明した神経信号から計算される尤度及び信頼スコアと共に、UI/UXによって提示される刺激又はタグ点滅の空間的配置、タグ点滅の時間順序又は時系列、タググループ内のタグのグループ分け、タグ点滅に関連する突出度等を使用することができる。
[0099] BCIシステム100、300、及び/又はBCIシステムを実装するプロセス200、400、及び/又は700の一部の実施形態では、刺激がどのように提示されたのかに関して入手可能な情報を使用して標的タグの識別精度を改善することができる。例えばプロセス700に関して上記で説明した神経信号から計算される尤度及び信頼スコアと共に、UI/UXによって提示される刺激又はタグ点滅の空間的配置、タグ点滅の時間順序又は時系列、タググループ内のタグのグループ分け、タグ点滅に関連する突出度等を使用することができる。
[0100] 刺激情報を使用する方法の一例を、距離テーブルと呼ぶものを生成するための距離スケーリングの形で本明細書に記載する。例えば視覚的インタフェースによってUI/UXを提示するBCIシステムの一部の実施形態では、刺激として提示されるタグ間の物理的距離を使用して或る特定のタグが標的タグである尤度をより上手く推定することができる。換言すれば、ディスプレイ内の提示タグ間のユークリッド距離を使用して、その刺激によって誘発される反応を分析することに基づいて可視タグごとに計算されるスコアテーブル内の信頼スコアを更新することができる。
[0101] 特定のタグが標的タグ(例えば図10Aに示すAの文字)である場合、その標的タグ(例えばA)は単独で又はタググループ(例えばAを含む列又は行の提示)内で提示されるとき、神経活動信号内に記録され得るシグネチャ反応又は制御信号を誘発し得る。全てのタグに関連する尤度及び/又はスコアを計算するステップの後、この特定のタグ(A)がスコアテーブル内の高い信頼スコアに関連することができる(赤色の円によって示す)。とりわけ一部の実施形態では、標的タグ(例えばA)が提示されなくても、この標的タグの近くのタグ(例えばAと空間的に近接するB、G、H、M、Cの文字)を提示することも、高スコアをもたらす制御信号と同様であり得る神経反応を誘発することがある。換言すれば、対象となる標的タグではない一部の可視タグも、標的タグへの近接度を理由に高い信頼スコアを生む制御信号と同様の信号を提示時に誘発し得る。図10Bは、標的タグAへの近接度により、図10Cに示すタグの提示によって誘発された信号振幅のプロットの一例を示す。
[0102] 標的タグに近いタグによって誘発される信号は標的タグが誘発する信号ほど突出していない可能性があるが、それでもなお分析の特定の基準を満たす又は特定の閾値を超えるほどに顕著であり得る。しかし、時間的近接度、注意散漫、ランダムスプリアス信号等の様々な理由により、スコアテーブル内で比較的高い信頼スコアを有し得るタグから標的タグを明確にする及び/又は区別するために、近接タグに由来するそれらの信号は標的タグを識別するプロセス中に活用することができる。
[0103] 例えば一部の例では、タグ点滅内で一緒に提示されるとき又は提示されるとき又は時系列が近いとき、Aの文字及び-の記号等の2つのタグはシグネチャ反応を有する信号、例えばP300を誘発し、高スコアを生む場合がある。BCIシステムの一例は、過去に提示されたタグの刺激-反応情報と共に、全ての可視タグの空間的配置に関する情報を使用して標的タグをAの文字であるように正しく識別することができる。例えばBCIシステムは、Aへの近接度が原因で高スコア(B、G、及びHの文字の周りの円によって示す)を生んでいる可能性があるAに近い文字(例えばB、G、Hの文字)、及び標的タグAからの距離が原因で低スコア(3、4、及び9の数字の周りの円によって示す)を有する、Aに対して遠位だが高スコアの文字「-」に近い文字(例えば3、4、9の数字)を含む様々なタグの提示に対する反応を比較して、標的タグが「-」の文字ではなくAであることを正しく識別することができる。図10Aの例は、2つ以上のタグに由来する互角のスコアに対処するために、及び/又はかかるスコアの曖昧さを除去するためにタグの空間的関係をどのように使用できるのかを示すが、互角の反応を有するタグに対処するために及び/又はかかるタグの曖昧さを除去するために提示時のタグの時間的関係も同様に使用することができる。図11は、スコアテーブル内のスコアを更新するために近接タグによって誘発される信号を使用するプロセス1100の一例を示す。
[0104] プロセス1100は、図7に示すプロセス700と同じ又は同様であり得る。例えばプロセス1100は、1つ又は複数のタグを用いて刺激又はタグ点滅を提示するステップ1101、脳活動信号を記録するステップ1103を含むことができる。プロセス1100は、1つ又は複数の、脳活動信号を処理するステップ1103、信号を分類し及び/又は採点するステップ1105、並びに尤度を計算するステップ1107も含むことができる。プロセス1100は、各可視タグをスコアに関連付け、スコアテーブルを生成するステップ1109も含むことができる。加えてプロセス1100は、各タグ点滅後に、刺激又はタグ点滅の特定の例において点滅させた1つ又は複数のタグに対するその可視タグの近接度に基づき、可視スコアごとに1つ又は複数の距離スコアを計算するステップ1111を含むことができる。
[0105] 換言すれば、各タグ点滅後に、ステップ1111は利用可能な全てのタグのそれぞれについて、点滅タグのそれぞれに対するそのタグの近接度に基づいてスコア(例えば距離スコア)を計算し、距離テーブルを生成することを含む。距離テーブルの距離スコアは、ステップ1113でスコアテーブル内の信頼スコアを更新するために使用することができる。その後ステップ1115で、最も高いスコアに関連するタグを得るために更新済みのスコアテーブルを評価することができ、そのタグを標的タグによってであるように決定することができる。
[0106] 図12は、距離テーブルを生成するために距離スコアを計算する方法の一例を示す。例えばタグ1~5は利用可能な1組のタグとすることができ、その中でユーザはタグ1を選択したい。従ってタグ1が標的タグである。UI/UXの所与のインスタンスにおいて、グループ分けされたタグ点滅としてタグ1及びタグ5を一緒に提示することができる。利用可能な1組のタグ内の各タグは、提示される事前確率を有することができる。例えば5個のタグがあり、提示される可能性が全て等しい場合、5個のタグのそれぞれは1/5(0.2)の提示確率を有し得る。同様に、利用可能な1組のタグ内の2つ以上のタグが、一緒に選択される事前確率を有することができる。例えば図12に示すように、タググループ(1,5)内で一緒に点滅させるタグ1及びタグ5は、それらのタグの個々の確率をそれらのタグの確率の和によって正規化することで与えられる、提示される事前確率をそれぞれ有し得る。
[0107] 図12に示すように、他の全てのタグからタグのそれぞれについて距離測度を計算することができる。例えば、タグ1から他の全ての利用可能なタグ1~5までの距離は測度di1=(i=1,2,3,4,5)として計算することができる。事前確率及び距離測度の計算後、各タグ点滅からの距離測度によってスケーリングされる、そのタグが標的である尤度の測度を各可視タグ(1,2,3,4,5)に割り当てることができる。つまり、どのタグを点滅させるのかに関係なく各可視タグに標的タグである事前尤度スコアを割り当てることができ、それぞれのタグ点滅ごとに、最後のタグ点滅又はタググループ点滅内のタグからの適切な距離スケーリングを用いて各可視タグの尤度スコアを更新することができる。例えば(タグ1及びタグ5で構成される)タググループを点滅させる場合、タグx(例えばタグ3)が標的タグである尤度はd’x,g(例えばd’3,g)であるように採点することができる。点滅させるグループ(1及び5)内のタグの提示確率(p’1及びp’5)の和によって与えられ、採点されるタグ(3)からのそのタグ(1又は5)の対応する距離(d3,1又はd3,5)によってスケーリングされる各提示確率(p’1又はp’5)。図12の例に示すように、従って各タグの提示に関する情報から距離に基づく尤度スコア又は距離スコアを全ての可視タグに割り当てることができる。上記で説明したように神経活動信号を分析すること及び信頼スコアを計算することによって生成されるスコアテーブル(例えばP300スコアテーブル)を更新するために供給することができる、距離テーブル(例えばP300距離テーブル)内の全ての距離スコアの集合。
[0108] 図13は、プロセス1110と同様のプロセスがたどる別の一連のステップの例を示し、(例えば分類器を使用して)神経活動信号を分析することによるスコアテーブルの信頼スコア及び距離テーブルの距離スコアを組み合わせてスコアs1、s2、s3等を有する更新済みのスコアテーブルを形成することができ、最も高いスコアを有するタグ又は刺激を標的タグとして識別するために更新済みのスコアテーブルを評価することができる。図13に示すように、信頼スコアを用いてスコアテーブルを生成すること、距離スコアを用いてスコアテーブルを更新すること、及び更新済みのスコアテーブルを評価することは、それぞれの刺激又はタグ点滅後に行うことができる。最も高いスコアを有すること並びに最も高いスコアが1つ又は複数の閾値基準を満たすことに基づいて独特なタグの刺激を標的タグとして識別できる場合、識別された標的タグを選択されるように返し、標的タグを識別するそのインスタンスを終了し、スコアテーブルをクリアすることができる。
[0109] しかし、どのタグも(スコアテーブル内で最も高いスコアを有するタグを含む)1つ又は複数の閾値基準を満たすスコアを有さず、従ってどのタグも標的タグとして識別できない場合、その結果はデータが不十分である状態を示すことができ、かかる状態は別の一連の新たなタグ点滅と、その後に続く信頼スコアの計算、距離スコアの計算、及びスコアテーブルの更新にUI/UXが進んで最新のタグ点滅に由来するデータを組み込むことをもたらし得る。次いで、最も高いスコアが閾値基準を満たすことについて更新済みのスコアテーブルを再び評価することができる。この一連の新たなタグ点滅と、その後に続くスコアテーブルを更新するための信頼スコア及び距離スコアの計算は、少なくともオンタグが標的タグとして識別されるための閾値基準を満たすスコアを有する状態にスコアテーブルが達するまで繰り返し続けることができる。
眼球運動信号の使用:例-視覚スコアテーブル
[0110] BCIシステム(例えばシステム100、300)の一部の実施形態では、又はBCIシステムを実装するためのプロセス(例えばプロセス200、400、700、1100、及び/又は1400)は、1つ又は複数のアイトラッカから入手可能な眼球運動情報を組み込むように構成され得る。つまり、スコアテーブルを更新して利用可能な1組のタグから標的タグを識別するために、1つ又は複数の動眼信号に由来する情報を使用することができる。
[0110] BCIシステム(例えばシステム100、300)の一部の実施形態では、又はBCIシステムを実装するためのプロセス(例えばプロセス200、400、700、1100、及び/又は1400)は、1つ又は複数のアイトラッカから入手可能な眼球運動情報を組み込むように構成され得る。つまり、スコアテーブルを更新して利用可能な1組のタグから標的タグを識別するために、1つ又は複数の動眼信号に由来する情報を使用することができる。
[0111] 図14は、プロセス1400を概説する流れ図を示す。プロセス1400は、プロセス200、400、700、及び/又は1100と同じ又はほぼ同様であり得る。例えばプロセス1400は、1つ又は複数のタグを用いて刺激又はタグ点滅を提示するステップ1401を含むことができる。プロセス1400は、脳活動信号及び眼球運動信号を記録するステップ1403を含むことができる。ステップ1405及び1407で、取得済みの脳活動信号及び眼球運動信号を処理することができ、適切な統計モデルをそれぞれ適用することができる。その後、1つ又は複数の適切な採点方式を使用し、脳活動信号を分析することに基づいてスコアにタグを割り当て又はスコアにタグを関連付けることができる。ステップ1407で、1つ又は複数のスコアに基づき、各タグが標的タグである尤度メトリクを計算することができる。
[0112] 加えて、プロセス1400は、各タグに関連する動眼スコアを計算するためのステップ1409を含むことができる。ステップ1409及び1411での計算後、距離テーブルの距離スコア及び/又は視覚スコアテーブルの動眼スコアを用いてステップ1407のスコアテーブルを更新することができる。更新済みのスコアテーブルは、標的タグを識別するためにステップ1415で評価することができる。刺激の提示及び神経活動信号の取得と同時に取得される眼球運動情報を組み込むのに適した任意の方法を使用して動眼スコアを計算することにより、ビジョンテーブルを生成することができる。図15は示し、動眼スコアを計算して視覚スコアテーブルを生成するための一部の実施形態で使用される手続きの例。
[0113] 図15に示すように、神経活動信号(例えばEEG信号)の取得に対応して取得される視標追跡信号は任意の適切な分析方法を使用して前処理することができる。例えば視標追跡信号は(例えばカルマンフィルタリング手法を使用して)フィルタリングすることができ、サッカードの検出及び/又は除去ルーチンにかけることができる。その後、3次元UI/UXを使用する一部の実施形態では、検出されたサッカードに対応する眼球運動信号を2次元空間にマップされるものから3次元空間上にマップされるものへと変換することができる。一部の実施形態では、視標追跡信号は、参照によりその開示を全て上記で本明細書に援用する’253号出願に記載されている、及び/又は参照によりその開示を全て上記で本明細書に援用する’209号出願に記載されているものとほぼ同様の又は同じ機器及び/又は方法を使用して取得し分析することができる。
[0114] UI/UXが事実上2次元であるように設計される一部の実施形態では、サッカードに対応する眼球運動信号が2次元マッピング内に保たれる。
[0115] マッピング後、ユーザの注視の程度及び方向の推定を生成するために1つ又は複数の注視ベクトルを計算することができる。計算される注視ベクトルは、振幅及び方向の平均推定値並びに注視角の分散を有し得る。BCIシステム又はBCIシステムを実装するプロセスは、それを使用してユーザがタグを見ることができる、利用可能な1組の所与のタグの各可視タグの周りの注視角又は視角の不明瞭な境界を計算することを含み得る。BCIシステムは、眼球運動の運動学及びユーザの眼球運動に関する情報を使用して視力モデルを構築し及び/又は更新して、UI/UX1571を使用して図15に示す予測注視ベクトル189を生成することができる。図15の例におけるBCIシステム1500は、視力モデルからの予期される視角を入手可能な他のユーザデータ(例えばユーザの目の間隔、アイトラッカのメーカー及び型式等)と共に組み込むことができる。分析される視力モデル、及びサッカード眼球運動信号、及び注視ベクトルに由来する結果の組み合わせを使用して視覚スコアテーブルを生成することができ、計算される注視ベクトル1589への近接度に基づいて各可視タグに動眼スコアが割り当てられる。図15に示すように、スコアv1、v2、v3等を有する視覚スコアテーブルを使用して、信頼スコアから計算された(及び/又は距離スコアを用いて更新された)スコアテーブルを更新することができる。
スコアテーブルを更新するための感覚情報の使用
[0116] BCIシステム(例えばシステム100、300)の一部の実施形態では、又はBCIシステムを実装するためのプロセス(例えばプロセス200、400、700、1100、1400、及び/又は1600)は、生体(又は非生体)データを取得する任意の数のセンサから入手可能な情報を組み込むように構成することができる。例えば、複合スコアテーブルを更新して利用可能な1組のタグから標的タグを識別するために、1つ又は複数の生理学的信号、又は挙動信号、又は外部信号(摂動又はユーザが現在置かれている環境内の事象等を示す)の情報を使用することができる。
[0116] BCIシステム(例えばシステム100、300)の一部の実施形態では、又はBCIシステムを実装するためのプロセス(例えばプロセス200、400、700、1100、1400、及び/又は1600)は、生体(又は非生体)データを取得する任意の数のセンサから入手可能な情報を組み込むように構成することができる。例えば、複合スコアテーブルを更新して利用可能な1組のタグから標的タグを識別するために、1つ又は複数の生理学的信号、又は挙動信号、又は外部信号(摂動又はユーザが現在置かれている環境内の事象等を示す)の情報を使用することができる。
[0117] 図16は、複合スコアテーブルを形成するために様々なセンサからのデータを統合するプロセス1600の一例を概説する流れ図を示す。プロセス1600は、プロセス200、400、700、1100、及び/又は1400と同じ又はほぼ同様であり得る。例えばプロセス1600は、1つ又は複数のタグを用いて刺激又はタグ点滅を提示するステップ1601を含むことができる。プロセス1600は、様々なセンサのアレイから脳活動信号及び同時発生信号を記録するステップ1603を含むことができる。ステップ1605及び1607で、信号ストリームごとの適切な加重ベクトルを用いて、取得済みの脳活動信号及び様々なセンサからの信号を処理することができ、適切な統計モデルを別々に又はアンサンブルとして一緒に適用することができる。1つ又は複数の適切な採点方式を使用し、脳活動信号を分析することに基づいて及び様々なセンサのそれぞれからの信号を分析することにより、ステップ1609で尤度スコアを計算し、ステップ1611でタグに割り当て又は関連付けることができる。つまり、タグ点滅ごとに、メインスコアテーブルを更新する脳活動信号を分析することによるタグのスコアに加えて、センサ(1,2,...X)のそれぞれからの全ての信号ストリームを、例えばセンサ(1,2,...X)スコアテーブル内へと更新されるスコア(S1,S2,..SX)に関連付けることができる。プロセス1600は、複合スコアテーブルを生成する、センサ(1,2,...X)のそれぞれに対応するスコアテーブルのスコアを用いてメインスコアテーブルを更新するステップ1613を含むことができる。ステップ1617で、プロセス1600は、複合スコアテーブル内で最も高いスコアを有するタグを標的タグとして返すことができる。
マスタスコアテーブルの使用
[0118] 図17は、標的タグを識別するのを助けるための幾つかの情報源を組み込む、マスタスコアテーブルを生成する方法1700の一例を示す。例えば図17に示すように、スコアセットを生成するために幾つかの情報源をそれぞれ使用することができ、標的タグの識別を更新するために様々なスコアセットを適切に組み合わせることができる。
[0118] 図17は、標的タグを識別するのを助けるための幾つかの情報源を組み込む、マスタスコアテーブルを生成する方法1700の一例を示す。例えば図17に示すように、スコアセットを生成するために幾つかの情報源をそれぞれ使用することができ、標的タグの識別を更新するために様々なスコアセットを適切に組み合わせることができる。
[0119] 一部の実施形態では、分類器のアンサンブルを介した供給によって様々な情報源からの様々なスコアを更に分析することができる。様々なスコアは、例えば神経反応を分析することによる信頼スコア(例えば図17に示すP300スコア)、タグ間の空間的関係に関する情報を使用することによって生成される距離スコア、タグを提示する時系列に関する情報を使用することによる時間スコア、(例えば眼球運動追跡データ又は頭部動作追跡データのエポックを分析することによる)ユーザの目及び/又は頭部の位置に関する情報を使用するビジョンスコア、ユーザが着用する又はユーザの環境内に配置されるセンサ(例えばセンサX)から得られる他の感覚パラメータに関する情報(例えば音声コマンド、頭部動作、ジェスチャ等)を使用する他の感覚スコアとすることができる。図17に示す方法1700に示すように、利用可能な各タグに対応するそのそれぞれのスコアテーブルからのこれらのスコアの1つ又は複数を組み合わせてアンサンブルスコアデータセットを形成することができる。
[0120] 一部の実施形態では、スコアテーブルのスコアは、図9に示すアンサンブル分類器の例等、分類器のアンサンブルを介して供給することができる。分類器のアンサンブルを一緒に使用して、マスタスコアテーブル内に供給される複合分類スコアを形成することができる。図9に示すように、例えば信頼スコアは分類器1によって最も上手く分類できる一方、距離スコアは分類器2によって最も上手く分類でき、その後も同様に続き、各スコアセットは対応する1組の最も優れたN個の分類器を有する。次いで最も優れたN個の分類器を選択し(Nは所定数又はユーザの自由裁量等である)、アンサンブル分類器(例えば「メランジュ」)が生成される。複合アンサンブル分類器(例えばメランジュ)は、各情報源に対応する各スコアテーブルのスコアを含む特定のデータセットに対して最も優れたN個の分類器を適切に使用することができる。一部の実施形態では、複合スコアはその分類に基づいて重み付けすることができる。
[0121] 方法1700と同様の方法を使用するBCIシステムの一部の実施形態では、(アンサンブル分類器の使用の有無にかかわらず)幾つかのスコアテーブルからのスコアに重み付けすることは、各情報源がどれ位情報を与え得るのかに基づくことができる。図17に示すように一部の実施形態では、一部の例では訓練セットの選択の精度、訓練中のユーザのパフォーマンス等のパラメータに従い、(アンサンブル分類の有無にかかわらず)複合加重スコアセットに再び重み付けすることができる。一部の実施形態では、複合スコアセットは、ユーザの履歴、エクスペリエンスのレベル、UI/UXの履歴、ユーザの統計等の適切な情報源に従って適切に重み付けすることもできる。結果として生じる全ての可視タグの複合加重スコアセットは、図17に示すマスタスコアテーブルを生成するために使用することができる。最も高いスコアを有するタグを標的タグとして識別するために、閾値交差基準等の適切な手法を使用してこのマスタスコアテーブルを評価することができる。同様の又は異なるタグ又はタググループ点滅の複数回の提示を使用してこのマスタスコアテーブルを更新し、マスタスコアテーブルを毎回評価しながら推定の精度を高めること又は繰り返し可能な標的タグの選択を得ることができる。
結論
[0122] 要約すると、ユーザによってリアルタイムで操作可能な統合型脳コンピュータインタフェースの実装に使用するためのシステム及び方法を本明細書に記載した。開示したシステムは、ポインティング制御機能を実装するための眼球運動追跡システム、及びアクション制御機能を実装するための脳活動追跡システムを含む。高速且つ正確な操作を可能にするように戦略的に設計されるUI/UXの提示により、両方の機能が実装される。加えて、開示したシステム及び方法は、任意の適切なプラットフォーム上にリアルタイムBCIを実装して仮想環境、拡張環境、又は実環境のユーザ操作を仲介するために、ハードウェアに依存しないように構成される。図11は本発明のBCIシステム及び方法の使用空間の説明図を示す。
[0122] 要約すると、ユーザによってリアルタイムで操作可能な統合型脳コンピュータインタフェースの実装に使用するためのシステム及び方法を本明細書に記載した。開示したシステムは、ポインティング制御機能を実装するための眼球運動追跡システム、及びアクション制御機能を実装するための脳活動追跡システムを含む。高速且つ正確な操作を可能にするように戦略的に設計されるUI/UXの提示により、両方の機能が実装される。加えて、開示したシステム及び方法は、任意の適切なプラットフォーム上にリアルタイムBCIを実装して仮想環境、拡張環境、又は実環境のユーザ操作を仲介するために、ハードウェアに依存しないように構成される。図11は本発明のBCIシステム及び方法の使用空間の説明図を示す。
[0123] 様々な実施形態を上記で説明してきたが、それらは限定ではなく例として示してきたに過ぎないことを理解すべきである。上記の方法は、特定の事象が特定の順序で発生することを示すが、特定の事象の順序は修正され得る。加えて、事象のうちの特定のものは、可能であれば並列プロセスによって同時に実行することができ、更には上記で説明したように逐次的に実行することができる。
[0124] 上記で説明した概略図及び/又は実施形態は特定の構成要素が特定の向き又は位置に配置されることを示すが、構成要素の配置は修正され得る。実施形態を個々に図示し説明してきたが、形式及び詳細の点で様々な変更を加えることができることが理解されよう。相互排他的な組み合わせを除く任意の組み合わせで本明細書に記載の機器及び/又は方法の任意の部分を組み合わせることができる。本明細書に記載の実施形態は、記載した様々な実施形態の機能、構成要素、及び/又は特徴の様々な組み合わせ及び/又はサブコンビネーションを含むことができる。
Claims (22)
- ユーザに制御インタフェースを提示するように構成されるディスプレイであって、前記制御インタフェースはアクションにそれぞれ関連する複数の制御項目を含む、ディスプレイと、
前記ユーザに関連する神経信号を記録するように構成される神経記録装置と、
前記ディスプレイ及び前記神経記録装置に動作可能に結合されるインタフェース装置であって、
メモリ、並びに
前記メモリに動作可能に結合され、
前記制御インタフェースによって1組の刺激を個々に提示することであって、前記1組の刺激の各刺激は前記複数の制御項目の1組の制御項目を含む、提示すること、
前記1組の刺激の各刺激を提示した後、その刺激に関連する1組の神経信号を前記神経記録装置から受信すること、
前記1組の刺激の各刺激の前記1組の神経信号に基づいて前記複数の制御項目の各制御項目に関連するスコアを決定すること、
前記複数の制御項目の各制御項目に関連する前記スコアに基づいて前記ユーザの注目箇所を決定することであって、前記注目箇所は前記複数の制御項目の少なくとも1つの制御項目に関連する、決定すること、及び
前記注目箇所に基づいて前記ユーザが意図するアクションを決定すること
を行うように構成されるプロセッサ
を含む、インタフェース装置と
を含む、機器。 - 前記神経信号が、事象関連電位(ERP)、運動心像信号、定常状態視覚誘発電位(SSVEP)、一過性視覚誘発電位(TVEP)、脳状態コマンド、視覚誘発電位(VEP)、P300誘発電位、感覚誘発電位、運動誘発電位等の誘発電位、ミュー律動又はベータ律動等の感覚運動律動、事象関連脱同期(ERD)、事象関連同期(ERS)、緩徐脳電位(SCP)、又は脳状態依存信号の少なくとも1つを含む脳波記録(EEG)信号を含み、
前記プロセッサが、前記1組の刺激の各刺激の前記1組の神経信号を処理して前記EEG信号から1組の特徴に関連する情報を抽出するように更に構成され、
前記プロセッサが、前記1組の特徴に関連する前記情報を使用して、前記複数の制御項目の各制御項目に関連する前記スコアを決定するように構成される、
請求項1に記載の機器。 - 前記1組の特徴が、前記神経信号に含まれる反応の振幅、前記反応の持続時間、前記反応の形状、前記1組の刺激からの刺激を前記提示することに対する前記反応のタイミング、又は前記神経信号に関連する周波数の少なくとも1つを含む、請求項2に記載の機器。
- 前記ユーザに関連する眼球運動信号を記録するように構成される視標追跡装置を更に含み、
前記プロセッサが、前記1組の刺激の各刺激を提示した後、その刺激に関連する1組の眼球運動信号を前記視標追跡装置から受信するように更に構成され、
前記プロセッサが、前記1組の刺激の各刺激に関連する前記1組の神経信号及び前記1組の眼球運動信号に基づいて前記複数の制御項目の各制御項目に関連する前記スコアを決定するように構成される、
請求項1に記載の機器。 - 前記1組の制御項目の各制御項目が視覚的表現に関連し、
前記プロセッサが、提示される前記1組の刺激の刺激ごとに、その刺激に含まれる前記1組の制御項目の各制御項目に関連する前記視覚的表現の外観を変更することによって前記1組の刺激を個々に提示するように構成される、
請求項1に記載の機器。 - 前記外観を変更することが、前記視覚的表現のサイズ、色、色調、テクスチャ、輪郭、向き、輝度、厚さ、又は移動度の少なくとも1つを変更することを含む、請求項5に記載の機器。
- 前記プロセッサが、前記複数の制御項目の各制御項目の尤度推定を計算することによって前記複数の制御項目の各制御項目に関連する前記スコアを決定するように構成され、前記複数の制御項目の各制御項目の前記尤度推定は、前記制御項目が前記ユーザの前記注目箇所に関連する尤度を示す、請求項1に記載の機器。
- 前記プロセッサは、前記ユーザが意図する前記アクションを実施するように更に構成され、前記アクションは前記複数の制御項目からの制御項目の活性化又は非活性化の少なくとも1つである、請求項1に記載の機器。
- 前記注目箇所が第1の期間中の第1の注目箇所であり、前記アクションが第1のアクションであり、前記プロセッサが、
前記第1の期間の後の第2の期間中に前記ユーザの第2の注目箇所を決定することであって、前記第2の注目箇所は前記複数の制御項目の少なくとも1つの制御項目に関連する、決定すること、
前記ユーザが意図する第2のアクションを前記第2の注目箇所に基づいて決定することであって、前記第2のアクションは前記第1のアクションと異なる、決定すること、及び
前記第1のアクションを実施した後、前記ユーザが意図する前記第2のアクションを実施すること
を行うように更に構成される、請求項8に記載の機器。 - 前記プロセッサが、1組の統計モデルを使用して少なくとも1つの分類方式に従って前記1組の刺激の各刺激に関連する前記1組の神経信号を分類するように更に構成され、
前記プロセッサが、前記1組の刺激の各刺激に関連する前記1組の神経信号の前記分類に基づき、前記複数の制御項目の各制御項目に関連する前記スコアを決定するように構成される、
請求項1に記載の機器。 - プロセッサによって実行される命令を表すコードを記憶する非一時的プロセッサ可読媒体であって、前記命令は、
1組のアクションを実行するためにユーザによって操作されるように構成される制御インタフェースを生成すること、
前記制御インタフェースによって前記ユーザに刺激を提示することであって、前記刺激は1組の制御項目を含み、前記1組の制御項目の各制御項目は前記1組のアクションの少なくとも1つのアクションに関連する、提示すること、
前記ユーザに前記刺激を提示した後、前記ユーザに関連する情報を神経記録装置から受信すること、
前記神経記録装置から受信される前記情報に基づいて前記1組の制御項目の各制御項目に関連するスコアを決定すること、
各制御項目に関連する前記スコアに基づいて前記ユーザの注目箇所を決定する、前記1組の制御項目を形成すること、
前記ユーザの前記注目箇所に関連する前記1組の制御項目から少なくとも1つの制御項目を識別すること
を前記プロセッサに行わせるためのコードを含む、非一時的プロセッサ可読媒体。 - 前記神経記録装置から受信される前記情報が前記ユーザに関連する神経信号を含み、前記神経信号は、事象関連電位(ERP)、運動心像信号、定常状態視覚誘発電位(SSVEP)、一過性視覚誘発電位(TVEP)、脳状態コマンド、視覚誘発電位(VEP)、P300誘発電位、感覚誘発電位、運動誘発電位等の誘発電位、ミュー律動又はベータ律動等の感覚運動律動、事象関連脱同期(ERD)、事象関連同期(ERS)、緩徐脳電位(SCP)、又は脳状態依存信号の少なくとも1つを含む脳波記録(EEG)信号を含み、
前記命令が、前記神経信号を処理して前記EEG信号から1組の特徴に関連する情報を抽出することを前記プロセッサに行わせるためのコードを更に含み、
前記1組の制御項目の各制御項目に関連する前記スコアを前記処理に決定させるための前記コードが、前記1組の特徴に関連する前記情報を使用して前記1組の制御項目の各制御項目に関連する前記スコアを前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記スコアが関連する各制御項目を決定する、前記1組の制御項目を形成することを前記プロセッサに行わせるための前記コードが、
前記1組の制御項目の各制御項目について尤度推定を計算することであって、前記1組の制御項目の各制御項目の前記尤度推定は、その制御項目が前記ユーザの前記注目箇所に関連する尤度を示す、尤度推定を計算すること、及び
前記1組の制御項目の各制御項目について、その制御項目の前記尤度推定に基づいて1組のスコアを決定すること
を前記プロセッサに行わせるためのコードを含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組の制御項目の各制御項目の前記1組のスコアに基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記刺激が前記1組の制御項目に関連する1組の視覚的表現を含み、前記1組の視覚的表現の各視覚的表現は前記1組の制御項目の少なくとも1つの制御項目に関連し、前記1組の制御項目の他の各制御項目の前記視覚的表現に対して異なる位置において前記制御インタフェース内で配置されるように構成され、
前記1組の制御項目の各制御項目に関連する前記スコアを前記プロセッサに決定させるための前記コードが、前記1組の視覚的表現の各視覚的表現の前記位置に基づき、前記1組の制御項目に関連する1組の距離スコアを前記プロセッサに計算させるためのコードを含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組の距離スコアに少なくとも部分的に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記刺激が前記1組の制御項目に関連する1組の視覚的表現を含み、前記1組の視覚的表現の各視覚的表現は前記1組の制御項目の少なくとも1つの制御項目に関連し、前記1組の制御項目の他の各制御項目の前記視覚的表現が提示されるときと異なる時点において前記制御インタフェース内で提示されるように構成され、
前記1組の制御項目の各制御項目に関連する前記スコアを前記プロセッサに決定させるための前記コードが、前記1組の視覚的表現の各視覚的表現が提示される前記時点に基づき、前記1組の制御項目に関連する1組の時間スコアを前記プロセッサに計算させるためのコードを含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組の時間スコアに少なくとも部分的に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記命令が、
前記ユーザの眼球運動信号を示す情報を視標追跡装置から受信すること、及び
前記視標追跡装置から受信される前記情報に基づいて前記1組の制御項目に関連する1組の動眼スコアを決定すること
を前記プロセッサに行わせるためのコードを更に含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組の動眼スコアに更に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記刺激が前記1組の制御項目に関連する1組の視覚的表現を含み、前記1組の視覚的表現の各視覚的表現は前記1組の制御項目の少なくとも1つの制御項目に関連し、
前記1組の制御項目の他の各制御項目の前記視覚的表現に対して異なる位置において前記制御インタフェース内で配置されるように、及び
前記1組の制御項目の他の各制御項目の前記視覚的表現が提示されるときと異なる時点において前記制御インタフェース内で提示されるように構成され、
前記1組の制御項目の各制御項目に関連する前記スコアを前記プロセッサに決定させるための前記コードが、
前記1組の視覚的表現の各視覚的表現の前記位置に基づき、前記1組の制御項目に関連する1組の距離スコアを計算すること、
前記1組の視覚的表現の各視覚的表現が提示される前記時点に基づき、前記1組の制御項目に関連する1組の時間スコアを計算すること、及び
視標追跡装置から受信される情報に基づいて前記1組の制御項目に関連する1組の動眼スコアを計算すること
を前記プロセッサに行わせるためのコードを含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組の距離スコア、前記1組の時間スコア、及び前記1組の動眼スコアの加重平均に少なくとも部分的に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 前記1組の制御項目の各制御項目に関連する前記スコアを前記プロセッサに決定させるための前記コードが、
複数の分類器に関連する1組の性能パラメータを評価することに基づいて前記複数の分類器から1組の分類器を選択すること、
前記1組の分類器を使用してアンサンブル分類器を生成すること、及び
1組のスコアを生成するために前記アンサンブル分類器を使用して前記神経記録装置から受信される前記情報を分析すること
を前記プロセッサに行わせるためのコードを含み、
前記ユーザの前記注目箇所を前記プロセッサに決定させるための前記コードが、前記1組のスコアに少なくとも部分的に基づいて前記ユーザの前記注目箇所を前記プロセッサに決定させるためのコードを含む、
請求項11に記載の非一時的プロセッサ可読媒体。 - 第1の期間において制御インタフェースによってユーザに刺激を提示することであって、前記刺激は1組のアクションに関連する1組の制御項目を含む、提示すること、
前記第1の期間における前記ユーザの挙動に関連する第1の1組の入力を視標追跡装置及び神経記録装置から受信すること、
前記第1の1組の入力及び前記第1の期間において提示される前記刺激に関連する情報に基づいて第1のスコアデータセットを生成すること、
前記第1の期間において前記ユーザが意図したアクションに関連する情報を受信すること、
前記第1のスコアデータセット及び前記第1の期間において前記ユーザが意図する前記アクションに関連する前記情報を使用して1組の分類器を構成することであって、それにより前記1組の分類器が前記第1のスコアデータセットを前記第1の期間において前記ユーザが意図する前記アクションに関連付けることができる、構成すること、
前記第1の期間の後の第2の期間において、前記制御インタフェースによって前記ユーザに前記刺激を提示すること、
前記第2の期間における前記ユーザの挙動に関連する第2の1組の入力を前記視標追跡装置及び前記神経記録装置から受信すること、
前記第2の1組の入力及び前記第2の期間において提示される前記刺激に関連する情報に基づいて第2のスコアデータセットを生成すること、
前記第1のスコアデータセット及び前記第1の期間において前記ユーザが意図する前記アクションに関連する前記情報を使用して構成される前記1組の分類器を使用し、前記第2の期間において前記ユーザが意図するアクションを前記第2のスコアデータセットに基づいて決定すること
を含む、方法。 - 前記1組の分類器を使用して決定される前記アクションの精度を評価することに基づき、前記1組の分類器を修正して修正済みの1組の分類器を生成すること、
前記第1の期間及び前記第2の期間の後の第3の期間において、前記制御インタフェースによって前記ユーザに前記刺激を提示すること、
前記第3の期間における前記ユーザの挙動に関連する第3の1組の入力を前記視標追跡装置及び前記神経記録装置から受信すること、
前記第3の期間において提示される前記刺激に関連する前記第3の1組の入力及び情報に基づいて第3のスコアデータセットを生成すること、及び
前記修正済みの1組の分類器を使用し、前記第3の期間において前記ユーザが意図するアクションを前記第3のスコアデータセットに基づいて決定すること
を更に含む、請求項19に記載の方法。 - 決定される前記アクションの精度を評価することに基づき、前記視標追跡装置又は前記神経記録装置の1つ又は複数から受信される入力に適用される1組の重みを生成すること、
前記第1の期間及び前記第2の期間の後の第3の期間において、前記制御インタフェースによって前記ユーザに前記刺激を提示すること、
前記第3の期間における前記ユーザの挙動に関連する第3の1組の入力を前記視標追跡装置及び前記神経記録装置から受信すること、
前記第3の期間において提示される前記刺激に関連する前記第3の1組の入力及び情報に基づいて第3のスコアデータセットを生成すること、
加重スコアデータセットを生成するにより、前記第3のスコアデータセットに前記1組の重みを適用すること、及び
前記1組の分類器を使用し且つ前記加重スコアデータセットに基づき、前記第3の期間において前記ユーザが意図するアクションを決定すること
を更に含む、請求項19に記載の方法。 - 前記1組の重みは、決定される前記アクションの精度、前記ユーザのエクスペリエンス、及び前記ユーザに関連する履歴情報の少なくとも1つに関連する、請求項21に記載の方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862618846P | 2018-01-18 | 2018-01-18 | |
US62/618,846 | 2018-01-18 | ||
PCT/US2019/014315 WO2019144019A1 (en) | 2018-01-18 | 2019-01-18 | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
JP2020537522A JP2021511567A (ja) | 2018-01-18 | 2019-01-18 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳−コンピュータインタフェース |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020537522A Division JP2021511567A (ja) | 2018-01-18 | 2019-01-18 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳−コンピュータインタフェース |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024075573A true JP2024075573A (ja) | 2024-06-04 |
Family
ID=67301248
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020537522A Pending JP2021511567A (ja) | 2018-01-18 | 2019-01-18 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳−コンピュータインタフェース |
JP2024026938A Pending JP2024075573A (ja) | 2018-01-18 | 2024-02-26 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳-コンピュータインタフェース |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020537522A Pending JP2021511567A (ja) | 2018-01-18 | 2019-01-18 | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳−コンピュータインタフェース |
Country Status (6)
Country | Link |
---|---|
US (1) | US12053308B2 (ja) |
EP (1) | EP3740126A4 (ja) |
JP (2) | JP2021511567A (ja) |
KR (1) | KR20200108888A (ja) |
CN (1) | CN111712192B (ja) |
WO (1) | WO2019144019A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111629653B (zh) | 2017-08-23 | 2024-06-21 | 神经股份有限公司 | 具有高速眼睛跟踪特征的大脑-计算机接口 |
WO2019094953A1 (en) | 2017-11-13 | 2019-05-16 | Neurable Inc. | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
US11600093B1 (en) | 2019-01-28 | 2023-03-07 | Meta Platforms, Inc. | Increased dynamic range sensor with fast readout |
WO2021019088A1 (en) * | 2019-07-31 | 2021-02-04 | Nextmind Sas | Brain-computer interface |
US20220413611A1 (en) * | 2019-11-20 | 2022-12-29 | Nextmind Sas | Brain-computer interface |
KR20220093380A (ko) * | 2019-11-20 | 2022-07-05 | 넥스트마인드 에스에이에스 | 시각적 뇌-컴퓨터 인터페이스 |
KR20210076451A (ko) * | 2019-12-16 | 2021-06-24 | 현대자동차주식회사 | 사용자 인터페이스 시스템 및 그의 동작 방법 |
WO2021121766A1 (en) * | 2019-12-18 | 2021-06-24 | Nextmind Sas | Brain-computer interface |
US11995235B2 (en) * | 2020-01-03 | 2024-05-28 | Snap Inc. | Human interface system |
US11995236B2 (en) | 2020-01-07 | 2024-05-28 | Snap Inc. | Brain-computer interface |
CN112207816B (zh) * | 2020-08-25 | 2022-08-26 | 天津大学 | 基于视图编解码的脑控机械臂系统和控制方法 |
US11500463B2 (en) * | 2020-12-30 | 2022-11-15 | Imagine Technologies, Inc. | Wearable electroencephalography sensor and device control methods using same |
CN112817451B (zh) * | 2021-01-28 | 2022-07-08 | 清华大学 | 基于稳态视觉诱发电位的多目标定位方法和装置 |
CN115390655A (zh) * | 2021-05-24 | 2022-11-25 | 华为技术有限公司 | 人机交互方法、人机交互装置及存储介质 |
CN113934300B (zh) * | 2021-10-19 | 2022-08-23 | 北京烽火万家科技有限公司 | 基于脑机接口的设备控制方法、装置、电子设备及介质 |
US11715130B2 (en) * | 2021-12-13 | 2023-08-01 | Fmr Llc | Systems and methods for designing targeted marketing campaigns |
US20230325480A1 (en) * | 2022-03-28 | 2023-10-12 | Lenovo (Singapore) Pte. Ltd | Device and method for accessing electronic device |
GB2618335B (en) * | 2022-05-03 | 2024-07-24 | L Univ Ta Malta | A method of determining a point of regard using electrooculography under non-stationary head pose and position conditions |
CN115358367B (zh) * | 2022-08-09 | 2023-04-18 | 浙江大学 | 一种基于多模型学习集成的动态自适应脑机接口解码方法 |
Family Cites Families (199)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4013068A (en) | 1974-10-15 | 1977-03-22 | Settle Wayne L | Electroencephalographic activated control system |
US4158196A (en) | 1977-04-11 | 1979-06-12 | Crawford George E Jr | Man-machine interface system |
US4595990A (en) | 1980-12-31 | 1986-06-17 | International Business Machines Corporation | Eye controlled information transfer |
US5137027A (en) | 1987-05-01 | 1992-08-11 | Rosenfeld Joel P | Method for the analysis and utilization of P300 brain waves |
US5269325A (en) | 1989-05-26 | 1993-12-14 | Biomagnetic Technologies, Inc. | Analysis of biological signals using data from arrays of sensors |
US5342410A (en) | 1990-10-05 | 1994-08-30 | Eric Braverman | Apparatus and method for increasing the amplitude of P300 waves in the human brain |
US5213338A (en) | 1991-09-30 | 1993-05-25 | Brotz Gregory R | Brain wave-directed amusement device |
US5339826A (en) | 1991-12-09 | 1994-08-23 | Westinghouse Electric Corp. | Method for training material evaluation with method of EEG spectral estimation |
US5692517A (en) | 1993-01-06 | 1997-12-02 | Junker; Andrew | Brain-body actuated system |
US5363858A (en) | 1993-02-11 | 1994-11-15 | Francis Luca Conte | Method and apparatus for multifaceted electroencephalographic response analysis (MERA) |
US5325862A (en) | 1993-03-26 | 1994-07-05 | The United States Of America As Represented By The Secretary Of The Navy | Method and/or system for personal identification and impairment assessment from brain activity patterns |
JP2899194B2 (ja) | 1993-06-30 | 1999-06-02 | キヤノン株式会社 | 意思伝達支援装置及び意思伝達支援方法 |
US5638826A (en) | 1995-06-01 | 1997-06-17 | Health Research, Inc. | Communication method and system using brain waves for multidimensional control |
US5742286A (en) | 1995-11-20 | 1998-04-21 | International Business Machines Corporation | Graphical user interface system and method for multiple simultaneous targets |
US5899867A (en) | 1996-10-11 | 1999-05-04 | Collura; Thomas F. | System for self-administration of electroencephalographic (EEG) neurofeedback training |
US5931908A (en) | 1996-12-23 | 1999-08-03 | The Walt Disney Corporation | Visual object present within live programming as an actionable event for user selection of alternate programming wherein the actionable event is selected by human operator at a head end for distributed data and programming |
JPH10260773A (ja) | 1997-03-19 | 1998-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法及びその装置 |
JPH1165794A (ja) | 1997-08-25 | 1999-03-09 | Yoshimichi Yonezawa | 誘発脳波を用いた入力装置 |
US5983129A (en) | 1998-02-19 | 1999-11-09 | Cowan; Jonathan D. | Method for determining an individual's intensity of focused attention and integrating same into computer program |
US7084884B1 (en) | 1998-11-03 | 2006-08-01 | Immersion Corporation | Graphical object interactions |
US6090051A (en) | 1999-03-03 | 2000-07-18 | Marshall; Sandra P. | Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity |
GB2348520B (en) | 1999-03-31 | 2003-11-12 | Ibm | Assisting user selection of graphical user interface elements |
US6380937B1 (en) * | 1999-11-03 | 2002-04-30 | International Business Machines Corporation | Method and system for dynamically representing cluster analysis results |
US6626433B2 (en) | 2000-02-22 | 2003-09-30 | Joseph Scibetta | Card game |
US20020065851A1 (en) | 2000-06-02 | 2002-05-30 | Watson Emerson C. | System and method for creating a website |
JP2002236957A (ja) | 2001-02-09 | 2002-08-23 | Victor Co Of Japan Ltd | 電子投票装置、電子投票システム |
US7403814B2 (en) | 2001-05-04 | 2008-07-22 | University Of Virginia Patent Foundation | Method, apparatus, and computer program product for assessment of attentional impairments |
JP2003114820A (ja) | 2001-07-31 | 2003-04-18 | Sanyo Electric Co Ltd | 電子アルバム装置 |
JP2003058298A (ja) | 2001-08-20 | 2003-02-28 | Fuji Xerox Co Ltd | 情報分類装置、情報分類方法、情報分類プログラム及びコンピュータ読み取り可能な記録媒体 |
US7209788B2 (en) | 2001-10-29 | 2007-04-24 | Duke University | Closed loop brain machine interface |
AU2002361616A1 (en) | 2001-11-13 | 2003-05-26 | Prometric Inc. | Extensible exam language (xxl) protocol for computer based testing |
US6712468B1 (en) | 2001-12-12 | 2004-03-30 | Gregory T. Edwards | Techniques for facilitating use of eye tracking data |
US20040076930A1 (en) | 2002-02-22 | 2004-04-22 | Steinberg Linda S. | Partal assessment design system for educational testing |
US20030195798A1 (en) | 2002-04-11 | 2003-10-16 | John Goci | Voter interface for electronic voting system |
WO2003093947A2 (en) | 2002-05-03 | 2003-11-13 | The Trustees Of Columbia University In The City Of New York | Single trial detection in encephalography |
US6917370B2 (en) | 2002-05-13 | 2005-07-12 | Charles Benton | Interacting augmented reality and virtual reality |
US6847844B2 (en) | 2002-06-06 | 2005-01-25 | University Of Pittsburgh Of The Commonwealth System Of Higher Education | Method of data communication with implanted device and associated apparatus |
US20040092809A1 (en) | 2002-07-26 | 2004-05-13 | Neurion Inc. | Methods for measurement and analysis of brain activity |
US20040044295A1 (en) | 2002-08-19 | 2004-03-04 | Orthosoft Inc. | Graphical user interface for computer-assisted surgery |
US7766743B2 (en) | 2002-08-29 | 2010-08-03 | Douglas Schoellkopf Jebb | Methods and apparatus for evaluating a user's affinity for a property |
US7347818B2 (en) | 2003-02-24 | 2008-03-25 | Neurotrax Corporation | Standardized medical cognitive assessment tool |
US8292433B2 (en) * | 2003-03-21 | 2012-10-23 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
US8260428B2 (en) | 2003-05-01 | 2012-09-04 | California Institute Of Technology | Method and system for training a visual prosthesis |
US7546158B2 (en) | 2003-06-05 | 2009-06-09 | The Regents Of The University Of California | Communication methods based on brain computer interfaces |
US20040249302A1 (en) | 2003-06-09 | 2004-12-09 | Cyberkinetics, Inc. | Methods and systems for processing of brain signals |
US20050046698A1 (en) | 2003-09-02 | 2005-03-03 | Knight Andrew Frederick | System and method for producing a selectable view of an object space |
US20050085744A1 (en) | 2003-10-20 | 2005-04-21 | Stmicroelectronics S.R.I. | Man-machine interfaces system and method, for instance applications in the area of rehabilitation |
EP1694206B1 (en) * | 2003-11-28 | 2016-04-13 | The Australian National University | Assessment of neural function |
US7120486B2 (en) | 2003-12-12 | 2006-10-10 | Washington University | Brain computer interface |
CA2556210A1 (en) | 2004-02-13 | 2005-09-01 | Georgia Tech Research Corporation | Display enhanced testing for concussions and mild traumatic brain injury |
US20050191609A1 (en) | 2004-02-14 | 2005-09-01 | Adaptigroup Llc | Method and system for improving performance on standardized examinations |
WO2005096205A1 (en) | 2004-03-31 | 2005-10-13 | Neptec Design Group Ltd. | Medical patient monitoring systems, methods and user interfaces |
US7379562B2 (en) | 2004-03-31 | 2008-05-27 | Microsoft Corporation | Determining connectedness and offset of 3D objects relative to an interactive surface |
US20090099623A1 (en) | 2004-09-13 | 2009-04-16 | Neuronix Ltd. | Systems and methods for treatment of medical conditions related to the central nervous system and for enhancing cognitive functions |
US7509162B2 (en) | 2004-11-10 | 2009-03-24 | Panasonic Corporation | Operation error detection device, equipment including the device, operation error detection method and equipment evaluation method |
US7865235B2 (en) | 2005-09-12 | 2011-01-04 | Tan Thi Thai Le | Method and system for detecting and classifying the mental state of a subject |
US20070060830A1 (en) | 2005-09-12 | 2007-03-15 | Le Tan Thi T | Method and system for detecting and classifying facial muscle movements |
EP1924940A2 (en) | 2005-09-12 | 2008-05-28 | Emotiv Systems Pty Ltd. | System and method for interaction with a subject based on detection of mental states |
US7513775B2 (en) | 2005-10-05 | 2009-04-07 | Exam Innovations, Inc. | Presenting answer options to multiple-choice questions during administration of a computerized test |
US20070086773A1 (en) | 2005-10-14 | 2007-04-19 | Fredrik Ramsten | Method for creating and operating a user interface |
WO2007050029A2 (en) | 2005-10-28 | 2007-05-03 | Tobii Technology Ab | Eye tracker with visual feedback |
US20070166675A1 (en) | 2005-12-15 | 2007-07-19 | Posit Science Corporation | Cognitive training using visual stimuli |
JP4969462B2 (ja) | 2006-01-24 | 2012-07-04 | 本田技研工業株式会社 | 注意領域を推定するシステムおよび方法 |
US7580742B2 (en) | 2006-02-07 | 2009-08-25 | Microsoft Corporation | Using electroencephalograph signals for task classification and activity recognition |
US9101279B2 (en) * | 2006-02-15 | 2015-08-11 | Virtual Video Reality By Ritchey, Llc | Mobile user borne brain activity data and surrounding environment data correlation system |
CA2657762C (en) | 2006-07-25 | 2015-07-21 | Novavision, Inc. | Dynamic stimuli for visual field testing and therapy |
US20080065468A1 (en) | 2006-09-07 | 2008-03-13 | Charles John Berg | Methods for Measuring Emotive Response and Selection Preference |
CN1927551A (zh) | 2006-09-30 | 2007-03-14 | 电子科技大学 | 一种视导脑声控的残障辅助机器人 |
US20080218472A1 (en) | 2007-03-05 | 2008-09-11 | Emotiv Systems Pty., Ltd. | Interface to convert mental states and facial expressions to application input |
JP5132182B2 (ja) | 2007-04-25 | 2013-01-30 | キヤノン株式会社 | 医療用検査システムおよびその処理方法、プログラム、記憶媒体 |
US20090082692A1 (en) | 2007-09-25 | 2009-03-26 | Hale Kelly S | System And Method For The Real-Time Evaluation Of Time-Locked Physiological Measures |
US7556377B2 (en) | 2007-09-28 | 2009-07-07 | International Business Machines Corporation | System and method of detecting eye fixations using adaptive thresholds |
JP4392465B2 (ja) | 2007-10-29 | 2010-01-06 | パナソニック株式会社 | 脳波インタフェースシステムのための起動装置、方法およびコンピュータプログラム |
JP2011502564A (ja) | 2007-11-02 | 2011-01-27 | シーグベルト ワーケンチン, | 発語分析による加齢脳および脳疾患によって誘発された脳機能障害の評価のためのシステムおよび方法 |
WO2009086088A1 (en) | 2007-12-21 | 2009-07-09 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US8244475B2 (en) | 2007-12-27 | 2012-08-14 | Teledyne Scientific & Imaging, Llc | Coupling human neural response with computer pattern analysis for single-event detection of significant brain responses for task-relevant stimuli |
US8265743B2 (en) | 2007-12-27 | 2012-09-11 | Teledyne Scientific & Imaging, Llc | Fixation-locked measurement of brain responses to stimuli |
EP2231007A1 (en) * | 2008-01-11 | 2010-09-29 | Oregon Health and Science University | Rapid serial presentation communication systems and methods |
CN101681201B (zh) * | 2008-01-25 | 2012-10-17 | 松下电器产业株式会社 | 脑波接口系统、脑波接口装置、方法 |
CN101502418B (zh) | 2008-02-05 | 2011-05-04 | 周常安 | 耳戴式脑电检测装置 |
CN101932988B (zh) * | 2008-05-15 | 2012-10-10 | 松下电器产业株式会社 | 调整脑波信号识别方法的装置、方法以及程序 |
CN104407518B (zh) | 2008-06-20 | 2017-05-31 | 因文西斯系统公司 | 对用于过程控制的实际和仿真设施进行交互的系统和方法 |
US9592387B2 (en) | 2008-07-11 | 2017-03-14 | Medtronic, Inc. | Patient-defined posture states for posture responsive therapy |
JP4465414B2 (ja) * | 2008-07-11 | 2010-05-19 | パナソニック株式会社 | 脳波を用いた機器の制御方法および脳波インタフェースシステム |
CN101339455B (zh) | 2008-08-07 | 2010-09-29 | 北京师范大学 | 基于人脸识别特异性波n170成分的脑机接口系统 |
US8933957B2 (en) | 2008-08-18 | 2015-01-13 | The Boeing Company | Methods and systems for emphasizing selected aviation chart information |
US20100145215A1 (en) | 2008-12-09 | 2010-06-10 | Neurofocus, Inc. | Brain pattern analyzer using neuro-response data |
US20100223549A1 (en) | 2009-02-27 | 2010-09-02 | Greg Edwards | System and method for controlling entertainment devices using a display |
US8155736B2 (en) | 2009-03-16 | 2012-04-10 | Neurosky, Inc. | EEG control of devices using sensory evoked potentials |
JP5243318B2 (ja) * | 2009-03-19 | 2013-07-24 | 株式会社野村総合研究所 | コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム |
US20100240016A1 (en) | 2009-03-20 | 2010-09-23 | Jon Ween | Cognitive assessment tool and method |
CN101515199B (zh) | 2009-03-24 | 2011-01-05 | 北京理工大学 | 一种基于视线跟踪和p300脑电电位的字符输入装置 |
EP2442714A1 (en) | 2009-06-15 | 2012-04-25 | Brain Computer Interface LLC | A brain-computer interface test battery for the physiological assessment of nervous system health |
WO2011050414A1 (en) | 2009-10-30 | 2011-05-05 | Richard John Cale | Environmental control method and system |
KR20110072730A (ko) | 2009-12-23 | 2011-06-29 | 한국과학기술원 | 적응형 뇌-컴퓨터 인터페이스 장치 |
AU2009251137B2 (en) | 2009-12-23 | 2013-04-11 | Canon Kabushiki Kaisha | Method for Arranging Images in electronic documents on small devices |
US8758018B2 (en) | 2009-12-31 | 2014-06-24 | Teledyne Scientific & Imaging, Llc | EEG-based acceleration of second language learning |
US9507418B2 (en) | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
WO2011105000A1 (ja) | 2010-02-25 | 2011-09-01 | パナソニック株式会社 | 脳波インタフェースシステム、脳波インタフェース提供装置、脳波インタフェースの実行方法、および、プログラム |
WO2011123072A1 (en) * | 2010-03-31 | 2011-10-06 | Agency For Science, Technology And Research | A method and system for motor rehabilitation |
US9361130B2 (en) | 2010-05-03 | 2016-06-07 | Apple Inc. | Systems, methods, and computer program products providing an integrated user interface for reading content |
WO2011140303A1 (en) | 2010-05-05 | 2011-11-10 | University Of Maryland, College Park | Time domain-based methods for noninvasive brain-machine interfaces |
WO2011149558A2 (en) | 2010-05-28 | 2011-12-01 | Abelow Daniel H | Reality alternate |
US20110301486A1 (en) | 2010-06-03 | 2011-12-08 | Cordial Medical Europe | Measurement of auditory evoked responses |
US8750857B2 (en) | 2010-06-04 | 2014-06-10 | Qualcomm Incorporated | Method and apparatus for wireless distributed computing |
US8593375B2 (en) | 2010-07-23 | 2013-11-26 | Gregory A Maltz | Eye gaze user interface and method |
WO2012013535A1 (en) | 2010-07-30 | 2012-02-02 | Katholieke Universiteit Leuven | Brain-computer interfaces and use thereof |
US20120034583A1 (en) | 2010-08-04 | 2012-02-09 | Vetprep.Com, Inc. | Veterinary exam preparation on mobile devices |
US8463721B2 (en) * | 2010-08-05 | 2013-06-11 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for recognizing events |
KR101023249B1 (ko) | 2010-08-13 | 2011-03-21 | 동국대학교 산학협력단 | 뇌파를 이용한 인지 훈련 응용 프로그램 생성 장치, 방법 및 그 기록 매체 |
US10043351B2 (en) | 2010-08-23 | 2018-08-07 | Ncr Corporation | Self-service terminal |
JP5544620B2 (ja) | 2010-09-01 | 2014-07-09 | 独立行政法人産業技術総合研究所 | 意思伝達支援装置及び方法 |
ES2831648T3 (es) | 2010-11-24 | 2021-06-09 | Digital Artefacts Llc | Sistemas y métodos para evaluar la función cognitiva |
CN102098639B (zh) | 2010-12-28 | 2013-09-11 | 中国人民解放军第三军医大学野战外科研究所 | 脑机接口短消息发送控制装置及发送控制方法 |
US20140043229A1 (en) | 2011-04-07 | 2014-02-13 | Nec Casio Mobile Communications, Ltd. | Input device, input method, and computer program |
US20120257035A1 (en) | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
CA2835120C (en) | 2011-05-06 | 2019-05-28 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
CN109116985A (zh) | 2011-05-10 | 2019-01-01 | 寇平公司 | 控制信息显示的方法 |
JP5816917B2 (ja) | 2011-05-13 | 2015-11-18 | 本田技研工業株式会社 | 脳活動計測装置、脳活動計測方法、及び脳活動推定装置 |
JP5711056B2 (ja) | 2011-06-21 | 2015-04-30 | アイシン精機株式会社 | 脳波インターフェースシステム |
KR101293863B1 (ko) * | 2011-06-29 | 2013-08-16 | 한양대학교 산학협력단 | 안정상태 시각유발전위를 이용한 qwerty 타입의 문자 입력 인터페이스 장치 및 문자 입력 방법 |
WO2013012739A1 (en) | 2011-07-16 | 2013-01-24 | Simon Adam J | Systems and methods for the physiological assessment of brian health and the remote quality control of eeg systems |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US20150212695A1 (en) | 2011-10-05 | 2015-07-30 | Google Inc. | Suggested action feedback |
US8878785B1 (en) | 2011-10-05 | 2014-11-04 | Google Inc. | Intent determination using geometric shape input |
WO2013059940A1 (en) | 2011-10-27 | 2013-05-02 | Tandemlaunch Technologies Inc. | System and method for calibrating eye gaze data |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
JP5873362B2 (ja) | 2012-03-13 | 2016-03-01 | 日本放送協会 | 視線誤差補正装置、そのプログラム及びその方法 |
FR2989482B1 (fr) | 2012-04-12 | 2022-12-23 | Marc Massonneau | Procede de determination de la direction du regard d'un utilisateur. |
CN103421859B (zh) | 2012-05-14 | 2016-08-31 | 中原工学院 | 用无纺布型填料的液态淋浇发酵塔生产细菌纤维素的方法 |
JP2013244116A (ja) | 2012-05-24 | 2013-12-09 | Panasonic Corp | 注意状態推定装置及び注意状態推定方法 |
US9152226B2 (en) | 2012-06-15 | 2015-10-06 | Qualcomm Incorporated | Input method designed for augmented reality goggles |
US9824604B2 (en) | 2012-09-04 | 2017-11-21 | Conduent Business Services, Llc | Creating assessment model for educational assessment system |
EP3441896B1 (en) | 2012-09-14 | 2021-04-21 | InteraXon Inc. | Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data |
US9176581B2 (en) | 2012-09-28 | 2015-11-03 | Intel Corporation | System and method for inferring user intent based on eye movement during observation of a display screen |
US9743002B2 (en) | 2012-11-19 | 2017-08-22 | Magna Electronics Inc. | Vehicle vision system with enhanced display functions |
WO2014085910A1 (en) | 2012-12-04 | 2014-06-12 | Interaxon Inc. | System and method for enhancing content using brain-state data |
US9629976B1 (en) | 2012-12-21 | 2017-04-25 | George Acton | Methods for independent entrainment of visual field zones |
CN103092340B (zh) | 2012-12-26 | 2016-03-02 | 北京大学 | 一种脑-机接口视觉刺激方法及信号识别方法 |
WO2014116826A1 (en) | 2013-01-24 | 2014-07-31 | The Trustees Of Columbia University In The City Of New York | Mobile, neurally-assisted personal assistant |
US10231614B2 (en) | 2014-07-08 | 2019-03-19 | Wesley W. O. Krueger | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance |
US20140228701A1 (en) | 2013-02-11 | 2014-08-14 | University Of Washington Through Its Center For Commercialization | Brain-Computer Interface Anonymizer |
US10133342B2 (en) | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
US9619020B2 (en) | 2013-03-01 | 2017-04-11 | Tobii Ab | Delay warp gaze interaction |
US9198571B2 (en) | 2013-03-15 | 2015-12-01 | Neuro Kinetics, Inc | Method of measuring and analyzing ocular response in a subject using stable pupillary parameters with video oculography system |
CA3187490A1 (en) | 2013-03-15 | 2014-09-18 | Interaxon Inc. | Wearable computing apparatus and method |
JP6125670B2 (ja) | 2013-03-15 | 2017-05-10 | インテル コーポレイション | 収集された生物物理的信号の時間的パターンおよび空間的パターンに基づく脳‐コンピューターインターフェース(bci)システム |
KR102391405B1 (ko) | 2013-03-15 | 2022-04-27 | 퍼셉트 테크놀러지스, 아이엔씨. | 개선된 광학적 및 지각적 디지털 안경류 |
US9532748B2 (en) | 2013-04-22 | 2017-01-03 | Personal Neuro Devices Inc. | Methods and devices for brain activity monitoring supporting mental state development and training |
EP3917167A3 (en) | 2013-06-14 | 2022-03-09 | Oticon A/s | A hearing assistance device with brain computer interface |
US9329682B2 (en) | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
US10137363B2 (en) * | 2013-06-20 | 2018-11-27 | Uday Parshionikar | Gesture based user interfaces, apparatuses and control systems |
US10558272B2 (en) | 2013-06-20 | 2020-02-11 | Uday Parshionikar | Gesture control via eye tracking, head tracking, facial expressions and other user actions |
US9389685B1 (en) | 2013-07-08 | 2016-07-12 | University Of South Florida | Vision based brain-computer interface systems for performing activities of daily living |
US10321055B2 (en) | 2013-09-03 | 2019-06-11 | Seeing Machines Limited | Low power eye tracking system and method |
CN105578954B (zh) | 2013-09-25 | 2019-03-29 | 迈恩德玛泽控股股份有限公司 | 生理参数测量和反馈系统 |
CA2963072A1 (en) | 2013-10-29 | 2015-05-07 | Milbat - Giving Quality To Life | Walker-assist device |
KR101554412B1 (ko) | 2014-01-07 | 2015-09-18 | 한국과학기술원 | 시선 추적 및 뇌파 측정을 이용하여 사용자가 주시하는 물체에 대한 사용자의 의도를 추출하는 웨어러블 디바이스 |
KR101579364B1 (ko) | 2014-01-16 | 2015-12-21 | 서울대학교산학협력단 | 뇌파 모니터링 및 뇌 컴퓨터 인터페이스를 위한 뇌전도 전극과 취득 시스템을 내장한 무선 이어훅 이어셋 |
US9552060B2 (en) | 2014-01-28 | 2017-01-24 | Microsoft Technology Licensing, Llc | Radial selection by vestibulo-ocular reflex fixation |
CN103793058B (zh) | 2014-02-13 | 2016-09-28 | 山西大学 | 一种主动式脑机交互系统运动想象任务分类方法及装置 |
CN103955269A (zh) | 2014-04-09 | 2014-07-30 | 天津大学 | 一种基于虚拟现实环境的智能眼镜脑-机接口方法 |
US10620700B2 (en) * | 2014-05-09 | 2020-04-14 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
WO2015183737A1 (en) | 2014-05-30 | 2015-12-03 | The Regents Of The University Of Michigan | Brain-computer interface for facilitating direct selection of multiple-choice answers and the identification of state changes |
CA2960148C (en) * | 2014-09-04 | 2022-10-04 | University Health Network | Method and system for brain activity signal-based treatment and/or control of user devices |
US10120413B2 (en) | 2014-09-11 | 2018-11-06 | Interaxon Inc. | System and method for enhanced training using a virtual reality environment and bio-signal data |
US20170139556A1 (en) | 2014-10-01 | 2017-05-18 | Quantum Interface, Llc | Apparatuses, systems, and methods for vehicle interfaces |
US9946339B2 (en) | 2014-10-08 | 2018-04-17 | Microsoft Technology Licensing, Llc | Gaze tracking through eyewear |
BR112017003946B1 (pt) | 2014-10-24 | 2022-11-01 | Telefonaktiebolaget Lm Ericsson (Publ) | Método e dispositivo de computação para ajudar um usuário particular a utilizar uma interface de usuário, e, meio não-transitório legível por máquina |
US9936195B2 (en) | 2014-11-06 | 2018-04-03 | Intel Corporation | Calibration for eye tracking systems |
KR102326489B1 (ko) | 2014-11-24 | 2021-11-16 | 삼성전자주식회사 | 디스플레이를 제어하는 전자 장치 및 방법 |
WO2016085212A1 (ko) | 2014-11-24 | 2016-06-02 | 삼성전자 주식회사 | 디스플레이를 제어하는 전자 장치 및 방법 |
US20160187976A1 (en) | 2014-12-29 | 2016-06-30 | Immersion Corporation | Systems and methods for generating haptic effects based on eye tracking |
US9632664B2 (en) * | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
JP6295995B2 (ja) | 2015-04-28 | 2018-03-20 | 京セラドキュメントソリューションズ株式会社 | 情報処理装置、画像処理装置へのジョブ指示方法 |
CN104837088A (zh) | 2015-05-29 | 2015-08-12 | 成都腾悦科技有限公司 | 一种基于NFC的脑电α波信号感应蓝牙耳机 |
IL239191A0 (en) * | 2015-06-03 | 2015-11-30 | Amir B Geva | Image sorting system |
US20190246982A1 (en) | 2015-08-05 | 2019-08-15 | Emotiv Inc. | Method and system for collecting and processing bioelectrical signals |
GB2561455B (en) | 2015-08-15 | 2022-05-18 | Google Llc | Systems and methods for biomechically-based eye signals for interacting with real and virtual objects |
US10491711B2 (en) | 2015-09-10 | 2019-11-26 | EEVO, Inc. | Adaptive streaming of virtual reality data |
ITUB20153680A1 (it) * | 2015-09-16 | 2017-03-16 | Liquidweb Srl | Sistema di controllo di tecnologie assistive e relativo metodo |
JP6684559B2 (ja) | 2015-09-16 | 2020-04-22 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
WO2017079329A1 (en) | 2015-11-04 | 2017-05-11 | Magic Leap, Inc. | Dynamic display calibration based on eye-tracking |
KR101723841B1 (ko) | 2015-12-17 | 2017-04-18 | 주식회사 룩시드랩스 | 아이 브레인 인터페이스(ebi) 장치 및 그 제어 방법 |
EP3392739B1 (en) | 2015-12-17 | 2022-04-20 | Looxid Labs Inc. | Eye-brain interface (ebi) system and method for controlling same |
WO2017177188A1 (en) | 2016-04-08 | 2017-10-12 | Vizzario, Inc. | Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance |
US10522106B2 (en) | 2016-05-05 | 2019-12-31 | Ostendo Technologies, Inc. | Methods and apparatus for active transparency modulation |
US20170322679A1 (en) * | 2016-05-09 | 2017-11-09 | John C. Gordon | Modifying a User Interface Based Upon a User's Brain Activity and Gaze |
US20180039329A1 (en) * | 2016-08-04 | 2018-02-08 | David M. Tumey | Brain actuated control utilizing visually evoked potentials |
WO2018064627A1 (en) | 2016-09-30 | 2018-04-05 | Sony Interactive Entertainment Inc. | Wireless head mounted display with differential rendering and sound localization |
RU2627075C1 (ru) | 2016-10-28 | 2017-08-03 | Ассоциация "Некоммерческое партнерство "Центр развития делового и культурного сотрудничества "Эксперт" | Нейрокомпьютерная система для выбора команд на основе регистрации мозговой активности |
CN110023816A (zh) | 2016-12-01 | 2019-07-16 | 黄绅嘉 | 辨别情绪或心理状态的系统 |
WO2018127782A1 (en) | 2017-01-03 | 2018-07-12 | Xing Zhou | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command |
US20210141453A1 (en) | 2017-02-23 | 2021-05-13 | Charles Robert Miller, III | Wearable user mental and contextual sensing device and system |
CN111629653B (zh) | 2017-08-23 | 2024-06-21 | 神经股份有限公司 | 具有高速眼睛跟踪特征的大脑-计算机接口 |
CN107346179A (zh) * | 2017-09-11 | 2017-11-14 | 中国人民解放军国防科技大学 | 基于诱发式脑机接口的多移动目标选择方法 |
WO2019094953A1 (en) | 2017-11-13 | 2019-05-16 | Neurable Inc. | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
US20190286234A1 (en) | 2018-03-19 | 2019-09-19 | MindMaze Holdiing SA | System and method for synchronized neural marketing in a virtual environment |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
-
2019
- 2019-01-18 CN CN201980013115.5A patent/CN111712192B/zh active Active
- 2019-01-18 JP JP2020537522A patent/JP2021511567A/ja active Pending
- 2019-01-18 EP EP19741853.6A patent/EP3740126A4/en active Pending
- 2019-01-18 WO PCT/US2019/014315 patent/WO2019144019A1/en unknown
- 2019-01-18 KR KR1020207023722A patent/KR20200108888A/ko not_active Application Discontinuation
-
2020
- 2020-07-10 US US16/926,331 patent/US12053308B2/en active Active
-
2024
- 2024-02-26 JP JP2024026938A patent/JP2024075573A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2021511567A (ja) | 2021-05-06 |
CN111712192A (zh) | 2020-09-25 |
US20200337653A1 (en) | 2020-10-29 |
EP3740126A1 (en) | 2020-11-25 |
US12053308B2 (en) | 2024-08-06 |
WO2019144019A1 (en) | 2019-07-25 |
KR20200108888A (ko) | 2020-09-21 |
EP3740126A4 (en) | 2022-02-23 |
CN111712192B (zh) | 2024-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12053308B2 (en) | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions | |
US12001602B2 (en) | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions | |
US11972049B2 (en) | Brain-computer interface with high-speed eye tracking features | |
US11366517B2 (en) | Human-computer interface using high-speed and accurate tracking of user interactions | |
JP2019519053A (ja) | 視覚機能データを獲得し、分析し、生成する、かつデータに基づいてメディアを修正するための方法およびシステム | |
JP2024012497A (ja) | コミュニケーション方法及びシステム | |
Das et al. | A Review on Algorithms for EEG-Based BCIs | |
KR102718810B1 (ko) | 고속 눈 추적 피처들을 갖는 뇌-컴퓨터 인터페이스 | |
Barbel | NeuroGaze in Virtual Reality: Assessing an EEG and Eye Tracking Interface against Traditional Virtual Reality Input Devices | |
Hammon | Adaptive online brain-computer interface for interpretation and visualization of desired reach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240327 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240327 |