JP2020532031A - 高速視標追跡機能を有する脳−コンピュータインタフェース - Google Patents
高速視標追跡機能を有する脳−コンピュータインタフェース Download PDFInfo
- Publication number
- JP2020532031A JP2020532031A JP2020532856A JP2020532856A JP2020532031A JP 2020532031 A JP2020532031 A JP 2020532031A JP 2020532856 A JP2020532856 A JP 2020532856A JP 2020532856 A JP2020532856 A JP 2020532856A JP 2020532031 A JP2020532031 A JP 2020532031A
- Authority
- JP
- Japan
- Prior art keywords
- user
- signal
- eye
- eye movement
- stimulus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001537 neural effect Effects 0.000 claims abstract description 143
- 238000000034 method Methods 0.000 claims abstract description 81
- 230000004424 eye movement Effects 0.000 claims abstract description 79
- 210000004556 brain Anatomy 0.000 claims description 84
- 230000009471 action Effects 0.000 claims description 63
- 230000000007 visual effect Effects 0.000 claims description 45
- 230000000763 evoking effect Effects 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 27
- 210000005036 nerve Anatomy 0.000 claims description 23
- 230000033001 locomotion Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 15
- 230000006399 behavior Effects 0.000 claims description 12
- 230000002452 interceptive effect Effects 0.000 claims description 10
- 230000001419 dependent effect Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 5
- 230000015654 memory Effects 0.000 claims description 4
- 238000006467 substitution reaction Methods 0.000 claims 2
- 230000009977 dual effect Effects 0.000 claims 1
- 230000007177 brain activity Effects 0.000 abstract description 30
- 238000004458 analytical method Methods 0.000 abstract description 12
- 230000003993 interaction Effects 0.000 abstract description 9
- 210000001508 eye Anatomy 0.000 description 81
- 230000006870 function Effects 0.000 description 57
- 238000012549 training Methods 0.000 description 19
- 230000004913 activation Effects 0.000 description 18
- 238000001994 activation Methods 0.000 description 18
- 230000008859 change Effects 0.000 description 18
- 230000000694 effects Effects 0.000 description 17
- 230000004044 response Effects 0.000 description 15
- 230000004397 blinking Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 13
- 230000001360 synchronised effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000004434 saccadic eye movement Effects 0.000 description 11
- 210000004761 scalp Anatomy 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000009849 deactivation Effects 0.000 description 8
- 230000003565 oculomotor Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 7
- 230000001960 triggered effect Effects 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000014759 maintenance of location Effects 0.000 description 6
- 230000006978 adaptation Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000003340 mental effect Effects 0.000 description 5
- 230000011514 reflex Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000036992 cognitive tasks Effects 0.000 description 4
- 238000000537 electroencephalography Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 230000001936 parietal effect Effects 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 230000033764 rhythmic process Effects 0.000 description 4
- 238000013179 statistical model Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 3
- 230000000747 cardiac effect Effects 0.000 description 3
- 230000001364 causal effect Effects 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000001976 improved effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000035484 reaction time Effects 0.000 description 3
- 230000003252 repetitive effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 210000003625 skull Anatomy 0.000 description 3
- 230000003238 somatosensory effect Effects 0.000 description 3
- 230000000638 stimulation Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- 230000021542 voluntary musculoskeletal movement Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 230000008035 nerve activity Effects 0.000 description 2
- 230000000926 neurological effect Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011002 quantification Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 208000012661 Dyskinesia Diseases 0.000 description 1
- 229910001200 Ferrotitanium Inorganic materials 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 208000015592 Involuntary movements Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 241001637516 Polygonia c-album Species 0.000 description 1
- 208000006011 Stroke Diseases 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000036982 action potential Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 206010002026 amyotrophic lateral sclerosis Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000001055 chewing effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 210000001787 dendrite Anatomy 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000000624 ear auricle Anatomy 0.000 description 1
- 238000002566 electrocorticography Methods 0.000 description 1
- 238000004070 electrodeposition Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000002454 frontal bone Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010237 hybrid technique Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000009474 immediate action Effects 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003834 intracellular effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000002582 magnetoencephalography Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 230000001095 motoneuron effect Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000004118 muscle contraction Effects 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 230000017311 musculoskeletal movement, spinal reflex action Effects 0.000 description 1
- 210000001989 nasopharynx Anatomy 0.000 description 1
- 230000008904 neural response Effects 0.000 description 1
- 238000002610 neuroimaging Methods 0.000 description 1
- 208000018360 neuromuscular disease Diseases 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 210000001152 parietal lobe Anatomy 0.000 description 1
- 210000002442 prefrontal cortex Anatomy 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000010344 pupil dilation Effects 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 210000001210 retinal vessel Anatomy 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- HKZLPVFGJNLROG-UHFFFAOYSA-M silver monochloride Chemical compound [Cl-].[Ag+] HKZLPVFGJNLROG-UHFFFAOYSA-M 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 208000020431 spinal cord injury Diseases 0.000 description 1
- 229910001220 stainless steel Inorganic materials 0.000 description 1
- 239000010935 stainless steel Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000009747 swallowing Effects 0.000 description 1
- 230000007598 synaptic excitation Effects 0.000 description 1
- 239000010936 titanium Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001720 vestibular Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/377—Electroencephalography [EEG] using evoked responses
- A61B5/378—Visual stimuli
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/377—Electroencephalography [EEG] using evoked responses
- A61B5/38—Acoustic or auditory stimuli
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
- A61B5/6803—Head-worn items, e.g. helmets, masks, headphones or goggles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/725—Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/12—Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychology (AREA)
- Ophthalmology & Optometry (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Neurosurgery (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Fuzzy Systems (AREA)
- Acoustics & Sound (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Position Input By Displaying (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
[0001] 本願は、参照によりその開示の全体を本明細書に援用する、2017年8月23日に出願され「高速視標追跡機能を有する脳−コンピュータインタフェース(Brain-Computer Interface with High-Speed Eye Tracking Features)」と題された米国仮特許出願第62/549,253号の優先権及び利益を主張する。
[0002] 本明細書に記載する実施形態は、リアルタイムの眼球運動追跡を脳活動追跡と統合して、人間−マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェースを提示し更新する、脳−コンピュータインタフェースの実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、リアルタイムの視標追跡及び神経活動のオンライン分析を使用してマシンのユーザ操作を仲介する、ハードウェアに依存しない脳−コンピュータインタフェースの実装にも関する。
[0006] 眼球運動及び脳活動を追跡してユーザの注視又は注目のリアルタイムの位置決め及び所望のアクションの選択/活性化を仲介するための、ハードウェアに依存しない統合型動眼神経ハイブリッド脳コンピュータインタフェース(BCI)プラットフォームの様々な実施形態のためのシステム、装置、及び方法を本明細書に記載する。本開示は、高速度及び高精度で動作する脳コンピュータインタフェースの需要に対処するための統合型ハイブリッドBCIシステムを提示する。
[0026] 本明細書に記載する実施形態は、リアルタイムの眼球運動追跡を脳活動追跡と統合して、人間−マシン対話の高速度及び高精度を得るように戦略的に設計されるユーザインタフェースを提示し更新する、ハイブリッド脳−コンピュータインタフェース(BCI)の実装に使用するためのシステム、装置、及び方法に関する。本明細書に記載する実施形態は、リアルタイムの視標追跡及び神経脳信号のオンライン分析を使用してマシンのユーザ操作を仲介する、ハードウェアに依存しない脳−コンピュータインタフェースの実装にも関する。
[0028] 本明細書で説明するように、BCIは脳活動単独でコンピュータ又は外部装置を制御できるようにするハードウェア及びソフトウェア通信システムである。ハイブリッドBCIシステムは、インタフェースによる刺激の表示、インタフェース上のユーザの注目箇所を位置決めするためのハードウェア機器、脳活動を記録し処理するための装置、及びインタフェースの制御を行うための機器を含み、インタフェースの制御はユーザの環境を制御することになり得る。これらの標準機能は(1)ポインティング制御機能、(2)アクション制御機能、及び(3)ユーザインタフェース機能として特徴付けることができる。ポインティング制御機能は、制御するための少数のマニピュレータまでユーザが絞り込むことを可能にするマウスポインタ等の従来のポインティング装置と類比で説明することができる。アクション制御機能は、ユーザがアクションによって変化をもたらすことを可能にする選択装置、例えばマウスのクリック又はキーボードのストロークと類比で説明することができる。アクションは多くのもののうちの1つ、例えばとりわけ活性化又は非活性化、ユーザインタフェースの連続的な変更(例えばスクロール)又は不連続的な開始及び停止(例えば強調表示、ホバリング等)、ピンチ、ズーム、チルト、回転、スワイプを伴うユーザインタフェースの急激な変更とすることができる。ユーザインタフェースによるアクション制御の他の一部の例は仮想キーボード制御、メニューナビゲーション、オブジェクト又は項目を配置及び配置解除するアクション、オブジェクト又は項目を移動させるアクション、オブジェクトを拡大及び/又は縮小するアクション、一人称観察者又はプレーヤの移動又はナビゲーション、観察者の視点の変更、及びグラビング、ピッキング、又はホバリング等のアクションを含み得る。アクション制御のこれらの側面の幾つかを以下で開示する。ハイブリッドBCIシステムにおけるユーザインタフェース機能は、選択メニュー、ナビゲーション制御等を提供するような他の機能に加えて、ポインティング及びアクション制御機能を実装する環境を作成し維持するオペレーティングシステムと類比で説明することができる。
[0032] 一部の実施形態では、ビデオベースのアイトラッカ102は、2次元空間又は3次元空間内のユーザの眼球運動を素早くたどることにより、ユーザの視野内のどこをユーザが見ているのかを決定するために使用することができる。例えばユーザが自らの眼球運動の随意調節を有するという条件で、ビデオベースアイトレーサ102を使用して、ユーザの目がユーザの視野内のどの部分空間を「指しているのか」を決定することができる。換言すれば、ビデオベースのアイトラッカ102は、ポインティング制御機能としてユーザの眼球運動の軌跡を使用することができ、被験者の意図及び挙動に関する重要な情報を明らかにする。一部の実施形態では、ユーザが視覚空間内のどこに注目しているのか、どの刺激に注目しているのか、又はどの刺激に反応したのかの側面がBCIシステム100内で効果的に使用され得る。
[0037] 任意のBCIシステムの要は、脳信号をアクション制御機能にする、制御信号として使用可能な脳信号である。モニタされる脳活動の主な種類の1つである電気生理学的活動が、ニューロン間で情報を交換する電気化学送信機によって生成される。ニューロンは、神経細胞群の中及び神経細胞群を横断して流れるイオン電流を発生させる。多種多様な電流経路は、樹状幹を介してソースからシンクに電流を伝える双極子として単純化することができる。これらの細胞内電流は一次電流として知られている。電荷の保存は、一次電流が二次電流として知られる細胞外電流によってエンクローズされることを指示する。
[0043] 本明細書で説明するように、ハイブリッドBCIシステム100内のユーザインタフェースは、ユーザ(例えばユーザの脳、目等)とBCインタフェース装置110との間の通信のリンクとして機能し、ユーザがポインティング制御機能によって特定の刺激に注目しそれを指示し、アクション制御機能を使用して特定の刺激を選択し又は選択解除することを可能にする。戦略的に設計されたユーザインタフェースは任意の様式によって、最も一般的には視覚モードによってユーザに刺激を提示するプロセスを含む。例えばユーザインタフェースは、視覚刺激、聴覚刺激、触覚刺激、又は前庭刺激をユーザに提示するように構成され得る。一部の実施形態では、図1に示すディスプレイ106等のディスプレイ上に視覚刺激を提示するユーザインタフェースをレンダリングすることができる。
[0045] 一部の実施形態では、BCインタフェース装置110が3つの主要な機能を達成するように構成され得る。第1に、BCインタフェース装置110は、戦略的に設計されたユーザインタフェースを生成するように構成することができる。例えば、戦略的に設計されたユーザインタフェースは訓練セッション用又は試験セッション用であり得る。一部の実施形態では、ユーザインタフェースは仮想現実インタフェース及び/又は拡張現実インタフェースとして設計され得る。一部の実施形態では、ユーザインタフェースは例えば特定のユーザの履歴、反応時間、ユーザ選択等の特定のニーズについて調整することができる。第2に、ユーザインタフェースの設計及び生成に加えて、BCインタフェース装置110は(例えばビデオベースのアイトラッカ102からの)ポインティング制御信号及び(例えば神経記録ヘッドセット104からの)アクション制御信号を受信し、それらの信号をアンサンブルとして処理してユーザの意図を決定するように構成することができる。最後にBCインタフェース装置110は、(1)神経信号から有意味の特徴を検出すること、及び(2)ユーザの意図に応じて指示されている刺激の変更を実施することにより、ポインティング制御機能及びアクション制御機能を実装するように構成することができる。一部の実施形態では、BCインタフェース装置110は、例えば視覚的な様式以外の様式で機能する周辺センサ及びアクチュエータ等、ハイブリッドBCIシステム100の一部であり得る他の周辺装置に接続することもできる。かかる周辺センサは、オーディオマイクロホン、触覚センサ、加速度計、角度計等を含むことができ、周辺アクチュエータはオーディオスピーカ、触覚刺激プロバイダ等を含むことができる。
[0047] 本明細書で説明するように、ハイブリッドBCIシステム100の目的は、脳活動をモニタし、アクション制御機能として使用可能な制御信号を見つけることによってユーザの意図を解釈することである。ユーザの意図の形成は、認知的作業として表すことができる。図1に示す統合型ハイブリッドBCIシステム100は、ユーザによって行われる認知的作業によって同時に誘発され又はかかる認知的作業に関係する幾つかのシグネチャ脳信号のうちの1つを使用することができる。これらの脳信号の一部は、人がそれらを自在に変調できるようになり得るやり方で復号することができる。制御信号と見なされるこれらの信号を使用することは、ハイブリッドBCIシステム100がユーザの意図を解釈することを可能にし得る。従ってハイブリッドBCIシステム100は、脳からの制御信号を記録及び使用し、脳とコンピュータとの間のインタフェースを制御するアクション制御機能としてそれらを使用することができる。任意の適切な神経活動が、アクション制御機能を実装するために使用される制御信号であり得る。時間に関する神経活動の一部の例は、事象関連電位(ERP)、誘発電位(EP、例えば視覚誘発電位(VEP)、聴覚誘発電位、感覚誘発電位、運動誘発電位)、運動心像信号、緩徐皮質電位、脳状態依存信号、及び様々な認知的作業又は感覚運動作業の基礎を成す他の未発見のシグネチャ活動電位を含む。
[0051] P300誘発電位は、低頻度の聴覚刺激、視覚刺激、又は体性感覚刺激による神経信号における正のピークである。P300信号は、刺激文脈並びに注意及び覚醒レベルの処理に依存する「内因性」脳信号である。何らかの特定の理論に束縛されることを意図するものではないが、P300は、適切な反応を行うために環境のメンタルモデルを変更するのに必要なメカニズムの神経シグネチャだと広く考えられている。従ってP300信号は、注意及びワーキングメモリ等の認知プロセスの重要なシグネチャである。有利には、P300に基づくBCIの使用は訓練を必要としない。
[0058] 視覚誘発電位(VEP)信号は、視覚刺激を受けた後に視覚皮質において生じる脳活動変調である。これらの変調は、刺激が中心視野に近づくときのVEPの大きな振幅により検出が比較的容易である。本明細書で開示するハイブリッドBCIシステム100では、ポインティング制御機能を可能にするための統合型の手法を採用するためにVEPを視標追跡入力と組み合わせて使用することができる。
[0061] 本明細書に記載の通り、ポインティング制御機能を使用可能にし、アクション制御機能を使用可能にするための制御信号として神経活動(例えばERP、又は感覚運動信号、運動心像信号、脳状態信号等)を使用できるようにするために、ビデオベースの視標追跡をVEP若しくはERP形式の神経活動又は他の形式の神経活動と組み合わせて使用することができる。BCインタフェース装置110は、統合信号をアンサンブルとして処理するように構成することができる。一部の実施形態では、ユーザの注視点を特定するための統合型のハイブリッド手法を得るために、ハイブリッドBCIシステム100は、ビデオベースのアイトラッカ102からの視標追跡信号に加えて神経記録ヘッドセット104からのSSVEP信号を使用することができる。つまり一部の実施形態では、ビデオベースのアイトラッカ102を使用し、眼筋の動きを伝える動眼データによって任意の適切な形式の眼球運動情報、例えば衝動性、中心固視、及び/又は瞳孔拡張情報、並びに中心固視情報を検出することができる。衝動性眼球位置に関する情報は神経記録ヘッドセット104から取得される神経活動、例えば視覚反応によって誘発されるERPから間接的に得ることもできる。例えばハイブリッドBCIシステム100は、因果関係を形成するためにERPの発生を時間及び空間における特定の刺激の提示と相関させるように構成され得る。従ってビデオベースのアイトラッカ102からの動眼データは、視覚誘発神経活動からのデータ及びディスプレイによって与えられるユーザインタフェース内の刺激の戦略的な提示と組み合わせることができる。
[0071] 図5A〜図5Dは、一実施形態による、ハイブリッドBCIシステム100とのユーザの対話を示す。この例ではハイブリッドBCIシステム100が2段階プロセスで単語をスペルするために使用されており、図5Aの(a)ではディスプレイ106が字(例えばキーボード上で一般に見つかる文字、数字、及び記号)の幾つかのサブグループを提示する。図5Aの(c)に示すように、ユーザはビデオベースのアイトラッカ102及び神経記録ヘッドセット104を着用する。ユーザが所望の文字を含むサブグループ(例えば図5Aの(a)の中の強調表示した円によって示すサブグループ)に注視を集中させると、ディスプレイ106内で提示されるユーザインタフェースは、注目されたサブグループが拡大されている図5Aの(b)に示すユーザインタフェースに変わる。ユーザは、そのサブグループ内の所望の特定の文字に自分の注視を集中させることによって文字を選択するアクションを行うことができる。次いで、単語又は文を形成する際に使用される文字の選択を行うために記録される神経活動を使用することによってアクション制御機能が実施される。
[0074] 図6は、一実施形態によるハイブリッドBCIシステム600を示す。一部の実施形態では、BCIシステム600は、図1に関して上記で説明したハイブリッドBCIシステム100の対応する部分と構造及び/又は機能の点で同様であり得る。例えばBCIシステム600は、ハイブリッドBCIシステム100のビデオベースのアイトラッカ106、神経記録ヘッドセット104、任意選択的なディスプレイ106、及び脳−コンピュータインタフェース装置110と同じ又は同様であり得るビデオベースのアイトラッカ606、神経記録ヘッドセット604、任意選択的なディスプレイ606、及び脳−コンピュータインタフェース装置610を含む。従って、そのような同様の部分及び/又は側面についてはここで更に詳細に説明することはない。
[0082] 図7は、一実施形態による、統合型ハイブリッド脳コンピュータインタフェース装置の動作のプロセス700の一例を示す。一部の実施形態では、プロセス700は、或る時点において神経記録ヘッドセット及びアイトラッカ(及び他の周辺センサ及び/又はアクチュエータ)に関連する特定のユーザについてデータの取得及び前処理を開始する最初のステップ701を含む。この開始及び信号取得は、例えば同期事象ロガー622によって実行され得る。プロセス700は、上記のトレーナ624等のトレーナによって実施される訓練環境を適用するステップ703も含む。訓練環境の提示は、ステップ705で表示される1組の予めプログラムされ制御された刺激を含むことができ、結果として起きる眼球運動及び脳活動をステップ707で記録することができる。変更されるが制御された刺激の提示並びに対応する眼球運動及び脳データの収集は、一連の刺激についてステップ719によって示すように繰り返すことができる。データはモデルビルダ(例えばモデルビルダ626)に供給することができ、モデルは訓練セット内の新たな刺激の各組を用いて更新され得る。その後プロセス700は、1つ又は複数の新奇刺激を含むが、システムが訓練された事前プログラム刺激の1つ又は複数に関連し得る新たな環境を提示することを含み得る。モデルビルダ626によって構築される統計モデルを使用し、予測器628は任意の適切な統計ツールを使用して、ステップ713で注目箇所を決定すること等のユーザ挙動の予測を生成し、ステップ715で脳データからユーザの(即ち表示された特定の記号を選択し又は活性化する)意図を推定することができる。この予測に基づき、プロセス700はユーザインタフェース内のユーザの意図を実現するステップ717を含む。例えばステップ717は、スぺラ内の文字を選択すること、又はゲーム内のキャラクタを選択すること、又は拡張現実システム内で操作可能なTVシステムに関連するオン機能を選択することを含み得る。
動作モード
[0083] 本明細書に記載のハイブリッドBCIシステム100及び/又は600並びに他の実施形態は、VEP、聴覚誘発電位(AEP)、又はP300信号等の外部刺激によって誘発される脳活動を使用する外因性BCIシステムとして構成することができる。外因性システムは広範な訓練を必要とせず、それは神経活動からのその制御信号を容易且つ迅速に設定できるからである。とりわけ信号制御はより少ない神経記録チャネルを用いて実現することができ、最大60ビット/分の速い情報転送速度を実現することができる。
[0087] 本明細書に記載の動眼神経統合型ハイブリッドBCIシステムは、ビデオベースのアイトラッカ102からの信号等の動眼信号、並びに選択及び活性化信号としてのVEPを含む神経信号それぞれの強みを知的且つ柔軟に活用する。このシステムの1つの重要な構成要素は眼球運動の高速分類である。同期事象ロガー622の動作に関して上記で説明したように、ハイブリッドBCIシステム600は遅延のないやり方でサッカード検出を行うように構成され得る。例えばハイブリッドBCIシステム600は、注視運動学及びビデオベースのアイトラッカの技術的パラメータに基づく状態及び測定モデルと共に、ダイナミカルシステムとして注視を推定する非線形生成モデルを使用して注視データをゼロ遅延でフィルタすることができる。雑音の多い注視データの隠れ状態を推定し基礎を成すシステムモデルを概算するために二重カルマンフィルタに基づく二重推定を使用することができる。従って、時間的遅延を生ぜしめることなしに注視データのフィルタリングを実現することができる。加えて、カメラのサンプリングレートが下げられる場合又は一過性アーティファクトが生じる場合、理論的な注視運動学モデルが欠落した注視データを推定することができる。ハイブリッドBCIシステム600は、明確な訓練セッションなしに自動的に訓練され、眼球運動のリアルタイム検出を可能にする機械学習分類システムを含むこともできる。
[0089] アーティファクトとは脳活動を不純にする不所望の信号であり、大部分が非脳起源である。神経学的現象の形状が影響を受けるので、アーティファクトはBCIベースシステムの性能を低下させる可能性がある。アーティファクトは、起源が生理学的若しくは非生理学的、又は技術的アーティファクトであり得る。
[0096] 本明細書に記載の通り、ハイブリッドBCIシステム100、600におけるユーザインタフェースは視聴覚ディスプレイ(例えば図1のディスプレイ106)によって提示することができる。ユーザインタフェースは、ユーザがポインティング制御機能によって特定の刺激に注目しそれを指示し、アクション制御機能を使用して特定の刺激を選択し又は選択解除することを可能にする。これを行うために、ユーザインタフェースはユーザが行うことができる利用可能な選択肢のグループである選択セットを含む。選択セットの例は、制御ディスプレイ上に戦略的に配置される英数字行列上の文字/数字、又は方向矢印、又は明確な形をしたアイコン若しくは標的のグループを含むことができる。選択方法は、ユーザからのコマンドがBCIによって直接的に又は間接的にどのように解釈されるのかを記述する。直接選択はユーザが選択セットから任意の項目を直接選択できるようにするのに対し、間接選択はユーザが選択を行うことができる前に中間ステップを必要とする。
[0100] 本明細書に記載の通り、BCIシステム100、600はそのユーザインタフェースの一部として神経活動に基づくBCI機能を組み込むことができ、かかるBCI機能では、神経活動に基づくBCIにおける標的の最初の活性化及び非活性化(保持−解除)を別々に制御することができる。かかる制御は、間接的な選択を必要とする応用又は状態間の素早い変更を必要とする応用でハイブリッドBCIシステム100、600を使用することを可能にし得る。更に、かかる制御は選択を保持すること又は解除標的に注意を切り替えることによって被選択標的の承認−取消を可能にし得る。
[0103] (ユーザの環境に加えられる変更に反応してユーザの脳活動がどのように変化するのかを観察する)従来のBCIシステムは、取得される全てのデータを一度に分析する前にユーザが有する可能性がある全ての有り得る挙動を誘発し、そこからユーザの意図を明らかにしようと概して試みる。一部の実施形態では、本明細書に記載のハイブリッドBCIシステム100及び/又は600は、変更が加えられる度にユーザの脳活動を分析することができ、とりわけ環境に加えられる次の変更を知らせるためにこの分析段階から得られる情報を使用する。例えばユーザが10の可能なアクションを有する場合、環境に10の変更を加えてどの変更が(プログラムによって定められる)最も理想的な反応を誘発するのかを観察することができる。或いは、ハイブリッドBCIシステム100及び/又は600において、同じユーザが同じ10の選択肢を有する場合、加えられる次の変更を知らせるために第1の変更から得られる情報を使用し、特定のアクションを先制して排除し、それにより意図からアクションに移るのにかかる持続時間を短縮することができる。従って、各変更が1つだけの潜在的なユーザの意図よりも多くを知らせるので、環境に加えられる各変更にユーザの脳がどのように反応するのかについての知識は完全には必要とされない。このことは記録すべき情報量を減らし、代わりにユーザの意図を識別するのにどの情報が必要になるのかを知的に決定し、その情報を迅速に取得し、意図されたアクションの作成に進む。
[0105] 一部の実施形態では、ハイブリッドBCIシステム100及び/又は600は、そのユーザインタフェース内で提示される拡張現実又は仮想現実において動的刺激を組み込み又は既存の動的刺激にタグ付けすることができる。つまりハイブリッドBCIシステム100、600は移動刺激を識別し、その刺激の動きを時間に関して追跡するためにその刺激に動的にタグ付けすることができる。かかる動的な識別及びタグ付けの実装形態の一例を図9に示す。
[0107] 様々な思考活動(認知的作業)が脳信号の異なるパターンをもたらす。一部の実施形態では、ハイブリッドBCIシステム600(及び/又は100)は、各信号パターンをその特徴に従ってクラスに分類するパターン認識システムを含むことができる。パターン認識システムは、特定のクラスに対する類似性並びに残りのクラスとの違いを反映する脳信号からの幾つかの特徴を抽出する。信号の異なる種類を区別するのに必要な弁別的情報を含む信号の特性から特徴を測定し又は導出することができる。上記で説明したように、のモデルビルダ626は、特定のハードウェア周辺機器等に結合される特定のユーザインタフェースの下、特定のユーザに対応するデータから抽出される特徴の統計モデルを構築するために多数の統計ツールを使用することができる。
[0111] ハイブリッドBCIシステム100、600における分類ステップの狙いは、特徴ステップによって与えられる脳活動を特徴付ける特徴ベクトルに基づいてユーザの意図を認識することである。分類アルゴリズムは、オフラインセッション、オンラインセッション、又は両方の種類のセッションによって開発することができる。オフラインセッションは、適応又は閉ループシステムから収集されるBCI競合データセット等のデータセットの検査を含む。全セッションにわたる観察からデータの統計を推定することができ、長期間の計算を実行することができる。この結果は、アルゴリズムを微調整するために分析者によって検討され得る。ハイブリッドBCIシステムの一部の実施形態では、現実世界を評価する因果的なやり方でデータをオンライン処理することができる。使用される分析アルゴリズムは、例えばユーザのモチベーション又は関与が変化することを受けてユーザプロファイルが経時変化し得る環境内で試験することができる。
[0115] 要約すると、ユーザによってリアルタイムで操作可能な統合型ハイブリッド脳コンピュータインタフェースの実装に使用するためのシステム及び方法を本明細書に記載した。開示したシステムは、ポインティング制御機能を実装するための眼球運動追跡システム、及びアクション制御機能を実装するための脳活動追跡システムを含む。高速且つ正確な操作を可能にするように戦略的に設計されるユーザインタフェースの提示により、両方の機能が実装される。加えて、開示したシステム及び方法は、任意の適切なプラットフォーム上にリアルタイムハイブリッドBCIを実装して仮想環境、拡張環境、又は実環境のユーザ操作を仲介するために、ハードウェアに依存しないように構成される。図11は本発明のハイブリッドBCIシステム及び方法の使用空間の説明図を示す。
Claims (22)
- ユーザに対話型環境を提示するように構成されるディスプレイと、
前記ユーザによって生成される眼球運動信号を記録するように構成されるアイトラッカと、
前記ユーザによって生成される神経信号を記録するように構成される神経記録装置と、
前記ディスプレイ、前記アイトラッカ、及び前記神経記録装置に動作可能に結合されるインタフェース装置であって、
メモリ、及び
前記メモリに動作可能に結合され、
前記アイトラッカから前記眼球運動信号を受信し、前記神経記録装置から前記神経信号を受信すること、
前記対話型環境によって前記ユーザに刺激を生成し提示すること、
前記眼球運動信号及び前記神経信号を処理して、前記眼球運動信号及び前記神経信号の少なくとも1つに基づいて前記ユーザの注目箇所を決定すること、
前記神経記録装置から受信される前記神経信号を処理して、前記ユーザが意図するアクションを決定すること、及び
前記ユーザが意図する前記アクションを実施し、前記対話型ユーザインタフェースの前記提示を更新すること
を行うように構成されるプロセッサ
を含む、インタフェース装置と
を含む、機器。 - 前記アイトラッカがビデオベースのアイトラッカであり、
前記神経信号が、視覚誘発電位、運動心像信号、事象関連電位(ERP)、及び脳状態依存信号を含む脳波記録(EEG)信号を含み、
前記プロセッサが前記眼球運動信号と前記EEG信号とを統合して前記ユーザの前記注目箇所を決定するように更に構成される、
請求項1に記載の機器。 - 前記神経信号が、視覚誘発電位、聴覚誘発電位、運動心像信号、事象関連電位(ERP)、及び脳状態依存信号の少なくとも1つを含む脳波記録(EEG)信号を含む、
請求項1に記載の機器。 - 前記刺激が、視覚刺激、聴覚刺激、及び触覚刺激の少なくとも1つを含む、請求項1に記載の機器。
- 前記プロセッサが前記ディスプレイの1組の部分を画定し、前記ユーザの前記注目箇所を前記決定することに基づき、前記ディスプレイの前記1組の部分の1つの部分の中で前記刺激を繰り返し提示するように更に構成される、請求項1に記載の機器。
- 前記プロセッサが、前記眼球運動信号及び前記神経信号の前記少なくとも1つを処理して前記ユーザの前記注目箇所を決定するために、無遅延フィルタ及び分類器を実装するように更に構成される、請求項1に記載の機器。
- 前記プロセッサが、前記眼球運動信号及び前記神経信号の前記少なくとも1つを処理して前記ユーザの前記注目箇所を決定するために、二重カルマンフィルタ及び分類器を実装するように更に構成される、請求項1に記載の機器。
- 前記プロセッサが、
シミュレートされたユーザの1組の眼球運動の運動学モデルを生成すること、
前記眼球運動信号内の1組の欠落データ点を識別すること、
前記運動学モデルに基づき、前記眼球運動信号内の前記1組の欠落データ点を置換するための1組の置換データ点を計算すること、及び
前記1組の欠落データ点を置換し更新済みの眼球運動信号を生成するために前記1組の置換データ点を組み込むこと
を行うように更に構成される、請求項1に記載の機器。 - プロセッサによって実行される命令を表すコードを記憶する非一時的プロセッサ可読媒体であって、前記命令は
1組のアクションを行うためにユーザによって操作され得る対話型ユーザ環境を生成すること、
前記対話型ユーザ環境によって前記ユーザに提示可能な1組の刺激を定めること、
前記1組の刺激からの少なくとも1つの刺激を前記ユーザに提示すること、
前記ユーザの挙動に関係する入力をアイトラッカ及び神経記録装置から受信すること、
前記受信される入力及び前記提示される刺激に基づき、前記ユーザが意図するアクションを決定すること、及び
前記対話型ユーザ環境によって前記アクションを実施すること
を前記プロセッサに行わせるためのコードを含む、非一時的プロセッサ可読媒体。 - 入力を受信するための前記コードが、
前記アイトラッカから受信される前記入力から、前記ユーザによって生成される眼球運動信号を抽出すること、
前記神経記録装置から受信される前記入力から、前記ユーザによって生成される神経信号を抽出することであって、前記神経信号は脳波記録(EEG)信号を含み、前記EEG信号は視覚誘発電位、運動心像信号、事象関連電位(ERP)、及び脳状態依存信号を含む、抽出すること、及び
統合型の手法を使用して前記眼球運動信号及び前記EEG信号を処理して前記ユーザの注目箇所を決定すること
を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。 - 入力を受信するための前記コードが、
前記神経記録装置から受信される前記入力から、前記ユーザによって生成される脳波記録(EEG)信号を抽出することであって、前記EEG信号は視覚誘発電位、聴覚誘発電位、運動心像信号、事象関連電位(ERP)、及び脳状態依存信号の少なくとも1つを含む、抽出すること、及び
前記EEG信号を処理して前記ユーザの注目箇所を決定すること
を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。 - 前記ユーザが意図する前記アクションを決定することを前記プロセッサに行わせるための前記コードが、
前記1組の刺激からの前記提示される刺激に関係する情報を抽出すること、
前記アイトラッカから受信される前記入力、前記神経記録装置から受信される前記入力、及び前記提示される刺激に関係する前記情報のそれぞれに1組の重みを定め適用し、前記アイトラッカから受信される前記入力、前記神経記録装置から受信される前記入力、及び前記提示される刺激に関係する前記情報のそれぞれの加重表現を生成すること、
前記加重表現を組み合わせてアンサンブル表現を形成すること、及び
前記アンサンブル表現を処理して前記ユーザが意図する前記アクションの予測を生成すること
を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。 - 前記ユーザが意図する前記アクションを決定することを前記プロセッサに行わせるための前記コードが、
前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
前記眼球運動信号に基づいて前記ユーザの注目箇所を決定するために、無遅延フィルタ及び分類器を実装すること
を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。 - 入力を受信するための前記コードが、
前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
前記眼球運動信号内の1組の欠落データ点を識別すること、
シミュレートされたユーザの眼球運動に関する運動学モデルを生成すること、
前記運動学モデルに基づき、前記眼球運動信号内の前記1組の欠落データ点を置換するための1組の置換データ点を推定すること、及び
前記1組の欠落データ点を置換して更新済みの眼球運動信号を生成するために前記1組の置換データ点を組み込むこと
を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。 - 入力を受信するための前記コードが、
前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
前記眼球運動信号内のアーティファクトデータ点を識別すること、
シミュレートされたユーザの眼球運動に関する運動学モデルを生成すること、
前記運動学モデルに基づき、前記眼球運動信号内の前記アーティファクトデータ点を置換するための1組の置換データ点を推定すること、及び
前記アーティファクトデータ点を置換して更新済みの眼球運動信号を生成するために前記1組の置換データ点を組み込むこと
を前記プロセッサに行わせるためのコードを含む、請求項9に記載の非一時的プロセッサ可読媒体。 - 対話型ユーザインタフェースによって刺激をユーザに提示すること、
前記ユーザの挙動に関連する入力をアイトラッカ及び神経記録装置から受信すること、
前記提示される刺激に関係する情報を受信すること、
前記ユーザの挙動に関連する前記入力及び前記提示される刺激に関係する前記情報を含む1組のアンサンブルデータを生成すること、
前記1組のアンサンブルデータを処理して前記ユーザが意図するアクションを決定すること、及び
前記対話型ユーザインタフェースによって前記アクションを実施すること
を含む、方法。 - 前記提示される刺激が動的な視覚刺激を含み、
前記動的な視覚刺激の動きを検出すること、
前記動的な視覚刺激の前記動きを追跡すること、及び
前記動的な視覚刺激にタグ付けすること
を更に含む、請求項16に記載の方法。 - 前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
前記神経記録装置から受信される前記入力から神経信号を抽出することであって、前記神経信号は脳波記録(EEG)信号を含み、前記EEG信号は視覚誘発電位、運動心像信号、事象関連電位(ERP)、及び脳状態依存信号を含む、抽出すること、及び
前記眼球運動信号と前記EEG信号とを統合して前記ユーザの注目箇所を決定すること
を更に含む、請求項16に記載の方法。 - 前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、及び
前記ユーザの注目箇所を決定するために、前記眼球運動信号に基づいて、組み合わせられる無遅延フィルタ及び分類器を実装すること
を更に含む、請求項16に記載の方法。 - 前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
前記眼球運動信号内の1組の欠落データ点を識別すること、
シミュレートされたユーザの眼球運動を予測するための運動学モデルを生成すること、
前記運動学モデルによる前記シミュレートされたユーザの前記予測された眼球運動に基づき、前記眼球運動信号内の前記1組の欠落データ点を置換するための1組の置換データ点を推定すること、及び
前記1組の欠落データ点を置換し更新済みの眼球運動信号を生成するために前記1組の置換データ点を組み込むこと
を更に含む、請求項16に記載の方法。 - 1組のアンサンブルデータを前記生成することが、
前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
前記神経記録装置から受信される前記入力から神経信号を抽出すること、
前記眼球運動信号、前記神経信号、及び前記提示される刺激に関係する前記情報のそれぞれに1組の重みを定め適用し、前記眼球運動信号、前記神経信号、及び前記刺激に関係する前記情報の加重表現を生成すること、及び
前記眼球運動信号、前記神経信号、及び前記刺激に関係する前記情報の前記加重表現を組み合わせて前記1組のアンサンブルデータを形成すること
を含む、請求項16に記載の方法。 - 前記アイトラッカから受信される前記入力から眼球運動信号を抽出すること、
前記アイトラッカから受信される前記入力から前記アイトラッカの技術的パラメータを抽出すること、
前記アイトラッカの前記技術的パラメータに基づき、前記ユーザの眼球運動を予測するための非線形生成運動学モデルを生成すること、
前記アイトラッカから受信される前記眼球運動信号及び前記非線形生成運動学モデルによって予測される前記眼球運動信号に基づき、更新済みの眼球運動信号を計算すること、及び
前記更新済みの眼球運動信号に関連する前記ユーザの注目箇所を決定すること
を更に含む、請求項16に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762549253P | 2017-08-23 | 2017-08-23 | |
US62/549,253 | 2017-08-23 | ||
PCT/US2018/047598 WO2019040665A1 (en) | 2017-08-23 | 2018-08-22 | BRAIN-COMPUTER INTERFACE PROVIDED WITH HIGH-SPEED OCULAR FOLLOWING CHARACTERISTICS |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020532031A true JP2020532031A (ja) | 2020-11-05 |
Family
ID=65439242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020532856A Pending JP2020532031A (ja) | 2017-08-23 | 2018-08-22 | 高速視標追跡機能を有する脳−コンピュータインタフェース |
Country Status (6)
Country | Link |
---|---|
US (2) | US11269414B2 (ja) |
EP (1) | EP3672478A4 (ja) |
JP (1) | JP2020532031A (ja) |
KR (1) | KR20200101906A (ja) |
CN (1) | CN111629653B (ja) |
WO (1) | WO2019040665A1 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITUB20153680A1 (it) * | 2015-09-16 | 2017-03-16 | Liquidweb Srl | Sistema di controllo di tecnologie assistive e relativo metodo |
EP3672478A4 (en) | 2017-08-23 | 2021-05-19 | Neurable Inc. | BRAIN COMPUTER INTERFACE WITH HIGH SPEED EYE TRACKING |
JP7496776B2 (ja) | 2017-11-13 | 2024-06-07 | ニューラブル インコーポレイテッド | 高速、正確及び直観的なユーザ対話のための適合を有する脳-コンピュータインターフェース |
KR20200108888A (ko) | 2018-01-18 | 2020-09-21 | 뉴레이블 인크. | 고속, 정확, 및 직관적 사용자 상호작용들을 위한 적응들을 갖는 뇌-컴퓨터 인터페이스 |
JP7107725B2 (ja) * | 2018-04-10 | 2022-07-27 | 浜松ホトニクス株式会社 | 眼球運動特徴量算出システム、眼球運動特徴量算出方法及び眼球運動特徴量算出プログラム |
US11331538B2 (en) * | 2018-08-07 | 2022-05-17 | Interactive Strength, Inc. | Interactive exercise machine data architecture |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
US20200265270A1 (en) * | 2019-02-20 | 2020-08-20 | Caseware International Inc. | Mutual neighbors |
CN110442232A (zh) * | 2019-06-18 | 2019-11-12 | 中国人民解放军军事科学院国防科技创新研究院 | 联合眼动和脑机接口的可穿戴式增强现实机器人控制系统 |
US20220276707A1 (en) * | 2019-07-31 | 2022-09-01 | Nextmind Sas | Brain-computer interface |
SE2050318A1 (en) * | 2020-03-23 | 2021-09-24 | Croseir Ab | A system |
CN112085052A (zh) * | 2020-07-28 | 2020-12-15 | 中国科学院深圳先进技术研究院 | 运动想象分类模型的训练方法、运动想象方法及相关设备 |
US11468288B2 (en) | 2020-07-28 | 2022-10-11 | Oken Technologies, Inc. | Method of and system for evaluating consumption of visual information displayed to a user by analyzing user's eye tracking and bioresponse data |
US11157081B1 (en) | 2020-07-28 | 2021-10-26 | Shenzhen Yunyinggu Technology Co., Ltd. | Apparatus and method for user interfacing in display glasses |
US11567574B2 (en) | 2020-09-22 | 2023-01-31 | Optum Technology, Inc. | Guided interaction with a query assistant software using brainwave data |
CN112381124B (zh) * | 2020-10-30 | 2023-11-14 | 华南理工大学 | 一种基于动态逆学习网络的提高脑机接口性能的方法 |
US11609633B2 (en) * | 2020-12-15 | 2023-03-21 | Neurable, Inc. | Monitoring of biometric data to determine mental states and input commands |
US20220211316A1 (en) * | 2021-01-04 | 2022-07-07 | Larry Lior Turetsky | Using Reorganization and Plasticity to Accelerate Injury Recovery (URePAIR) |
CN112764544B (zh) * | 2021-01-28 | 2022-04-22 | 中国人民解放军国防科技大学 | 一种结合眼动仪与异步运动想象技术实现虚拟鼠标的方法 |
WO2022162469A1 (en) * | 2021-01-29 | 2022-08-04 | Xr Health Il Ltd | Systems and methods for assessing partial impulsivity in virtual or augmented reality |
SI26152A (sl) | 2021-02-04 | 2022-08-31 | Likar Borut | Postopek obvladovanja dvosmerne interakcije pri uporabi avdio-video komunikacijskih platform z uporabo digitalnih kanalov |
TWI778521B (zh) * | 2021-02-18 | 2022-09-21 | 龍華科技大學 | 智慧腦機介面裝置 |
CN112990074B (zh) * | 2021-03-31 | 2023-04-07 | 北京理工大学 | 基于vr的多场景自主式控制的混合脑机接口在线系统 |
US20240197556A1 (en) * | 2021-04-11 | 2024-06-20 | Vikas Khurana | Systems, devices and methods for enacting cyclical positive and negative pressure |
CN114527867A (zh) * | 2021-11-18 | 2022-05-24 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种融合眼位信息的无人机脑机辅助控制方法及设备 |
WO2023107176A1 (en) * | 2021-12-07 | 2023-06-15 | University Of Pittsburgh - Of The Commonwealth System Of Higher Education | Systems and methods for brain-computer interface and calibrating the same |
CN115067971B (zh) * | 2022-05-18 | 2023-12-19 | 上海暖禾脑科学技术有限公司 | 基于脑电信号反馈控制虚拟对象的神经反馈系统 |
CN116382465B (zh) * | 2023-02-17 | 2024-02-13 | 中国科学院自动化研究所 | 光学脑机接口系统和方法 |
CN116982932A (zh) * | 2023-06-21 | 2023-11-03 | 首都医科大学附属北京天坛医院 | 一种基于眼动双任务的脑疾病预测设备、系统及可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009093435A1 (ja) * | 2008-01-25 | 2009-07-30 | Panasonic Corporation | 脳波インタフェースシステム、脳波インタフェース装置、方法およびコンピュータプログラム |
US20100100001A1 (en) * | 2007-12-27 | 2010-04-22 | Teledyne Scientific & Imaging, Llc | Fixation-locked measurement of brain responses to stimuli |
JP2012221498A (ja) * | 2011-04-08 | 2012-11-12 | Sony Computer Entertainment Inc | ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法 |
US20140347265A1 (en) * | 2013-03-15 | 2014-11-27 | Interaxon Inc. | Wearable computing apparatus and method |
US20160198091A1 (en) * | 2013-09-03 | 2016-07-07 | Seeing Machines Limited | Low power eye tracking system and method |
WO2017104869A1 (ko) * | 2015-12-17 | 2017-06-22 | 주식회사 룩시드랩스 | 아이 브레인 인터페이스(ebi) 장치 및 그 제어 방법 |
Family Cites Families (189)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4013068A (en) | 1974-10-15 | 1977-03-22 | Settle Wayne L | Electroencephalographic activated control system |
US4158196A (en) | 1977-04-11 | 1979-06-12 | Crawford George E Jr | Man-machine interface system |
US4595990A (en) | 1980-12-31 | 1986-06-17 | International Business Machines Corporation | Eye controlled information transfer |
US5137027A (en) | 1987-05-01 | 1992-08-11 | Rosenfeld Joel P | Method for the analysis and utilization of P300 brain waves |
US5269325A (en) | 1989-05-26 | 1993-12-14 | Biomagnetic Technologies, Inc. | Analysis of biological signals using data from arrays of sensors |
US5342410A (en) | 1990-10-05 | 1994-08-30 | Eric Braverman | Apparatus and method for increasing the amplitude of P300 waves in the human brain |
US5213338A (en) | 1991-09-30 | 1993-05-25 | Brotz Gregory R | Brain wave-directed amusement device |
US5339826A (en) | 1991-12-09 | 1994-08-23 | Westinghouse Electric Corp. | Method for training material evaluation with method of EEG spectral estimation |
US5692517A (en) | 1993-01-06 | 1997-12-02 | Junker; Andrew | Brain-body actuated system |
US5363858A (en) | 1993-02-11 | 1994-11-15 | Francis Luca Conte | Method and apparatus for multifaceted electroencephalographic response analysis (MERA) |
US5325862A (en) | 1993-03-26 | 1994-07-05 | The United States Of America As Represented By The Secretary Of The Navy | Method and/or system for personal identification and impairment assessment from brain activity patterns |
JP2899194B2 (ja) | 1993-06-30 | 1999-06-02 | キヤノン株式会社 | 意思伝達支援装置及び意思伝達支援方法 |
US5638826A (en) | 1995-06-01 | 1997-06-17 | Health Research, Inc. | Communication method and system using brain waves for multidimensional control |
US5742286A (en) | 1995-11-20 | 1998-04-21 | International Business Machines Corporation | Graphical user interface system and method for multiple simultaneous targets |
US5899867A (en) | 1996-10-11 | 1999-05-04 | Collura; Thomas F. | System for self-administration of electroencephalographic (EEG) neurofeedback training |
US5931908A (en) | 1996-12-23 | 1999-08-03 | The Walt Disney Corporation | Visual object present within live programming as an actionable event for user selection of alternate programming wherein the actionable event is selected by human operator at a head end for distributed data and programming |
JPH10260773A (ja) | 1997-03-19 | 1998-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法及びその装置 |
JPH1165794A (ja) | 1997-08-25 | 1999-03-09 | Yoshimichi Yonezawa | 誘発脳波を用いた入力装置 |
US5983129A (en) | 1998-02-19 | 1999-11-09 | Cowan; Jonathan D. | Method for determining an individual's intensity of focused attention and integrating same into computer program |
US7084884B1 (en) | 1998-11-03 | 2006-08-01 | Immersion Corporation | Graphical object interactions |
US6090051A (en) | 1999-03-03 | 2000-07-18 | Marshall; Sandra P. | Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity |
GB2348520B (en) | 1999-03-31 | 2003-11-12 | Ibm | Assisting user selection of graphical user interface elements |
US6380937B1 (en) | 1999-11-03 | 2002-04-30 | International Business Machines Corporation | Method and system for dynamically representing cluster analysis results |
US6626433B2 (en) | 2000-02-22 | 2003-09-30 | Joseph Scibetta | Card game |
US20020065851A1 (en) | 2000-06-02 | 2002-05-30 | Watson Emerson C. | System and method for creating a website |
JP2002236957A (ja) | 2001-02-09 | 2002-08-23 | Victor Co Of Japan Ltd | 電子投票装置、電子投票システム |
EP1392161A4 (en) | 2001-05-04 | 2008-02-20 | Univ Virginia | PROCESS, DEVICE AND COMPUTER PROGRAM PRODUCT FOR ASSESSING ATTENTION DEFICITS |
JP2003114820A (ja) | 2001-07-31 | 2003-04-18 | Sanyo Electric Co Ltd | 電子アルバム装置 |
JP2003058298A (ja) | 2001-08-20 | 2003-02-28 | Fuji Xerox Co Ltd | 情報分類装置、情報分類方法、情報分類プログラム及びコンピュータ読み取り可能な記録媒体 |
US7209788B2 (en) | 2001-10-29 | 2007-04-24 | Duke University | Closed loop brain machine interface |
US7080303B2 (en) | 2001-11-13 | 2006-07-18 | Prometric, A Division Of Thomson Learning, Inc. | Method and system for computer based testing using plugins to expand functionality of a test driver |
US6712468B1 (en) | 2001-12-12 | 2004-03-30 | Gregory T. Edwards | Techniques for facilitating use of eye tracking data |
US20040076930A1 (en) | 2002-02-22 | 2004-04-22 | Steinberg Linda S. | Partal assessment design system for educational testing |
US20030195798A1 (en) | 2002-04-11 | 2003-10-16 | John Goci | Voter interface for electronic voting system |
AU2003228850A1 (en) | 2002-05-03 | 2003-11-17 | Sarnoff Corporation | Single trial detection in encephalography |
US6917370B2 (en) | 2002-05-13 | 2005-07-12 | Charles Benton | Interacting augmented reality and virtual reality |
US6847844B2 (en) | 2002-06-06 | 2005-01-25 | University Of Pittsburgh Of The Commonwealth System Of Higher Education | Method of data communication with implanted device and associated apparatus |
US20040092809A1 (en) | 2002-07-26 | 2004-05-13 | Neurion Inc. | Methods for measurement and analysis of brain activity |
US20040044295A1 (en) | 2002-08-19 | 2004-03-04 | Orthosoft Inc. | Graphical user interface for computer-assisted surgery |
US7766743B2 (en) | 2002-08-29 | 2010-08-03 | Douglas Schoellkopf Jebb | Methods and apparatus for evaluating a user's affinity for a property |
US7347818B2 (en) | 2003-02-24 | 2008-03-25 | Neurotrax Corporation | Standardized medical cognitive assessment tool |
US8292433B2 (en) | 2003-03-21 | 2012-10-23 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
US8260428B2 (en) | 2003-05-01 | 2012-09-04 | California Institute Of Technology | Method and system for training a visual prosthesis |
US7546158B2 (en) | 2003-06-05 | 2009-06-09 | The Regents Of The University Of California | Communication methods based on brain computer interfaces |
US20040249302A1 (en) | 2003-06-09 | 2004-12-09 | Cyberkinetics, Inc. | Methods and systems for processing of brain signals |
US20050046698A1 (en) | 2003-09-02 | 2005-03-03 | Knight Andrew Frederick | System and method for producing a selectable view of an object space |
US20050085744A1 (en) | 2003-10-20 | 2005-04-21 | Stmicroelectronics S.R.I. | Man-machine interfaces system and method, for instance applications in the area of rehabilitation |
US7120486B2 (en) | 2003-12-12 | 2006-10-10 | Washington University | Brain computer interface |
EP1720447A4 (en) | 2004-02-13 | 2009-10-28 | Georgia Tech Res Inst | CONTROL WITH DISPLAY FOR SEARCH OF COMMOTIONS AND LIGHT BRAIN INJURY LESIONS |
US20050191609A1 (en) | 2004-02-14 | 2005-09-01 | Adaptigroup Llc | Method and system for improving performance on standardized examinations |
US7379562B2 (en) | 2004-03-31 | 2008-05-27 | Microsoft Corporation | Determining connectedness and offset of 3D objects relative to an interactive surface |
EP1743268A4 (en) | 2004-03-31 | 2007-09-19 | Neptec Design Group Ltd | SYSTEMS FOR MEDICAL PATIENT MONITORING AND DATA INPUT, METHOD AND USER INTERFACES |
US20090099623A1 (en) | 2004-09-13 | 2009-04-16 | Neuronix Ltd. | Systems and methods for treatment of medical conditions related to the central nervous system and for enhancing cognitive functions |
WO2006051709A1 (ja) | 2004-11-10 | 2006-05-18 | Matsushita Electric Industrial Co., Ltd. | 誤操作検出装置およびこれを有する機器、誤操作検出方法、並びに機器評価方法 |
TW200727867A (en) | 2005-09-12 | 2007-08-01 | Emotiv Systems Pty Ltd | Detection of and interaction using mental states |
US20070060830A1 (en) | 2005-09-12 | 2007-03-15 | Le Tan Thi T | Method and system for detecting and classifying facial muscle movements |
US7865235B2 (en) | 2005-09-12 | 2011-01-04 | Tan Thi Thai Le | Method and system for detecting and classifying the mental state of a subject |
US7513775B2 (en) | 2005-10-05 | 2009-04-07 | Exam Innovations, Inc. | Presenting answer options to multiple-choice questions during administration of a computerized test |
US20070086773A1 (en) | 2005-10-14 | 2007-04-19 | Fredrik Ramsten | Method for creating and operating a user interface |
WO2007050029A2 (en) | 2005-10-28 | 2007-05-03 | Tobii Technology Ab | Eye tracker with visual feedback |
EP1960985A1 (en) | 2005-12-15 | 2008-08-27 | Posit Science Corporation | Cognitive training using visual stimuli |
WO2007086222A1 (ja) | 2006-01-24 | 2007-08-02 | Honda Motor Co., Ltd. | 注意領域を推定するシステムおよび方法 |
US7580742B2 (en) | 2006-02-07 | 2009-08-25 | Microsoft Corporation | Using electroencephalograph signals for task classification and activity recognition |
US8029138B2 (en) * | 2006-07-25 | 2011-10-04 | Novavision, Inc. | Dynamic peripheral stimuli for visual field testing and therapy |
WO2008030542A2 (en) | 2006-09-07 | 2008-03-13 | The Procter & Gamble Company | Methods for measuring emotive response and selection preference |
CN1927551A (zh) | 2006-09-30 | 2007-03-14 | 电子科技大学 | 一种视导脑声控的残障辅助机器人 |
US20080218472A1 (en) | 2007-03-05 | 2008-09-11 | Emotiv Systems Pty., Ltd. | Interface to convert mental states and facial expressions to application input |
JP5132182B2 (ja) | 2007-04-25 | 2013-01-30 | キヤノン株式会社 | 医療用検査システムおよびその処理方法、プログラム、記憶媒体 |
US20090082692A1 (en) | 2007-09-25 | 2009-03-26 | Hale Kelly S | System And Method For The Real-Time Evaluation Of Time-Locked Physiological Measures |
US7556377B2 (en) | 2007-09-28 | 2009-07-07 | International Business Machines Corporation | System and method of detecting eye fixations using adaptive thresholds |
US8369939B2 (en) | 2007-10-29 | 2013-02-05 | Panasonic Corporation | Activation apparatus, method, and computer program for brainwave interface system |
US20100298649A1 (en) | 2007-11-02 | 2010-11-25 | Siegbert Warkentin | System and methods for assessment of the aging brain and its brain disease induced brain dysfunctions by speech analysis |
WO2009086088A1 (en) * | 2007-12-21 | 2009-07-09 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US8244475B2 (en) | 2007-12-27 | 2012-08-14 | Teledyne Scientific & Imaging, Llc | Coupling human neural response with computer pattern analysis for single-event detection of significant brain responses for task-relevant stimuli |
AU2009204001A1 (en) | 2008-01-11 | 2009-07-16 | Oregon Health & Science University | Rapid serial presentation communication systems and methods |
CN101502418B (zh) | 2008-02-05 | 2011-05-04 | 周常安 | 耳戴式脑电检测装置 |
WO2009139119A1 (ja) | 2008-05-15 | 2009-11-19 | パナソニック株式会社 | 脳波信号の識別方法を調整する装置、方法およびプログラム |
RU2495476C2 (ru) | 2008-06-20 | 2013-10-10 | Инвенсис Системз, Инк. | Системы и способы для иммерсивного взаимодействия с действительными и/или имитируемыми техническими средствами для управления технологическим процессом, контроля состояния окружающей среды и производственного контроля |
US8751011B2 (en) | 2008-07-11 | 2014-06-10 | Medtronic, Inc. | Defining therapy parameter values for posture states |
JP4465414B2 (ja) | 2008-07-11 | 2010-05-19 | パナソニック株式会社 | 脳波を用いた機器の制御方法および脳波インタフェースシステム |
CN101339455B (zh) | 2008-08-07 | 2010-09-29 | 北京师范大学 | 基于人脸识别特异性波n170成分的脑机接口系统 |
US8933957B2 (en) | 2008-08-18 | 2015-01-13 | The Boeing Company | Methods and systems for emphasizing selected aviation chart information |
US20100145215A1 (en) | 2008-12-09 | 2010-06-10 | Neurofocus, Inc. | Brain pattern analyzer using neuro-response data |
US20100223549A1 (en) | 2009-02-27 | 2010-09-02 | Greg Edwards | System and method for controlling entertainment devices using a display |
US8155736B2 (en) | 2009-03-16 | 2012-04-10 | Neurosky, Inc. | EEG control of devices using sensory evoked potentials |
JP5243318B2 (ja) | 2009-03-19 | 2013-07-24 | 株式会社野村総合研究所 | コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム |
CA2697566A1 (en) | 2009-03-20 | 2010-09-20 | Jon Erik Ween | Cognitive assessment tool and method |
CN101515199B (zh) * | 2009-03-24 | 2011-01-05 | 北京理工大学 | 一种基于视线跟踪和p300脑电电位的字符输入装置 |
EP2442714A1 (en) | 2009-06-15 | 2012-04-25 | Brain Computer Interface LLC | A brain-computer interface test battery for the physiological assessment of nervous system health |
WO2011050414A1 (en) | 2009-10-30 | 2011-05-05 | Richard John Cale | Environmental control method and system |
AU2009251137B2 (en) | 2009-12-23 | 2013-04-11 | Canon Kabushiki Kaisha | Method for Arranging Images in electronic documents on small devices |
KR20110072730A (ko) | 2009-12-23 | 2011-06-29 | 한국과학기술원 | 적응형 뇌-컴퓨터 인터페이스 장치 |
US8758018B2 (en) * | 2009-12-31 | 2014-06-24 | Teledyne Scientific & Imaging, Llc | EEG-based acceleration of second language learning |
US9507418B2 (en) | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
JP4856791B2 (ja) | 2010-02-25 | 2012-01-18 | パナソニック株式会社 | 脳波インタフェースシステム、脳波インタフェース提供装置、脳波インタフェースの実行方法、および、プログラム |
US9361130B2 (en) | 2010-05-03 | 2016-06-07 | Apple Inc. | Systems, methods, and computer program products providing an integrated user interface for reading content |
WO2011140303A1 (en) | 2010-05-05 | 2011-11-10 | University Of Maryland, College Park | Time domain-based methods for noninvasive brain-machine interfaces |
US9183560B2 (en) | 2010-05-28 | 2015-11-10 | Daniel H. Abelow | Reality alternate |
US20110301486A1 (en) | 2010-06-03 | 2011-12-08 | Cordial Medical Europe | Measurement of auditory evoked responses |
US8750857B2 (en) | 2010-06-04 | 2014-06-10 | Qualcomm Incorporated | Method and apparatus for wireless distributed computing |
US8593375B2 (en) | 2010-07-23 | 2013-11-26 | Gregory A Maltz | Eye gaze user interface and method |
EP2598972A1 (en) | 2010-07-30 | 2013-06-05 | Katholieke Universiteit Leuven | Brain-computer interfaces and use thereof |
US20120034583A1 (en) | 2010-08-04 | 2012-02-09 | Vetprep.Com, Inc. | Veterinary exam preparation on mobile devices |
US8463721B2 (en) | 2010-08-05 | 2013-06-11 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for recognizing events |
KR101023249B1 (ko) | 2010-08-13 | 2011-03-21 | 동국대학교 산학협력단 | 뇌파를 이용한 인지 훈련 응용 프로그램 생성 장치, 방법 및 그 기록 매체 |
US10043351B2 (en) | 2010-08-23 | 2018-08-07 | Ncr Corporation | Self-service terminal |
JP5544620B2 (ja) | 2010-09-01 | 2014-07-09 | 独立行政法人産業技術総合研究所 | 意思伝達支援装置及び方法 |
DK2643782T3 (da) | 2010-11-24 | 2020-11-09 | Digital Artefacts Llc | Systemer og fremgangsmåder til bedømmelse af kognitiv funktion |
CN102098639B (zh) | 2010-12-28 | 2013-09-11 | 中国人民解放军第三军医大学野战外科研究所 | 脑机接口短消息发送控制装置及发送控制方法 |
US20140043229A1 (en) | 2011-04-07 | 2014-02-13 | Nec Casio Mobile Communications, Ltd. | Input device, input method, and computer program |
CA2835120C (en) | 2011-05-06 | 2019-05-28 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
WO2012154938A1 (en) | 2011-05-10 | 2012-11-15 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
JP5816917B2 (ja) | 2011-05-13 | 2015-11-18 | 本田技研工業株式会社 | 脳活動計測装置、脳活動計測方法、及び脳活動推定装置 |
JP5711056B2 (ja) | 2011-06-21 | 2015-04-30 | アイシン精機株式会社 | 脳波インターフェースシステム |
CA2842027A1 (en) | 2011-07-16 | 2013-01-24 | Adam J. Simon | Systems and methods for the physiological assessment of brain health and the remote quality control of eeg systems |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US20150212695A1 (en) | 2011-10-05 | 2015-07-30 | Google Inc. | Suggested action feedback |
US8878785B1 (en) | 2011-10-05 | 2014-11-04 | Google Inc. | Intent determination using geometric shape input |
CA2853709C (en) | 2011-10-27 | 2020-09-01 | Tandemlaunch Technologies Inc. | System and method for calibrating eye gaze data |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
JP5873362B2 (ja) | 2012-03-13 | 2016-03-01 | 日本放送協会 | 視線誤差補正装置、そのプログラム及びその方法 |
FR2989482B1 (fr) | 2012-04-12 | 2022-12-23 | Marc Massonneau | Procede de determination de la direction du regard d'un utilisateur. |
CN103421859B (zh) | 2012-05-14 | 2016-08-31 | 中原工学院 | 用无纺布型填料的液态淋浇发酵塔生产细菌纤维素的方法 |
JP2013244116A (ja) * | 2012-05-24 | 2013-12-09 | Panasonic Corp | 注意状態推定装置及び注意状態推定方法 |
US9152226B2 (en) | 2012-06-15 | 2015-10-06 | Qualcomm Incorporated | Input method designed for augmented reality goggles |
US9824604B2 (en) | 2012-09-04 | 2017-11-21 | Conduent Business Services, Llc | Creating assessment model for educational assessment system |
EP3865056A1 (en) | 2012-09-14 | 2021-08-18 | InteraXon Inc. | Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data |
US9176581B2 (en) | 2012-09-28 | 2015-11-03 | Intel Corporation | System and method for inferring user intent based on eye movement during observation of a display screen |
US9743002B2 (en) | 2012-11-19 | 2017-08-22 | Magna Electronics Inc. | Vehicle vision system with enhanced display functions |
WO2014085910A1 (en) | 2012-12-04 | 2014-06-12 | Interaxon Inc. | System and method for enhancing content using brain-state data |
US9629976B1 (en) | 2012-12-21 | 2017-04-25 | George Acton | Methods for independent entrainment of visual field zones |
CN103092340B (zh) | 2012-12-26 | 2016-03-02 | 北京大学 | 一种脑-机接口视觉刺激方法及信号识别方法 |
WO2014116826A1 (en) * | 2013-01-24 | 2014-07-31 | The Trustees Of Columbia University In The City Of New York | Mobile, neurally-assisted personal assistant |
US10231614B2 (en) | 2014-07-08 | 2019-03-19 | Wesley W. O. Krueger | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance |
US20140228701A1 (en) | 2013-02-11 | 2014-08-14 | University Of Washington Through Its Center For Commercialization | Brain-Computer Interface Anonymizer |
US10133342B2 (en) | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
ES2731560T3 (es) | 2013-03-01 | 2019-11-15 | Tobii Ab | Interacción de mirada con deformación retardada |
US9301675B2 (en) * | 2013-03-15 | 2016-04-05 | Neuro Kinetics, Inc | Method and apparatus for validating testing procedures in objective ophthalmic eye testing for eye evaluation applications requiring subject compliance with eye fixation to a visual target |
US20160103487A1 (en) | 2013-03-15 | 2016-04-14 | Glen J. Anderson | Brain computer interface (bci) system based on gathered temporal and spatial patterns of biophysical signals |
CN115981000A (zh) | 2013-03-15 | 2023-04-18 | 感知技术有限公司 | 增强光学和感知数字护目镜 |
US9532748B2 (en) | 2013-04-22 | 2017-01-03 | Personal Neuro Devices Inc. | Methods and devices for brain activity monitoring supporting mental state development and training |
EP2813175A3 (en) | 2013-06-14 | 2015-04-01 | Oticon A/s | A hearing assistance device with brain-computer interface |
US9329682B2 (en) | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
US10137363B2 (en) | 2013-06-20 | 2018-11-27 | Uday Parshionikar | Gesture based user interfaces, apparatuses and control systems |
US10558272B2 (en) | 2013-06-20 | 2020-02-11 | Uday Parshionikar | Gesture control via eye tracking, head tracking, facial expressions and other user actions |
US9389685B1 (en) | 2013-07-08 | 2016-07-12 | University Of South Florida | Vision based brain-computer interface systems for performing activities of daily living |
WO2015044851A2 (en) | 2013-09-25 | 2015-04-02 | Mindmaze Sa | Physiological parameter measurement and feedback system |
WO2015063765A1 (en) | 2013-10-29 | 2015-05-07 | Milbat - Giving Quality To Life | Walker-assist device |
KR101554412B1 (ko) | 2014-01-07 | 2015-09-18 | 한국과학기술원 | 시선 추적 및 뇌파 측정을 이용하여 사용자가 주시하는 물체에 대한 사용자의 의도를 추출하는 웨어러블 디바이스 |
KR101579364B1 (ko) | 2014-01-16 | 2015-12-21 | 서울대학교산학협력단 | 뇌파 모니터링 및 뇌 컴퓨터 인터페이스를 위한 뇌전도 전극과 취득 시스템을 내장한 무선 이어훅 이어셋 |
US9552060B2 (en) | 2014-01-28 | 2017-01-24 | Microsoft Technology Licensing, Llc | Radial selection by vestibulo-ocular reflex fixation |
CN103793058B (zh) | 2014-02-13 | 2016-09-28 | 山西大学 | 一种主动式脑机交互系统运动想象任务分类方法及装置 |
CN103955269A (zh) * | 2014-04-09 | 2014-07-30 | 天津大学 | 一种基于虚拟现实环境的智能眼镜脑-机接口方法 |
JP2017526078A (ja) | 2014-05-09 | 2017-09-07 | グーグル インコーポレイテッド | 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法 |
US11266342B2 (en) * | 2014-05-30 | 2022-03-08 | The Regents Of The University Of Michigan | Brain-computer interface for facilitating direct selection of multiple-choice answers and the identification of state changes |
CA2960148C (en) | 2014-09-04 | 2022-10-04 | University Health Network | Method and system for brain activity signal-based treatment and/or control of user devices |
US10120413B2 (en) | 2014-09-11 | 2018-11-06 | Interaxon Inc. | System and method for enhanced training using a virtual reality environment and bio-signal data |
US20170139556A1 (en) | 2014-10-01 | 2017-05-18 | Quantum Interface, Llc | Apparatuses, systems, and methods for vehicle interfaces |
US9946339B2 (en) | 2014-10-08 | 2018-04-17 | Microsoft Technology Licensing, Llc | Gaze tracking through eyewear |
US10810896B2 (en) * | 2014-10-24 | 2020-10-20 | Telefonaktiebolaget Lm Ericsson (Publ) | Customization of help information based on EEG data |
US9936195B2 (en) | 2014-11-06 | 2018-04-03 | Intel Corporation | Calibration for eye tracking systems |
US10884488B2 (en) | 2014-11-24 | 2021-01-05 | Samsung Electronics Co., Ltd | Electronic device and method for controlling display |
KR102326489B1 (ko) | 2014-11-24 | 2021-11-16 | 삼성전자주식회사 | 디스플레이를 제어하는 전자 장치 및 방법 |
US20160187976A1 (en) | 2014-12-29 | 2016-06-30 | Immersion Corporation | Systems and methods for generating haptic effects based on eye tracking |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
JP6295995B2 (ja) | 2015-04-28 | 2018-03-20 | 京セラドキュメントソリューションズ株式会社 | 情報処理装置、画像処理装置へのジョブ指示方法 |
CN104837088A (zh) | 2015-05-29 | 2015-08-12 | 成都腾悦科技有限公司 | 一种基于NFC的脑电α波信号感应蓝牙耳机 |
IL239191A0 (en) | 2015-06-03 | 2015-11-30 | Amir B Geva | Image sorting system |
US20190246982A1 (en) | 2015-08-05 | 2019-08-15 | Emotiv Inc. | Method and system for collecting and processing bioelectrical signals |
WO2017031089A1 (en) | 2015-08-15 | 2017-02-23 | Eyefluence, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
US10491711B2 (en) | 2015-09-10 | 2019-11-26 | EEVO, Inc. | Adaptive streaming of virtual reality data |
JP6684559B2 (ja) | 2015-09-16 | 2020-04-22 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
ITUB20153680A1 (it) | 2015-09-16 | 2017-03-16 | Liquidweb Srl | Sistema di controllo di tecnologie assistive e relativo metodo |
WO2017079333A1 (en) | 2015-11-04 | 2017-05-11 | Magic Leap, Inc. | Light field display metrology |
KR101723841B1 (ko) | 2015-12-17 | 2017-04-18 | 주식회사 룩시드랩스 | 아이 브레인 인터페이스(ebi) 장치 및 그 제어 방법 |
WO2017177188A1 (en) | 2016-04-08 | 2017-10-12 | Vizzario, Inc. | Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance |
US10522106B2 (en) | 2016-05-05 | 2019-12-31 | Ostendo Technologies, Inc. | Methods and apparatus for active transparency modulation |
US20170322679A1 (en) | 2016-05-09 | 2017-11-09 | John C. Gordon | Modifying a User Interface Based Upon a User's Brain Activity and Gaze |
US20180039329A1 (en) | 2016-08-04 | 2018-02-08 | David M. Tumey | Brain actuated control utilizing visually evoked potentials |
WO2018064627A1 (en) | 2016-09-30 | 2018-04-05 | Sony Interactive Entertainment Inc. | Wireless head mounted display with differential rendering and sound localization |
RU2627075C1 (ru) * | 2016-10-28 | 2017-08-03 | Ассоциация "Некоммерческое партнерство "Центр развития делового и культурного сотрудничества "Эксперт" | Нейрокомпьютерная система для выбора команд на основе регистрации мозговой активности |
US20210113129A1 (en) | 2016-12-01 | 2021-04-22 | Sin-Ger Huang | A system for determining emotional or psychological states |
WO2018127782A1 (en) | 2017-01-03 | 2018-07-12 | Xing Zhou | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command |
US20210141453A1 (en) | 2017-02-23 | 2021-05-13 | Charles Robert Miller, III | Wearable user mental and contextual sensing device and system |
EP3672478A4 (en) | 2017-08-23 | 2021-05-19 | Neurable Inc. | BRAIN COMPUTER INTERFACE WITH HIGH SPEED EYE TRACKING |
JP7496776B2 (ja) | 2017-11-13 | 2024-06-07 | ニューラブル インコーポレイテッド | 高速、正確及び直観的なユーザ対話のための適合を有する脳-コンピュータインターフェース |
KR20200108888A (ko) | 2018-01-18 | 2020-09-21 | 뉴레이블 인크. | 고속, 정확, 및 직관적 사용자 상호작용들을 위한 적응들을 갖는 뇌-컴퓨터 인터페이스 |
US20190286234A1 (en) | 2018-03-19 | 2019-09-19 | MindMaze Holdiing SA | System and method for synchronized neural marketing in a virtual environment |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
-
2018
- 2018-08-22 EP EP18848298.8A patent/EP3672478A4/en active Pending
- 2018-08-22 CN CN201880069216.XA patent/CN111629653B/zh active Active
- 2018-08-22 WO PCT/US2018/047598 patent/WO2019040665A1/en unknown
- 2018-08-22 JP JP2020532856A patent/JP2020532031A/ja active Pending
- 2018-08-22 KR KR1020207008357A patent/KR20200101906A/ko not_active Application Discontinuation
-
2020
- 2020-02-21 US US16/797,376 patent/US11269414B2/en active Active
-
2022
- 2022-01-31 US US17/589,175 patent/US11972049B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100100001A1 (en) * | 2007-12-27 | 2010-04-22 | Teledyne Scientific & Imaging, Llc | Fixation-locked measurement of brain responses to stimuli |
WO2009093435A1 (ja) * | 2008-01-25 | 2009-07-30 | Panasonic Corporation | 脳波インタフェースシステム、脳波インタフェース装置、方法およびコンピュータプログラム |
JP2012221498A (ja) * | 2011-04-08 | 2012-11-12 | Sony Computer Entertainment Inc | ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法 |
US20140347265A1 (en) * | 2013-03-15 | 2014-11-27 | Interaxon Inc. | Wearable computing apparatus and method |
US20160198091A1 (en) * | 2013-09-03 | 2016-07-07 | Seeing Machines Limited | Low power eye tracking system and method |
WO2017104869A1 (ko) * | 2015-12-17 | 2017-06-22 | 주식회사 룩시드랩스 | 아이 브레인 인터페이스(ebi) 장치 및 그 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN111629653A (zh) | 2020-09-04 |
CN111629653B (zh) | 2024-06-21 |
US11972049B2 (en) | 2024-04-30 |
US20200192478A1 (en) | 2020-06-18 |
US20220404910A1 (en) | 2022-12-22 |
EP3672478A1 (en) | 2020-07-01 |
KR20200101906A (ko) | 2020-08-28 |
US11269414B2 (en) | 2022-03-08 |
WO2019040665A1 (en) | 2019-02-28 |
EP3672478A4 (en) | 2021-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11972049B2 (en) | Brain-computer interface with high-speed eye tracking features | |
US12001602B2 (en) | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions | |
US20200337653A1 (en) | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions | |
Lotte et al. | Electroencephalography (EEG)-based brain-computer interfaces | |
Schmidt et al. | Online detection of error-related potentials boosts the performance of mental typewriters | |
CA3020390A1 (en) | Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance | |
Hosni et al. | EEG-EOG based virtual keyboard: Toward hybrid brain computer interface | |
Rajyalakshmi et al. | Exploration of recent advances in the field of brain computer interfaces | |
Das et al. | A Review on Algorithms for EEG-Based BCIs | |
Tayade et al. | An Empirical Evaluation of Brain Computer Interface Models from a Pragmatic Perspective | |
Müller-Putz et al. | Electroencephalography and brain–computer interfaces | |
Andreeßen | Towards real-world applicability of neuroadaptive technologies: investigating subject-independence, task-independence and versatility of passive brain-computer interfaces | |
CN111712192B (zh) | 具有对于高速、准确和直观的用户交互的适配的大脑-计算机接口 | |
Laport Lopez | Novel developments of brain-computer interfaces for smart home control | |
Chatzilari et al. | Multimodal BCIs–the hands-free Tetris paradigm | |
Vasiljevas | Human-assistive interface model of physiological computing systems | |
Devi | The Fusion of Human-Computer Interaction and Artificial Intelligence Leads to the Emergence of Brain Computer Interaction | |
Hanna | Wearable Hybrid Brain Computer Interface as a Pathway for Environmental Control | |
Maruthachalam | Analysis of artifacts in EEG signals for building BCIs | |
Chandra et al. | Effective Brain Controlled Interface for Wheelchair: An Organized Review | |
Wang et al. | The status of research into intention recognition | |
Sahu et al. | Feature extraction and analysis of overt and covert EEG signals with speller devices | |
Bonci et al. | An Introductory Tutorial on Brain–Computer Interfaces and Their Applications. Electronics 2021, 10, 560 | |
Anil | Towards Tactile P300 and Steady State Visual Evoked Potential (SSVEP) Brain Computer Interface Paradigms for Communication Applications | |
Ma | Research on Human-Machine Interfaces of Vigilance Estimation and Robot Control based on Biomedical Signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210812 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230724 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240123 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240621 |