JPWO2020092420A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2020092420A5 JPWO2020092420A5 JP2021524324A JP2021524324A JPWO2020092420A5 JP WO2020092420 A5 JPWO2020092420 A5 JP WO2020092420A5 JP 2021524324 A JP2021524324 A JP 2021524324A JP 2021524324 A JP2021524324 A JP 2021524324A JP WO2020092420 A5 JPWO2020092420 A5 JP WO2020092420A5
- Authority
- JP
- Japan
- Prior art keywords
- mode
- processing module
- user
- utilizing
- biofeedback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative Effects 0.000 claims description 16
- 230000000763 evoked Effects 0.000 claims description 10
- 230000003334 potential Effects 0.000 claims description 10
- 238000000537 electroencephalography Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 7
- 238000002565 electrocardiography Methods 0.000 claims description 6
- 238000002567 electromyography Methods 0.000 claims description 6
- 238000002570 electrooculography Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims 8
- 238000010801 machine learning Methods 0.000 claims 5
- 210000004092 Somatosensory Cortex Anatomy 0.000 claims 4
- 230000001809 detectable Effects 0.000 claims 4
- 230000004936 stimulating Effects 0.000 claims 4
- 210000000869 Occipital Lobe Anatomy 0.000 claims 2
- 239000004984 smart glass Substances 0.000 claims 2
- 210000003169 Central Nervous System Anatomy 0.000 claims 1
- 238000004497 NIR spectroscopy Methods 0.000 claims 1
- 210000001428 Peripheral Nervous System Anatomy 0.000 claims 1
- 238000007374 clinical diagnostic method Methods 0.000 claims 1
- 230000003287 optical Effects 0.000 claims 1
- 238000003909 pattern recognition Methods 0.000 claims 1
- 239000003638 reducing agent Substances 0.000 claims 1
- 230000002452 interceptive Effects 0.000 description 8
- 230000003993 interaction Effects 0.000 description 2
- 210000004556 Brain Anatomy 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006011 modification reaction Methods 0.000 description 1
Description
このように、本願の本発明の実施形態を、その例示的な実施形態を参照して詳細に説明したが、本発明の範囲から逸脱することなく、修正および変形が可能であることは明らかであろう。
いくつかの態様を記載しておく。
〔態様1〕
ヘッドセット内の脳コンピュータ・インターフェースのシステムであって:
拡張現実ディスプレイと;
ユーザーからの生体信号を読み取るための一つまたは複数のセンサーと;
該生体信号を解析し、該生体信号をデジタル対話装置のための出力にマッピングするプロセッサを含む処理モジュールであって、前記デジタル対話装置は、前記拡張現実ディスプレイ、ユーザーに近接したデジタル対話装置、リモートに位置するデジタル対話装置およびそれらの組み合わせのうちの少なくとも1つを含む、処理モジュールと;
前記処理モジュールと通信する少なくとも1つのバイオフィードバック装置であって、該少なくとも1つのバイオフィードバック装置は、前記ユーザー、前記デジタル対話装置およびそれらの組み合わせのうちの少なくとも1つにフィードバックを提供するように構成されている、バイオフィードバック装置と;
バッテリーとを有しており、前記バッテリーは、前記拡張現実ディスプレイ、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、およびそれらの組み合わせのうちの少なくとも1つに電力を提供する、
システム。
〔態様2〕
前記生体信号は、EEG(Electroencephalography[脳波記録法])またはECG(Electrocardiography[心電図記録法])またはEMG(Electromyography[筋電図記録法])またはEOG(Electrooculography[眼電図記録法])およびそれらの組み合わせのうちの少なくとも1つを含む、態様1に記載のシステム。
〔態様3〕
前記処理モジュールによって実行される処理は、視覚誘発電位を含む、態様1に記載のシステム。
〔態様4〕
前記ヘッドセットは、プリント回路基板をさらに含み、前記プリント回路基板は、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、前記バッテリー、およびそれらの組み合わせのうちの少なくとも1つを含む、態様1に記載のシステム。
〔態様5〕
前記プリント回路基板は、ブルートゥース・キーボードをエミュレートし、データをモバイル装置、コンピュータ、および前記拡張現実ディスプレイのうちの少なくとも1つに出力するように構成され、前記出力データは、文字、記号、数字、およびそれらの組み合わせのうちの少なくとも1つを含む、態様4に記載のシステム。
〔態様6〕
前記生体信号は、リアルタイムで処理され、解析される、態様1に記載のシステム。
〔態様7〕
前記処理モジュールは、ロー・モード、シマー・モード、クックト・モード、人間インターフェース装置‐キーボード・モード、およびそれらの組み合わせのうちの少なくとも1つを含みうる異なるモードを有する、態様1に記載のシステム。
〔態様8〕
前記ロー・モードは、データをフィルタリングし、認識し、またはデータと相互作用することができるモバイルまたはデスクトップのインターネット接続された装置を介してクラウドで、または、ローカルにさらに処理するために、データの完全なバイオセンサー・ストリームをストリームする、態様7に記載のシステム。
〔態様9〕
前記クックト・モードは、ローカルな認識器および診断によって生成された完全に処理されたカスタム・メッセージであり、ロー・データはユーザーに渡されない、態様7に記載のシステム。
〔態様10〕
前記シマー・モードは、前記ロー・モードと前記クックト・モードとの間のハイブリッド組み合わせであり、前記プロセッサは、ロー・データ・ストリームに、クックト・メッセージを散在させる、態様7に記載のシステム。
〔態様11〕
ヘッドセット内の脳コンピュータ・インターフェース(BCI)を実装する方法であって:
拡張現実ディスプレイを利用することと;
ユーザーからの生体信号を読み取るための一つまたは複数のセンサーを利用することと;
該生体信号を解析し、該生体信号をデジタル対話装置のための出力にマッピングするプロセッサを含む処理モジュールを利用することであって、前記デジタル対話装置は、前記拡張現実ディスプレイ、ユーザーに近接したデジタル対話装置、リモートに位置するデジタル対話装置およびそれらの組み合わせのうちの少なくとも1つを含む、ことと;
前記処理モジュールと通信する少なくとも1つのバイオフィードバック装置を利用することであって、該少なくとも1つのバイオフィードバック装置は、前記ユーザー、前記デジタル対話装置およびそれらの組み合わせのうちの少なくとも1つにフィードバックを提供するように構成されている、ことと;
バッテリーを利用することとを含み、前記バッテリーは、前記拡張現実ディスプレイ、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、およびそれらの組み合わせのうちの少なくとも1つに電力を提供する、
方法。
〔態様12〕
前記生体信号は、EEG(Electroencephalography[脳波記録法])、ECG(Electrocardiography[心電図記録法])、EMG(Electromyography[筋電図記録法])、EOG(Electrooculography[眼電図記録法])、視覚誘発電位、聴覚誘発電位および運動誘発電位のうちの少なくとも1つを含む、態様11に記載の方法。
〔態様13〕
前記処理モジュールによって実行される処理は、視覚誘発電位を含む、態様11に記載の方法。
〔態様14〕
前記ヘッドセットは、プリント回路基板をさらに含み、前記プリント回路基板は、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、前記バッテリー、およびそれらの組み合わせのうちの少なくとも1つを含む、態様11に記載の方法。
〔態様15〕
前記プリント回路基板は、モバイル装置またはコンピュータに無線で接続することができ、前記プリント回路基板は、ブルートゥース・キーボードをエミュレートし、データを前記モバイル装置、前記コンピュータ、および前記拡張現実ディスプレイのうちの少なくとも1つに出力するように構成され、前記出力データは、文字、記号、数字、およびそれらの組み合わせのうちの少なくとも1つを含む、態様14に記載の方法。
〔態様16〕
前記生体信号は、リアルタイムで処理され、解析される、態様11に記載の方法。
〔態様17〕
前記処理モジュールは、ロー・モード、シマー・モード、クックト・モード、人間インターフェース装置‐キーボード・モード、およびそれらの組み合わせのうちの少なくとも1つを含む異なるモードを有する、態様11に記載の方法。
〔態様18〕
前記ロー・モードは、モバイルまたはデスクトップのインターネット接続された装置を介してクラウドで、または、ローカルにさらに処理するために、データの完全なバイオセンサー・ストリームをストリームし、前記インターネット接続された装置は、データをフィルタリングすること、認識すること、およびデータと相互作用することのうち少なくとも1つを実行するように構成されている、態様17に記載の方法。
〔態様19〕
前記クックト・モードは、ローカルな認識器および診断によって生成された完全に処理されたカスタム・メッセージであり、ロー・データはユーザーに渡されない、態様17に記載の方法。
〔態様20〕
前記シマー・モードは、前記ロー・モードと前記クックト・モードとの間のハイブリッド組み合わせであり、前記プロセッサは、ロー・データ・ストリームに、クックト・メッセージを散在させる、態様17に記載の方法。
Thus, although embodiments of the invention herein have been described in detail with reference to exemplary embodiments thereof, it will be apparent that modifications and variations are possible without departing from the scope of the invention. be.
Some aspects are described.
[Aspect 1]
A system of brain-computer interfaces in a headset comprising:
an augmented reality display;
one or more sensors for reading biometric signals from the user;
A processing module that includes a processor that analyzes the biometric signal and maps the biometric signal to an output for a digital interactive device, the digital interactive device comprising: the augmented reality display, a digital interactive device proximate to the user, a remote a processing module including at least one of a digital interactive device and combinations thereof located in;
at least one biofeedback device in communication with the processing module, the at least one biofeedback device configured to provide feedback to at least one of the user, the digital interaction device and combinations thereof a biofeedback device;
a battery, said battery powering at least one of said augmented reality display, said one or more sensors, said processing module, said at least one biofeedback device, and combinations thereof. offer,
system.
[Aspect 2]
Said biomedical signals may be EEG (Electroencephalography) or ECG (Electrocardiography) or EMG (Electromyography) or EOG (Electrooculography) and A system according to aspect 1, comprising at least one of the combinations of
[Aspect 3]
Aspect 1. The system of aspect 1, wherein the processing performed by the processing module includes visual evoked potentials.
[Aspect 4]
The headset further includes a printed circuit board, wherein the printed circuit board comprises at least one of the one or more sensors, the processing module, the at least one biofeedback device, the battery, and combinations thereof. The system of aspect 1, comprising:
[Aspect 5]
The printed circuit board is configured to emulate a Bluetooth keyboard and output data to at least one of a mobile device, a computer and the augmented reality display, the output data being letters, symbols, numbers. , and combinations thereof.
[Aspect 6]
2. The system of aspect 1, wherein the biosignal is processed and analyzed in real time.
[Aspect 7]
Aspect 1. The system of aspect 1, wherein the processing module has different modes that may include at least one of a raw mode, a simmer mode, a cooked mode, a human interface device-keyboard mode, and combinations thereof.
[Aspect 8]
Said raw mode enables the processing of data for further processing, either in the cloud via a mobile or desktop internet-connected device capable of filtering, recognizing, or otherwise interacting with the data, or locally. 8. The system of aspect 7, wherein the full biosensor stream is streamed.
[Aspect 9]
8. The system of aspect 7, wherein the cooked mode is a fully processed custom message generated by a local recognizer and diagnostic and no raw data is passed to the user.
[Aspect 10]
8. The system of aspect 7, wherein the simmer mode is a hybrid combination between the raw mode and the cooked mode, and wherein the processor intersperses the raw data stream with cooked messages.
[Aspect 11]
A method of implementing a Brain Computer Interface (BCI) in a headset comprising:
using an augmented reality display;
utilizing one or more sensors to read biometric signals from the user;
Utilizing a processing module including a processor that analyzes the biometric signal and maps the biometric signal to an output for a digital interactive device, the digital interactive device connecting the augmented reality display, a digital including at least one of an interactive device, a remotely located digital interactive device and combinations thereof;
utilizing at least one biofeedback device in communication with the processing module, the at least one biofeedback device providing feedback to at least one of the user, the digital interaction device and combinations thereof. is configured to;
utilizing a battery, wherein the battery powers at least one of the augmented reality display, the one or more sensors, the processing module, the at least one biofeedback device, and combinations thereof. I will provide a,
Method.
[Aspect 12]
Said biosignals may be EEG (Electroencephalography), ECG (Electrocardiography), EMG (Electromyography), EOG (Electrooculography), visual 12. The method of embodiment 11, comprising at least one of evoked potentials, auditory evoked potentials and motor evoked potentials.
[Aspect 13]
12. The method of aspect 11, wherein the processing performed by the processing module includes visual evoked potentials.
[Aspect 14]
The headset further includes a printed circuit board, wherein the printed circuit board comprises at least one of the one or more sensors, the processing module, the at least one biofeedback device, the battery, and combinations thereof. 12. The method of aspect 11, comprising:
[Aspect 15]
The printed circuit board can be wirelessly connected to a mobile device or computer, and the printed circuit board emulates a Bluetooth keyboard and transfers data to the mobile device, the computer, and the augmented reality display. 15. The method of aspect 14, wherein the output data comprises at least one of letters, symbols, numbers, and combinations thereof.
[Aspect 16]
12. The method of aspect 11, wherein the biosignal is processed and analyzed in real time.
[Aspect 17]
12. The method of aspect 11, wherein the processing module has different modes including at least one of raw mode, simmer mode, cooked mode, human interface device-keyboard mode, and combinations thereof.
[Aspect 18]
The raw mode streams the complete biosensor stream of data for further processing in the cloud or locally via a mobile or desktop internet-connected device, the internet-connected device 18. The method of aspect 17, wherein the method is configured to perform at least one of filtering, recognizing, and interacting with the data.
[Aspect 19]
18. The method of aspect 17, wherein the cooked mode is a fully processed custom message generated by a local recognizer and diagnostic and no raw data is passed to the user.
[Aspect 20]
18. The method of aspect 17, wherein the simmer mode is a hybrid combination between the raw mode and the cooked mode, and wherein the processor intersperses the raw data stream with cooked messages.
Claims (11)
拡張現実ディスプレイを利用することと;
ユーザーの後頭葉およびユーザーの体性感覚皮質に対する視覚刺激、聴覚刺激または触覚刺激のうちの少なくとも1つを生成することを含み、当該方法は、検出可能な脳波周波数を生成することと;
前記検出可能な脳波周波数を処理して、それにより生体信号のデジタル・コマンドへのマッピングを容易にすることと;
前記デジタル・コマンドを装置に関連付けることと;
前記デジタル・コマンドに従って前記装置を動作させることと;
前記ユーザーの体性感覚皮質を刺激することであって、前記刺激することは、前記装置の前記動作のバイオフィードバック確認を含む、ことと;
前記ユーザーからの生体信号を読み取るための一つまたは複数のセンサーを利用することと;
該生体信号を解析し、該生体信号を前記拡張現実ディスプレイでの出力にマッピングするプロセッサを含む処理モジュールを利用することであって、前記処理モジュールは、ロー・モード、シマー・モード、クックト・モード、人間インターフェース装置‐キーボード・モードを含む異なるユーザー選択可能モードを有する、ことと;
前記処理モジュールと通信する少なくとも1つのバイオフィードバック装置を利用することであって、該少なくとも1つのバイオフィードバック装置は、前記ユーザーにフィードバックを提供する、ことと;
バッテリーを利用することであって、前記バッテリーは、前記拡張現実ディスプレイ、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、およびそれらの組み合わせのうちの少なくとも1つに電力を提供する、こととを含む、
方法。 A method of implementing a brain-computer interface (BCI) in a wireless headset , comprising:
using an augmented reality display;
generating at least one of a visual, auditory or tactile stimulus to the user's occipital lobe and the user's somatosensory cortex, the method generating detectable electroencephalogram frequencies;
processing the detectable electroencephalogram frequencies to thereby facilitate mapping of biosignals to digital commands;
associating the digital command with a device;
operating the device according to the digital command;
stimulating the user's somatosensory cortex, said stimulating comprising biofeedback confirmation of said operation of said device;
utilizing one or more sensors to read biosignals from the user;
utilizing a processing module including a processor that analyzes the biometric signal and maps the biosignal to an output on the augmented reality display, the processing module having a raw mode, a simmer mode, a cooked mode; , a human interface device-having different user-selectable modes, including a keyboard mode ;
utilizing at least one biofeedback device in communication with the processing module, the at least one biofeedback device providing feedback to the user ;
utilizing a battery, the battery powering at least one of the augmented reality display, the one or more sensors, the processing module, the at least one biofeedback device, and combinations thereof. to provide , including
How .
拡張現実ディスプレイを利用することと; using an augmented reality display;
ユーザーの後頭葉およびユーザーの体性感覚皮質に対する視覚刺激、聴覚刺激または触覚刺激のうちの少なくとも1つを生成することを含み、当該方法は、検出可能な脳波周波数を生成することと; generating at least one of a visual, auditory or tactile stimulus to the user's occipital lobe and the user's somatosensory cortex, the method generating detectable electroencephalogram frequencies;
前記検出可能な脳波周波数を処理して、それにより生体信号のデジタル・コマンドへのマッピングを容易にすることと; processing the detectable electroencephalogram frequencies to thereby facilitate mapping of biosignals to digital commands;
前記デジタル・コマンドを装置に関連付けることと; associating the digital command with a device;
前記デジタル・コマンドに従って前記装置を動作させることと; operating the device according to the digital command;
前記ユーザーの体性感覚皮質を刺激することであって、前記刺激することは、前記装置の前記動作のバイオフィードバック確認を含む、ことと; stimulating the user's somatosensory cortex, said stimulating comprising biofeedback confirmation of said operation of said device;
前記ユーザーからの生体信号を読み取るための一つまたは複数のセンサーを利用することと; utilizing one or more sensors to read biosignals from the user;
該生体信号を解析し、該生体信号を前記拡張現実ディスプレイでの出力にマッピングするプロセッサを含む処理モジュールを利用することであって、前記処理モジュールは、ロー・モード、シマー・モード、クックト・モード、人間インターフェース装置‐キーボード・モードおよびそれらの組み合わせを含む異なるモードを有する、ことと; utilizing a processing module including a processor that analyzes the biometric signal and maps the biosignal to an output on the augmented reality display, the processing module having a raw mode, a simmer mode, a cooked mode; , having different modes including a human interface device-keyboard mode and combinations thereof;
前記処理モジュールと通信する少なくとも1つのバイオフィードバック装置を利用することであって、該少なくとも1つのバイオフィードバック装置は、ユーザーの中枢または末梢神経系を刺激する、ことと; utilizing at least one biofeedback device in communication with the processing module, wherein the at least one biofeedback device stimulates a user's central or peripheral nervous system;
バッテリーを利用することであって、前記バッテリーは、前記拡張現実ディスプレイ、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、およびそれらの組み合わせのうちの少なくとも1つに電力を提供する、ことと; utilizing a battery, the battery powering at least one of the augmented reality display, the one or more sensors, the processing module, the at least one biofeedback device, and combinations thereof. to provide;
前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、前記バッテリー、およびそれらの組み合わせのうちの少なくとも1つを含むプリント回路基板を利用することとを含み、 utilizing a printed circuit board containing at least one of the one or more sensors, the processing module, the at least one biofeedback device, the battery, and combinations thereof;
前記プリント回路基板は、ブルートゥース・キーボードをエミュレートし、データをモバイル装置、コンピュータ、および前記拡張現実ディスプレイのうちの少なくとも1つに出力するように構成され、前記出力データは、文字、記号、数字、およびそれらの組み合わせのうちの少なくとも1つを含み; The printed circuit board is configured to emulate a Bluetooth keyboard and output data to at least one of a mobile device, a computer, and the augmented reality display, the output data being letters, symbols, numbers. , and combinations thereof;
前記BCIは、前記BCIがネットワークに接続されていない間に動作するパターン認識およびパーソナライゼーションのためにAI機械学習を利用し、前記AI機械学習は、自動同調する動的ノイズ低減器、特徴抽出器、および認識器・分類器のうちの一つまたは複数のはたらきをし; The BCI utilizes AI machine learning for pattern recognition and personalization that operates while the BCI is not connected to a network, the AI machine learning includes an auto-tuned dynamic noise reducer, feature extractor. , and one or more of a recognizer/classifier;
AI機械学習トレーニングは、前記BCIが前記ネットワークに接続されているときに適用されて、個別化された認識器・分類器を生成し、前記AI機械学習トレーニングの導出された出力は、クラウド記憶におけるエキスパートシステム知識ベースに格納され; AI machine learning training is applied when the BCI is connected to the network to generate personalized recognizers and classifiers, and the derived output of the AI machine learning training is stored in cloud storage. stored in the expert system knowledge base;
前記AI機械学習およびクラウド記憶における前記エキスパートシステム知識ベースから導出された合成洞察が、オフライン使用のためにBCI記憶装置と前記ネットワークとの間の無線接続または有線接続を介してダウンロードされうる、ダウンロード可能な個別化された実行可能な認識器・分類器を生成するために使用され; Synthetic insights derived from the expert system knowledge base in AI machine learning and cloud storage may be downloaded via a wireless or wired connection between a BCI storage device and the network for offline use. is used to generate a unique individualized executable recognizer/classifier;
当該方法は、ウェアラブル装置、埋め込み可能な装置およびモノのインターネット(IoT)装置を含む資源制約された装置に適用され; The method is applied to resource constrained devices including wearable devices, implantable devices and Internet of Things (IoT) devices;
前記異なるモードは、ストラップレス・モードを含み、前記完全に自己完結したBCIは、スマート眼鏡またはスマート・コンタクトレンズ、埋め込み可能な脳コンピュータ・インターフェースおよびARシステムを使用する、 The different modes include a strapless mode, and the fully self-contained BCI uses smart glasses or smart contact lenses, an implantable brain-computer interface and an AR system.
方法。Method.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862752133P | 2018-10-29 | 2018-10-29 | |
US62/752,133 | 2018-10-29 | ||
US15/929,085 US10990175B2 (en) | 2018-10-29 | 2019-01-09 | Brain computer interface for augmented reality |
US15/929,085 | 2019-01-09 | ||
PCT/US2019/058640 WO2020092420A1 (en) | 2018-10-29 | 2019-10-29 | Brain computer interface for augmented reality |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022509752A JP2022509752A (en) | 2022-01-24 |
JPWO2020092420A5 true JPWO2020092420A5 (en) | 2022-10-27 |
Family
ID=70326245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021524324A Pending JP2022509752A (en) | 2018-10-29 | 2019-10-29 | Brain computer interface for augmented reality |
Country Status (7)
Country | Link |
---|---|
US (1) | US10990175B2 (en) |
EP (1) | EP3874351A4 (en) |
JP (1) | JP2022509752A (en) |
CN (1) | CN113227944B (en) |
AU (1) | AU2019369395B2 (en) |
CA (1) | CA3118301A1 (en) |
WO (1) | WO2020092420A1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11402909B2 (en) | 2017-04-26 | 2022-08-02 | Cognixion | Brain computer interface for augmented reality |
KR102396520B1 (en) * | 2020-02-11 | 2022-05-11 | 고려대학교 산학협력단 | Smart control device for determining user's intention from color stimulus based on brain-computer interface and control method thereof |
US11567574B2 (en) * | 2020-09-22 | 2023-01-31 | Optum Technology, Inc. | Guided interaction with a query assistant software using brainwave data |
USD952630S1 (en) * | 2021-01-16 | 2022-05-24 | Cognixion | Brain-computer interface (BCI) headset |
WO2023192470A1 (en) * | 2022-03-30 | 2023-10-05 | University Of Pittsburgh - Of The Commonwealth System Of Higher Education | Eeg-guided spatial neglect detection system and detection method employing same |
CN115064036A (en) * | 2022-04-26 | 2022-09-16 | 北京亮亮视野科技有限公司 | AR technology-based danger early warning method and device |
KR102486210B1 (en) * | 2022-11-02 | 2023-01-11 | 조은정 | Treatment game devices for alleviation of vibration |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7784696B2 (en) * | 2006-06-09 | 2010-08-31 | Hand Held Products, Inc. | Indicia reading apparatus having image sensing and processing circuit |
CN101571748A (en) * | 2009-06-04 | 2009-11-04 | 浙江大学 | Brain-computer interactive system based on reinforced realization |
JP5467267B2 (en) * | 2010-03-05 | 2014-04-09 | 国立大学法人大阪大学 | DEVICE CONTROL DEVICE, DEVICE SYSTEM, DEVICE CONTROL METHOD, DEVICE CONTROL PROGRAM, AND RECORDING MEDIUM |
JP5688154B2 (en) * | 2010-09-29 | 2015-03-25 | オフィス オブ ザ ナショナル ブロードキャスティング アンド テレコミュニケーションズ コミッション | Electrical device control system and method based on SSVEP |
JP2012085746A (en) * | 2010-10-18 | 2012-05-10 | Panasonic Corp | Attentional state determination system, method, computer program, and attentional state determination device |
US10234942B2 (en) * | 2014-01-28 | 2019-03-19 | Medibotics Llc | Wearable and mobile brain computer interface (BCI) device and method |
CN107205641A (en) * | 2014-08-29 | 2017-09-26 | 因赛飞公司 | Method and apparatus for strengthening nervous function |
US10120413B2 (en) * | 2014-09-11 | 2018-11-06 | Interaxon Inc. | System and method for enhanced training using a virtual reality environment and bio-signal data |
EP3064130A1 (en) * | 2015-03-02 | 2016-09-07 | MindMaze SA | Brain activity measurement and feedback system |
KR101648017B1 (en) * | 2015-03-23 | 2016-08-12 | 현대자동차주식회사 | Display apparatus, vehicle and display method |
US10031580B2 (en) * | 2016-01-13 | 2018-07-24 | Immersion Corporation | Systems and methods for haptically-enabled neural interfaces |
CN205515250U (en) * | 2016-01-14 | 2016-08-31 | 马忠超 | Wheelchair controlling means based on brain wave combines head action |
CN106339091A (en) * | 2016-08-31 | 2017-01-18 | 博睿康科技(常州)股份有限公司 | Augmented reality interaction method based on brain-computer interface wearing system |
US10613336B2 (en) * | 2017-01-27 | 2020-04-07 | Otoy, Inc. | Headphone based modular VR/AR platform |
CN108379713A (en) * | 2018-03-09 | 2018-08-10 | 嘀拍信息科技南通有限公司 | One interaction meditation system based on virtual reality |
-
2019
- 2019-01-09 US US15/929,085 patent/US10990175B2/en active Active
- 2019-10-29 AU AU2019369395A patent/AU2019369395B2/en active Active
- 2019-10-29 CN CN201980087012.3A patent/CN113227944B/en active Active
- 2019-10-29 CA CA3118301A patent/CA3118301A1/en active Pending
- 2019-10-29 WO PCT/US2019/058640 patent/WO2020092420A1/en unknown
- 2019-10-29 JP JP2021524324A patent/JP2022509752A/en active Pending
- 2019-10-29 EP EP19880583.0A patent/EP3874351A4/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11402909B2 (en) | Brain computer interface for augmented reality | |
CN113227944B (en) | Brain-computer interface for augmented reality | |
Frantzidis et al. | Toward emotion aware computing: an integrated approach using multichannel neurophysiological recordings and affective visual stimuli | |
Neuper et al. | Motor imagery and EEG-based control of spelling devices and neuroprostheses | |
Scherer et al. | Toward self-paced brain–computer communication: navigation through virtual worlds | |
Carrino et al. | A self-paced BCI system to control an electric wheelchair: Evaluation of a commercial, low-cost EEG device | |
Murugappan et al. | An Investigation on visual and audiovisual stimulus based emotion recognition using EEG | |
US20090099474A1 (en) | System and method for combined bioelectric sensing and biosensory feedback based adaptive therapy for medical disorders | |
US20020077534A1 (en) | Method and system for initiating activity based on sensed electrophysiological data | |
Stanford | Biosignals offer potential for direct interfaces and health monitoring | |
Goudiaby et al. | Eeg biometrics for person verification | |
JPWO2020092420A5 (en) | ||
Xing et al. | Reading the mind: the potential of electroencephalography in brain computer interfaces | |
Shatilov et al. | Emerging exg-based nui inputs in extended realities: A bottom-up survey | |
Mora et al. | A BCI platform supporting AAL applications | |
Iroju et al. | Prospects and problems of brain computer interface in healthcare | |
Shatilov et al. | Emerging natural user interfaces in mobile computing: A bottoms-up survey | |
Zuanon | Bio-Interfaces: designing wearable devices to organic interactions | |
Ramakuri et al. | Behaviour state analysis through brain computer interface using wearable EEG devices: A review | |
Falk et al. | Brain–computer interfaces: recent advances, challenges, and future directions | |
Zhou | SSVEP-Based BCI Wheelchair Control System | |
Mohanchandra | Brain computer interface for emergency virtual voice | |
Andreoni et al. | Human machine interface for healthcare and rehabilitation | |
Kumari et al. | Combining biosignals with RFID to develop a multimodal-shared control interface | |
Khan et al. | EEG-based BCI systems for neurorehabilitation applications |