JPWO2020092420A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020092420A5
JPWO2020092420A5 JP2021524324A JP2021524324A JPWO2020092420A5 JP WO2020092420 A5 JPWO2020092420 A5 JP WO2020092420A5 JP 2021524324 A JP2021524324 A JP 2021524324A JP 2021524324 A JP2021524324 A JP 2021524324A JP WO2020092420 A5 JPWO2020092420 A5 JP WO2020092420A5
Authority
JP
Japan
Prior art keywords
mode
processing module
user
utilizing
biofeedback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021524324A
Other languages
Japanese (ja)
Other versions
JP2022509752A (en
Publication date
Priority claimed from US15/929,085 external-priority patent/US10990175B2/en
Application filed filed Critical
Publication of JP2022509752A publication Critical patent/JP2022509752A/en
Publication of JPWO2020092420A5 publication Critical patent/JPWO2020092420A5/ja
Pending legal-status Critical Current

Links

Description

このように、本願の本発明の実施形態を、その例示的な実施形態を参照して詳細に説明したが、本発明の範囲から逸脱することなく、修正および変形が可能であることは明らかであろう。
いくつかの態様を記載しておく。
〔態様1〕
ヘッドセット内の脳コンピュータ・インターフェースのシステムであって:
拡張現実ディスプレイと;
ユーザーからの生体信号を読み取るための一つまたは複数のセンサーと;
該生体信号を解析し、該生体信号をデジタル対話装置のための出力にマッピングするプロセッサを含む処理モジュールであって、前記デジタル対話装置は、前記拡張現実ディスプレイ、ユーザーに近接したデジタル対話装置、リモートに位置するデジタル対話装置およびそれらの組み合わせのうちの少なくとも1つを含む、処理モジュールと;
前記処理モジュールと通信する少なくとも1つのバイオフィードバック装置であって、該少なくとも1つのバイオフィードバック装置は、前記ユーザー、前記デジタル対話装置およびそれらの組み合わせのうちの少なくとも1つにフィードバックを提供するように構成されている、バイオフィードバック装置と;
バッテリーとを有しており、前記バッテリーは、前記拡張現実ディスプレイ、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、およびそれらの組み合わせのうちの少なくとも1つに電力を提供する、
システム。
〔態様2〕
前記生体信号は、EEG(Electroencephalography[脳波記録法])またはECG(Electrocardiography[心電図記録法])またはEMG(Electromyography[筋電図記録法])またはEOG(Electrooculography[眼電図記録法])およびそれらの組み合わせのうちの少なくとも1つを含む、態様1に記載のシステム。
〔態様3〕
前記処理モジュールによって実行される処理は、視覚誘発電位を含む、態様1に記載のシステム。
〔態様4〕
前記ヘッドセットは、プリント回路基板をさらに含み、前記プリント回路基板は、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、前記バッテリー、およびそれらの組み合わせのうちの少なくとも1つを含む、態様1に記載のシステム。
〔態様5〕
前記プリント回路基板は、ブルートゥース・キーボードをエミュレートし、データをモバイル装置、コンピュータ、および前記拡張現実ディスプレイのうちの少なくとも1つに出力するように構成され、前記出力データは、文字、記号、数字、およびそれらの組み合わせのうちの少なくとも1つを含む、態様4に記載のシステム。
〔態様6〕
前記生体信号は、リアルタイムで処理され、解析される、態様1に記載のシステム。
〔態様7〕
前記処理モジュールは、ロー・モード、シマー・モード、クックト・モード、人間インターフェース装置‐キーボード・モード、およびそれらの組み合わせのうちの少なくとも1つを含みうる異なるモードを有する、態様1に記載のシステム。
〔態様8〕
前記ロー・モードは、データをフィルタリングし、認識し、またはデータと相互作用することができるモバイルまたはデスクトップのインターネット接続された装置を介してクラウドで、または、ローカルにさらに処理するために、データの完全なバイオセンサー・ストリームをストリームする、態様7に記載のシステム。
〔態様9〕
前記クックト・モードは、ローカルな認識器および診断によって生成された完全に処理されたカスタム・メッセージであり、ロー・データはユーザーに渡されない、態様7に記載のシステム。
〔態様10〕
前記シマー・モードは、前記ロー・モードと前記クックト・モードとの間のハイブリッド組み合わせであり、前記プロセッサは、ロー・データ・ストリームに、クックト・メッセージを散在させる、態様7に記載のシステム。
〔態様11〕
ヘッドセット内の脳コンピュータ・インターフェース(BCI)を実装する方法であって:
拡張現実ディスプレイを利用することと;
ユーザーからの生体信号を読み取るための一つまたは複数のセンサーを利用することと;
該生体信号を解析し、該生体信号をデジタル対話装置のための出力にマッピングするプロセッサを含む処理モジュールを利用することであって、前記デジタル対話装置は、前記拡張現実ディスプレイ、ユーザーに近接したデジタル対話装置、リモートに位置するデジタル対話装置およびそれらの組み合わせのうちの少なくとも1つを含む、ことと;
前記処理モジュールと通信する少なくとも1つのバイオフィードバック装置を利用することであって、該少なくとも1つのバイオフィードバック装置は、前記ユーザー、前記デジタル対話装置およびそれらの組み合わせのうちの少なくとも1つにフィードバックを提供するように構成されている、ことと;
バッテリーを利用することとを含み、前記バッテリーは、前記拡張現実ディスプレイ、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、およびそれらの組み合わせのうちの少なくとも1つに電力を提供する、
方法。
〔態様12〕
前記生体信号は、EEG(Electroencephalography[脳波記録法])、ECG(Electrocardiography[心電図記録法])、EMG(Electromyography[筋電図記録法])、EOG(Electrooculography[眼電図記録法])、視覚誘発電位、聴覚誘発電位および運動誘発電位のうちの少なくとも1つを含む、態様11に記載の方法。
〔態様13〕
前記処理モジュールによって実行される処理は、視覚誘発電位を含む、態様11に記載の方法。
〔態様14〕
前記ヘッドセットは、プリント回路基板をさらに含み、前記プリント回路基板は、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、前記バッテリー、およびそれらの組み合わせのうちの少なくとも1つを含む、態様11に記載の方法。
〔態様15〕
前記プリント回路基板は、モバイル装置またはコンピュータに無線で接続することができ、前記プリント回路基板は、ブルートゥース・キーボードをエミュレートし、データを前記モバイル装置、前記コンピュータ、および前記拡張現実ディスプレイのうちの少なくとも1つに出力するように構成され、前記出力データは、文字、記号、数字、およびそれらの組み合わせのうちの少なくとも1つを含む、態様14に記載の方法。
〔態様16〕
前記生体信号は、リアルタイムで処理され、解析される、態様11に記載の方法。
〔態様17〕
前記処理モジュールは、ロー・モード、シマー・モード、クックト・モード、人間インターフェース装置‐キーボード・モード、およびそれらの組み合わせのうちの少なくとも1つを含む異なるモードを有する、態様11に記載の方法。
〔態様18〕
前記ロー・モードは、モバイルまたはデスクトップのインターネット接続された装置を介してクラウドで、または、ローカルにさらに処理するために、データの完全なバイオセンサー・ストリームをストリームし、前記インターネット接続された装置は、データをフィルタリングすること、認識すること、およびデータと相互作用することのうち少なくとも1つを実行するように構成されている、態様17に記載の方法。
〔態様19〕
前記クックト・モードは、ローカルな認識器および診断によって生成された完全に処理されたカスタム・メッセージであり、ロー・データはユーザーに渡されない、態様17に記載の方法。
〔態様20〕
前記シマー・モードは、前記ロー・モードと前記クックト・モードとの間のハイブリッド組み合わせであり、前記プロセッサは、ロー・データ・ストリームに、クックト・メッセージを散在させる、態様17に記載の方法。
Thus, although embodiments of the invention herein have been described in detail with reference to exemplary embodiments thereof, it will be apparent that modifications and variations are possible without departing from the scope of the invention. be.
Some aspects are described.
[Aspect 1]
A system of brain-computer interfaces in a headset comprising:
an augmented reality display;
one or more sensors for reading biometric signals from the user;
A processing module that includes a processor that analyzes the biometric signal and maps the biometric signal to an output for a digital interactive device, the digital interactive device comprising: the augmented reality display, a digital interactive device proximate to the user, a remote a processing module including at least one of a digital interactive device and combinations thereof located in;
at least one biofeedback device in communication with the processing module, the at least one biofeedback device configured to provide feedback to at least one of the user, the digital interaction device and combinations thereof a biofeedback device;
a battery, said battery powering at least one of said augmented reality display, said one or more sensors, said processing module, said at least one biofeedback device, and combinations thereof. offer,
system.
[Aspect 2]
Said biomedical signals may be EEG (Electroencephalography) or ECG (Electrocardiography) or EMG (Electromyography) or EOG (Electrooculography) and A system according to aspect 1, comprising at least one of the combinations of
[Aspect 3]
Aspect 1. The system of aspect 1, wherein the processing performed by the processing module includes visual evoked potentials.
[Aspect 4]
The headset further includes a printed circuit board, wherein the printed circuit board comprises at least one of the one or more sensors, the processing module, the at least one biofeedback device, the battery, and combinations thereof. The system of aspect 1, comprising:
[Aspect 5]
The printed circuit board is configured to emulate a Bluetooth keyboard and output data to at least one of a mobile device, a computer and the augmented reality display, the output data being letters, symbols, numbers. , and combinations thereof.
[Aspect 6]
2. The system of aspect 1, wherein the biosignal is processed and analyzed in real time.
[Aspect 7]
Aspect 1. The system of aspect 1, wherein the processing module has different modes that may include at least one of a raw mode, a simmer mode, a cooked mode, a human interface device-keyboard mode, and combinations thereof.
[Aspect 8]
Said raw mode enables the processing of data for further processing, either in the cloud via a mobile or desktop internet-connected device capable of filtering, recognizing, or otherwise interacting with the data, or locally. 8. The system of aspect 7, wherein the full biosensor stream is streamed.
[Aspect 9]
8. The system of aspect 7, wherein the cooked mode is a fully processed custom message generated by a local recognizer and diagnostic and no raw data is passed to the user.
[Aspect 10]
8. The system of aspect 7, wherein the simmer mode is a hybrid combination between the raw mode and the cooked mode, and wherein the processor intersperses the raw data stream with cooked messages.
[Aspect 11]
A method of implementing a Brain Computer Interface (BCI) in a headset comprising:
using an augmented reality display;
utilizing one or more sensors to read biometric signals from the user;
Utilizing a processing module including a processor that analyzes the biometric signal and maps the biometric signal to an output for a digital interactive device, the digital interactive device connecting the augmented reality display, a digital including at least one of an interactive device, a remotely located digital interactive device and combinations thereof;
utilizing at least one biofeedback device in communication with the processing module, the at least one biofeedback device providing feedback to at least one of the user, the digital interaction device and combinations thereof. is configured to;
utilizing a battery, wherein the battery powers at least one of the augmented reality display, the one or more sensors, the processing module, the at least one biofeedback device, and combinations thereof. I will provide a,
Method.
[Aspect 12]
Said biosignals may be EEG (Electroencephalography), ECG (Electrocardiography), EMG (Electromyography), EOG (Electrooculography), visual 12. The method of embodiment 11, comprising at least one of evoked potentials, auditory evoked potentials and motor evoked potentials.
[Aspect 13]
12. The method of aspect 11, wherein the processing performed by the processing module includes visual evoked potentials.
[Aspect 14]
The headset further includes a printed circuit board, wherein the printed circuit board comprises at least one of the one or more sensors, the processing module, the at least one biofeedback device, the battery, and combinations thereof. 12. The method of aspect 11, comprising:
[Aspect 15]
The printed circuit board can be wirelessly connected to a mobile device or computer, and the printed circuit board emulates a Bluetooth keyboard and transfers data to the mobile device, the computer, and the augmented reality display. 15. The method of aspect 14, wherein the output data comprises at least one of letters, symbols, numbers, and combinations thereof.
[Aspect 16]
12. The method of aspect 11, wherein the biosignal is processed and analyzed in real time.
[Aspect 17]
12. The method of aspect 11, wherein the processing module has different modes including at least one of raw mode, simmer mode, cooked mode, human interface device-keyboard mode, and combinations thereof.
[Aspect 18]
The raw mode streams the complete biosensor stream of data for further processing in the cloud or locally via a mobile or desktop internet-connected device, the internet-connected device 18. The method of aspect 17, wherein the method is configured to perform at least one of filtering, recognizing, and interacting with the data.
[Aspect 19]
18. The method of aspect 17, wherein the cooked mode is a fully processed custom message generated by a local recognizer and diagnostic and no raw data is passed to the user.
[Aspect 20]
18. The method of aspect 17, wherein the simmer mode is a hybrid combination between the raw mode and the cooked mode, and wherein the processor intersperses the raw data stream with cooked messages.

Claims (11)

無線ヘッドセットにおいて脳コンピュータ・インターフェース(BCI)を実装する方法であって:
拡張現実ディスプレイを利用することと;
ユーザーの後頭葉およびユーザーの体性感覚皮質に対する視覚刺激、聴覚刺激または触覚刺激のうちの少なくとも1つを生成することを含み、当該方法は、検出可能な脳波周波数を生成することと;
前記検出可能な脳波周波数を処理して、それにより生体信号のデジタル・コマンドへのマッピングを容易にすることと;
前記デジタル・コマンドを装置に関連付けることと;
前記デジタル・コマンドに従って前記装置を動作させることと;
前記ユーザーの体性感覚皮質を刺激することであって、前記刺激することは、前記装置の前記動作のバイオフィードバック確認を含む、ことと;
前記ユーザーからの生体信号を読み取るための一つまたは複数のセンサーを利用することと;
該生体信号を解析し、該生体信号を前記拡張現実ディスプレイでの出力にマッピングするプロセッサを含む処理モジュールを利用することであって、前記処理モジュールは、ロー・モード、シマー・モード、クックト・モード、人間インターフェース装置‐キーボード・モードを含む異なるユーザー選択可能モードを有する、ことと;
前記処理モジュールと通信する少なくとも1つのバイオフィードバック装置を利用することであって、該少なくとも1つのバイオフィードバック装置は、前記ユーザーにフィードバックを提供する、ことと;
バッテリーを利用することであって、前記バッテリーは、前記拡張現実ディスプレイ、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、およびそれらの組み合わせのうちの少なくとも1つに電力を提供する、こととを含む、
方法
A method of implementing a brain-computer interface (BCI) in a wireless headset , comprising:
using an augmented reality display;
generating at least one of a visual, auditory or tactile stimulus to the user's occipital lobe and the user's somatosensory cortex, the method generating detectable electroencephalogram frequencies;
processing the detectable electroencephalogram frequencies to thereby facilitate mapping of biosignals to digital commands;
associating the digital command with a device;
operating the device according to the digital command;
stimulating the user's somatosensory cortex, said stimulating comprising biofeedback confirmation of said operation of said device;
utilizing one or more sensors to read biosignals from the user;
utilizing a processing module including a processor that analyzes the biometric signal and maps the biosignal to an output on the augmented reality display, the processing module having a raw mode, a simmer mode, a cooked mode; , a human interface device-having different user-selectable modes, including a keyboard mode ;
utilizing at least one biofeedback device in communication with the processing module, the at least one biofeedback device providing feedback to the user ;
utilizing a battery, the battery powering at least one of the augmented reality display, the one or more sensors, the processing module, the at least one biofeedback device, and combinations thereof. to provide , including
How .
前記生体信号は、EEG(Electroencephalography[脳波記録法])ECG(Electrocardiography[心電図記録法])EMG(Electromyography[筋電図記録法])EOG(Electrooculography[眼電図記録法])、機能的近赤外分光法(fNIRS)、視覚誘発電位、聴覚誘発電位、触覚誘発電位、および運動誘発電位のうちの少なくとも1つを含む、請求項1に記載の方法Said biosignals are EEG (Electroencephalography) , ECG (Electrocardiography) , EMG (Electromyography) , EOG (Electrooculography) , functional 2. The method of claim 1, comprising at least one of optical near infrared spectroscopy (fNIRS), visual evoked potentials, auditory evoked potentials, tactile evoked potentials, and motor evoked potentials . 前記処理モジュールによって実行される処理は、視覚誘発電位を含む、請求項1に記載の方法2. The method of claim 1, wherein the processing performed by the processing module includes visual evoked potentials. 前記ヘッドセットは、プリント回路基板をさらに含み、前記プリント回路基板は、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、前記バッテリー、およびそれらの組み合わせのうちの少なくとも1つを含む、請求項1に記載の方法The headset further includes a printed circuit board, wherein the printed circuit board comprises at least one of the one or more sensors, the processing module, the at least one biofeedback device, the battery, and combinations thereof. 2. The method of claim 1, comprising: 前記プリント回路基板は、ブルートゥース・キーボードをエミュレートし、データをモバイル装置、コンピュータ、および前記拡張現実ディスプレイのうちの少なくとも1つに出力するように構成され、前記出力データは、文字、記号、数字、およびそれらの組み合わせのうちの少なくとも1つを含む、請求項4に記載の方法The printed circuit board is configured to emulate a Bluetooth keyboard and output data to at least one of a mobile device, a computer and the augmented reality display, the output data being letters, symbols, numbers. , and combinations thereof . 前記生体信号は、リアルタイムで処理され、解析される、請求項1に記載の方法2. The method of claim 1, wherein the biosignals are processed and analyzed in real time. 前記ロー・モードは、モバイルまたはデスクトップのインターネット接続された装置を介してクラウドで、または、ローカルにさらに処理するために、データの完全なEEGセンサー・ストリームをストリームし、前記インターネット接続された装置は、データをフィルタリングすること、データを認識すること、およびデータと相互作用することのうちの少なくとも1つを実行するように構成されている、請求項に記載の方法Said raw mode streams the complete EEG sensor stream of data for further processing in the cloud or locally via a mobile or desktop internet-connected device and said internet-connected device is configured to perform at least one of filtering data, recognizing data, and interacting with data . 前記クックト・モードは、ローカルな認識器および診断によって生成された完全に処理されたカスタム・メッセージを生成し、ロー・データはユーザーに渡されない、請求項に記載の方法2. The method of claim 1 , wherein the cooked mode produces fully processed custom messages generated by local recognizers and diagnostics, and no raw data is passed to the user. 前記シマー・モードは、前記ロー・モードと前記クックト・モードとの間のハイブリッド組み合わせであり、前記処理モジュールは、ロー・データ・ストリームに、クックト・メッセージを散在させる、請求項に記載の方法2. The method of claim 1 , wherein the shimmer mode is a hybrid combination between the raw mode and the cooked mode, and wherein the processing module intersperses the raw data stream with cooked messages. . 前記異なるモードが、ストラップレス・モードを含み、前記BCIは、スマート眼鏡またはスマート・コンタクトレンズ、埋め込み可能な脳コンピュータ・インターフェースおよびARシステムを使用する、請求項1に記載の方法。 2. The method of claim 1, wherein the different modes include strapless mode, and the BCI uses smart glasses or smart contact lenses, an implantable brain-computer interface and an AR system. 無線ヘッドセットにおいて脳コンピュータ・インターフェース(BCI)を実装する方法であって、当該方法は: A method of implementing a brain-computer interface (BCI) in a wireless headset, the method comprising:
拡張現実ディスプレイを利用することと; using an augmented reality display;
ユーザーの後頭葉およびユーザーの体性感覚皮質に対する視覚刺激、聴覚刺激または触覚刺激のうちの少なくとも1つを生成することを含み、当該方法は、検出可能な脳波周波数を生成することと; generating at least one of a visual, auditory or tactile stimulus to the user's occipital lobe and the user's somatosensory cortex, the method generating detectable electroencephalogram frequencies;
前記検出可能な脳波周波数を処理して、それにより生体信号のデジタル・コマンドへのマッピングを容易にすることと; processing the detectable electroencephalogram frequencies to thereby facilitate mapping of biosignals to digital commands;
前記デジタル・コマンドを装置に関連付けることと; associating the digital command with a device;
前記デジタル・コマンドに従って前記装置を動作させることと; operating the device according to the digital command;
前記ユーザーの体性感覚皮質を刺激することであって、前記刺激することは、前記装置の前記動作のバイオフィードバック確認を含む、ことと; stimulating the user's somatosensory cortex, said stimulating comprising biofeedback confirmation of said operation of said device;
前記ユーザーからの生体信号を読み取るための一つまたは複数のセンサーを利用することと; utilizing one or more sensors to read biosignals from the user;
該生体信号を解析し、該生体信号を前記拡張現実ディスプレイでの出力にマッピングするプロセッサを含む処理モジュールを利用することであって、前記処理モジュールは、ロー・モード、シマー・モード、クックト・モード、人間インターフェース装置‐キーボード・モードおよびそれらの組み合わせを含む異なるモードを有する、ことと; utilizing a processing module including a processor that analyzes the biometric signal and maps the biosignal to an output on the augmented reality display, the processing module having a raw mode, a simmer mode, a cooked mode; , having different modes including a human interface device-keyboard mode and combinations thereof;
前記処理モジュールと通信する少なくとも1つのバイオフィードバック装置を利用することであって、該少なくとも1つのバイオフィードバック装置は、ユーザーの中枢または末梢神経系を刺激する、ことと; utilizing at least one biofeedback device in communication with the processing module, wherein the at least one biofeedback device stimulates a user's central or peripheral nervous system;
バッテリーを利用することであって、前記バッテリーは、前記拡張現実ディスプレイ、前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、およびそれらの組み合わせのうちの少なくとも1つに電力を提供する、ことと; utilizing a battery, the battery powering at least one of the augmented reality display, the one or more sensors, the processing module, the at least one biofeedback device, and combinations thereof. to provide;
前記一つまたは複数のセンサー、前記処理モジュール、前記少なくとも1つのバイオフィードバック装置、前記バッテリー、およびそれらの組み合わせのうちの少なくとも1つを含むプリント回路基板を利用することとを含み、 utilizing a printed circuit board containing at least one of the one or more sensors, the processing module, the at least one biofeedback device, the battery, and combinations thereof;
前記プリント回路基板は、ブルートゥース・キーボードをエミュレートし、データをモバイル装置、コンピュータ、および前記拡張現実ディスプレイのうちの少なくとも1つに出力するように構成され、前記出力データは、文字、記号、数字、およびそれらの組み合わせのうちの少なくとも1つを含み; The printed circuit board is configured to emulate a Bluetooth keyboard and output data to at least one of a mobile device, a computer, and the augmented reality display, the output data being letters, symbols, numbers. , and combinations thereof;
前記BCIは、前記BCIがネットワークに接続されていない間に動作するパターン認識およびパーソナライゼーションのためにAI機械学習を利用し、前記AI機械学習は、自動同調する動的ノイズ低減器、特徴抽出器、および認識器・分類器のうちの一つまたは複数のはたらきをし; The BCI utilizes AI machine learning for pattern recognition and personalization that operates while the BCI is not connected to a network, the AI machine learning includes an auto-tuned dynamic noise reducer, feature extractor. , and one or more of a recognizer/classifier;
AI機械学習トレーニングは、前記BCIが前記ネットワークに接続されているときに適用されて、個別化された認識器・分類器を生成し、前記AI機械学習トレーニングの導出された出力は、クラウド記憶におけるエキスパートシステム知識ベースに格納され; AI machine learning training is applied when the BCI is connected to the network to generate personalized recognizers and classifiers, and the derived output of the AI machine learning training is stored in cloud storage. stored in the expert system knowledge base;
前記AI機械学習およびクラウド記憶における前記エキスパートシステム知識ベースから導出された合成洞察が、オフライン使用のためにBCI記憶装置と前記ネットワークとの間の無線接続または有線接続を介してダウンロードされうる、ダウンロード可能な個別化された実行可能な認識器・分類器を生成するために使用され; Synthetic insights derived from the expert system knowledge base in AI machine learning and cloud storage may be downloaded via a wireless or wired connection between a BCI storage device and the network for offline use. is used to generate a unique individualized executable recognizer/classifier;
当該方法は、ウェアラブル装置、埋め込み可能な装置およびモノのインターネット(IoT)装置を含む資源制約された装置に適用され; The method is applied to resource constrained devices including wearable devices, implantable devices and Internet of Things (IoT) devices;
前記異なるモードは、ストラップレス・モードを含み、前記完全に自己完結したBCIは、スマート眼鏡またはスマート・コンタクトレンズ、埋め込み可能な脳コンピュータ・インターフェースおよびARシステムを使用する、 The different modes include a strapless mode, and the fully self-contained BCI uses smart glasses or smart contact lenses, an implantable brain-computer interface and an AR system.
方法。Method.
JP2021524324A 2018-10-29 2019-10-29 Brain computer interface for augmented reality Pending JP2022509752A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862752133P 2018-10-29 2018-10-29
US62/752,133 2018-10-29
US15/929,085 US10990175B2 (en) 2018-10-29 2019-01-09 Brain computer interface for augmented reality
US15/929,085 2019-01-09
PCT/US2019/058640 WO2020092420A1 (en) 2018-10-29 2019-10-29 Brain computer interface for augmented reality

Publications (2)

Publication Number Publication Date
JP2022509752A JP2022509752A (en) 2022-01-24
JPWO2020092420A5 true JPWO2020092420A5 (en) 2022-10-27

Family

ID=70326245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021524324A Pending JP2022509752A (en) 2018-10-29 2019-10-29 Brain computer interface for augmented reality

Country Status (7)

Country Link
US (1) US10990175B2 (en)
EP (1) EP3874351A4 (en)
JP (1) JP2022509752A (en)
CN (1) CN113227944B (en)
AU (1) AU2019369395B2 (en)
CA (1) CA3118301A1 (en)
WO (1) WO2020092420A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11402909B2 (en) 2017-04-26 2022-08-02 Cognixion Brain computer interface for augmented reality
KR102396520B1 (en) * 2020-02-11 2022-05-11 고려대학교 산학협력단 Smart control device for determining user's intention from color stimulus based on brain-computer interface and control method thereof
US11567574B2 (en) * 2020-09-22 2023-01-31 Optum Technology, Inc. Guided interaction with a query assistant software using brainwave data
USD952630S1 (en) * 2021-01-16 2022-05-24 Cognixion Brain-computer interface (BCI) headset
WO2023192470A1 (en) * 2022-03-30 2023-10-05 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Eeg-guided spatial neglect detection system and detection method employing same
CN115064036A (en) * 2022-04-26 2022-09-16 北京亮亮视野科技有限公司 AR technology-based danger early warning method and device
KR102486210B1 (en) * 2022-11-02 2023-01-11 조은정 Treatment game devices for alleviation of vibration

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7784696B2 (en) * 2006-06-09 2010-08-31 Hand Held Products, Inc. Indicia reading apparatus having image sensing and processing circuit
CN101571748A (en) * 2009-06-04 2009-11-04 浙江大学 Brain-computer interactive system based on reinforced realization
JP5467267B2 (en) * 2010-03-05 2014-04-09 国立大学法人大阪大学 DEVICE CONTROL DEVICE, DEVICE SYSTEM, DEVICE CONTROL METHOD, DEVICE CONTROL PROGRAM, AND RECORDING MEDIUM
JP5688154B2 (en) * 2010-09-29 2015-03-25 オフィス オブ ザ ナショナル ブロードキャスティング アンド テレコミュニケーションズ コミッション Electrical device control system and method based on SSVEP
JP2012085746A (en) * 2010-10-18 2012-05-10 Panasonic Corp Attentional state determination system, method, computer program, and attentional state determination device
US10234942B2 (en) * 2014-01-28 2019-03-19 Medibotics Llc Wearable and mobile brain computer interface (BCI) device and method
CN107205641A (en) * 2014-08-29 2017-09-26 因赛飞公司 Method and apparatus for strengthening nervous function
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
EP3064130A1 (en) * 2015-03-02 2016-09-07 MindMaze SA Brain activity measurement and feedback system
KR101648017B1 (en) * 2015-03-23 2016-08-12 현대자동차주식회사 Display apparatus, vehicle and display method
US10031580B2 (en) * 2016-01-13 2018-07-24 Immersion Corporation Systems and methods for haptically-enabled neural interfaces
CN205515250U (en) * 2016-01-14 2016-08-31 马忠超 Wheelchair controlling means based on brain wave combines head action
CN106339091A (en) * 2016-08-31 2017-01-18 博睿康科技(常州)股份有限公司 Augmented reality interaction method based on brain-computer interface wearing system
US10613336B2 (en) * 2017-01-27 2020-04-07 Otoy, Inc. Headphone based modular VR/AR platform
CN108379713A (en) * 2018-03-09 2018-08-10 嘀拍信息科技南通有限公司 One interaction meditation system based on virtual reality

Similar Documents

Publication Publication Date Title
US11402909B2 (en) Brain computer interface for augmented reality
CN113227944B (en) Brain-computer interface for augmented reality
Frantzidis et al. Toward emotion aware computing: an integrated approach using multichannel neurophysiological recordings and affective visual stimuli
Neuper et al. Motor imagery and EEG-based control of spelling devices and neuroprostheses
Scherer et al. Toward self-paced brain–computer communication: navigation through virtual worlds
Carrino et al. A self-paced BCI system to control an electric wheelchair: Evaluation of a commercial, low-cost EEG device
Murugappan et al. An Investigation on visual and audiovisual stimulus based emotion recognition using EEG
US20090099474A1 (en) System and method for combined bioelectric sensing and biosensory feedback based adaptive therapy for medical disorders
US20020077534A1 (en) Method and system for initiating activity based on sensed electrophysiological data
Stanford Biosignals offer potential for direct interfaces and health monitoring
Goudiaby et al. Eeg biometrics for person verification
JPWO2020092420A5 (en)
Xing et al. Reading the mind: the potential of electroencephalography in brain computer interfaces
Shatilov et al. Emerging exg-based nui inputs in extended realities: A bottom-up survey
Mora et al. A BCI platform supporting AAL applications
Iroju et al. Prospects and problems of brain computer interface in healthcare
Shatilov et al. Emerging natural user interfaces in mobile computing: A bottoms-up survey
Zuanon Bio-Interfaces: designing wearable devices to organic interactions
Ramakuri et al. Behaviour state analysis through brain computer interface using wearable EEG devices: A review
Falk et al. Brain–computer interfaces: recent advances, challenges, and future directions
Zhou SSVEP-Based BCI Wheelchair Control System
Mohanchandra Brain computer interface for emergency virtual voice
Andreoni et al. Human machine interface for healthcare and rehabilitation
Kumari et al. Combining biosignals with RFID to develop a multimodal-shared control interface
Khan et al. EEG-based BCI systems for neurorehabilitation applications