JP2012146116A - スピーチ内容を識別する装置及び方法 - Google Patents
スピーチ内容を識別する装置及び方法 Download PDFInfo
- Publication number
- JP2012146116A JP2012146116A JP2011003782A JP2011003782A JP2012146116A JP 2012146116 A JP2012146116 A JP 2012146116A JP 2011003782 A JP2011003782 A JP 2011003782A JP 2011003782 A JP2011003782 A JP 2011003782A JP 2012146116 A JP2012146116 A JP 2012146116A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- independent component
- spectrogram
- electroencephalogram
- kalman filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
【解決手段】本発明は、学習時脳波信号に独立成分分析および射影実行を適用して、脳波データを再構成する。一方、学習時の音声信号を計測し、そのスペクトログラムを算出する。再構成された脳波データとスペクトログラムの関係をカルマンフィルターでモデル化し、そのモデル・パラメータを学習する。次に、スピーチ遂行時に計測された脳波信号に独立成分分析および射影実行を適用し、脳波データを再構成して、学習済みのカルマンフィルターモデルに入力する。モデルの出力値であるスペクトログラムからスピーチの内容を推定する。
【選択図】 図2
Description
<学習フェーズ(Learning phase)>
図3は、学習フェーズにおける動作を説明する動作フロー図である。以下では、図5に示す3種類の線画刺激「グー」、「チョキ」、「パー」を例として説明する。図5は、視覚刺激提示と、音声信号計測と、脳波計測の時間関係を示す図である。これら「グー」、「チョキ」、「パー」をランダムにモニタ上に提示し、線画と一致して「グー」、「チョキ」、「パー」のいずれかを発話するように被験者に教示する。各試行の遂行時に、複数チャネル、例えば、被験者の頭部に装着された19チャネルの電極を使って、被験者の頭皮上からraw EEG(electroencephlogram)(生の脳波図)を計測する。こうして得られる単一試行EEGデータを利用して、学習フェーズにおいては、発話されたのが「グー」、「チョキ」、「パー」のいずれであるのかを学習する。以下、図3に沿って説明する。
(S1)脳波計測
被験者頭部に装着した各電極から計測される複数チャンネルのアナログ信号を増幅し、A/D変換して、デジタル信号データxを得る。ここでは、電極数が19、各試行において、発話タスクを促す注視点の消失時刻を0 msとして、-400 msまでの脳波データ(図5参照)を、更なる解析のために切り出す。何故なら、この区間が運動準備電位の後期成分NS’に相当するからである。運動準備電位とは、運動開始前に観測される脳活動で、運動開始前約2秒からマイナスの電位変化として捉えられる。その後、運動開始前約0.4秒から変化が急になる。この後者の電位変化が後期成分NS’(negative slope)と呼ばれている。サンプリング周波数を1kHzとすると、400 msのサンプリング点の数pは、400となる。この時、デジタル信号データxは、各試行に対して、19×400次の行列となる。
(S2)独立成分分析および射影(deflation)実行
次に、上記(S1)脳波計測により得られたデジタル脳波データxに独立成分分析ICA(independent component analysis )を適用する。独立成分分析ICAとは、統計的に独立な成分を抽出する方法であり、例えば、高次オーダ統計量に基づいて相互独立性を探索することにより実行可能である。具体的には、u=Wx、として、uが独立成分となるように行列Wを求めることに帰着される。電極数をn、サンプリング点の数をp、独立成分の数をkとすれば、xはn×p次の行列であり、uはk×p次の行列である。Wはk×n次の行列となる。
(S3)ダイポール解析実行
射影された多チャネル脳波データにダイポール解析を適用する。各独立成分について、射影(deflation)後の脳波データxjに対して、脳内等価電流双極子推定法(ここでは、以後、ダイポール解析、と呼ぶ)を適用する。このダイポール解析は、被験者の多チャネル脳波データと共に、MRI画像があれば、例えば、既存のダイポール解析ソフトウエア(例えば、「SynaCenter」、NEC)によって実行可能である。MRI画像によって、運動前野などの明確な脳内位置を知ることが可能になる。ダイポール解析の結果は、被験者のMRI画像から被験者の脳を3次元的に復元したものに、得られたダイポールを重ね合わせて表示することにより、このダイポールが脳内のどこに定位されるかが分かる。図7には、ダイポール解析ソフトウエア「SynaCenter」によりダイポール(図7中に表示した矢印参照)が運動前野に定位された例が示されている。
(S4)特定脳部位結果抽出
上記(S3)ダイポール解析実行で推定されたダイポールの位置が特定の脳部位であれば、対応する独立成分の射影(deflation)後の、解析に利用する脳波データzk(kは時刻を表す)と定めることができる。例えば、特定の脳部位として、運動前野に定めることが出来る。何故なら、発話運動制御に関する神経計算論的モデルDIVA(Directions Into Velocities of Articulators)において基盤をなす仮説の1つとして、『発話時(直前)に、運動前野はホルマント周波数をencodeする』が知られているからである(非特許文献7)。他の特定脳部位として、Broca野、一次運動野も候補として考えて良い。
(S5)音声信号計測
「グー」、「チョキ」、「パー」のいずれかを発話した時の脳波を計測する場合、音声信号計測部では、同時に、例えば、マイクロホン(例えば、MS-STM87SV、エレコム株式会社)を使って音声信号を計測する。
(S6)スペクトログラム計算
上記(S5)音声信号計測で得られた音声信号のスペクトログラムxk(kは時刻を表す)を算出する。算出には既存の音声処理ソフトウエア(例えば、Wavesurfer、KTH(スウェーデン))を使うことが出来る。例えば、スペクトログラムの中の第一ホルマント周波数と第二ホルマント周波数を利用するならば、xkは2次元ベクトルの時系列データとなる。
(S7)カルマンフィルターモデル選択
上記(S2)独立成分分析および射影実行で得られ、かつ、望ましくは(S4)特定脳部位結果抽出で確認された脳波データzkと、上記(S6)スペクトログラム計算で得られたスペクトログラムxkを利用したデータ解析のために用いるカルマンフィルター(Kalman filter)モデルを選択する。具体的には、最も簡単な線形離散時間システムとしてのカルマンフィルターモデル、適応カルマンフィルターモデル、非線形離散時間システムの線形近似である拡張カルマンフィルターモデル、非線形離散時間システムの2次近似であるアンセンテッドカルマンフィルターモデル、オンライン分類を可能にするSMC(sequential Monte Carlo)法などの中から1つのカルマンフィルターモデルを決める。
Xk+1=AXk+Wk
Zk=HkXk+qk
但し、
Xk: 第一ホルマント周波数と第二ホルマント周波数から成る2次元ベクトル、
Zk: 時刻kにおける神経活動から成るベクトル(射影された多チャネル脳波データ)
A: 過去と未来のホルマント周波数の関係、
Hk: ホルマント周波数の集合が与えられた時の神経活動の期待値、
Wk, qk: 平均0の正規分布に従うノイズ
とする。
(S8)カルマンフィルターモデルおよびパラメータ学習
上記(S7)カルマンフィルターモデル選択で選択されたカルマンフィルターモデルに、(S4)特定脳部位結果抽出で得られた脳波データと(S6)スペクトログラム計算で得られたスペクトログラムを入力し、カルマンフィルターモデルのパラメータを推定する。具体的な推定方法として、例えば、以下の式を利用することが出来る。
(1)カルマンフィルターモデル種別
(2)パラメータ1(例えば、Xk:スペクトログラム計算で得られたスペクトログラム)
(3)パラメータ2(例えば、Zk:射影された多チャネル脳波データ)
例えば、19個の電極、計測時間が400ms、サンプリング周波数が1kHzならば、各独立成分について、19×400次元の行列データとなる。(k=0,1,2,・・・が0ms,1ms,2ms,・・・に対応する)
(4)パラメータ3(例えば、A)
(5)パラメータ4(例えば、Hk)
(6)パラメータ5(例えば、Wk)
(7)パラメータ6(例えば、qk)
<予測フェーズ(decoding phase)>
図4は、予測フェーズにおける動作を説明する動作フロー図である。予測フェーズにおいて、発話あるいはサイレントスピーチされた内容を識別することができる。
(S11)脳波計測
タスクとして発話或いはサイレントスピーチを遂行した時の脳波を、学習フェーズの場合と同様に計測する。
(S12)独立成分分析および射影deflation実行
計測された脳波データに、学習フェーズの場合と同様に、独立成分分析を適用し、射影deflationにより、各独立成分の寄与を電極位置の空間に射影した時の値として算出する。
(S13)ダイポール解析実行
上記射影された多チャネル脳波データに、学習フェーズの場合と同様に、ダイポール解析を適用する。解析結果は、各サンプリング点における脳内活動の場所(位置)である。
(S14)特定脳部位結果抽出
上記推定されたダイポールの位置が特定の脳部位であれば、対応する独立成分の射影deflation後の、解析に利用する脳波データと定めることができる。特定の脳部位は、学習フェーズの場合と同様である。
(S15)カルマンフィルターモデル選択
(S12)独立成分分析および射影実行で得られ、かつ、望ましくは(S14)特定脳部位結果抽出で確認された脳波データに基づいて、上記学習フェーズの(S8)カルマンフィルターモデルおよびパラメータ学習によって確定したカルマンフィルターモデルをデータ解析用に利用する。
(S16)スペクトログラム推定
上記選択されたカルマンフィルターモデルの出力値としてのスペクトログラムの値を推定する。具体的には、例えば、以下の式に従って推定することが出来る。
(S17)スピーチ内容推定
上記(S16)スペクトログラム推定で得られたスペクトログラムの値を、ホルマント周波数を座標軸とする空間内にプロットし、どの音声領域に属すかを調べ、属した音声を、サイレントスピーチの内容と決める。このF1(第一ホルマント周波数)-F2(第二ホルマント周波数)平面上で明確に領域が分離されている/a/、/u/、/o/の3つを識別し、かつ、F1-F2-F3(F3:第三ホルマント周波数)空間に拡張することにより、/i/、/e/を識別することができる。次に、子音を含む「か」と「さ」の識別などを通じてひらがなすべてを識別出来る。図8と図9には、それぞれ、「グー」と「パー」のサイレントスピーチ遂行時に計測された単一試行脳波から、カルマンフィルターモデルによって予測されたスペクトログラムの値がプロットされている。図中の横軸F1は、第一ホルマント周波数(Hz)を、また、縦軸F2は、第二ホルマント周波数(Hz)を示している。これらの図から明らかなように、それらプロットは、それぞれ、楕円で表された/u/と/a/の周波数分布領域に含まれており、サイレントスピーチされた「グー」と「パー」は母音に関して正しく認識されたことが分かる。
Claims (12)
- 発話或いはサイレントスピーチを含むスピーチ時の脳波信号からスピーチ内容を識別する装置において、
被験者頭部に装着される複数個の脳波計測用電極と、
前記脳波計測用電極により発話或いはサイレントスピーチを遂行した時の脳波データを計測する脳波計測部と、
前記脳波データに独立成分分析を適用し、各独立成分の寄与を電極位置の空間に射影した時の値として算出する独立成分分析および射影実行部と、
被験者が発した音声を計測する音声信号計測部と、
計測した音声信号のスペクトログラムを算出するスペクトログラム計算部と、
前記独立成分分析および射影実行部で得られた脳波データと、スペクトログラム計算部で得られたスペクトログラムを利用したデータ解析のために用いるカルマンフィルターモデルを設定するカルマンフィルターモデル設定部と、
スペクトログラムの値が属する音声領域からスピーチされた内容を推定するスピーチ内容推定部と、を備え、
学習時に前記独立成分分析および射影実行部で得られた脳波データとスペクトログラム計算部で得られたスペクトログラムの関係をカルマンフィルターモデルによって学習し、かつ、スピーチ遂行時に前記独立成分分析および射影実行部で得られた脳波データを学習済みの前記カルマンフィルターモデルに入力し、出力されたスペクトログラムからスピーチの内容を推定することから成るスピーチ内容識別装置。 - 前記独立成分分析により、u=Wx、として、uが独立成分となるように行列Wを求め、ここで、xは、脳波計測により得られたデジタル脳波データであり、電極数をn、サンプリング点の数をp、独立成分の数をkとして、xはn×p次の行列であり、uはk×p次の行列であり、Wはk×n次の行列となる請求項1に記載のスピーチ内容識別装置。
- 前記独立成分分析の結果から、元々の行列xを、x=W+u、と再構成し、更に、前記射影は、xj= W+ujにより、各独立成分の寄与を電極位置の空間に射影した時の値として算出する操作であり、但し、W+は、Wの逆行列であり、ujは行列uのj番目の列のみで、それ以外はすべて0から成る行列とする請求項2に記載のスピーチ内容識別装置。
- 前記カルマンフィルターモデルの学習は、該カルマンフィルターモデルに、前記独立成分分析および射影実行部で得られた脳波データとスペクトログラム計算部で得られたスペクトログラムを入力し、カルマンフィルターモデルを確定させるパラメータを推定し、この推定したパラメータをメモリに保存することによって行う請求項1に記載のスピーチ内容識別装置。
- 前記射影された脳波データにダイポール解析を適用するダイポール解析実行部と、前記ダイポール解析により推定されたダイポールの位置を、解析に利用する脳波データと定める特定脳部位結果抽出部とを備え、前記ダイポール解析の結果として得られたダイポールを、被験者のMRI画像から被験者の脳を3次元的に復元したものに、重ね合わせて表示する請求項1に記載のスピーチ内容識別装置。
- 前記スピーチ内容推定は、スペクトログラム推定で得られたスペクトログラムの値を、ホルマント周波数を座標軸とする空間内にプロットし、どの音声領域に属すかを調べ、属した音声を、発話或いはサイレントスピーチを含むスピーチ内容と推定するものである請求項1に記載のスピーチ内容識別装置。
- 発話或いはサイレントスピーチを含むスピーチ時の脳波信号からスピーチ内容を識別する方法において、
学習時に多チャネル電極で計測された脳波信号に独立成分分析を適用して独立成分に分解し、
各独立成分について、各独立成分の寄与を電極位置の空間に射影した時の値として算出して脳波信号を再構成し、
脳波信号と共に同時計測された音声信号のスペクトログラムを算出し、
抽出された独立成分と算出されたスペクトログラムの関係をカルマンフィルターモデルによって学習し、
スピーチ遂行時に多チャネル電極で計測された脳波信号に独立成分分析を適用して、独立成分に分解し、
各独立成分について、各独立成分の寄与を電極位置の空間に射影した時の値として算出して脳波信号を再構成し、
この射影後の脳波信号を学習済みの前記カルマンフィルターモデルに入力し、出力されたスペクトログラムからスピーチの内容を予測することから成るスピーチ内容識別方法。 - 前記独立成分分析により、u=Wx、として、uが独立成分となるように行列Wを求め、ここで、xは、脳波計測により得られたデジタル脳波データであり、電極数をn、サンプリング点の数をp、独立成分の数をkとして、xはn×p次の行列であり、uはk×p次の行列であり、Wはk×n次の行列となる請求項7に記載のスピーチ内容識別方法。
- 前記独立成分分析の結果から、元々の行列xを、x=W+u、と再構成し、更に、前記射影は、xj= W+ujにより、各独立成分の寄与を電極位置の空間に射影した時の値として算出する操作であり、但し、W+は、Wの逆行列であり、ujは行列uのj番目の列のみで、それ以外はすべて0から成る行列とする請求項8に記載のスピーチ内容識別方法。
- 前記カルマンフィルターモデルの学習は、該カルマンフィルターモデルに、前記射影後の脳波信号とスペクトログラム計算部で得られたスペクトログラムを入力し、カルマンフィルターモデルを確定させるパラメータを推定し、この推定したパラメータをメモリに保存することによって行う請求項7に記載のスピーチ内容識別方法。
- 前記学習時及び前記スピーチ遂行時に、前記射影後に再構成された脳波信号に脳内等価電流双極子推定を適用して、ダイポールが特定の脳部位に定位された独立成分を抽出し、この得られたダイポールを、被験者のMRI画像から被験者の脳を3次元的に復元したものに、重ね合わせて表示する請求項7に記載のスピーチ内容識別方法。
- 前記スピーチ内容推定は、スペクトログラム推定で得られたスペクトログラムの値を、ホルマント周波数を座標軸とする空間内にプロットし、どの音声領域に属すかを調べ、属した音声を、発話或いはサイレントスピーチを含むスピーチ内容と推定するものである請求項7に記載のスピーチ内容識別方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011003782A JP2012146116A (ja) | 2011-01-12 | 2011-01-12 | スピーチ内容を識別する装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011003782A JP2012146116A (ja) | 2011-01-12 | 2011-01-12 | スピーチ内容を識別する装置及び方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012146116A true JP2012146116A (ja) | 2012-08-02 |
Family
ID=46789620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011003782A Ceased JP2012146116A (ja) | 2011-01-12 | 2011-01-12 | スピーチ内容を識別する装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012146116A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018153614A (ja) * | 2017-03-17 | 2018-10-04 | 株式会社リコー | 情報処理装置、情報処理方法、プログラムおよび生体信号計測システム |
JP2019019783A (ja) * | 2017-07-19 | 2019-02-07 | 国立研究開発法人 海上・港湾・航空技術研究所 | エンジン状態観測器を用いたエンジン制御方法、エンジン制御プログラム及びエンジン制御装置 |
WO2019064412A1 (ja) * | 2017-09-28 | 2019-04-04 | 特定非営利活動法人ニューロクリアティブ研究会 | 行動解析装置、行動解析プログラム、行動解析システム |
CN110840411A (zh) * | 2019-12-06 | 2020-02-28 | 深圳市德力凯医疗设备股份有限公司 | 一种麻醉深度的测量方法、存储介质及电子设备 |
JP2020186730A (ja) * | 2020-08-13 | 2020-11-19 | 国立研究開発法人 海上・港湾・航空技術研究所 | エンジン状態観測器を用いたエンジン制御方法、エンジン制御プログラム及びエンジン制御装置 |
CN113724687A (zh) * | 2021-08-30 | 2021-11-30 | 深圳市神经科学研究院 | 基于脑电信号的语音生成方法、装置、终端及存储介质 |
CN114343675A (zh) * | 2021-12-27 | 2022-04-15 | 深圳航天科技创新研究院 | 一种脑电成分提取方法 |
US11573635B1 (en) | 2022-01-04 | 2023-02-07 | United Arab Emirates University | Face mask for accurate location of sensors relative to a users face, a communication enabling face mask and a communication system including the face mask |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02232783A (ja) * | 1989-03-07 | 1990-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 脳波トポグラフィによる音節認識装置 |
JP2001120511A (ja) * | 1999-10-26 | 2001-05-08 | Shimadzu Corp | 生体信号計測装置 |
JP2006280806A (ja) * | 2005-04-04 | 2006-10-19 | Advanced Telecommunication Research Institute International | 脳内電流源推定方法、生体情報推定方法、脳内電流源推定装置、及び生体情報推定装置 |
JP2008225877A (ja) * | 2007-03-13 | 2008-09-25 | Nec Corp | ブレイン・コンピュータ・インタフェース |
-
2011
- 2011-01-12 JP JP2011003782A patent/JP2012146116A/ja not_active Ceased
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02232783A (ja) * | 1989-03-07 | 1990-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 脳波トポグラフィによる音節認識装置 |
JP2001120511A (ja) * | 1999-10-26 | 2001-05-08 | Shimadzu Corp | 生体信号計測装置 |
JP2006280806A (ja) * | 2005-04-04 | 2006-10-19 | Advanced Telecommunication Research Institute International | 脳内電流源推定方法、生体情報推定方法、脳内電流源推定装置、及び生体情報推定装置 |
JP2008225877A (ja) * | 2007-03-13 | 2008-09-25 | Nec Corp | ブレイン・コンピュータ・インタフェース |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7009906B2 (ja) | 2017-03-17 | 2022-01-26 | 株式会社リコー | 情報処理装置、情報処理方法、プログラムおよび生体信号計測システム |
JP2018153614A (ja) * | 2017-03-17 | 2018-10-04 | 株式会社リコー | 情報処理装置、情報処理方法、プログラムおよび生体信号計測システム |
JP2019019783A (ja) * | 2017-07-19 | 2019-02-07 | 国立研究開発法人 海上・港湾・航空技術研究所 | エンジン状態観測器を用いたエンジン制御方法、エンジン制御プログラム及びエンジン制御装置 |
WO2019064412A1 (ja) * | 2017-09-28 | 2019-04-04 | 特定非営利活動法人ニューロクリアティブ研究会 | 行動解析装置、行動解析プログラム、行動解析システム |
CN110840411A (zh) * | 2019-12-06 | 2020-02-28 | 深圳市德力凯医疗设备股份有限公司 | 一种麻醉深度的测量方法、存储介质及电子设备 |
CN110840411B (zh) * | 2019-12-06 | 2022-03-11 | 深圳市德力凯医疗设备股份有限公司 | 一种麻醉深度的测量装置、存储介质及电子设备 |
JP2020186730A (ja) * | 2020-08-13 | 2020-11-19 | 国立研究開発法人 海上・港湾・航空技術研究所 | エンジン状態観測器を用いたエンジン制御方法、エンジン制御プログラム及びエンジン制御装置 |
JP7232532B2 (ja) | 2020-08-13 | 2023-03-03 | 国立研究開発法人 海上・港湾・航空技術研究所 | エンジン状態観測器を用いたエンジン制御方法、エンジン制御プログラム及びエンジン制御装置 |
CN113724687A (zh) * | 2021-08-30 | 2021-11-30 | 深圳市神经科学研究院 | 基于脑电信号的语音生成方法、装置、终端及存储介质 |
CN113724687B (zh) * | 2021-08-30 | 2024-04-16 | 深圳市神经科学研究院 | 基于脑电信号的语音生成方法、装置、终端及存储介质 |
CN114343675A (zh) * | 2021-12-27 | 2022-04-15 | 深圳航天科技创新研究院 | 一种脑电成分提取方法 |
CN114343675B (zh) * | 2021-12-27 | 2023-05-30 | 深圳航天科技创新研究院 | 一种脑电成分提取方法 |
US11573635B1 (en) | 2022-01-04 | 2023-02-07 | United Arab Emirates University | Face mask for accurate location of sensors relative to a users face, a communication enabling face mask and a communication system including the face mask |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mumtaz et al. | Review of challenges associated with the EEG artifact removal methods | |
JP2012146116A (ja) | スピーチ内容を識別する装置及び方法 | |
Benalcázar et al. | Hand gesture recognition using machine learning and the Myo armband | |
Sreeja et al. | Removal of eye blink artifacts from EEG signals using sparsity | |
Reaz et al. | Techniques of EMG signal analysis: detection, processing, classification and applications | |
Hsu | EEG-based motor imagery classification using enhanced active segment selection and adaptive classifier | |
Álvarez-Meza et al. | Time-series discrimination using feature relevance analysis in motor imagery classification | |
Khorshidtalab et al. | EEG signal classification for real-time brain-computer interface applications: A review | |
Mohanchandra et al. | A communication paradigm using subvocalized speech: translating brain signals into speech | |
Dash et al. | Overt speech retrieval from neuromagnetic signals using wavelets and artificial neural networks | |
Tryon et al. | Performance evaluation of EEG/EMG fusion methods for motion classification | |
JP2011076177A (ja) | 歯の接触によって誘発された脳波を利用した機器制御方法及び機器制御装置 | |
Kaczorowska et al. | Comparison of the ICA and PCA methods in correction of EEG signal artefacts | |
JP7070253B2 (ja) | パフォーマンス計測装置、パフォーマンス計測方法及びパフォーマンス計測プログラム | |
Khalighinejad et al. | NAPLib: An open source toolbox for real-time and offline Neural Acoustic Processing | |
CN114298089A (zh) | 一种多模态力量训练辅助方法和系统 | |
Tiwari et al. | Machine learning approach for the classification of EEG signals of multiple imagery tasks | |
Soon et al. | Speech recognition using facial sEMG | |
Dash et al. | Determining the optimal number of MEG trials: A machine learning and speech decoding perspective | |
Hurtado-Rincon et al. | Motor imagery classification using feature relevance analysis: An Emotiv-based BCI system | |
Boubchir et al. | EEG error potentials detection and classification using time-frequency features for robot reinforcement learning | |
Mahmoodi et al. | A robust beamforming approach for early detection of readiness potential with application to brain-computer interface systems | |
Ghane et al. | Robust understanding of EEG patterns in silent speech | |
Vargic et al. | Human computer interaction using BCI based on sensorimotor rhythm | |
Onners et al. | U-EEG: A Deep Learning Autoencoder for the Detection of Ocular Artifact in EEG Signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140106 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20140106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140610 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140804 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150127 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20150526 |