JP2007519035A - 脳の活動から発話を生成するためのシステムおよび方法 - Google Patents

脳の活動から発話を生成するためのシステムおよび方法 Download PDF

Info

Publication number
JP2007519035A
JP2007519035A JP2006544024A JP2006544024A JP2007519035A JP 2007519035 A JP2007519035 A JP 2007519035A JP 2006544024 A JP2006544024 A JP 2006544024A JP 2006544024 A JP2006544024 A JP 2006544024A JP 2007519035 A JP2007519035 A JP 2007519035A
Authority
JP
Japan
Prior art keywords
subject
brain
preselected
action potential
phoneme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006544024A
Other languages
English (en)
Other versions
JP2007519035A5 (ja
Inventor
ケネディー、フィリップ
Original Assignee
ニューラル シグナルズ、インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ニューラル シグナルズ、インク. filed Critical ニューラル シグナルズ、インク.
Publication of JP2007519035A publication Critical patent/JP2007519035A/ja
Publication of JP2007519035A5 publication Critical patent/JP2007519035A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • A61B5/741Details of notification to user or communication with user or patient ; user input means using sound using synthesised speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback

Abstract

【解決手段】 被験者による発話の生成を補助する方法において、少なくとも1つの第1の神経インパルスは、前記被験者の脳の第1の予め選択された位置から感知される。第1の予め選択された音声は、前記第1の神経インパルスに関連付けられる。前記第1の予め選択された音声は、可聴フォーマットで生成される。前記被験者による発話の生成を補助する装置において、少なくとも1つのセンサーは、前記被験者の脳の神経インパルスを感知し、前記神経インパルスを表す信号を生成する。電子音声生成装置は、前記信号の生成に応答して音素を生成する。音声システムは、前記音声生成装置から受信された信号に基づいて前記音素に対応する可聴音を生成する。
【選択図】 図4

Description

本出願は、2003年12月8日付けで提出された米国特許仮出願第60/527,943号の利益を主張するものであって、その全文はこの参照により本明細書に組み込まれる。
本発明は、米国国立衛生研究所(National Institutes of Health)が授与した助成金第1R43DC007050−01号に基づき、米国政府の支援の下で行われたものである。米国政府は、本発明の特定の権利を有する場合がある。
本発明は、医療システムに関するものであって、より具体的には、神経インパルスに基づく発話および他の音声を生成するためのシステムに関するものである。
閉じ込め症候群は、被験者が発話を生成するために必要な筋肉の運動制御を殆ど、あるいは全くできない状態である。このような被験者は、目の動きによってコミュニケーションを行う場合がある。1つのコミュニケーション方法において、前記被験者の目の動きはコンピュータ画面に表示された文字表と相関し、前記被験者は、伝達したいと思う言葉を形成する文字を見ることによって、言葉を表現する。その結果を音声生成装置に入力すると、この装置は、前記被験者によって表現された言葉に対応する音声を生成する。あるいは、運動神経インパルスなどの目の動き以外の入力方法が、コミュニケーションを容易にするのに使用される場合もある。このようなシステムにおいては、前記入力方法によって、コンピュータ画面上の文字またはアイコン上を動くカーソルを制御することが可能であり、前記カーソルが十分な時間の間1文字上で停止すると、前記文字が文字列に追加され、最終的に1つの言葉が形成される。
このようなシステムは、簡単な言葉の生成にさえ相当な時間を要する点と、必要な文字および前記表にある文字の場所を決定するために前記被験者が多くの精神的努力を要する点において制限がある。
発話生成に関連する脳の部位は、「ブローカ野」と呼ばれる。一般に、人が発話すると、ニューロンの放電によって、ブローカ野にあるニューロンに電気スパイクが形成される。これらの放電を局所的軸索から感知することが可能であり、前記局所的軸索における前記放電は「活動電位」と呼ばれる。1つの位置においていくつかの異なる活動電位が感知可能であり、それぞれの異なる活動電位は、異なる精神作用に対応している可能性がある。
現在、脳内のニューロン放電または活動電位を測定して、それらを直接的に、たとえば言葉を形成する最も基本的な音声である音素のような音声に変換するシステムはない。ブローカ野中の活動電位から直接的に音素を生成することにより、発話をほぼリアルタイムに生成する結果となる。被験者が自然な形で発話を生成することが可能になれば、前記被験者と外界とのコミュニケーションが大きく促進することになる。
したがって、リアルタイムの自然な精神プロセスを採用して音声を生成するための発話生成システムと方法が必要である。
前述の先行技術の欠点は、1様態において、被験者の発話を補助する方法である本発明によって克服されるものであり、前記方法において、少なくとも最初の1つの神経インパルスは、前記被験者の脳内の第1の予め選択された位置から感知される。第1の予め選択された音声は、前記第1の神経インパルスに関連付けられる。前記第1の予め選択された音声は、可聴フォーマットで生成される。
別の様態において、本発明は、被験者が音声を生成するのを補助する方法であり、前記方法において、複数の神経インパルスが被験者の脳内の複数の位置から感知される。予め選択された音声は、予め定められた神経インパルスのパターンと関連付けられる。前記予め選択された音声は、可聴フォーマットで生成される。
別の様態において、本発明は、被験者とのコミュニケーションを可能にする方法であり、前記方法において予め定められた知的訓練を前記被験者が実行する間に、前記被験者の脳の機能的MRIスキャンを行うことによって、前記被験者の脳において、前記被験者による前記知的訓練の実行中に神経活動が生じる第1の位置を決定するものである。1つの電極をが前記被験者の脳の前記第1の位置に埋め込まれる。前記被験者は、予め定められた音素を表現する欲求を、前記被験者の脳の前記第1の位置で生成される活動電位に関連付けるよう訓練される。前記活動電位は、前記電極で感知される。前記活動電位の感知に応答して、前記予め定められた音素に対応する可聴音が生成される。
さらに別の様態において、本発明は、被験者が脳の電気的活動に基づき発話を生成するのを補助するための装置である。少なくとも1つのセンサーが、前記被験者の脳の神経インパルスを感知し、その神経インパルスを表す信号を生成する。電子音声生成装置が、前記信号の生成に応答して音素を生成する。音声システムは、前記音声生成装置から受信された信号に基づいて前記音素に対応する可聴音を生成する。
本発明のこれらの様態およびその他の様態は、以下の図と伴に開示する本発明の好適な実施形態についての以下の説明によって明らかになる。当業者であれば周知のように、本開示の新規概念の精神と要旨の範囲から逸脱することなく本発明の様々な変形形態および修正を実行することが可能である。
ここで、本発明の好適な実施形態について詳細に説明する。図を参照し、同類の番号は全ての図において同類の部分を指すものである。本明細書および特許請求の範囲全体の説明に使用されているように、以下の用語は、特に明記しない限り、本明細書にて明確に関連付けられる意味において用いられる。"a"、"an"、"the"は複数のものを指す場合も含み、"in"は"in"および"on"の意味を含む。
本発明は、ヒトの脳神経活動を記録するシステムおよび方法のためのものであって、前記活動を用いて音声生成装置を駆動するものである。このような装置は、スペリング装置上でアイコンまたは文字を選択するというような発話生成の仲介手段を必要としない。代わりに、個々の皮質神経信号からの活動は、FDA(米国食品医薬品局)認可の神経親和性電極(若しくは他の適したタイプの電極)を介して感知され、増幅され、経皮的に送信されて、スパイクをソートするソフトウェアを用いて処理される。これらの処理済み神経信号のパルス出力によって、音声生成装置は駆動される。
通常、被験者が知的訓練を実行する間に、機能的MRIを使用して前記被験者の脳をマップし、前記脳の局所活動の領域を決定する。少なくとも1つの電極を、局所活動が生じる脳の領域に埋め込み、神経インパルス(ニューロン放電または活動電位など)を前記電極において感知する。前記被験者は、音素のような特定の音声を発音することを想像し、それに対する応答として神経インパルスを生成するよう訓練される。訓練後に前記被験者が特定の神経インパルスを生成すると、それを前記電極が感知し、コンピュータにより制御された音声生成装置に伝達する。前記コンピュータは、前記神経インパルスを特定の音声(1つの音素など)と関連付け、前記音声を可聴音として生成する。
図1が示すように、適切な電極タイプの1つには、Neural Signals, Inc.(ジョージア州アトランタ)から入手可能な神経親和性電極10がある。このような神経親和性電極10は、金製記録ワイヤ14を含む、中が空洞のガラス製円錐体12を具備し、前記ワイヤにより、栄養素の影響を受けて、神経細胞2から前記ガラス製円錐体12内に成長する軸索4からの記録が可能になる。前記記録ワイヤ14間の電位変化が増幅器16に入力されると、その変化に対応する出力18が生成される。神経親和性電極の1例は、米国特許第4,852,573号明細書に開示されており、前記特許の全文は参照により本明細書に組み込まれる。前記電極を前記被験者の脳に埋め込み、経皮的に埋め込まれたトランスミッタを介して前記コンピュータへ送信することができる。そのようなシステムについては、「Detecting Neural Signals and Using Same to Drive External Functions(神経信号の検出および神経信号を用いて行う外部機能の駆動)」と題する2003年9月30日付けで提出された米国特許出願第10/675,703号明細書の中で説明されており、その全文は参照により本明細書に組み込まれる。
本発明に、その他の電極を使用することも可能である。たとえば、Bionic Technologiesの「Utah」アレイ(10x10ピン)は、非常に優れた記録特性を有するものであるが、安定性にやや欠け、記録を数年以上続けることができない恐れがある。当業者であれば周知のように、その他の電極(有線および無線)および神経信号スキャン装置を本発明に使用することも同様に可能である。
前記システムは、活動電位、局所電場電位(いくつかの活動電位が集合したもの)、あるいはニューロンスパイクやニューロン放電のようなその他のタイプの神経インパルスを感知することが可能である。
このタイプの埋め込み式神経親和性電極からの記録により、長期間にわたり、強い信号対ノイズ比を示す活動電位が生成されてきた。前記神経親和性電極により、麻痺状態にある被験者および発話不能の(閉じ込め症候群)被験者がコンピュータを制御し、コンピュータにより生成された発話を使ってコミュニケーションすることが可能になった。前記神経電極には、増幅信号を経皮的にFM送信する(すなわち、無線)、FDA認可(および生物学的に適合性のある)記録システムを利用することが可能である。さらに、前記神経親和性電極への電力を空隙誘導コイルによって供給できるため、電池の必要がない。先行実施例においては、前記神経親和性電極システムは、閉じ込め症候群被験者に埋め込まれ、それによってスイッチまたはコンピュータカーソルが制御が提供されたため、前記被験者は(データ入力によって生成される合成発話を伴う場合もそうでない場合も含めた)コミュニケーション、インターネットアクセス、環境制御等を行うことができるようになった。前記システムの安定性は、前記電極の空洞のガラス先端を通って成長し前記円錐体の各端の外側の神経網に接続する有髄軸索となる軸索の成長によってもたらされる。これらの接続により、脳の物質内に前記電極先端が保持される。
図2が示すように、前記被験者の脳20の機能的MRIスキャンは、予め定められた知的訓練を前記被験者が行ったときに生じるいくつかの活動領域を明らかにする。このような知的訓練には、たとえば、前記被験者に特定の音素若しくはその他の音声を発声する試みを含めることができる。
図3で示すように、軸索からのインパルスは活動電位30を生成する。異なる線パターンは、異なる活動電位30を示す。単一の電極はいくつかの異なる活動電位を感知することができ、各活動電位は異なる精神的作業に対応するものである。
典型的な装置を図4で示す。この装置において、前記被験者110には、いくつかの電極112が埋め込まれている。前記電極112は、コンピュータ130に連結されているレシーバ134に無線信号を介して神経インパルスを送信する。前記レシーバ134は、たとえば、PCMCIAカードを通して前記コンピュータ130に連結されている。前記コンピュータ130は、神経インパルスの受信、どのタイプの神経インパルスが受信されたかの決定、受信された特定の神経インパルスに対応する音声の検索、音声生成装置およびスピーカ132若しくは他の音声生成装置を含む音声システムを通しての前記音声の生成を実行するようプログラムされている。
前記システムは、特定の活動電位を検出して音素を生成するか、あるいは活動電位のパターンを音素に関連付けることができる。たとえば、1つの電極あるいはいくつかの異なる電極からの活動電位の特定の組み合わせを、特定の音素とペアに組み合わせることができる。
発話生成の1実施形態において、図5で示すように、前記被験者は音素を想像することによって1若しくはそれ以上の活動電位202を生成する。前記活動電位(若しくは他の神経信号)はデジタル化され、前記コンピュータ204に入力される。前記コンピュータは特定の活動電位206を検出し、前記活動電位を対応する音素208に一致させる。前記被験者は、音素を発声することを想像し、前記コンピュータからその発声結果を聞くというフィードバック過程を通して、音素一式210を生成するよう訓練される。何度か繰り返すうちに、前記被験者は、生成される特定の活動電位をそれらに対応する音素に一致させる。次に、前記被験者は、異なる音素を連続的に生成することによって言葉212を生成するよう訓練される。この時点で、前記被験者は、聞き取り可能な言葉214を生成することによって他者とコミュニケーションすることが可能となる。
この実施形態においては、各神経パルスは単一の音素を生成するようにリンクされる。したがって、ブローカ野からの単一パルスの発火は単一の音素の音声を生成し、連続発火パターンは、言葉を形成する音声の組み合わせを生成することになる。
本発明は、仲介データ入力若しくはインターフェイスを必要とせずに、脳活動から直接発話を生成することを可能にするものである。1実施形態においては、機能的MRIを使用して、発話する被験者と閉じ込め症候群の被験者におけるヒトの発話領域の位置を特定する。次に、少なくとも2つの神経親和性電極を前記被験者の脳に埋め込む。いくつかの強力な神経信号が感知されて音素生成器に出力される。前記被験者は、理解可能な言葉となるまでこれらの音素を制御するよう訓練される。それに従って、理解可能な発話を作り出すようになるまでの学習曲線を作成することが可能である。また、本発明は、複数の電極を前記被験者に埋め込む工程と、前記被験者が多様な音素および、より数多くの音素を制御して、より数多くの言葉を生成するよう訓練を受ける間に音素ライブラリを拡大する工程も含む。
本システムは、音素を生成するだけでなく、神経インパルスと、たとえば特定の周波数や音符のような他の音とのペアを生成することもできる。
実験的な1適用例において、被験者からのデータは、発話のような複雑なデータを生成のための十分なデータ帯域(すなわち、データチャネル数)を提供する、複数の活動電位が利用可能であることを示している。前記データは、Plexon Inc.(テキサス州ダラス)から入手可能なOff Line Sorterという、信号分離用の一式のツールを使って分析した。前記分析においては、主に等高線マッピングを使用した。アナログデータをデジタル化し、波形分析前および波形分析後の必要条件に従って1.2ミリ秒または4.8ミリ秒の範囲の時間ビンで活動電位を分離した。次に、分離された各活動電位を、ピーク−トラフ振幅、ピーク振幅または谷振幅、スライス1およびスライス2(選択時点における波形の高さ)、タイムスタンプ(3Dモードにおいて特に有用)を含むパラメータの選択に従って、2Dまたは3Dの空間における点として表した。活動電位を分離した後、NeuroExplorer(NEX)プログラム上で分析用.nexファイルが作成された。あるいは、その他のデータファイルをソートするためにパラメータファイル(.tpl)が作成される。使用されるデータファイルは、Plexonデジタル化データ(.ddt)およびDataWaveで取得したデータ(.uff)である。前記NEXプログラムは、時間と周波数の双方のドメインでの分析を可能にする。前記時間ドメインにおいては、通常、速度ヒストグラム、インタースパイク・インターバル・ヒストグラム、ペリイベント・ヒストグラム、ラスター、交差相関曲線が構築される。前記周波数ドメインにおいては、パワースペクトル密度が構築される。これら全ての分析は、大型のデータセットを扱うことができる。
実験的な1実施形態において、全てのMRI実験を3T全身スキャナ(Philips Intera)で行った。血液酸素化レベル依存(Blood oxygenation level dependent:BOLD)画像を、T2強調グラディエント・エコー・プラナー・イメージング(echo planar imaging:EPI)法を用いて、TR/TE/角度=3000ms/40ms/90o、視野(FOV) 240(240mm、ピクセルマトリックス 96(96で収集し、128x128に再構成した。高分解能T1強調スピンエコーでの解剖学的画像を、EPIと同一のスライス位置で、TR/TE/角度=500ms/20ms/90o、FOV 240(240mm、ピクセルマトリックス 256(256で収集した。T1強調画像およびEPIの双方のために、4mm厚、0ギャップで、AC−PC線にほぼ平行な28の斜方軸位断が、脳全体を覆うために選択された。さらに、活動が生じた脳領域の視覚化と位置づけを向上し、手術計画の補助とするために、脳の表面と容積のレンダリングをする高分解能3D、T1強調グラディエント・エコー・イメージングを、等方性ボクセルサイズ(1mm)を用いて収集した。
機能的画像を処理し、SPM99プログラム(Welcome Department of Cognitive Neurology製、英国、ロンドン)に実装された統計パラメータ・マッピング・アルゴリズムを用いて分析した。形状保存変換処理を用いて、EPI画像を連続画像の最初の画像に再整合し、モーションアーチファクトを補正した。高分解能のT1およびEPIテンプレート画像は、同時登録した。汎用線形モデルを各ボクセルの経時的起動の解析に適用し、統計マップを得た。次に、前記統計マップを定義済み閾値で抽出し、前記T1強調解剖学的画像に重ね合わせた。機能的マップとT1強調画像の両方を、NE埋め込み手術の参照として使った。この作業はテスト済みであり、ブローカ野において活発な活性が認められた。
1実施形態において、以下の電極埋め込み術を採用した。手術の直前に、頭皮に基準マーカーを配置して解剖学的MRIを行う。全身麻酔を投与し、頭部を固定した後、3Dフレームレス定位脳手術システムを用いてターゲットの位置を決定し、最終的な頭皮切開位置を決定する。皮膚に標準的殺菌を施した後、前記頭皮を切開し、開頭術を行う。脳硬膜を開いて脳を露出し、前記フレームレス定位脳手術システムを再び用いて最終的な脳回上ターゲットの位置を決定する。埋め込み位置は、fMRI(機能的MRI)データを参照して特定する。栄養素を充填した神経親和性電極(NE)を、脳軟膜を切開した大脳皮質に接近させ、顕微鏡下で大脳皮質表面の5〜6mm下へ、脳回の平面に対し45度の角度で誘導する。前記NEの外側(若しくは上部)の端部を、前記表面の下へ押し下げた後、開頭術による開口部全体にゲルフォーム材の層が形成されるようにゲルフォーム材で覆う。これを、NEコネクタが前記電子部品に接続された後に、アクリルセメントで覆う。全てをアクリルセメントで覆い、傷口を層状に閉じる。通常、ドレインは使用されない。
開頭術によってできた頭蓋骨の開口部に前記電極を埋め込んで固定した後(下記を参照)、前記電子モジュールを頭蓋骨上に埋め込み、前記電極に接続する。前記電子モジュールは、2若しくは3の増幅器(約1,000x増幅率)と、FMトランスミッタと、キャリブレーションシステムとを具備する。整流器と調整器を有する電力誘導コイルによってこれらに+/−5ボルトの電力が供給される。この電力供給によって、電池の埋め込みの必要がなくなり、前記被験者が生涯使用可能な埋め込みが可能となる。前記装置は、表面実装式構成要素を用いて構築され、機械的保護のために頑丈なシラスティック(Silastic)被膜を被覆したElvax Polymer(DuPont Nemours)の絶縁材で覆われている。前記システムは、頭蓋骨の形に成形される。
前記切開が完全に治癒した後(通常、約3週間)、記録を開始する。前記電力誘導コイルを、前記頭皮の内部コイルの上に接近させ、ほぼ1MHzの送信周波数に設定する。受信アンテナを前記頭皮の近くに配置し、Win Radioシステム(Win Radio Inc.から入手可能)を使って前記周波数を調整する。前記信号は、増幅率が約10倍または20倍で、活動電位に対するフィルタ設定が500Hz〜5,000Hzである増幅器へ送信される。前記データは、オフライン分析のためにDDSテープレコーダ(Cygnus Inc.製)にアーカイブされる。
オフラインデータ分析は、Plexon Inc.(テキサス州ダラス)のOff−Line Sorterを用いて行う。これらの分析結果により、どの活動電位が独立して発火するかに関する情報が提供される。前記分析結果を、オンライン・スパイク・ソート・プログラムに用に選択することが可能である。
Plexon Online Spike Sortプログラムからの出力を、ラップトップ・コンピュータのPCMCIAカードに入力する。前記出力は、まず、前記Plexonコンピュータへ経由し、Plexon IncのSpike Sort Programを用いて行う信号分離を含むオンライン処理が行われる。前記パルス出力は、前記PCMCIAへ送信され、パルスを受信するMCソフトウェアに入力される。前記ソフトウェアは、一度に50msの信号をチェックする。この期間中にスパイクが検出されると、その音素のサウンドバイトが起動される。各サウンドバイトの持続期間は約250msとなる。前記サウンドバイトの再生の前に1若しくはそれ以上のスパイクが検出された場合は、「延長」音をシミュレートするために前記サウンドバイトが直ちに繰り返される。繰返し再生される間にスパイクが検出されない場合、前記出力は、前記サウンドバイトの再生の完了後に停止する。このように、音声は、スパイクが検出され続ける限り再生される。このようにして、各音素の持続期間と再生は、前記スパイクのタイミングによって決定される。前記Plexon Spike Sorterからの各スパイクは、前記PCMCIAカードの異なるチャネルに送信されるものであって、英語の各音素に対して1つのチャネルがあるのが理想的である。
最初の3音素に対して最も一致する活動電位を相関関係によって位置付け、次に、前記Spike Sortプログラムを用いて最も一致する活動電位のみを選択する。前記活動電位は、前記被験者への音声フィードバックと伴に前記ラップトップの音素生成器へ出力され、これにより、学習に不可欠な聴覚フィードバックのループが完了する。まず、1つの活動電位のみの出力が可能となり、この活動電位が発火される度にその音素が生成される。前記被験者は、メトロノームまたは他の装置の拍子のような、律動的な1ヘルツの速度で前記発火を制御することを学習する。前記被験者が速度1ヘルツでの制御を約10%の許容誤差で行えるようになったら、たとえば「o」や「u」の音声に一致するような、その他の活動電位を発火するよう前記被験者を訓練する。前記被験者がこれらの個々の作業を学習した後、3つの音声全てを再び前記被験者にフィードバックして、聴覚ループを完了する。前記被験者が「発話」することを学習する速度は、前記被験者の学習意欲、良好に一致した活動電位の選択、ソートされたスパイクの「明瞭さ」といったいくつかの因子に依存する。
英語には44の音素があるが、理解可能な発話の生成に、必ずしも全てが必要なわけではない。より多くの神経親和性電極を、経時的に前記被験者に埋め込んでいくことによって、より多くの音素を生成することが可能である。
上述の実施形態は、あくまでも例証を目的とするものである。本発明から逸脱することなく、本明細書に開示された特定の実施形態から、数多くの変形実施形態を作成することが可能であるものと容易に理解される。したがって、本発明の範囲は、下記の特許請求の範囲によって定められるものであって、上述の具体的な実施形態に限定されるものではない。
図1は、神経親和性電極の概略図である。 図2は、脳の概略図である。 図3は、いくつかの活動電位に関して、電極電位対時間を示すグラフである。 図4は本発明に従った装置の概略図である。 図5は本発明に従った方法のフロー図である。

Claims (33)

  1. 被験者による音声の生成を補助する方法であって、
    a.少なくとも1つの第1の神経インパルスを、前記被験者の脳の第1の予め選択された位置から感知する工程と、
    b.第1の予め選択された音声を、前記第1の神経インパルスに関連付ける工程と、
    c.前記第1の予め選択された音声を、可聴フォーマットで生成する工程と
    を有する方法。
  2. 請求項1記載の方法において、前記第1の予め選択された音声は、第1の音素に対応するものである。
  3. 請求項1記載の方法において、前記第1の予め選択された音声は、第1の周波数の符号に対応するものである。
  4. 請求項1記載の方法において、前記第1の神経インパルスは、第1の活動電位を有するものである。
  5. 請求項4記載の方法において、この方法は、さらに、
    前記被験者の脳の前記第1の予め選択された位置において検出された第2の活動電位を検出する工程を有するものである。
  6. 請求項5記載の方法において、この方法は、さらに、
    a.前記第1の予め選択された音声とは異なる第2の予め選択された音声を前記第2の活動電位と関連付ける工程と、
    b.前記第2の予め選択された音声を、可聴フォーマットで生成する工程と
    を有するものである。
  7. 請求項6記載の方法において、前記第2の予め選択された音声は、前記第1の音素とは異なる第2の音素に対応するものである。
  8. 請求項1記載の方法において、前記第1の神経インパルスは、局所電場電位を有するものである。
  9. 請求項1記載の方法において、この方法は、さらに、
    前記被験者の脳の前記予め選択された位置へ神経電極を埋め込む工程を有するものであって、前記感知する工程は、前記神経電極における神経インパルスを感知する工程を有するものである。
  10. 請求項9記載の方法において、前記神経電極を埋め込む工程は、神経親和性電極(neurotrophic electrode)を埋め込む工程を有するものである。
  11. 請求項2記載の方法であって、この方法は、さらに、
    a.少なくとも1つの第2の神経インパルスを、前記被験者の脳の前記第1の予め選択された位置とは異なる第2の予め選択された位置から感知する工程と、
    b.前記第1の予め選択された音素とは異なる第2の予め選択された音素を、前記第2の神経インパルスと関連付ける工程と、
    c.前記第2の予め選択された音素に対応する可聴音を生成する工程と
    を有するものである。
  12. 請求項11記載の方法において、前記第2の神経インパルスは、局所電場電位を有するものである。
  13. 請求項11記載の方法において、前記第2の神経インパルスは、活動電位を有するものである。
  14. 請求項1記載の方法において、この方法は、さらに、
    a.前記被験者が知的訓練を実行する間に、前記被験者の脳の機能的MRIスキャンを行うことによって、前記知的訓練中の脳における活動領域の少なくとも1つを決定する工程と、
    b.前記脳の活動領域に電極を取着し、神経インパルスを感知する工程と
    を有するものである。
  15. 請求項1記載の方法において、前記感知する工程は、前記被験者の脳の前記第1の予め選択された位置において、予め選択された、複数の異なる活動電位一式を感知する工程を有するものである。
  16. 被験者による発話の生成を補助する方法であって、
    a.前記被験者の脳の複数の位置からの複数の神経インパルスを感知する工程と、
    b.予め選択された音声を、予め定められた神経インパルスのパターンと関連付ける工程と、
    c.前記予め選択された音声を、可聴フォーマットで生成する工程と
    を有する方法。
  17. 請求項16記載の方法において、前記神経インパルスは、活動電位を有するものである。
  18. 請求項16記載の方法において、前記神経インパルスは、局所電場電位を有するものである。
  19. 請求項16記載の方法において、前記予め選択された音声は、音素を有するものである。
  20. 請求項16記載の方法において、前記予め選択された音声は、周波数を有するものである。
  21. 被験者とのコミュニケーションを可能にする方法であって、
    a.前記被験者が予め定められた知的訓練を実行する間に、前記被験者の脳の機能的MRIスキャンを行うことによって、前記被験者が前記知的訓練を実行中に、神経活動が生じる前記被験者の脳の第1の位置を決定する工程と、
    b.前記被験者の脳の前記第1の位置に電極を埋め込む工程と、
    c.予め定められた音素を表現する欲求を、前記被験者の脳の前記第1の位置で生成される活動電位に関連付けるよう、前記被験者を訓練する工程と、
    d.前記電極において前記活動電位を感知する工程と、
    e.前記活動電位を感知する工程に応答して、前記予め定められた音素に対応する可聴音を生成する工程と
    を有する方法。
  22. 請求項21記載の方法において、この方法は、さらに、
    a.前記被験者が前記知的訓練の一部を実行する間に、神経活動が生じる前記被験者の脳の前記第2の位置の少なくとも1つを決定する工程と、
    b.前記被験者の脳の前記第2の位置に第2の電極を埋め込む工程と、
    c.第2の予め定められた音素を表現する欲求を、前記被験者の脳の前記第2の位置で生成される第2の活動電位に関連付けるよう、前記被験者を訓練する工程と、
    d.前記第2の活動電位を感知する工程と、
    e.前記第2の活動電位を感知する工程に応答して、前記第2の予め定められた音素に対応する第2の可聴音を生成する工程と
    を有するものである。
  23. 請求項21記載の方法において、この方法は、さらに、
    a.第2の予め定められた音素を表現する欲求を、前記被験者の脳の前記第1の位置で生成される第2の活動電位に関連付けるよう、前記被験者を訓練する工程と、
    b.前記第2の活動電位を感知する工程と、
    c.前記第2の活動電位を感知する工程に応答して、前記第2の予め定められた音素に対応する第2の可聴音を生成する工程と
    を有するものである。
  24. 脳の電気的活動に基づき、被験者による発話の生成を補助するための装置であって、
    a.前記被験者の脳の神経インパルスを感知し、前記神経インパルスを表す信号を生成する少なくとも1つのセンサーと、
    b.前記信号の生成に応答して、音素を生成する電子音声生成装置と、
    c.前記音声生成装置から受信された信号に基づいて前記音素に対応する可聴音を生成する音声システムと
    を有する装置。
  25. 請求項24記載の装置において、前記神経インパルスは、局所電場電位を有するものである。
  26. 請求項24記載の装置において、前記神経インパルスは、ニューロン放電を有するものである。
  27. 請求項24記載の装置において、前記神経インパルスは、活動電位を有するものである。
  28. 請求項27記載の装置において、前記センサーは、前記被験者の脳における複数の活動電位を感知することが可能であり、且つ、対応する複数の信号を生成することが可能であって、各信号は前記複数の活動電位のうちの異なる1つ表すものであって、前記電子音声生成装置は、前記複数の信号の各信号に応答して異なる音素を生成し、それにより前記音声システムは、連続した複数の異なる音素に対応する可聴音を生成することが可能となるものである。
  29. 請求項24記載の装置において、前記センサーは、埋め込み電極を有するものである。
  30. 請求項29記載の装置において、前記埋め込み電極は、神経親和性電極を有するものである。
  31. 請求項24記載の装置において、前記電子音声生成装置は、前記センサーによって感知される活動電位を検出するようプログラムされたコンピュータを有するものである。
  32. 請求項31記載の装置において、前記コンピュータは、さらに、1つの活動電位を特定の音素に関連付けるようプログラムされるものである。
  33. 請求項32記載の装置において、前記コンピュータは、さらに、前記特定の音素に対応する可聴音を生成するようプログラムされるものである。
JP2006544024A 2003-12-08 2004-12-08 脳の活動から発話を生成するためのシステムおよび方法 Pending JP2007519035A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US52794303P 2003-12-08 2003-12-08
PCT/US2004/041435 WO2005057548A2 (en) 2003-12-08 2004-12-08 System and method for speech generation from brain activity

Publications (2)

Publication Number Publication Date
JP2007519035A true JP2007519035A (ja) 2007-07-12
JP2007519035A5 JP2007519035A5 (ja) 2008-02-07

Family

ID=34676799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006544024A Pending JP2007519035A (ja) 2003-12-08 2004-12-08 脳の活動から発話を生成するためのシステムおよび方法

Country Status (5)

Country Link
US (1) US7275035B2 (ja)
EP (1) EP1695339A4 (ja)
JP (1) JP2007519035A (ja)
CA (1) CA2548711A1 (ja)
WO (1) WO2005057548A2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2077752A2 (en) * 2004-03-22 2009-07-15 California Institute of Technology Cognitive control signals for neural prosthetics
US20070106501A1 (en) * 2005-11-07 2007-05-10 General Electric Company System and method for subvocal interactions in radiology dictation and UI commands
US8251924B2 (en) * 2006-07-07 2012-08-28 Ambient Corporation Neural translator
WO2008110016A1 (en) * 2007-03-15 2008-09-18 The University Of Western Ontario Wireless headphones for use with a portable auditory and voice system
US20110046941A1 (en) * 2009-08-18 2011-02-24 Manuel-Devados Johnson Smith Johnson Advanced Natural Language Translation System
US10264990B2 (en) * 2012-10-26 2019-04-23 The Regents Of The University Of California Methods of decoding speech from brain activity data and devices for practicing the same
EP2959280B8 (en) * 2013-02-19 2024-02-14 The Regents of The University of California Methods of decoding speech from the brain and systems for practicing the same
CN105147429A (zh) * 2015-07-28 2015-12-16 安徽工程大学 喉头送话器装置及其使用方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63226340A (ja) * 1986-12-16 1988-09-21 イーイージイ システムズ ラボラトリー 脳神経活動の位置と内部域の時間的関係を表示する方法とその装置
JPH09149894A (ja) * 1995-12-01 1997-06-10 Hitachi Ltd 光生体計測法を用いた生体入力装置および生体制御装置
US20020099412A1 (en) * 1997-10-27 2002-07-25 Neuropace, Inc. Methods for using an implantable device for patient communication
US20020103429A1 (en) * 2001-01-30 2002-08-01 Decharms R. Christopher Methods for physiological monitoring, training, exercise and regulation
US6931274B2 (en) * 1997-09-23 2005-08-16 Tru-Test Corporation Limited Processing EEG signals to predict brain damage

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2515875B2 (ja) * 1989-03-07 1996-07-10 日本電信電話株式会社 脳波トポグラフィによる音節認識装置
JPH10207592A (ja) * 1997-01-20 1998-08-07 Technos Japan:Kk 生体信号を利用した意思伝達装置
US6128527A (en) * 1997-12-03 2000-10-03 University Of Iowa Research Foundation Apparatus and method of analyzing electrical brain activity
AU2002240192A1 (en) * 2001-01-30 2002-08-12 R. Christopher Decharms Methods for physiological monitoring, training, exercise and regulation
WO2003041790A2 (en) * 2001-11-10 2003-05-22 Arizona Board Of Regents Direct cortical control of 3d neuroprosthetic devices
GB0229940D0 (en) * 2002-12-20 2003-01-29 Koninkl Philips Electronics Nv Audio signal analysing method and apparatus
US7582062B2 (en) * 2003-09-12 2009-09-01 Medical Research Council Methods of neural centre location and electrode placement in the central nervous system
US7187967B2 (en) * 2003-09-30 2007-03-06 Neural Signals, Inc. Apparatus and method for detecting neural signals and using neural signals to drive external functions
US20050102144A1 (en) * 2003-11-06 2005-05-12 Rapoport Ezra J. Speech synthesis
US7120486B2 (en) * 2003-12-12 2006-10-10 Washington University Brain computer interface

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63226340A (ja) * 1986-12-16 1988-09-21 イーイージイ システムズ ラボラトリー 脳神経活動の位置と内部域の時間的関係を表示する方法とその装置
JPH09149894A (ja) * 1995-12-01 1997-06-10 Hitachi Ltd 光生体計測法を用いた生体入力装置および生体制御装置
US6931274B2 (en) * 1997-09-23 2005-08-16 Tru-Test Corporation Limited Processing EEG signals to predict brain damage
US20020099412A1 (en) * 1997-10-27 2002-07-25 Neuropace, Inc. Methods for using an implantable device for patient communication
US20020103429A1 (en) * 2001-01-30 2002-08-01 Decharms R. Christopher Methods for physiological monitoring, training, exercise and regulation

Also Published As

Publication number Publication date
EP1695339A2 (en) 2006-08-30
US20050144005A1 (en) 2005-06-30
WO2005057548A3 (en) 2006-12-21
WO2005057548A2 (en) 2005-06-23
US7275035B2 (en) 2007-09-25
CA2548711A1 (en) 2005-06-23
EP1695339A4 (en) 2007-07-18

Similar Documents

Publication Publication Date Title
Dichter et al. The control of vocal pitch in human laryngeal motor cortex
Zeng Trends in cochlear implants
Brumberg et al. Brain–computer interfaces for speech communication
US7571005B1 (en) Adaptive place-pitch ranking procedure for optimizing performance of a multi-channel neural stimulator
Sherrick Basic and applied research on tactile aids for deaf people: Progress and prospects
Tong et al. Perceptual studies on cochlear implant patients with early onset of profound hearing impairment prior to normal development of auditory, speech, and language skills
Martin et al. The use of intracranial recordings to decode human language: Challenges and opportunities
Näätänen et al. The MMN as a viable and objective marker of auditory development in CI users
Pei et al. Silent communication: toward using brain signals
US20230306960A1 (en) Wearable vibrotactile speech aid
CN109036569B (zh) 人工耳蜗声调语言的时域精细结构新型编码的验证方法
JP2007519035A (ja) 脳の活動から発話を生成するためのシステムおよび方法
US9795325B1 (en) Auditory perceptual systems
Liu et al. Neural correlates of auditory temporal-interval discrimination in cats
AU2012282707B2 (en) Test methods for cochlear implant stimulation strategies
CN113171534B (zh) 基于音乐和能量波函数的叠加增强神经调制方法及装置
Lane et al. On the structure of phoneme categories in listeners with cochlear implants
CN113116306A (zh) 一种基于听觉诱发脑电信号分析的意识障碍辅助诊断系统
Weisenberger et al. Evaluation of a principal‐components tactile aid for the hearing‐impaired
EP4197587A1 (en) Auditory neural interface device
CN110333777B (zh) 一种利用内源性频率标记技术反映大脑脑部信号的脑机接口方法及系统
Seligman Speech-processing strategies and their implementation
Villa Spatio-temporal patterns of spike occurrences in freely-moving rats associated to perception of human vowels
CN112799505B (zh) 一种基于脑电信号的音乐音调想象区分方法
Wada et al. Proposal and evaluation of the sweeping display of speech spectrum for a tactile vocoder used by the profoundly hearing impaired

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101103

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110412