JP2004525572A - Apparatus and method for ear microphone - Google Patents

Apparatus and method for ear microphone Download PDF

Info

Publication number
JP2004525572A
JP2004525572A JP2002577483A JP2002577483A JP2004525572A JP 2004525572 A JP2004525572 A JP 2004525572A JP 2002577483 A JP2002577483 A JP 2002577483A JP 2002577483 A JP2002577483 A JP 2002577483A JP 2004525572 A JP2004525572 A JP 2004525572A
Authority
JP
Japan
Prior art keywords
microphone
ear
signal
air pressure
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002577483A
Other languages
Japanese (ja)
Other versions
JP3957636B2 (en
JP2004525572A5 (en
Inventor
グエルマン ジー. ネミロフスキー,
Original Assignee
シンク−ア−ムーブ, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/897,696 external-priority patent/US6647368B2/en
Application filed by シンク−ア−ムーブ, リミテッド filed Critical シンク−ア−ムーブ, リミテッド
Publication of JP2004525572A publication Critical patent/JP2004525572A/en
Publication of JP2004525572A5 publication Critical patent/JP2004525572A5/ja
Application granted granted Critical
Publication of JP3957636B2 publication Critical patent/JP3957636B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1091Details not provided for in groups H04R1/1008 - H04R1/1083
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/3877Arrangements for enabling portable transceivers to be used in a fixed position, e.g. cradles or boosters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/02Circuits for transducers, loudspeakers or microphones for preventing acoustic reaction, i.e. acoustic oscillatory feedback

Abstract

検出システム。この検出システムは、個人の耳に対して配置可能なハウジング(150、150’)および個人の耳に少なくとも一部挿入するためのハウジングに対して配置されたマイクロホン(34、34’)を備える。このマイクロホンは、個人が開始活動を行っている間に耳内の空気圧変化を検出し、内部で検出された空気圧変化に対応する電気シグナルを生成するように操作可能である。処理回路(14、14’、14”、36、36’、42)は、対応する出力を生成するように、電気シグナルを処理するために、マイクロホンに連結される。耳内の変化を検出する際に使用するための種々の代替的システムおよびセンサもまた、開示される。Detection system. The detection system includes a housing (150, 150 ') positionable with respect to the individual's ear and a microphone (34, 34') positioned relative to the housing for insertion at least partially into the individual's ear. The microphone is operable to detect a change in air pressure in the ear while the individual is performing the initiation activity and to generate an electrical signal corresponding to the change in air pressure detected internally. Processing circuitry (14, 14 ', 14 ", 36, 36', 42) is coupled to the microphone for processing the electrical signal to produce a corresponding output. Detect changes in the ear. Various alternative systems and sensors for use in the present invention are also disclosed.

Description

【技術分野】
【0001】
(関連出願)
本出願は、2001年3月30日に提出された米国仮出願番号60/280,282、2001年7月2日に提出された米国特許出願番号09/897,696、および2001年7月31日に提出された米国特許出願番号09/919,291(これらの全ての開示物は、本明細書中に参考として援用される)の利益を主張する。
【0002】
(発明の分野)
本発明は、一般的には、耳に対して配置されるセンサに関する。より詳細には、このセンサは、ヒトの身体的活動または精神的活動(例えば、言語、思考、口腔に関する舌の動き、生物学的機能など)を検出するために使用され、そしてシステム制御機能に変換され得る出力を提供する。さらに、このセンサは、マイクロホンを用いるヒトの言語および他の口頭発声を検出し、そしてスピーカーを用いてヒトの耳に音を送達するために使用されるが、スピーカーからマイクロホンへのフィードバックが減少されている。
【背景技術】
【0003】
(発明の背景)
思考(thought)を検出するための装置および方法は、米国特許出願第6,024,700号(この全ての開示は、参考として援用される)に開示されている。この思考は、検出器(例えば、マイクロホン)によって検出され得る、使用者の片耳または両耳に検出可能な空気圧または音を導き得る。思考を検出するためのこのようなシステムおよび方法からの例示的な出力は、1つまたは複数の別個の出力(例えば、それぞれの英数字文字、方向などを示す別個の出力)であり得る。
【0004】
身体的活動(例えば、口および舌の動き)を検出するための装置および方法は、2000年11月3日に提出された米国特許出願番号09/706,091(この全ての開示は、参考として援用される)に開示されている。この身体的活動は、使用者の片耳または両耳に検出可能な空気圧または音を導く。
【0005】
ヒトの耳によって生成された音は、時折、自己音響(autoaccoustic)といわれる。自己音響音は、従来、診断において、例えば、耳の機能または耳の状態を示すために使用されてきた。例えば、耳への音入力に応答して、耳は、検出可能な自己音響出力を提供することが見出されている。
【0006】
現在、腕または脚を使えない身体障害者が電動車椅子を操作することが可能な利用可能な制御器が存在する。このような制御器としては、トラックボールまたはジョイスティックタイプのデバイスが挙げられ、これらは、個体の口に挿入されており;そして個体は、口および/または舌の動きを使って制御器を操作して、機械的入力を提供する。このようなデバイスは、操作が困難であり、そしてデバイスが口から落ちるかまたは口を刺激する場合、問題がある。
【0007】
他の制御器は、身体障害の個体が機械的補助により機能を果たせるように存在する。このような制御器の操作は、代表的には、個体に指向される入射電磁シグナル(例えば、赤外または紫外の光/放射)のようなシグナルを必要とし;次いで、特定の活動または活動によって(例えば、目をまばたきする、頭を動かす、またはいくつかのこのような活動によって)、個体は、入射電磁シグナルを変調し得る。入射電磁シグナルについての必要性は、以下のいくつかの理由のために不便である:ある特別な装置が、シグナルを提供するために必要とされ、このシグナルは、適切に指向または整列されなければならず、検出器および変調されたシグナルは、適切に整列されなければならず、このシグナルは、使用者に対する有害な影響(例えば、目の傷害を引き起こす)を有すべきでない、など。
【0008】
現在、利用可能な音声認識ソフトウェアプログラムが存在し、これは、ヒトの言語を代表する入力シグナルを受け取り、そしてこのシグナルをテキスト形式に変換するか、言語を解釈する際にコマンドを実行する。この入力シグナルは、話し手の口の前に配置されたマイクロホンによって生成される。
【0009】
さらに、ワイヤレス移動式電話は、携帯電話ともいわれ、これは、非常に人気のある通信デバイスになっている。しかし、大部分の携帯電話は、遠隔位置(例えば、携帯電話タワー)との通信リンクを確立するためのトランシーバー(例えば、無線周波数(すなわち、RF)トランシーバー)を備える。ワイヤレス電話を使用する別のヒトとの会話を実行するために、使用者は、使用者の耳および口の近くに電話を保持しなければならない。このことは、使用者の手の少なくとも一方の使用を占有するという不利を意味する。多くの状況において、ワイヤレス電話の両手が自由な使用が、望ましい。同じことは、受信者、すなわち有線の電話システムに見られる電話機についても当てはまる。例えば、有線の電話システムの使用者は、電話で話す間にコンピューターをタイプすることを望み得る。さらに、医療専門家および他の人は、使用者の頭の近くでRFトランシーバーの長期使用に没頭するワイヤレス電話の使用者の健康に関する問題を示している。
【0010】
ワイヤレスおよび/または有線の電話システムの使用者に利用可能な多くの市販のヘッドセットが存在する。これらのヘッドセットは、使用者の両手の使用なしに、使用者が会話を実行するのを補助するため、および使用者の頭から離して電話(および任意のRFトランシーバー)を位置することが意図される。これらのヘッドセットは、代表的には、スピーカーを含むイヤーピースを備える。このイヤーピースは、使用者の耳に対して取り外し可能に配置され得、そして使用者の耳に音を放送し得る。このヘッドセットはまた、代表的には、支持部材上に配置されたマイクロホンを含み、この支持部材は、使用者の口に対してマイクロホンを配置している。マイクロホンは、使用者の口から発せられる言語および他の発声を検出するために使用される。検出された音は、電気シグナルに変換され、そしてバックボーン遠隔通信ネットワークへの電話および別の人の電話へと伝送される。このようにして、使用者は、他の人との完全に同時送受信の会話を実行し得る。
【0011】
しかし、ヘッドセットは、使用することが厄介であり得る。より詳細には、マイクロホンが適切に位置し、そしてこのマイクロホンがその位置に維持することを確実にするために、注意を払わなければならない。会話の間、ヘッドセットを調整する必要性は、使用者の気を散らし得る。さらに、マイクロホンの不適切な位置決めは、使用者の言語の検出を乏しいおよび/または信頼できないものにし得る。この問題は、一般的に存在するマイクロホンが検出する環境ノイズ(例えば、車両が通過する音、使用者の近くで生じる会話など)によって悪化される。検出される環境ノイズは、最終的に、電話によって伝送される。
【0012】
従って、低い音量で会話するときでさえ、使用者の言語を正確に検出し、そして環境ノイズの検出を減少する、電話ヘッドセットを容易に使用するための当該分野における必要性が存在する。
【発明の開示】
【課題を解決するための手段】
【0013】
(発明の要旨)
本発明の1つの局面に従って、本発明は、検出システムである。この検出システムは、ヒトの耳に対して配置可能なハウジング;ヒトの耳に少なくとも部分的に挿入するためのハウジングに対して配置されるマイクロホン;ヒトが開始活動をする間、耳の中で空気圧変化を検出するため、そして内部で検出された空気圧変化に相当する電気シグナルを生成するために作動可能なマイクロホン;ならびに相当する出力を生成するような電気シグナルを処理するためのマイクロホンに結合された処理回路、を備える。
【0014】
本発明のさらに別の局面に従って、本発明は、ヒトの耳における空気圧変化を検出するためのセンサである。このセンサは、ヒトの耳の中に少なくとも部分的に挿入するために適応した内部部分および耳介の少なくとも一部に係合するように適応した外部部分を有するハウジング;耳内から発生する空気圧変化を検出するためのハウジングの内部部分に対して配置する内部マイクロホン;ならびに耳に対して外部から発生する空気圧変化を検出するためのハウジングの外部部分に対して配置する外部マイクロホン、を備える。
【0015】
本発明の1つの局面に従って、イヤセットは、以下を備える:ヒトの耳に対して位置付け可能なハウジング;ヒトの耳の中に挿入するためのハウジングに対して配置されるマイクロホン、ヒトが話す間、耳内の空気圧変化を検出するため、および内部で検出された空気圧変化に相当する電気マイクロホンシグナルを生成するために作動可能なマイクロホン;ハウジングに対して配置され、そして電気スピーカーシグナルに相当する音を生成するために作動可能なスピーカー;ならびにマイクロホンシグナルおよびスピーカーシグナルを受信するために結合され、そしてマイクロホンシグナルの減少したフィードバック成分を有する修正されたマイクロホンシグナルを生成するために作動可能な回路(フィードバック成分は、修正されたマイクロホンシグナルを生成するために、スピーカーによって生成される音のマイクロホンによる検出から生じる)。
【0016】
(発明の詳細な説明)
以下は、添付される図面と関連させた本発明の詳細な説明であり、ここで、同様な参照番号は、全体にわたって同様なエレメントをいう。明瞭かつ簡潔な様式で本発明を例証するために、図面は、縮尺で示される必要はなく、そして特定の特徴も、幾分模式的な形態で示されるかもしれない。
【0017】
本発明の1つの実施形態は、一定時間にわたってヒトの耳の中または付近の空気圧変化をモニタリングすることによって、ヒトの身体的活動および/または精神的活動(例えば、ヒトの思考、ヒトの言語および/または口腔に関連した動きとの関連で生じる活動)を検出するための装置および方法に関する。例として、口腔における舌の動きは、検出または感知されて、有用な出力が提供され得る。別の例として、活動は、米国特許第6,024,700号により詳しく記載されるように、耳の内部および/または付近で検出可能な空気圧変化を生成する、思考を巡らす際のように精神的であり得る。より詳細には、思考は、ヒトの解剖学的構造における反応を引き起こし、これは、耳における変化を(おそらく筋収縮によって)達成し、これによって、耳管(ear canal)内または付近の検出可能な空気圧変化を生じる。例示的な出力は、コンピューターマウス、マウス上のクリックボタン、コンピュータジョイスティックなどによって生成される情報シグナルと類似の情報を含み得る。
【0018】
本発明は、上記の米国特許第6,024,700号および米国特許出願番号09/706,091に開示されるシステムよりも、使用者により審美的に魅力的かつ心地よく、そして環境または周囲のノイズをあまり検出しないことが見出されている。以下により詳細に記載されるように、本発明のセンサは、使用者の耳に対してかまたは耳の中に配置されるマイクロホンを備え、そして耳の中の空気圧変化を検出する。このマイクロホンは、内部マイクロホンとして本明細書中で言及される。空気圧変化は、1つ以上の因子によって引き起こされ得、この因子としては、鼓膜の振動、耳内の骨の振動、耳内の他の解剖学的構造の振動ならびに使用者の骨および/または組織によって耳に伝導され、そして耳における空気圧変化を引き起こす振動が挙げられる。結果として、センサは、ヒトが正常レベルまたは非常に低い音量で会話する場合(例えば、通常、ヒトの口の前に配置されたマイクロホンによって十分に検出できないか、または会話しているヒトの近くに位置した別の個体によって検出可能なレベルよりも低い、デシベル、または音量のレベルで)、ヒトの言語を検出するために使用され得る。用語言語(speech)とは、本明細書中で使用される場合、話された単語および発言(utterance)、歌ならびにヒトによって生成される他の発声を含むように解釈される。このように検出された言語は、多くの目的について使用され得、この目的としては、例えば、音声認識ソフトウェアを用いて検出した言語を処理すること、または携帯電話のような通信デバイスを用いて検出した言語を再伝送すること(それによって、RFトランシーバーからの言語入力デバイスの分離を可能にする)が挙げられる。
【0019】
用語空気圧変化とは、その最も広い意味において使用され、そして例えば、音波(使用者に可聴であるか否か)、圧力変動、振動、共鳴(resonation)などを含むことは、注意されるべきである。さらに、用語空気圧変化は、本明細書中で使用される場合、耳に伝えられる、使用者の骨および組織によって伝導される振動を含む。これらの伝導された振動は、内部マイクロホンによって音の検出をもたらす内部マイクロホンを支持するハウジングを振動し得る。伝導された振動はまた、耳の解剖学的部分で音を共鳴および/または増幅させ得、それによって、内部マイクロホンによる音の検出をもたらす。空気圧変化は、1つ以上の因子によって引き起こされ得、この因子としては、鼓膜の振動、耳内の骨の振動、耳内の他の解剖学的構造の振動ならびに使用者の骨および/または組織によって耳に伝導され、そして耳における空気圧変化を引き起こす振動が挙げられる。
【0020】
内部マイクロホンに加えて、本発明はまた、外部マイクロホンを含み得る。この外部マイクロホンは、使用者の耳の外側から生じる、空気圧変化、または音を検出する。以下により詳細に記載されるように、これらの音は、電気シグナルに変換され、そして内部マイクロホンによって検出された音に相当する電気シグナルと比較される。それぞれのシグナルは、耳内の空気圧変化を、外部で生成された周囲のノイズ、言語などと識別するために処理され得る。
【0021】
本発明はまた、種々の生物学的プロセス(耳内または耳の近くに検出可能な空気圧変化を生じるヒトの心拍、呼吸および胃(gastronomical)の事象が含まれる)を検出およびモニタリングすることによって、医療診断ツールとして使用され得る。従って、耳の近くまたは内部の空気圧をモニタリングすることによって、ヒトの心拍、呼吸およびこれらに関連した任意の不規則性は、研究され得る。本発明のセンサによって検出される音は、あるレベルまで増幅されて、医療関係者によって研究され得、そして/またはこのような生物学的機能を分析するようにプログラムされたデバイスによって処理され得る。
【0022】
本発明は、例えば、表面に沿ってコンピューターマウスを動かすことによって生成されるシグナルと同様な特徴的な連続性を有する出力を提供し得る。センサによって生成される電気シグナルは、特定の身体部分の2次元または3次元の動きによって(特に、舌、顎、ならびに口腔および鼻腔の動きによって)生成された識別可能な情報を含み得る。センサから得られたシグナル出力は、上、下、左、右、前、および後のシグナル出力を有するコンピュータジョイスティックによって生成されるシグナルと類似する。シグナルの強度または他の成分は、活動のスピード特性の尺度として使用され得る。
【0023】
別個のセンサを用いて両耳における空気圧を測定することによって、少なくとも2つの電気シグナルは、生成および処理されて、2次元(または立体音響の)情報パターンを生じ得る。データストリームにおける類似性および差異とともに、各々のセンサに由来する情報は、ヒトからのさらなる情報を識別するために使用され得る。いくつかの場合において、さらなる情報は、制御コマンドの生成、思考の検出、言語の認識、生物学的プロセスの検出および本明細書中に記載されるシステムの他の機能を改善する。
【0024】
本発明は、多くのさらなる目的のために使用され得る。1つの例示的な使用は、コンピューターまたはいくつかの他の電気デバイスもしくは電子デバイスへの入力を提供することである。例示的な入力は、電気シグナルである。しかし、空気圧変化を検出するために使用されるセンサによって生成されるシグナルは、電気的以外であってもよいし、センサによって生成される電気シグナルが電気的でない形態に変換され得ることが理解されるべきである。代替的なシグナルタイプの例としては、例えば、光学シグナル、流体シグナル、無線周波数(RF)シグナルなどが挙げられる。入力は、コンピューターもしくは他のデバイスを制御し得るか、または入力は、いくつかの他の目的のために使用され得る。本明細書中における本発明の記述を容易にするためかつ複雑さを避けるために、本発明は、コンピューターへの電気入力を提供するための使用(例えば、デジタルタイプであろうとアナログタイプであろうと、コンピューターの演算を制御するためのパーソナルコンピューターまたはいくつかの他のコンピューター)に関して記載される。本発明は、多くの他の目的のために使用され得ることが理解される。
【0025】
本発明を使用して制御されるコンピューターと組み合わせた本発明の使用の一例は、障害者のために機能および能力を提供することである。例えば、本発明は、障害者または健常者が製造設備における1つの機械の操作を制御すること、電動車椅子または同様なデバイスの操作を制御すること、ビデオゲームの操作を制御することなどを可能にするために使用され得る。これらは、例示に過ぎず、本発明が、多くの他の目的のために使用され得ることが理解される。
【0026】
本発明において、個体が刺激シグナル(例えば、入射する音響シグナルまたは電磁シグナル)に供される必要はない。むしろ、本発明において、個体の活動(例えば、歯またはパレット(pallet)に対する舌のクリッキングを含む舌の動き)が、個体の一方または両方の耳に空気圧または音を発するために使用される。これらの空気圧または音は、検出または感知され得、本発明の出力(これは、コンピューターもしくはある他のデバイスへの入力として提供される)として使用される。従って、本発明は、刺激を個体に向ける必要性なく、非刺激シグナル(すなわち、個体の活動により生じるシグナル)を示す。
【0027】
本発明の実施形態に従って、センサは、空気圧、空気圧の変化、または個体の耳により生じる音を感知または検出する。これらの圧力変化は、個人の鼓膜または耳内の他の解剖学的構造により生じ得る。さらに、この圧力変化は、個人の身体の他の部分において発生し得、そして振動もしくは空気圧変化が生じてセンサにより検出される骨もしくは組織により耳に伝わり得る。
【0028】
本明細書中での記載を容易にするために、感知または検出の事象は、検出といわれ、検出されるものは、耳内の変化といわれる。また、本明細書中での記載を容易にするために、検出可能な変化を引き起こす活動は、「開始活動」と記載される。開始活動は、1以上の身体活動もしくは精神活動(思考、会話、口腔内の舌の動き(ときおり、「舌活動」といわれる)、口腔もしくは鼻孔内のまたは口腔もしくは鼻孔と関連する他の動きもしくは活動、歯もしくはパレットに対する舌のクリッキングもしくは他の活動、肺による呼出もしくは吸息、心臓の拍動、および鼻の活動が挙げられるが、これらに限定されない)であり得る。例として、舌の動きは、検出可能な空気圧をもたらす。これらの動きは、2次元(例えば、上/下、左/右、入/出など)または3次元(前後、左右および上下の任意の組み合わせ)であり得る。これらは、センサによる対応する出力が、1つのセンサの場合には1次元であるか、または2つのセンサ(片耳につき1つ)の場合に2次元であったとしても、その出力を生成する。
【0029】
本発明は、実質的にリアルタイムの検出および制御システムを提供するために、開始活動に応じて、瞬間的に、もしくはほぼ瞬間的に生じるヒトの耳内の変化をモニターする。さらに、この変化のモニタリングは、受動的であり、従って、身体が電気シグナルおよび/または照射に供されることに関連した潜在的な健康に関する懸念および/または環境に関する懸念が避けられる。さらに、耳における変化は、独特にも、複数の制御機能を要するシステムが複数の異なる開始活動を検出および区別することを可能にする種々の開始活動の1つに対応する(例えば、独特のシグナルシグネチャを有する)。
【0030】
本発明の1つの局面に従って、センサは、処理回路と電気的に連絡しており、耳の変化を感知し、感知した変化を電気シグナルへ変換する。次いで、この電気シグナルは、制御命令またはある他の有用な出力(例えば、特定の開始活動に対応する、コンピューターマウスまたはジョイスティックにより生成される出力に類似の出力)を提供するように処理される。例示的な制御機能としては、ビデオゲームディスプレイの制御、1つの医療機器(例えば、車椅子)の制御、および手を必要としない(handless)マウス、キーボード、ジョイスティックをもたらすためのコンピューター機能の制御が挙げられるが、これらに限定されない。
【0031】
ここで図面に戻ると、図1Aは、開始活動を検出し、検出された活動に対応する出力を提供するためのシステム10を示すブロックレベルの図解である。このシステム10は、処理回路14に連結された圧力センサ12を備える。センサ12は、以下により詳細に記載されるように、内耳マイクロホンを備える。このセンサ12は、センサ12を装着した個人による開始活動から生じる耳内の変化を検出する。処理回路14は、データ収集回路16(例えば、コンピューターサウンドカード)を備える。他の例示的なデータ収集回路としては、Adlink Technologyにより製造されるPCI9118HGデータ収集カードまたはInes Company Gmbh(ドイツ国)により製造されるDAQi250データ収集カードが挙げられる。このデータ獲得回路は、アナログシグナルデータをデジタルシグナルデータに変換するアナログデジタル(A/D)変換器を備え得る。バッファー17は、濾過およびシグナル検出が以下にさらに詳細に記載されるように行われ得るまで、(それらのシグナルは、比較的連続し得るとして)データ収集回路16からのシグナルの一部を保存するために提供され得る。処理回路14はまた、データ収集回路16およびバッファー17からのデジタルシグナルデータを受容し、デジタルシグナルデータに対して種々のシグナル処理関数を実行して、開始活動の発生を検出し、そして開始活動の型を決定するためのプロセッサ18を備える。このシステム10はまた、開始活動に対応する、プロセッサ18により提供される1以上の制御機器を実行するためのプロセッサ18に連結された出力周辺機器20を備える。当業者は、適用に依存して、アナログデジタル変換器機能およびバッファー機能が省略され得るかまたはソフトウェアにより行われ得ることを認識する。
【0032】
図1Bは、開始活動を検出し、検出された活動に対応する出力を提供するためのシステム22の別の実施形態を例示するブロックレベルの図解である。システム22は、内部マイクロホン(以下により詳細に記載される)を有するセンサ12を備える。センサ12により生成される電気シグナルは、必要に応じて、増幅器24を用いて増幅される。しかし、いくつかの適用において、増幅器24は、センサ12による電気シグナル出力を受容および処理する機器に依存して、必要ではない。
【0033】
次いで、電気シグナルは、インターフェイスアダプター26により受容される。このインターフェイスアダプター26は、センサ12により電気シグナル出力を最終的に受容および処理するデバイス上の対応するジャックにより受容される電気的コネクタのような、機械的接続であり得る。インターフェイスアダプター26はまた、より複雑な機器(例えば、ユニバーサルシリアルバス(USB)アダプター)を備え得る。当業者に明らかなように、センサ12によって生成される電気シグナルを受容するプロセッサ、デバイスまたはアプリケーションに依存して、インターフェイスアダプター26は、任意であるか、またはセンサ12とデバイスとの間の物理的および/または論理的接続を確立して、センサ12により生成される電気シグナルを受容するための任意のデバイスであり得る。
【0034】
次いで、電気シグナルは、コンピュータインターフェイス28により受容される。このコンピュータインターフェイス28は、増幅器24およびインターフェイスアダプター26と同様に、システム22の構成に依存して、任意である。このコンピュータインターフェイス28は、ジャックまたはレセプタクルのような機械的接続であり得るか、またはより複雑な機器(例えば、コンピューター用のサウンドボード)であり得る。1つの実施形態において、増幅器24および/またはインターフェイスアダプター26は、省略され、センサ12により生成されたシグナルは、従来のコンピューターサウンドボードを介して処理回路14’への入力であり、サウンドボードは、センサ12により生成されたアナログシグナルをデジタルシグナルに変換するために使用される。
【0035】
次いで、電気シグナルは、処理回路14’により処理される。処理回路14’は、図1Aに例示される処理回路14の形態をとり得、このようなデバイス(例えば、アナログデジタル変換器、バッファー、および/またはプロセッサ18’)を必要に応じて含み得る。プロセッサ18’は、センサ12により生成されるシグナルを利用する種々の適用のための論理を実行するために構成され得る。
【0036】
例示的な実施形態において、プロセッサ18’は、音声認識ソフトウェアプログラムを実行するためにプログラムされる。当該分野で公知のように、音声認識ソフトウェアは、発せられた言語を、例えば、ワード処理プログラムを用いて電子的に操作され得るテキストに変換する。このテキストは、出力周辺機器20に出力され得る。例えば、テキストは、ディスプレイに表示され得るか、またはプリンタにより印刷され得る。テキストはまた、コンピューター読み取り可能媒体(磁気記憶デバイスおよび光学式記憶デバイスが挙げられるが、これらに限定されない)上の記憶デバイス30により、後の検索のために保存され得る。あるいは、電気シグナル自体またはこれから得られた認識された言語は、自家動力(self−powered)車椅子、ロボットアーム、コンピューター、輸送車、家庭用および産業用の電気機器または機械などのような機械を制御するために使用され得る。
【0037】
図1Cは、開始活動を検出し、検出された活動に対応する出力を提供するためのシステム32を例示するブロックレベルの図解である。このシステム32は、内部マイクロホン34を少なくとも有するセンサ12を備える。このセンサ12および内部マイクロホン24は、以下により詳細に記載される。センサ12は、増幅器24により必要に応じて増幅される電気シグナルを出力する。次に、この電気シグナルは、必要であれば、適切なインターフェイスアダプター26を介して通信デバイス36により受容される。この通信デバイスは、例えば、例示した実施形態に示されるように、電話システムに配線により接続された電話であり得るか、または携帯電話のようなワイヤレス電話であるかのいずれかであり得る。あるいは、通信デバイス36は、ラジオ、携帯型計算デバイスなどであり得る。1つの実施形態において、センサ12により生成されるシグナルは、パーソナルコンピューター、パーソナルデジタルアシスタント(PDA)などへの入力であり、ネットワーク(例えば、LAN、WAN、インターネットなど)を介して、別の位置またはデバイスへ伝達される。別の構成において、通信デバイスは、他の型のデバイス(例えば、後の検索のためにユーザーの言語を記録するためのレコーダーまたは生の視聴者に言語を広めるための増幅システム)と置き換えられ得る。
【0038】
さらに、センサ12は、ユーザーに音を伝える(すなわち、広める)ために使用されるスピーカー38を備え得る。このようにして、センサ12および通信デバイス34は、二方向性通信装置として使用され得る。
【0039】
図1Dは、開始活動を検出し、検出された活動に対応する出力を提供するためのシステム40を例示するブロックレベルの図解である。このシステム40は、センサ12を備え、このセンサは、好ましくは、以下により詳細に記載される内部マイクロホン34(図2B)を備える。センサ12は、所望であれば、増幅器24、インターフェイスアダプター26、およびコンピュータインターフェイス28を介して、医療診断デバイス42に接続される。この医療診断デバイス42は、患者の生物学的プロセス(心臓拍動、呼吸音、胃の音(gastronomic sound)など)に対応する、センサ12により空気圧の検出が、医学従事者に聞こえ、研究され得るように、音声出力44(例えば、スピーカー、聴診器付属品など)を有する。生物学的プロセスを聞く医療従事者を支援するために、医療診断デバイスは、必要に応じて、フィルタ(ハードウェアまたはソフトウェア)を備えて、これらの音を、医学的従事者に音を広める前に分離し得る。別の実施形態において、医療診断デバイス42は、ビデオ出力46(例えば、LCDまたはCRTスクリーン)を有して、例えば、患者の耳内で、心臓により発せられ、センサ12により検出された音は、グラフ(例えば、振幅 対 時間)に変換され得、心電図のディスプレイと同様の様式で、ビデオ出力46に表示され得る。
【0040】
医療診断デバイス42はまた、患者の生物学的プロセスの検出を保存するための記録デバイス48(例えば、デジタルデータ記憶媒体またはアナログデータ記憶媒体)を備え得る。記録された音は、引き続く検出と比較され得る。この比較は、個人により行われ得るか、または第1と第2の検出の間の差異を分離するようにプログラムされたソフトウェアにより行われ得る。
【0041】
医療診断デバイス42はまた、プログラムされた論理(例えば、ソフトウェア)を実行して、検出された空気圧変化を分析するプロセッサ50を備え得る。このソフトウェアは、パターン、不規則性(ヒトにより通常は検出不可能なものを含む)、ベースライン検出からの差異などについてセンサにより生成されるシグナルを検索するようにプログラムされ得る。
【0042】
さらに、センサ12から医療診断デバイス42により収集されるデータまたは医療診断デバイス42により計算されるデータは、他の位置に伝えられ得る。例えば、医療診断デバイス42は、救急車に配備され得、患者についての情報を搬送先病院へ伝え得る。別の例として、データは、1名の医療作業者により集められ得、別の医療作業者(例えば、別の都市にいる専門家)に伝えられ得る。
【0043】
別の実施形態において、センサは、医療診断デバイス42から遠隔に位置し得る。例えば、個人は、彼/彼女の自宅のような位置からセンサ12を使用し得る。次いで、センサ12により検出された情報は、遠隔の医療診断デバイス42に伝えられ得る。伝達は、図1Cに例示されるシステム32に関して上記で議論された電話または他の通信デバイスに関して行われ得る。あるいは、センサ12により生成されるシグナルは、パーソナルコンピューター、PDAなどに対する入力であり得、ネットワーク(例えば、LAN、WAN、インターネットなど)を介して医療診断デバイス42に伝えられ得る。
【0044】
図1Eは、開始活動を検出し、検出された活動に対応する出力を提供するためのシステム52を例示するブロック図である。このシステム52は、好ましくは内部センサ34を有するセンサ12を備える。センサ12の例示的実施形態において、センサ12は、さらなる圧力検出器、または外部マイクロホン54を有する。外部マイクロホン54の使用は任意である。図2Bに関して以下により詳細に記載されるように、内部マイクロホン34は、個人の耳へと少なくとも一部の経路に挿入されるハウジング150(図2B)上に配置される。すなわち、内部マイクロホン34は、耳の外側部分により規定される空洞へ少なくとも挿入される(図2Aに関して、以下により詳細に記載される)。結果として、内部マイクロホン34は、耳内に位置した空気圧変化を検出する。これらの空気圧変化は、開始活動、および一部は、外側に発せられた音(例えば、他の人々の言語、環境ノイズなど)に対する開始活動の結果である。外部マイクロホン54は、ハウジング150(図2B)に配置され、概して、センサ12を装着した個人から離れて向いている。結果として、外部マイクロホン54は、耳の外側に位置した空気圧変化を検出する。これらの空気圧変化は、外部から発せられたノイズ(他の人々の言語、環境ノイズなど)、および一部はセンサ12を装着した個人の開始活動、特にその個人の言語に対するノイズの結果である。
【0045】
内部マイクロホン34は、感知した空気圧変化に応じてマイクロホン34および54によりそれぞれ生成される電気シグナルを受容するために使用される処理回路14”または別のデバイスに接続される。各マイクロホン34および54は、別個の異なる入力、またはチャネルを使用して処理回路14”に接続される。1つの実施形態において、内部マイクロホン34は、コンピューターサウンドカード、またはコンピュータインターフェイス28aの左チャネル入力に、増幅器24aおよびインターフェイスアダプター26aを介して接続される。外部マイクロホン54は、コンピューターサウンドカード、またはコンピュータインターフェイス28bの右チャネル入力に、増幅器24bおよびインターフェイスアダプター26bを介して接続される。
【0046】
マイクロホン34および54により生成される独特のシグナルの処理は、図3Bに関して以下により詳細に記載される。この独特のシグナルは、ユーザーが発した開始活動と外部に発せられた音との間を区別するために使用され得る。システム52の代替的構成において、システム52は、内部マイクロホン34の検出から外側に発せられたノイズを消去するように適応され得る。
【0047】
試験により、ユーザーが話をする(または開始活動の別の型から耳内の空気圧変化を生じる)場合、言語(または開始活動)に対応する内部マイクロホン34により生成されるシグナルの強度は、通常、同じ言語(または開始活動)に対応する外部マイクロホン54により生成されるシグナルの強度より強いことが示された。また、試験により、音がユーザー以外の供給源により発せられる(例えば、別の個人が話している)場合、この音に対応する外部マイクロホン54により生成されるシグナルの強度は、通常、この音に対応する内部マイクロホン34により生成されるシグナルの強度より強い。これらの音エネルギー差、または相対的シグナル強度は、検出される空気圧変化の供給源が、ユーザーからであるか、またはこのユーザーに対して外部からであるか否かを決定するために使用され得る。
【0048】
例えば、ユーザーが話している場合、内部マイクロホン34は、ユーザーの言語および外部ノイズ(例えば、空気調和機およびコンピューターの雑音)を検出し得る。この例において、外部マイクロホン54は、ユーザーの言語を検出し得るが、内部マイクロホン34より小さな程度までしか検出しない。外部マイクロホン54はまた、外部ノイズを検出し、その外部ノイズは、内部マイクロホン34による程度よりも、外部マイクロホン54により大きな程度まで検出される。従って、処理回路14”は、そのシグナルを比較するようにプログラムされ得、言語の源がユーザーからであることを認識させ得る。さらに、処理回路14”は、言語成分およびノイズ成分を同定するために、2つのシグナルを比較することによってユーザーの言語を分離するようにプログラムされ得る。結果として、比較的ノイズがない言語シグナルが生成され得、このシグナルは、上記で示されるように、音声認識ソフトウェアとともに使用され得る。代替的実施形態において、前述の技術は、ユーザーの言語と別の個人の言語との間を区別するために使用され得る。次いで、両方の個人の言語が必要に応じて分析され得る。当業者に理解されるように、前述の技術は、開始活動の他の型(思考、口腔に関連する動き、生物学的プロセスなど)の検出に適用され得る。
【0049】
図2Aおよび2Bを参照すると、耳100の外観図および断面図が、それぞれ示される。図2Bはまた、断面にてセンサ12を示す。Henry Grayの有名な教科書「Anatomy」によれば、人の耳は、外耳102、中耳(鼓室)104および内耳(迷路)106を含む3つの部分に分けられる。中耳104および内耳106は、本明細書中にはあまり詳細に記載されていない。外耳102は、拡大した部分、すなわち、耳介(pinna)108(耳介(auricle)ともいわれる)、および耳管110(耳道または外耳道ともいわれる)を含む。耳介108は、個人の頭を取り囲む空気の振動を集めるように働く。耳管110は、鼓室、すなわち、鼓膜112にその振動を伝える。
【0050】
耳介108は、より大きな端部が上側を向き、不規則に凹型のわずかに前方に向いた外表面を有する、ほぼ卵形の形状を有する。耳介108は、多くの隆起およびくぼみを有する。代表的には、耳100は、突出したかつ弯曲した縁、すなわち耳輪114を有する。耳輪114とほぼ平行に、別の弯曲した隆起、すなわち、対輪116がある。対輪116は、三角形のくぼみ、すなわち、対輪118の窩(三角窩ともいわれる)を形成するように分岐している。耳輪114と対輪116との間の狭く、弯曲したくぼみは、舟状窩(fossa of the helix)、すなわち、舟状窩(scapha)120といわれる。対輪116はまた、深く、大きい空洞、すなわち、甲介122(甲介122は、耳輪114の開始(すなわち、耳輪脚)により、耳甲介舟といわれる上部と、耳甲介腔といわれる下部とに分けられる)の周りを弯曲する。甲介122は、耳管110の開口部に対して内側に向いている。甲介122の正面かつ(通常は、耳管110の開口部に対して)後ろ側に突出して、とがった隆起、すなわち、耳珠124がある。耳珠124とは反対側に、結節、すなわち、対珠126がある。ノッチ様くぼみ、すなわち、珠間切痕128が、耳珠124と対珠126との間にある。耳垂130は、耳珠124と対珠126の下に存在する。
【0051】
耳管110は、楕円柱状の通路であり、耳甲介122の底部から鼓膜112まで伸長する。耳管110は、耳珠124から鼓膜112まで計る場合、約1インチ半長である。耳管は、耳甲介122の底部から鼓膜112まで計る場合、約1インチ長である。耳管110は、ゆるやかな「S字」曲線を形成し、最初は内部に、前方にそしてわずかに上方に(すなわち外部)指向する。次いで、耳管110は、内部にそして後方に(すなわち中間部)進行し、次いで、内部に、前方に、そしてわずかに下方に(すなわち内部)進行する。
【0052】
どの物理的機構、化学的機構または神経機構が、耳の内部または耳の近傍において空気圧変化あるいはユーザーの種々の開始活動に応答して耳から生じる音を引き起こすまたは生じるかは、明らかではない。しかし、口腔がエウスターキオ管を通じて耳に連結していることに起因して、動きおよび言語は、耳へのまたは耳からの気圧、空気圧の変化または気流を引き起こし、センサ12によって検出され得る検出可能な空気圧を誘導し得る。正確な、物理的機構、化学的機構または神経機構に関わらず、経験的な試験は、本明細書中に記載される開始活動が、ヒトの耳の内部または耳の近傍における空気圧変化を生成すること、およびこの気圧変化が、実質的にそれら自体のサインを有し、従って、個体の所定の開始活動について実質的に特有であることを確認した。従って、空気圧変化は、耳の近傍でモニターされ得、ユーザーの開始活動を検出するために使用され得る。
【0053】
さらに、いくつかの開始活動(例えば、舌の動き)は、動きの方向、速度および/または強度(intensity)に対応する強度(strength)を有する検出可能な圧力波を生成し得る。本発明は、1つの耳100に単一のセンサ12を使用し得るが、2つのセンサ12(各耳100に1つ)は、さらなる情報を得るために使用され、それによって各センサ12は、プロセッサによって関連付けられ得る、異なる情報および/または累積的情報を検出し得る。
【0054】
本発明は、種々の形態の用語「空気圧の変化」、「耳内での変化」および「耳から発せられるまたは生じる音」を、これらの最も広い意味で使用し、測定されたパラメーターを特徴付ける。あるいは、空気圧の変化は、音波として特徴付けられ得る。これらの音波(または振動)は、空気以外の媒体(例えば、骨および組織)を通して伝播し得る。当業者に周知であるように、音波がその音源から発散した場合、その強度は減衰する(単位面積あたりのエネルギーは、距離の逆2乗に従って減少する)が、全エネルギーは、一定である。従って、マイクロホン34を十分音波の音源に近づけ、その結果検出される変化の強度レベルを可能な限り大きくすることは、望ましい。
【0055】
音波がヒトに可聴な周波数範囲は、約20Hz〜約20KHzであるが、本発明は、耳内の変化が、可聴であるかどうかには関係しない。なぜなら、マイクロホン34は、高周波数または低周波数での空気圧変化を検出するに十分な周波数検出範囲に対して十分感度が高く、高周波数または低周波数での空気圧変化を検出するに十分な周波数検出範囲を有するように選択されるからである。従って、任意の開始活動の検出に適した周波数範囲(例えば、約10Hz〜約20KHz)は、モニターされ得、このようなバリエーションは、本発明の範囲内に含まれるように企図される。
【0056】
図2Bは、少なくとも部分的にヒトの耳100(すなわち、耳100内により深くでない場合(例えば、耳甲介122内、耳管110の開口部またはわずかに耳管110内)、少なくとも耳介108によって規定された空洞内)に挿入されたセンサ12を示す。センサ12は、ハウジング150、内部マイクロホン34、および必要に応じて、外部マイクロホン54を備える。示された実施形態において、ハウジング150は、外部152および内部154を有する。しかし、ハウジング150は、多くの異なる構成をとり得る。ハウジングは、好ましくは、耳100および/または耳管110に、類似した挿入式または部分的挿入式の、補聴器のハウジングおよび特にデジタル補聴器のハウジングと類似する。外部152は、オプションである。示された外部152は、プラスチックのような材料から作製され、耳管110の開口部より大きく、耳介108に係合するか、あるいは、耳100に係合し、全耳介108を覆う(例えば、一般のヘッドホンアセンブリの外部に類似する)。1つの実施形態において、外部152は、耳甲介122内に適合し、少なくとも部分的には、耳珠124および/または対珠126によって維持される。このような配置は、少なくとも部分的には、内部マイクロホン34を、外部的に生成されたノイズおよび空気圧変化から隔離する。
【0057】
あるいは、ハウジング150は、従来の無線電話のヘッドセットにおいて見出されるように、または個人のオーディオ/音楽プレーヤーで使用されるように、小型イヤホンに類似し得る。イヤセット(earset)150は、耳100への挿入によって、耳上に配置された部材または耳から吊るされた部材によって、および/あるいはヘッドセットアセンブリによって維持され得る。示されたハウジング150は、任意の適切な材料(例えば、プラスチック、ゴムまたはゲル様の材料)から作製される。必要に応じて、ハウジング150’またはその部分は、柔軟性材料、音響吸収材(または防音材)から作製され得、そして/または音響絶縁物質(例えば、発泡体)を含有し得る。
【0058】
内部154は、柔軟性材料(例えば、ゴム)から作製され得、耳100内にきちんと適合するように、寸法決めされ、形作られる。このような材料は、時折、当該分野で、軟固体(soft−solid)といわれる。必要に応じて、ハウジング150全体またはその部分は、柔軟性材料、音響吸収材(または防音材)で作製され得、そして/または音響絶縁物質(例えば、発泡体)を含有し得る。
【0059】
内部マイクロホン34は、ハウジング150の内部154に配置される。従って、内部154は、耳100および/または(所望される場合)耳管110について、内部マイクロホン34を配置するように、寸法決めされ、形作られる。1つの実施形態において、内部154は、耳甲介122に内部マイクロホン34を配置する。別の実施形態において、内部154は、耳管110が耳甲介122と合わさる、耳管110の開口部に内部マイクロホン34を配置する。内部154および/または内部マイクロホン34が、耳管110に入る必要がないことは理解されるべきである。さらに別の実施形態において、そして図2Bに例として記載されるように、内部154は、耳管110内に内部マイクロホン34を配置する。別の実施形態において、内部154は、耳甲介122に、マイクロホン34および/またはスピーカー38(図16、以下に記載される)を配置する。別の実施形態において、内部154は、耳管110が耳甲介122と合わさる、耳管110の開口部にマイクロホン34および/またはスピーカー38を配置する。内部154、マイクロホン34および/またはスピーカー38は、耳管110に入る必要がないことは理解されるべきである。さらに別の実施形態において、内部154は、耳管110に伸長し、そして耳管110内にマイクロホン34および/またはスピーカー38を配置する。耳管110内に配置された場合、内部マイクロホン34は、耳管110の開口部から計って、約0.1インチ〜約0.5インチの深さで耳管110に入る。
【0060】
外部152および内部154の両方を備えるハウジング150は、個体に対して注文に応じて設計され得、個体の耳への緻密かつ快適な適合を作り上げ得る。あるいは、ハウジングは、多くのサイズで作製される、全個体に対する標準の、すなわち「ストックの」設計を有し得る。当業者が理解するように、ハウジング150に対する多くの代替的な構成が可能であり、各々が本発明の範囲内に含まれると考えられる。
【0061】
1つの実施形態において、マイクロホン34は、接着剤により適所に保持される。ハウジング150の内部154は、マイクロホン34が配置される凹所156を有する。好ましくは、鼓膜近傍の空気および/または耳管110中の空気は、マイクロホン34近傍の空気と流体伝達する。このように、耳100内に生成される音または空気圧変化は、空気媒体を通して直接マイクロホン34に伝播される。ユーザーの骨および組織によって伝導される他の音は、ハウジング150によって機械的にマイクロホン34に伝播され得る。1つの実施形態におけるマイクロホン34は、直径が約1mm〜約6mmである。しかし、当業者は、マイクロホン34が必ずしも円盤状である必要はないことを認識する。代替的な実施形態において、マイクロホン34は、ハウジング150によって規定される中空の空洞内に配置され、ハウジング150の内部154の壁における開口部は、ハウジング150の内部の空気と耳管110の内部の空気との流体伝達を達成するために提供される。
【0062】
耳100および/または耳管110にマイクロホン34を挿入することによって、マイクロホン34は、環境ノイズから遮蔽される。より具体的には、ハウジング150およびユーザーの頭は、外部で発生した音波をマイクロホン34に到達する前に、少なくとも部分的にブロックする。
【0063】
1つの実施形態において、マイクロホン34は、特定の方向からの空気圧変化を検出するために改造された指向性マイクロホンである。指向性マイクロホンは、異なる型の開始活動によって発生された種々の異なる空気圧変化を検出することを所望するように指向される。例えば、マイクロホンは、所望される音源(例えば、鼓膜112、耳管110の壁、または耳管110の開口部の周囲の骨構造)に向けて指向され得る。マイクロホンが指向性であるので、マイクロホンは、より少ない環境ノイズ(このノイズの音源は、耳の外側にあり、代表的にマイクロホンの方向感度と一致しない方向からである)を検出する。本発明の他の実施形態において、マイクロホン34は、ノイズ消去マイクロホンであり、環境ノイズの検出をさらに減少する。
【0064】
マイクロホン34が、例えば、快適性、特定の型の開始活動によって引き起こされる特定の空気圧変化の検出、ユーザーの言語の検出を最適化することなどのような因子について所望される場合、耳100内の種々の解剖学的構造のより近くに動かされ得るかまたはそこからさらに離され得ることは理解されるべきである。マイクロホン34が、種々の音量で話すユーザーの言語を検出し得ることが留意される。
【0065】
マイクロホン34および54は、多くの異なる形態(例えば、シリコンまたは半導体マイクロホン(圧力センサともいわれる)(例えば、米国特許第4,533,795号、同第4,922,471号、および同第6,156,585号(各々は、その全体を参考として本明細書中に援用される)に開示されるデバイス))を備え得る。前述のデバイスは例示であって、多くの異なる販売業者製の他の電気音響変換器が、使用され得る。
【0066】
示された実施形態において、センサ12が耳100に挿入される場合、わずかに正の圧力が、耳管100内での空気の圧縮によって発生される。このわずかに正の圧力は、個体で検出不可能であるが、センサ12の全操作特性および感度を改善すると考えられる。
【0067】
マイクロホン34は、種々の形態の開始活動(例えば、種々の音量で話すヒトの言語、うなり声、口笛、歌い声、咳、ヒトの物理的な動き(ヒトの口蓋に対してヒトが舌打ちすること、口を開くこと、ヒトの呼吸、ヒトの心臓の鼓動)などが挙げられる)を検出し得る。さらに、思考によって引き起こされる耳における空気圧変化は、訓練された個体が思考する場合、耳内の変化を検出することによって認識され得る。
【0068】
個体の耳100の一方での内部マイクロホン34のみを備える(すなわち、外部マイクロホン54なしで)センサの使用は、本明細書中に記載される開始活動を検出するために使用され得ることを示した。しかし、経験的試行が、2つのこのようなセンサ12を、個体の各耳で1つ使用することによって、システム10、22、32、40および52のようなシステムの性能は、より多くの情報の検出に起因して、約6倍改善することが示された。特定の環境(例えば、車を運転しながらの携帯電話の使用の場合)において、両耳でのセンサ12の使用は、思いとどまらされることに注意する。本明細書中で記載される回路ルーチン、処理ルーチンおよび論理ルーチンは、第2イヤセット12またはセンサ12(外部マイクロホン54を備えるセンサ12または備えていないセンサ12)からのシグナルを処理するように改変され得る。このような改変は、当業者に明らかである。
【0069】
図2Bに示されていないけれども、スピーカー38(図1Cおよび16)は、センサ12のハウジング150上またはその内部に配置され、個体に音を伝播する。例えば、通信デバイス36のためのマイクロホンとしてセンサ150を使用する場合、センサ12はまた、ユーザーに受信音を放送するために使用され得る。
【0070】
示されるように、センサ12はまた、外部マイクロホン54を備える。外部マイクロホン54は、ハウジング150の外部152に配置され、センサ12アセンブリの装着者の外側に向けられる。外部マイクロホン54は、接着剤でハウジング150に固定され得、外部152によって規定される凹所に配置され得る。内部マイクロホン34に類似して、外部マイクロホン54は、小さい(例えば、約1mm〜約6mmであるが、円盤状である必要はない)。
【0071】
外部マイクロホン54の位置は、外部マイクロホン54が、装着者の耳の近傍に存在するがセンサ12の装着者の外部に音源を有する、空気圧変化を検出することを可能にする。1つの実施形態において、外部マイクロホン54は、当該分野で公知であるように、必要に応じて、ノイズ消去マイクロホンであり得る。
【0072】
内部マイクロホン34は、導線158により増幅器24に電気的に連結され、外部マイクロホン54は、導線160により増幅器24に電気的に連結される。図2Bに単一のユニットとして示されるけれども、増幅器24は、内部マイクロホン34および外部マイクロホン54の両方によって生成された各シグナルそれぞれに対する、別々の増幅回路24aおよび増幅回路24b(図1E)を備える。
増幅器24は、導線162によりインターフェイスアダプター26(図2Bに示さず)に電気的に連結される。より具体的には、導線162は、マイクロホン34および54から別々に、異なるインターフェイスアダプター26aおよび26bへと増幅されたシグナルを運ぶ。当業者が理解するように、増幅器24が省略された場合、マイクロホン34および54ならびに/またはスピーカー38は、導線を介してインターフェイスアダプター26に直接連結され得る。2つのセンサ12が、ヒトの各耳100に1つのセンサ12を配置することによって使用される場合、処理回路またはセンサ12からのシグナルを受容する他のデバイスは、各センサ12の内部マイクロホン34および外部マイクロホン54それぞれに対応する4つのシグナルを受容する。
【0073】
センサ12のマイクロホン34および54は、空気圧変化をモニターし、この空気圧変化を図2Cに示されるようなアナログの電気シグナル190へと変換する。シグナル190において、少なくとも2つのシグナル成分(高周波数成分192および低周波数成分194)が存在する。さらに、他の周波数はまた、電気シグナル190内に存在し得、本発明は、本明細書中に記載されるように、種々のシグナル周波数を分析するように調節され得る。
【0074】
代替的な実施形態において、内部マイクロホン34および外部マイクロホン54は、ユーザーの頭の周囲に配置されるバンドおよびユーザーの一方または両方の耳100に配置されるハブを有するヘッドホン型のアセンブリに備えられる。使用され得る、1つの例示的なヘッドホンおよび内部マイクロホンアセンブリは、デンマークのBrueel&Kjaerによって製造されたモデル4190マイクロホンである。
【0075】
本発明を実施するための方法200が、図3Aに開示される。方法200は、工程202でセンサ12の内部マイクロホン34を使用して耳100内の変化をモニターすることによって、開始活動を検出する工程を包含する。外部マイクロホン54は、方法200の実施においてオプションである。一旦、開始活動が工程202で検出されると、1つ以上の制御命令または検出された開始活動に対応する他の出力が工程204にて提供され、所望される出力機能を実施する。
【0076】
本発明を実施するための方法200’が、図3Bに開示される。方法200’は、内部マイクロホン34および外部マイクロホン54の両方を用いて、空気圧変化を検出することを包含する。より具体的には、工程202’において、耳100および/または耳管110内の空気圧変化は、内部マイクロホン34によって検出される。これらの検出は、開始活動の結果であり得るが、センサ12を装着するヒトの外部で発生した音成分および/または装着者の言語によって発生し装着者の口から空気を通って装着者の耳100領域に伝播される音成分もまた含み得る。工程202’ではまた、センサ12を装着するヒトの耳100の近傍(しかし、外部である)の空気圧変化は、外部マイクロホン54によって検出される。これらの検出は、主に、センサ12を装着するヒトの外部で発生した音成分および/または装着者の言語によって発生し装着者の口から空気を通って装着者の耳100領域に伝播される音成分の結果である。検出は、マイクロホン34および54によって各電気シグナル(本明細書中では、内部シグナルおよび外部シグナルといわれる)に変換される。
【0077】
次に、工程206において、内部シグナルと外部シグナルとが比較される。ユーザーが言語するかまたは他の型の開始活動から耳100において空気圧変化を発生する場合、開始活動に対応する内部マイクロホン34によって発生されるシグナルの強度は、通常、外部マイクロホン54によって発生される対応するシグナルの強度より強い。試験は、音がユーザー以外の音源(例えば、別のヒトの言語)によって発生される場合、この音に対応する外部マイクロホン54によって発生されるシグナルの強度は、通常、内部マイクロホン34によって発生される対応するシグナルの強度より強いこともまた示された。
【0078】
シグナル強度差を使用して、検出された空気圧変化の音源(すなわち、ユーザーまたはユーザーの外部からの音源)は、信頼度高く決定され得る。内部シグナルと外部シグナルとのさらなる比較から、各シグナル由来の2つの成分は、誘導される。各シグナルに対応する2つの成分は、開始活動によって引き起こされる空気圧変化に関連する成分ならびに外部で発生したノイズおよび/または音(センサ12が使用されるシステムに依存して外部マイクロホン54によって検出されるユーザーの言語を含んでも含まなくてもよい)に関連する成分を包含する。言語以外の開始活動について、外部シグナルの開始活動成分は、ほとんど検出不可能であり得ることは留意される。
【0079】
内部シグナルおよび外部シグナルの続いての処理は、センサ12が使用されるシステムおよびどの型の開始活動が検出されるかに依存する。例えば、シグナルは、プロセッサまたはシグナルを受容する他のデバイスによって使用され、対応する出力シグナルを生じ得る。しかし、ほとんどの適用において、開始活動によって発生した内部シグナルの成分を単離し、そして必要な場合、内部シグナルにおける外部で生成された任意の成分を、可能な最大限の範囲で削除することは有利である。従って、工程208において、方法200’は、内部マイクロホンシグナルの開始活動成分を区別する。工程208の別の実施形態において、方法200’は、内部マイクロホン34の検出から、外部マイクロホン54によって検出されたノイズ(または全ての音)を消去し得る。より具体的には、内部シグナルの外部で生成された成分は、内部シグナルからフィルタリングされるかまたは機械的に除去される。工程208で得られたシグナルは、工程204’で使用され、制御命令または開始活動に対する適切な出力応答を提供する。
【0080】
外部シグナルを処理するための類似する処理は、工程210において実施され、外部で発生した音のシグナルを誘導する(例えば、ノイズおよびセンサ12を装着するヒトの言語から別のヒトの言語を単離する)。その後、工程212において、制御命令または外部で発生した音に対して適切な出力応答が、生成され得る。
【0081】
耳100での変化を検出する方法(工程202)は、図4に示される。マイクロホン34は、ユーザーの耳100に配置され、そのユーザーの開始活動は工程214で検出されるべきである。しかし、開始活動は、体の他の部分でまたはその近傍で変化を生じ得る。従って、本発明の代替的な実施形態において、センサ12は、体の他の部分上に、その中に、またはその近傍に配置され得、生理学的変化または空気圧変化を分析することによって任意の開始活動を検出することは、本発明の範囲内に含まれることが企図される。
【0082】
耳100における変化は、工程216においてマイクロホン34でモニターされ、工程218で、以降の分析のために電気シグナルに変換される。工程218で電気シグナルに変換された後、電気シグナルは、工程220で開始活動を検出するように分析される。開始活動は、さらなるデータ処理なしに、空気圧変化または耳100内の変化に対応するシグナルを、単に分析することによって、工程220で検出され得ることは考えられるけれども、工程220は、代表的には、シグナル分析と共にデータ処理を包含する。外部マイクロホンを有するセンサが使用される場合、前述の論理は、耳100の外側の気圧変化に対応する電気シグナルを捕捉し、このシグナルを上記に記載される工程220の分析に使用することを含むように改変され得る。
【0083】
モニタリングされた圧力に対応する電気シグナルを分析および処理する例示的な方法(工程220)が、図5に示される。再度、分析論理は、本明細書中に記載されるように、外部マイクロホン54から送達された第2の電気シグナルの処理を包含するように、適合され得る。アナログ電気シグナル(これの例が、図2Cに示される)が、工程222において、図6の例によって示されるようなデジタルシグナルに変換される。当業者に周知であるように、アナログシグナルは、選択された周波数においてアナログシグナルをサンプリングし、そして各サンプリング点におけるシグナルの振幅を同定することによって、デジタルシグナルに変換され得る。次いで、各サンプリングされたデータ点は、メモリにおけるデジタル語として働き、そしてさらなる分析のために使用される。図6において、サンプリングされたアナログシグナルが示され、ここで、点線は、特定の期間についての例示的なアナログシグナルを示し、そしてこの点線上の複数の点は、メモリ中に保存されるサンプリングされた振幅値を表す。サンプリングの頻度が、アナログシグナルを十分に表すために十分なデータ点を捕捉するために十分であることが望ましい。例として、サンプリング速度は、32kHzであり得、そして分析される全シグナル時間長は、2048m秒であり得る。しかし、あるいは、他のサンプリング速度およびデータ獲得時間枠が利用され得、そしてこのような変動は、本発明の範囲内に入ることが企図される。
【0084】
一旦、工程222において、アナログシグナルがデジタルシグナルデータに変換されると、工程224において、このデジタルデータは、例えば、シグナルプロセッサによって分析および処理されて、開始行為の存在を検出する。上に示されるように、工程224は、内部シグナルおよび外部シグナルの比較、ならびにこの比較に基づくシグナルのフィルタリングまたは数学的操作(検出の所望の成分を単離するため、および/または検出の所望でない成分を除去するため)を包含し得る。さらに、または代替的に、データの分析および処理は、複数のセグメント(例えば、図7および8に示されるような)で実行され得る。図7に示されるように、工程224の処理は、工程226における第1データセグメントの分析、続いて工程228における第2データセグメントの分析を包含し得る。一旦、種々のデータセグメントが別個に分析されると、これらのデータセグメントは、工程230において、一緒に分析される。全てのデータセグメントが工程232においてまだ分析されていない場合、この方法は工程228に戻り、そして次のデータセグメントが分析され、その後、全ての先行するセグメントが、工程230において一緒に分析される。このプロセスは、全てのデータセグメントが工程232において分析されるまで継続し、これによって、工程234において、分析されたデータセグメントを使用して、結果が作成されることを可能にする。
【0085】
データセグメント分析は、図8にグラフで見られ得、ここで、デジタルシグナルデータ236は、単純にするために、連続であるように示される。分析のためのデータの全長は、64のセグメントに分離され得、これらは各々、長さが32m秒である。シグナル236は、高周波数成分238と低周波数成分240との両方を含むことに注目のこと。開始行為に関連するデータは、おそらく、いずれかの成分において見出され得るか、または開始行為のデータは、複数のデータセグメントにまたがり得るので、データセグメントは、別個におよび一緒に分析され得る。従って、図7の工程226において、第1データセグメントが分析され(領域242)、次いで、工程228において、第2データセグメントが分析され(領域244)、そして工程230において、両方のデータセグメントが一緒に分析される(領域246)。次いで、このプロセスは、全てのデータセグメントについて継続し、その結果、本発明のデータ分析は、高周波数と低周波数との両方のシグナルを分析して、開始行為を検出し得る。
【0086】
図5に戻ると、工程224において、一旦、センサから、初期のデータであるとみなされるデータがデータシグナルにおいて見出されると、工程248において、引き続く分析が実行されて、開始行為の型を決定する。このような分析は、それぞれのシグナル/このようなシグナルのフィーチャーを認識するように調整された、ニューラルネットを使用する、フィーチャーの抽出および分析を包含し得る。このニューラルネットが、シグナルが特定の特徴の開始行為を表すことを決定する場合、このニューラルネットは、本明細書中に記載されるような用途のために、出力を提供するか、またはそれを表す出力の発生を生じる。しかし、あるいは、一旦、開始行為が検出されると、その開始行為の型を同定するために、他の技術が利用され得、そして任意のこのような技術は、本発明の範囲に入ることが企図される。
【0087】
データセグメントにおいてデジタルシグナルを分析する(工程224)1つの例示的な方法が、図9に示される。32m秒の各データセグメントについて、これらのデータは、工程250において、例えば、当業者に周知であるように、高速フーリエ変換(FFT)を使用して、時間領域から周波数領域へと変換される。周知であるように、時間領域シグナルf(t)は、以下の方程式に従って、周波数領域f(jω)に結び付けられる:
F(f(t)) = ∫f(t)e−jωtdt = f(jω) 方程式1
ここで、F(f(t))は、伝統的なフーリエ変換である。当業者に周知であるように、高速フーリエ変換は、伝統的なフーリエ変換に関連する。なぜなら、高速フーリエ変換は、離散フーリエ変換を計算するための効率的なアルゴリズムであるからである。デジタルシグナルデータが高速フーリエ変換によって周波数領域に変換された後に、この周波数領域データは、工程252において、ノイズデータと開始行為に関連するデータとを区別するために、処理される。当業者に周知であるように、ノイズからのデータの分離は、しばしば、周波数領域において平易にされる。なぜなら、ノイズとは異なり、データシグナルは、何らかの物理的特徴を有するからである。時間領域におけるデータシグナルは、ノイズより小さい振幅を有するが、データシグナルは、周波数領域において、ノイズより大きい振幅を有する。従って、高速フーリエ変換は、ノイズ分離のための代表的な方法である。さらに、または代替として、外部マイクロホン54からのシグナルデータは、上にさらに詳細に記載されるように、シグナル成分を誘導するために使用され得る。
【0088】
デジタルシグナルデータのデータ処理の周囲の細部は、当業者に周知のように、種々のデータ処理技術を介して達成され得、そして任意のデータ処理方法論は、本発明の範囲に入ることが企図される。多くの異なるデータ処理方法論が使用され得るが、例示的な方法論が、以下の方法およびシステムと共に、以下に開示される。
【0089】
図10を参照すると、システム270および方法が説明される。1つ以上のセンサ12は、ユーザーの耳100、および所望であれば、ユーザーの耳100の外部の変化を感知する。センサからのアナログシグナルは、データ獲得カード、アナログデジタル変換器、およびバッファー16/17を介して、プロセッサ18に提供される。センサから受信されたシグナルは、少なくとも、開始行為が実施される間の各期間にわたって、実質的に連続である;従って、バッファー17は、プロセッサ18による分析のために十分なシグナルの部分を格納し得る。
【0090】
1つの実施形態において、プロセッサ18は、帯域フィルター272、振動数スペクトルフィルタ274、シグナル検出器276、シグナル比較器278、フィーチャー抽出部分280、およびニューラルネットワーク282を備え得る。システム270はまた、出力284を備え、これは、所望の出力周辺機器20に接続され得る。
【0091】
システム270全体の作動を要約すると、センサ12およびデータ獲得、A/D、およびバッファー16/17は、シグナルを、帯域フィルター272に供給する。帯域フィルター272に供給される生データまたは生シグナルの例が、図11のグラフ286に示される。生シグナルは、帯域フィルターに提示され、そしてこの帯域フィルターによって、高速フーリエ変換技術を使用して、周波数領域に指向される。この高速フーリエ変換は、デジタルシグナルを、周波数領域に変換する。帯域フィルターにおいて、例えば、開始行為を表す周波数範囲より高いかまたは低い周波数が、シグナルから除去される。目的の周波数範囲より高い周波数および低い周波数は、代表的に、ノイズに起因する。帯域フィルターによってフィルタリングされた後のシグナルの例が、図12のグラフに288において示される。種々の帯域フィルターが、所望の周波数範囲より高いシグナル周波数および低いシグナル周波数から除く、帯域フィルタリングを提供するために使用され得る。
【0092】
288において表されるシグナルの部分(例えば、部分288aおよび288b)は、開始行為を表さないかもしれない、例えば、なぜなら、これらは比較的低い電力であり、従って、なおノイズであり得るからである。従って、振動数スペクトルフィルタ274は、シグナルの種々の部分の電力に従って、さらなるフィルタリングを行い、開始行為に起因し、従って、さらなる分析について考慮されるべきである部分を決定する。電力フィルタリングは、図12のシグナルを複数のウィンドウまたはセグメント(例えば、図13で290a、290b、・・・290iにおいて表されるもの)にスライスすることによって、実施され得る。図12および13のグラフは、異なる縮尺であることが理解される。従って、ウィンドウ290a〜290iは、時間tと時間tとの間の時間枠(これは、図12のシグナル部分288cについて示される時間tと時間tとの間の時間枠と同じである)をスライスする。
【0093】
周波数フィルタリングは、シグナルの電力が所定の閾値または値を超えず、従ってノイズを表すようである、周波数を抑制または排除する。これらのノイズ成分を排除することによって、開始行為を表すシグナルが得られ得る。周波数フィルタリングを実施するために、例えば、シグナルについての周波数スペクトルが、以下の式を使用して計算される:
= Mag + Phase 方程式2
ここで、f=F・・・Fであり、そして[F;F]は、舌の動作から生じるシグナルが予測される周波数範囲を表す。
【0094】
文言上は、電力は、絶対値の二乗に位相の二乗を加算したものの関数である。それぞれのウィンドウ290a、290b、・・・290iについて上で計算される場合の電力は、図14に示されるグラフ292を作成するために再構築される。グラフ292は、言及された計算からの値292a、292b、・・・292iを示す。曲線292は、比較的滑らかであり、そして開始行為によって引き起こされるシグナルが図12のグラフ288において見出され得る周波数スペクトルを表す。通常、開始行為によって引き起こされるシグナルは、比較的高電力であり、そしてグラフ292のおよそ中央の時間に(例えば、図13に示される時間枠Tにわたって)生じる。シグナルを検出するか、またはシグナル288が開始行為を表す時点の位置を決定するものは、この時間枠が存在する時点およびその持続時間である。従って、事実上、システム270のシグナル検出器構成要素276は、図12および13のグラフと、シグナル検出関数を提供するためにちょうど記載された分析との組合せである。時間枠Tはまた、図12のグラフに示され、従って、シグナル288cの、開始行為によって生じるとみなされる部分288d(示されるブロックされたウィンドウ288e)を指定する。
【0095】
周波数スペクトルフィルタ274、シグナル検出器276およびフィーチャー抽出278のフィルタリングおよび検出の作動の代わりとして、またはこの作動に加えて、シグナル比較器278は、方法200’を実施して、開始行為を示すシグナル(すなわち、シグナル部分288d)を生じ得る。次いで、シグナル部分288dまたは少なくともそのシグナルのフィーチャーは、ニューラルネットワーク282に供給され得る。フィーチャー抽出の原理を使用して、シグナル部分288dのフィーチャーは、このニューラルネットワークに供給される。ニューラルネットワーク282において、このフィーチャーは、ニューラルネットワークが調整された他のフィーチャーと比較される。ニューラルネットワークの調整は、周知の手順である。このニューラルネットワークは、入力フィーチャー(例えば、シグナル部分288dを表すフィーチャー)が、認容可能な適合であるか、ニューラルネットワークの調整のために認容可能に相関するかを決定し得る;そうであれば、このニューラルネットワークは、出力284の発生を生じる。出力284は、コンピューターマウス、ジョイスティック、または他のデバイスによって作製される型のシグナルと類似の、電気シグナルであり得る。従って、1つの例において、ユーザーの舌が口の前部の左下から口の後部の右上に移動する舌の動作は、マウスパッドの左下から右上へのマウスの移動と類似の出力シグナルの発生を生じ得る。
【0096】
例えば、シグナル288から抽出されるフィーチャーは、シグナルを表す曲線を他のものから区別する、何らかの特徴またはフィーチャーを示す特徴であり得る。種々のフィーチャーが、フィーチャー抽出方法において使用され、これらは周知である。本発明において、例示的なフィーチャーは、シグナル部分288dの平滑化周波数スペクトルである。他のフィーチャーは、周波数スペクトルの対数、周波数スペクトル自体などであり得る。
【0097】
ニューラルネットワーク282は、代表的な様式で調整された、従来のニューラルネットワークであり得る。ニューラルネットワーク282は、シグナル部分288dのフィーチャーを、その調整と比較し得、そしてそのフィーチャーが、1つの調整されたフィーチャーにより類似しているか、別の調整されたフィーチャーにより類似しているかを決定し得る。シグナル部分288dの入力フィーチャーが1つの調整されたフィーチャーに有意に類似である場合、このニューラルネットワークは、例えば、上記のように、およそ出力でのシグナルの発生を生じる。入力フィーチャーが、調整されたフィーチャーのいずれにも十分に類似ではない場合、または2つ以上の調整されたフィーチャーに比較的類似である場合、ニューラルネットワークは、出力に出力シグナルを発生させない。なぜなら、そうでなければ、不確定性が、所望でない出力シグナルの発生を生じ得るからである。
【0098】
上記のように、2つのセンサ12が使用される場合、システム270は、それぞれのセンサ12からの各シグナルを連続的に操作し得るか、または並行処理能力を有し得、その結果、両方のセンサからのシグナルが、実質的に同時に処理され得る。出力284は、両方のセンサから発生するシグナルのシグナル分析の結果を反映し得、そして事実上三次元のデータを反映する出力シグナルを、出力284において提供するために使用され得る。
【0099】
本発明の別の実施形態は、通信デバイスおよびイヤーマイクロホン(すなわち、イヤセット)アセンブリを備える、通信システムに関する。この通信システムは、ユーザーが遠隔に位置する人物と話すことを可能にする。このイヤーマイクロホンアセンブリ(本明細書中でイヤセットともまた称される)は、ハウジングによって支持される、マイクロホンおよびスピーカーを備える。このハウジングは、ユーザーの耳によって保持され、そして遠隔に位置する人物と会話している間に、この通信システムのユーザーが手を自由に使うことを可能にする。このマイクロホンは、ユーザーの耳管の方に向いており、そして耳から発生するかまたは出てくる音(あるいは耳の内部で生じる空気圧変化)を検出し、ユーザーの話を正確にかつ信頼性高く検出する。このマイクロホンの位置もまた、外部から発生する音の検出を減少させることを補助し得る。このイヤーマイクロホンアセンブリは、携帯電話または無線電話の話入力デバイスの、電話のRFトランシーバーからの分離を可能にする。
【0100】
さらに、本発明のイヤセットアセンブリは、ユーザーが従来のヘッドセットを用いるより静かに(例えば、ささやきまたはほぼささやきで)話すことを可能にする。このことは、より個人的な会話および他者へのより少ない混乱を可能にする。より穏やかに話すほど、その会話を維持するために必要とされる集中がより少なくなり、これによって、個人が、話をする間の他の活動への従事を少なくとも部分的に可能にすることを示す、多数の証拠もまた存在する。
【0101】
本発明のイヤセットは、マイクロホンの方向性にも、ユーザーの口から生じる音の検出にも依存しない。従って、このイヤセットの位置を繰り返し調節する必要性(これはそうでなければ、ユーザーの注意が逸れ、そしてユーザーの手の使用を必要とする)。また、このイヤセットの大きさおよび配置は小さく、美的により魅力的なデバイスが生じる。このようなデバイスは、控えめに使用され得る。例えば、このデバイスは、公衆の場で使用される場合に、他者によって、または他者に見られる人物(例えば、テレビのニュースキャスターまたは諜報機関のエージェント)によって、さほど注意を引かない。
【0102】
その結果、ヒトの話を検出するために、センサが使用され得る。用語話とは、その最も広い意味で使用され、そして話された言葉および発言、ならびにユーザーによって生じる他の発声(例えば、不平、口笛、歌、咳、唇または舌の動きによって生じる「舌打ち」音などが挙げられる)を包含することにもまた、注目される。本明細書中の説明を容易にするために、マイクロホンによる感知または検出の事象は、検出と称され、そして検出されるものは、耳の内部での変化、または単純に空気圧の変化と称される。本発明は、ヒトの話に応答して即座に、またはほぼ即座に起こる、ヒトの耳の内部の変化をモニタリングして、実質的にリアルタイムの話検出システムを提供する。
【0103】
ここで図面を参照すると、図15は、2人以上の個人間での二重(二方向)のオーディオ通信を確立するための、通信システム32’を示すブロック図である。通信システム32’は、通信ネットワーク37、または骨格ネットワークを備える。通信ネットワーク37は、少なくとも1つの通信デバイス36’との通信リンクを確立し、これによって、通信デバイス36’のユーザーが、当該分野において公知のように、遠隔に位置する電話31を使用して、遠隔に位置する人物との会話を行うことを可能にする。図示される実施形態において、通信デバイス36’および遠隔電話31は、無線電話(例えば、携帯電話)である。しかし、当業者は、通信デバイス36’および/または遠隔電話31が、他の型のデバイス(ハードワイヤード(陸線)電話、ラジオ、個人情報機器(PDA)、携帯型コンピューターまたは定置コンピューターなどが挙げられる)であり得ることを理解する。通信ネットワーク37はまた、代替の型のネットワーク(例えば、インターネット、WAN、またはLAN)であり得る。
【0104】
通信システム32’は、イヤーマイクロホンアセンブリ(またはイヤセット12’)を備え、これはハウジング150’(図16)によって支持される、マイクロホン34’およびスピーカー38’を有する。イヤセット12’の物理的配置は、以下にさらに詳細に記載される。マイクロホン34’は、ユーザーの話の結果である、ユーザーの耳から発生するかまたは出てくる音(時々、耳における空気圧変化と称される)を検出するために使用される。マイクロホン34’は、これらの検出を電気シグナルに変換する。この電気シグナルは、必要に応じて、増幅器24’によって増幅される。次に、この増幅された電気シグナルは、適切なインターフェイスアダプター26’を介して、通信デバイス36’によって受信される。インターフェイスアダプター26’は、例えば、通信デバイス36’の対応するレセプタクルによって受容される、ジャックまたは他の電気コネクタであり得る。
【0105】
ハウジング150’の内側部分154’は、凹部156’を有し、この凹部の中に、マイクロホン34’が配置される。好ましくは、鼓膜112に隣接する空気および/または耳管110内の空気は、マイクロホン34’に隣接する空気と流体連絡する。この様式で、耳100の内部で発生した音または空気圧変化は、空気媒体を通して、マイクロホン34’に直接伝達される。ユーザーの骨および組織によって伝わる他の音は、ハウジング150’を介して機械的に、マイクロホン34’に伝達され得る。1つの実施形態において、マイクロホン34’は、接着剤を用いて、適所に保持される。マイクロホン34’は、1つの実施形態において、大きさが2mmより小さい。代替の実施形態において、マイクロホン34’は、ハウジング150’によって規定される中空の空洞内に配置され、そしてこの空洞を規定するハウジング150’の壁の開口部が、この空洞内の空気と耳管110内の空気との流体連絡を確立するために、提供される。
【0106】
ハウジング150’の内側部分154’は、第2の凹部157を有し、この凹部の中に、スピーカー38’が配置される。好ましくは、スピーカー38’は、遠隔電話31を使用している遠隔に位置するヒトの話に対応し、そして通信デバイス36’によって受信される音を放送する。この音は、遠隔に位置するヒトの話の再生であり、そしてスピーカー38’によって、ユーザーに可聴にされる。
【0107】
マイクロホン34’は、導線158’を用いて、増幅器24’に電気的に接続される。スピーカー38’もまた、導線160’を使用して、増幅器24’に電気的に接続される。増幅器24’は、導線162’を用いて、インターフェイスアダプター26’(図15)に電気的に接続される。より具体的には、導線162’は、増幅されたシグナルを、マイクロホン34’からインターフェイスアダプター26’へと伝え、そして音に変換されるべきシグナルを、インターフェイスアダプター26’からスピーカーへと運ぶ。当業者が理解するように、増幅器24’は、省略または迂回され得、そしてマイクロホン34’および/またはスピーカー38’は、導線によって、インターフェイスアダプター26’に直接結合され得る。
【0108】
スピーカー38’は、ユーザーに音を伝達(すなわち、放送)するために使用される。これらの音としては、通信ネットワーク37を通じて通信デバイス36’によって受信されたシグナルに応答して発生する音が挙げられる。この様式で、イヤセット12’および通信デバイス36’は、双方向通信装置として使用され得る。
【0109】
1つの実施形態において、イヤセット12’は、3つの導線を使用して、通信デバイスに結合される。これらの導線の第1のものは、通常の接地として使用される。これらの導線の第2のものは、音波に変換されるべき電気シグナルをスピーカー38’に運ぶ。これらの導線の第3のものは、通信ネットワーク37への伝達のために、検出された音を表す電気シグナルを、マイクロホン34’から通信デバイス36’へと運ぶ。第3の導線はまた、マイクロホン34’および増幅器24’のための電力を運ぶ。この実施形態において、インターフェイスアダプター26’は、2.5mmのジャッキを使用して、当該分野において公知であるように、実装され得る。
【0110】
マイクロホン34’を個人の耳100の一方に入れて、1つのイヤセット12’を使用することは、通信デバイス36’による通信を生じるように、話を検出するために使用され得、遠隔に位置するヒトが、遠隔電話31を使用して、このユーザーの話を聞くことを可能にすることが示された。しかし、経験的な試験は、2つのこのようなイヤセットを、1つを個人の耳の各々に入れて使用することによって、より多くの情報の検出に起因して、システム32’の性能が改善されることを示した。
【0111】
イヤーマイクロホンアセンブリ、および特に、増幅器24’のブロック図が、図17に示される。マイクロホン34’は、スピーカー38’のすぐ近くに配置されるので、マイクロホン34’は、スピーカー38’によって発生する音を検出する傾向がある。これらの検出は、ユーザーの話の検出に加えてである。スピーカー38’によって発生され、そしてマイクロホン34’によって検出される音は、本明細書中においてフィードバックと称され、そして図17において、矢印51によって示される。1つの実施形態において、イヤセット12’の感度は、スピーカー38’からの音の検出を最小にするように、そして/または通信デバイス36’へのフィードバック成分の送達を最小にするように、調整される。例えば、所望の場合、増幅器24’の利得を調節するために、電位差計が使用され得る。フィードバックの検出を減少させるための、スピーカー38’とマイクロホン34’との物理的分離もまた、可能である。
【0112】
例示的実施形態において、増幅器24’は、マイクロホン34’により生成された電気シグナルのフィードバック成分の少なくともいくらか(全てではないとしても)を消去するように構成される。この実施形態において、スピーカー38’およびマイクロホン34’は、マイクロホン34’により検出されたフィードバックが、スピーカー38’により生成される音とよく似ているように、密に物理的に近位に配置される。図17は、フィードバック成分の少なくとも一部を消去するための例示的な増幅器回路24’を例示する。当業者に明らかなように、種々の代替的アナログ回路またはデジタル回路が使用され得、各々、本発明の範囲内に入る。
【0113】
例示された増幅器回路24’は、マイクロホン34’からの電気シグナル出力(本明細書中、マイクロホンシグナルという)を受容する。このマイクロホンシグナルは、フィルター53によりフィルタリングされる。このフィルター53は、例えば、マイクロホンシグナルの低周波数成分(例えば、約400Hz未満の周波数)を除去するためのフィルターであり得る。次いで、このフィルタリングされたマイクロホンシグナルは、増幅器55(例えば、低出力の、非反転演算増幅器)により増幅される。増幅器55の増加は、マイクロホンシグナルを通信デバイス36’の入力要件を満たす電圧レベルに調整するように選択される。
【0114】
示されるように、スピーカー38’は、イヤセット12’のユーザーに広められる音へ変換するための電気シグナルを受容するように、通信デバイス36’に連結される。このシグナルは、本明細書中でスピーカーシグナルといわれる。このスピーカーシグナルはまた、フィルター58によりフィルタリングされる。フィルター58は、例えば、スピーカーシグナルの低周波数成分(例えば、約400Hz未満の周波数)を除去するためのフィルターであり得る。次いで、フィルタリングされたスピーカーシグナルは、増幅器60により増幅される。増幅器60は、例えば、低出力の反転演算増幅器であり得る。増幅器60の増加は、マイクロホンシグナルの増幅されたフィードバック成分に等しいか、またはほぼ等しい振幅を有するようにスピーカーシグナルを調整するように選択される。
【0115】
次いで、増幅されたマイクロホンシグナルおよび増幅されたスピーカーシグナルは、マイクロホンシグナルのフィードバック成分を消去し、修正されたマイクロホンシグナルを生成するように組み合わされる。増幅されたマイクロホンシグナルおよび/または増幅されたスピーカーシグナルの極性または位相は、シグナルを正しく組み合わせるように調節され得ることに注意すべきである。シグナルの組み合わせは、加算器56により行われ得る。当業者に明らかなように、アナログシステムにおいて、シグナルは、シグナルをともに単純に送ることにより組み合わされ得る。一例において、シグナルを運ぶ導線は、 直接ともに接続される。あるいは、アナログまたはデジタルの回路または処理は、加算器56の組み合わせ機能を行うために使用され得る。
【0116】
スピーカーシグナルが、フィードバック51の任意の伝搬遅延を補償する必要がある場合、遅延要素により遅延され得ることに注意する。加算器56の出力は、修正されたマイクロホンシグナルのさらなる調整(例えば、修正されたマイクロホンシグナルの高周波数成分(例えば、本明細書中に記載の通信システムについて約4KHzを上回る周波数)を除去する)のためにフィルター62に連結される。
【0117】
例示的な増幅器回路24’の多くの代替手段が意図され、各々は、本発明の範囲内に入るとみなされる。
【0118】
別の例として、高周波数フィルターおよび低周波数フィルターは、バンドパスフィルタにより置き換えられ得る。別の例の改変において、スピーカーシグナルは、スピーカーに適用される前に、増幅および/またはフィルタリングされ得る。
【0119】
なお別の例の改変において、アナログマイクロホンシグナルおよびスピーカーシグナルは、デジタルシグナルに変換され得、フィードバック成分が全くないまたはほとんどないマイクロホンシグナルを得るために、デジタルシグナル処理技術を使用して処理され得る。
【0120】
伝達のための通信デバイス36’によるマイクロホンシグナルの処理は、当該分野で周知であり、より詳細には記載されていない。
【0121】
さらに図18を参照すると、本発明の別の実施形態において、イヤセット12’は、ユーザーの耳管へ向けられたマイクロホン34’(本明細書中で内部マイクロホン34’といわれる)に加えて、外部マイクロホン54’を備え得る。外部マイクロホン54’は、ユーザーの耳の外側で発生した空気圧変化、すなわち、音を検出する。以下により詳細に記載されるように、これらの音は、電気シグナルに変換され、内部マイクロホン34’により検出された音に対応する電気シグナルと比較される。それぞれのシグナルは、外部で生じたノイズ、言語などから、耳内での空気圧変化を識別するために処理され得る。
【0122】
外部マイクロホン54’は、ハウジング150’の外部部分72’上に配置され、イヤセット12’アセンブリの装着者から離れて向けられる。外部マイクロホン54’は、ハウジング150’に接着剤で固定され得、外部部分72’により規定される凹部中に配置され得る。内部マイクロホン34’と同様に、外部マイクロホン54’は小さい(例えば、サイズ2mm未満)。
【0123】
外部マイクロホン54’の位置は、外部マイクロホン54’が、装着者の耳の近辺にあるが、イヤセット12’のユーザーに対して外部の供給源を有する空気圧変化を検出することを可能にする。1つの実施形態において、外部マイクロホン54’は、無指向性マイクロホンである。
【0124】
図18は、ユーザーの会話を検出するためのシステム32”を例示するブロック図である。このシステム32”は、上記により詳細に記載されるように、内部マイクロホン34’、スピーカー38’および増幅器24a’を有するイヤセット12’を備える。さらに、システム32”のイヤセット12’は、外部マイクロホン54’を有する。当業者に明らかなように、外部マイクロホン54’の使用は、任意である。この外部マイクロホン54’は、ハウジング150’(図16)上に配置され、概して、イヤセット12’を装着した個人から離れて向けられる。結果として、外部マイクロホン54’は、耳の外にある空気圧変化を検出する。これらの空気圧変化は、主に、外部で生成されたノイズ(他の人々の会話、環境ノイズなど)、および一部は、ユーザーの口から、空気を介して外部マイクロホン54’へと会話が伝わる場合、イヤセット12’を装着した個人の会話に対して生成されたノイズの結果である。
【0125】
外部マイクロホン54’は、外部マイクロホン54’により検出される音に対応する電気シグナルを生成する。外部マイクロホン54’は、内部マイクロホン34’について使用されるものとは別々かつ異なる入力、すなわち、チャネルを使用して、通信デバイス36’と電気的に連結される。外部マイクロホンにより生成されるシグナルは、増幅器24b’により増幅され得、インターフェイスアダプター26b’を使用して通信デバイス36’に連結され得る。通信デバイス36’は、以下に記載のように、マイクロホン34’、54’により生成された2つのシグナルを相関させる。あるいは、内部マイクロホン34’および外部マイクロホン54’は、それぞれ、以下に議論されるように、シグナルを相関させる処理回路の左側チャネル入力および右側チャネル入力に接続される。
【0126】
内部マイクロホン34’および外部マイクロホン54’により生成される独特のシグナルを使用して、ユーザーの発した会話と外部が生成した音との間を区別し得る。システム32”の代替的構成において、システム32”は、内部マイクロホン34’の検出から、外部で発生したノイズを消去するように調節され得る。
【0127】
ユーザーが話をする場合、内部マイクロホン34’および外部マイクロホン54’の両方が会話を検出する。ユーザー以外の源により生成された音(例えば、別の個人の話、通行車、機械、空気調整器またはコンピューターの雑音など)は、本明細書中でノイズといわれる。外部マイクロホン54’および内部マイクロホン34’の両方が、ノイズを検出する。従って、通信デバイス36’(または他の処理回路)は、会話成分とノイズ成分とを同定(すなわち、分離)することにより、ユーザーの会話を分離するようにプログラムされ得る。結果として、比較的ノイズのない会話シグナルが生成され得、このシグナルは、通信デバイス36’により、通信ネットワーク37(図15)に伝えられ得る。当業者は、システム32”について本明細書中に記載される様式にて、開始活動成分およびノイズ成分の分離を補助するために(例えば、以下に記載される方法300を使用することによって)、イヤセット12’が他のシステム(例えば、上記のシステム10、22、32、40および52)とともに使用され得ることを認識する。
【0128】
1つの実施形態において、シグナル分離は、音成分シグナル(「S」)およびノイズ成分シグナル(「N」)について以下に示される方程式1および2を解くことにより行われ得る。内部マイクロホンのインパルス応答(FMI)および外部マイクロホンのインパルス応答(FME)は、マイクロホンの感度、マイクロホンの周波数応答、耳およびハウジングの共鳴特徴などを反映する。Yは、内部マイクロホンにより生成されたシグナル全体を表し、Yは、外部マイクロホンにより生成されたシグナル全体を表す。システム全体が線形であるとすると(システムの特徴は、加算的かつ同次である)、このシステムは、以下のように、方程式3および4により表され得る(アスタリスク、すなわち「*」は、たたみこみ演算子をあらわす):
MI*S+FMI*N=Y 方程式3
ME*S+FME*N=Y 方程式4。
【0129】
出力シグナルYおよびYならびに既知のインパルス応答FMIおよびFMEを使用することにより、2つの方程式が、2つの未知のシグナルSおよびNについてリアルタイムで解かれ得る。
【0130】
システム32”を使用して会話を検出するための方法300は、図19に例示される。方法300は、内部マイクロホン34’および外部マイクロホン54’の両方を使用して、空気圧変化を検出することを包含する。より具体的には、工程302において、耳100内の空気圧変化は、内部マイクロホン34’により検出される。これらの検出は、ユーザーが話している結果であり得るが、イヤセット12’を装着した個人の外部で生成されたノイズ成分ならびに/またはユーザーの会話により生成された音成分ならびにユーザーの口から空気を介してユーザーの耳100領域へ伝わる音成分もまた含み得る。また、工程302において、ユーザーの耳100近辺であるが、ユーザーの耳の外側の空気圧変化は、外部マイクロホン54’により検出される。これらの検出は、主に、ユーザーに対して外側で生成されたノイズならびに/またはユーザーの会話により生成された音成分およびユーザーの口から空気を介してユーザーの耳100領域に伝わる音成分の結果である。検出は、マイクロホン34’および54’によりそれぞれの電気シグナル(本明細書中で内部シグナルおよび外部シグナルといわれる)に変換される。内部シグナルは、上記でより詳細に議論されるように、スピーカー38’からの任意の検出されるフィードバックを減少させるように処理され得る。
【0131】
次に、工程304において、会話成分およびノイズ成分は、上記のように分離される。工程304から得られた会話シグナルを工程306において使用して、通信デバイス36’により伝えられるシグナルを提供する。
【0132】
本明細書中に記載の図解は、ヒトの耳内の変化を検出し、開始活動に対応する出力シグナルまたは制御命令を生成するための種々のシステムの構成、機能および操作を示す。各々の機能的ブロックは、特定された論理的機能を実行するための1以上の実行可能な命令を含むソフトウェアコードのモジュール、セグメントまたは一部を示し得る。
【0133】
ブロック図およびフローチャートは、実行の特定の順序を示すが、実行の順序が、示されたものとは異なり得ることが理解される。例えば、2以上のブロックの実行の順序は、示された順序に対して変更され得る。また、連続して示された2以上のブロックは、同時にまたは部分的に同時に実行され得る。さらに、種々のブロックは、省略され得る。このようなバリエーションの全てが、本発明の範囲内であることが理解される。
【0134】
本発明は、特定の好ましい実施形態に関して示され、記載されてきたが、等価な変更および改変は、本明細書および添付の図面を読み、理解する際に当業者に明らかになることは自明である。特に、上記に記載された構成要素(アセンブリ、デバイス、回路など)によって実行され得る種々の機能に関して、このような構成要素を記載するために使用された用語(「手段」に対する言及を含む)は、別段示されなければ、たとえ本明細書中で例示された本発明の例示的実施形態において機能を発揮する開示された構造に構造的に等価でなかったとしても、記載された構成要素の特定の機能を発揮する任意の構成要素(すなわち、機能的に等価であるもの)に対応することが意図される。さらに、本発明の特定の特徴が、いくつかの実施形態のうちのわずか1つに関して開示されている可能性があるが、このような特徴は、任意の所定のまたは特定の適用に所望されそして有利であり得るように、他の実施形態の他の1以上の特徴と組み合わされ得る。
【図面の簡単な説明】
【0135】
【図1A】図1Aは、空気圧の変動を検出し、そして本発明に従って検出された空気圧に相当する制御機能を提供するために使用される、システムを例証するブロックレベルダイヤグラムである。
【図1B】図1Bは、空気圧の変動が検出および処理され、そして例証される実施形態において、ヒトの言語を解釈するための音声認識ソフトウェアプログラムによって処理される、システムを例証するブロックレベルダイヤグラムである。
【図1C】図1Cは、空気圧の変動が検出され、そして通信デバイスによって再伝送される、システムを例証するブロックレベルダイヤグラムである。
【図1D】図1Dは、空気圧の変動が検出され、そして医療診断デバイスによって使用される、システムを例証するブロックレベルダイヤグラムである。
【図1E】図1Eは、内部マイクロホンおよび外部マイクロホンを備えるセンサを有する、システムを例証するブロックレベルダイヤグラムである。
【図2A】図2Aは、耳の概略図である。
【図2B】図2Bは、ヒトの耳内での空気圧変化をモニタリングするためのセンサ実施形態の断面図である。
【図2C】図2Cは、本発明に従うセンサによって生成された例示的な電気シグナルを例証するグラフである。
【図3A】図3Aは、本発明に従って、空気圧変化を検出し、検出した変化に応答して制御指令を提供する方法を例証するフローチャートダイヤグラムである。
【図3B】図3Bは、本発明に従って、空気圧変化を検出し、検出した変化に応答して制御指令を提供する別の方法を例証するフローチャートダイヤグラムである。
【図4】図4は、本発明に従ってモニタリングする方法を例証するフローチャートダイヤグラムである。
【図5】図5は、口/舌の活動、思考、言語および/または別のタイプの開始活動に相当する電気シグナルを処理する方法を例証するフローチャートダイヤグラムである。
【図6】図6は、本発明に従うアナログ電気シグナルのデジタルシグナルデータへの変換を例証するグラフである。
【図7】図7は、本発明に従ってデジタルシグナルデータを分析する方法を例証するフローチャートダイヤグラムである。
【図8】図8は、本発明に従って、図7のフローチャートを用いてデジタルシグナルデータを分析する方法を例証するグラフである。
【図9】図9は、本発明に従って、デジタルシグナルデータを処理する方法を例証するフローチャートダイヤグラムである。
【図10】図10は、本発明の部分および機能を含むシステムを示すシステムダイヤグラムである。
【図11】図11は、空気圧変化を検出するために本発明において使用されるセンサによって検出される例示的な未加工シグナル情報を示すグラフである。
【図12】図12は、図11のシグナル情報をフィルター化した周波数(例えば、ノイズを除去するためにフィルター化した周波数)のグラフである。
【図13】図13は、図12の曲線のパワースペクトルウィンドウスライシングを示すグラフである。
【図14】図14は、このようなパワースペクトルのグラフである。
【図15】図15は、本発明の実施形態に従う通信システムを例証するブロックダイヤグラムである。
【図16】図16は、ヒトの耳に対して配置される、イヤーマイクロホンアセンブリ、すなわちイヤセットの断面図であり、そして耳もまた断面中に示される。
【図17】図17は、イヤーマイクロホンアセンブリのブロックダイヤグラムである。
【図18】図18は、本発明の別の局面に従うイヤーマイクロホンアセンブリのブロックダイヤグラムである。
【図19】図19は、図17のイヤーマイクロホンアセンブリによって生成されるシグナルを処理する方法のフローチャートである。
【Technical field】
[0001]
(Related application)
This application is related to US Provisional Application No. 60 / 280,282, filed March 30, 2001, US Patent Application No. 09 / 897,696, filed July 2, 2001, and July 31, 2001. Claim the benefit of U.S. Patent Application Serial No. 09 / 919,291, filed on even date, the entire disclosures of which are incorporated herein by reference.
[0002]
(Field of the Invention)
The present invention relates generally to sensors that are placed against the ear. More specifically, this sensor is used to detect human physical or mental activity (eg, speech, thinking, tongue movement with respect to the oral cavity, biological functions, etc.), and is used for system control functions. Provides output that can be transformed. In addition, this sensor is used to detect human speech and other verbal utterances using microphones and deliver sound to the human ear using speakers, but with reduced feedback from the speakers to the microphone. ing.
[Background Art]
[0003]
(Background of the Invention)
An apparatus and method for detecting thought is disclosed in U.S. Patent Application No. 6,024,700, the entire disclosure of which is incorporated by reference. This thinking can lead to detectable air pressure or sound in one or both ears of the user, which can be detected by a detector (eg, a microphone). Exemplary outputs from such systems and methods for detecting thoughts may be one or more separate outputs (eg, separate outputs indicating each alphanumeric character, direction, etc.).
[0004]
Apparatus and methods for detecting physical activity (eg, mouth and tongue movements) are described in US Patent Application Serial No. 09 / 706,091, filed November 3, 2000, the entire disclosure of which is incorporated by reference. Incorporated by reference). This physical activity leads to detectable air pressure or sound in one or both ears of the user.
[0005]
The sound produced by the human ear is sometimes referred to as autoacoustic. Self-acoustic sounds have traditionally been used in diagnostics, for example, to indicate ear function or ear condition. For example, in response to sound input to the ear, the ear has been found to provide a detectable self-acoustic output.
[0006]
Currently, there are available controllers that allow a disabled person who cannot use their arms or legs to operate an electric wheelchair. Such controllers include trackball or joystick type devices, which are inserted into the mouth of the individual; and the individual operates the controller using movements of the mouth and / or tongue. To provide mechanical input. Such devices are difficult to operate and are problematic if the device falls off or irritates the mouth.
[0007]
Other controllers exist so that disabled individuals can perform their functions with mechanical assistance. Operation of such a controller typically requires a signal such as an incident electromagnetic signal (eg, infrared or ultraviolet light / emission) that is directed to the individual; An individual may modulate an incident electromagnetic signal (eg, by blinking his eyes, moving his head, or by some such activity). The need for an incident electromagnetic signal is inconvenient for several reasons: some special equipment is needed to provide the signal, and this signal must be properly oriented or aligned. Rather, the detector and the modulated signal must be properly aligned, this signal should not have deleterious effects on the user (eg, causing eye damage), and so on.
[0008]
Currently, there are speech recognition software programs available that receive an input signal that is representative of the human language and execute commands in converting this signal to text form or interpreting the language. This input signal is generated by a microphone placed in front of the speaker's mouth.
[0009]
Furthermore, wireless mobile phones are also referred to as mobile phones, which have become very popular communication devices. However, most cell phones include a transceiver (eg, a radio frequency (ie, RF) transceiver) for establishing a communication link with a remote location (eg, a cell phone tower). To perform a conversation with another person using a wireless telephone, the user must hold the telephone near the user's ears and mouth. This has the disadvantage of occupying at least one use of the user's hand. In many situations, free use of both hands of a wireless telephone is desirable. The same is true for the recipient, ie, the telephone found in a wired telephone system. For example, a user of a wired telephone system may want to type a computer while speaking on the phone. In addition, medical professionals and others have shown health concerns for wireless telephone users who are immersed in prolonged use of RF transceivers near the user's head.
[0010]
There are many commercially available headsets available to users of wireless and / or wired telephone systems. These headsets are intended to assist the user in conducting a conversation without the use of the user's hands and to position the telephone (and any RF transceiver) away from the user's head Is done. These headsets typically include earpieces that include speakers. The earpiece may be removably positioned relative to the user's ear and may broadcast sound to the user's ear. The headset also typically includes a microphone located on a support member, which places the microphone against the mouth of the user. Microphones are used to detect speech and other utterances uttered by the user's mouth. The detected sound is converted into an electrical signal and transmitted to a telephone to the backbone telecommunications network and to another person's telephone. In this way, the user can perform a completely simultaneous transmission and reception conversation with another person.
[0011]
However, headsets can be cumbersome to use. More specifically, care must be taken to ensure that the microphone is properly positioned and that it remains in that position. The need to adjust the headset during a conversation can be distracting to the user. In addition, improper positioning of the microphone can make detection of the user's language poor and / or unreliable. This problem is exacerbated by environmental noise (e.g., sound passing by a vehicle, conversation occurring near a user, etc.) detected by a generally existing microphone. The detected environmental noise is ultimately transmitted by the telephone.
[0012]
Thus, there is a need in the art for easy use of telephone headsets that accurately detects the user's language and reduces the detection of environmental noise, even when talking at low volume.
DISCLOSURE OF THE INVENTION
[Means for Solving the Problems]
[0013]
(Summary of the Invention)
According to one aspect of the invention, the invention is a detection system. The detection system includes a housing positionable relative to the human ear; a microphone positioned relative to the housing for insertion at least partially into the human ear; A microphone operable to detect a change and to generate an electrical signal corresponding to the internally detected air pressure change; and coupled to a microphone for processing the electrical signal to generate a corresponding output. A processing circuit.
[0014]
According to yet another aspect of the present invention, the present invention is a sensor for detecting a change in air pressure in a human ear. The sensor has a housing having an inner portion adapted to be inserted at least partially into the human ear and an outer portion adapted to engage at least a portion of the pinna; An internal microphone positioned relative to an internal portion of the housing for detecting air pressure; and an external microphone positioned relative to an external portion of the housing for detecting an air pressure change occurring externally to the ear.
[0015]
According to one aspect of the invention, the earset comprises: a housing positionable relative to the human ear; a microphone positioned relative to the housing for insertion into the human ear; A microphone operable to detect an air pressure change in the ear and to generate an electrical microphone signal corresponding to the air pressure change detected therein; a sound positioned relative to the housing and corresponding to an electric speaker signal A speaker operable to generate a modified microphone signal coupled to receive the microphone signal and the speaker signal, and having a reduced feedback component of the microphone signal (feedback). Ingredients modified microphone To generate the phone signals, resulting from detection by the microphone of the sound generated by the speaker).
[0016]
(Detailed description of the invention)
The following is a detailed description of the invention in connection with the accompanying drawings, wherein like reference numerals refer to like elements throughout. In order to illustrate the invention in a clear and concise manner, the drawings need not be shown to scale, and certain features may be shown in somewhat schematic form.
[0017]
One embodiment of the present invention is to monitor air pressure changes in or near the human ear over a period of time to provide for physical and / or mental activity of the human (eg, human thinking, human language and And / or detecting activity occurring in connection with movement associated with the oral cavity). As an example, movement of the tongue in the oral cavity can be detected or sensed to provide a useful output. As another example, an activity may be a mental event, such as in a thought, producing a detectable air pressure change within and / or near the ear, as described in more detail in US Pat. No. 6,024,700. Can be targeted. More specifically, thoughts cause a reaction in the human anatomy, which accomplishes a change in the ear (perhaps by muscle contraction), thereby allowing detectability in or near the ear canal Causes a great change in air pressure. Exemplary outputs may include information similar to an information signal generated by a computer mouse, a click button on a mouse, a computer joystick, and the like.
[0018]
The present invention is more aesthetically appealing and more comfortable to the user than the systems disclosed in the above-mentioned US Patent No. 6,024,700 and US Patent Application No. 09 / 706,091, and has a reduced environmental or ambient noise. Has been found to be poorly detected. As described in more detail below, the sensor of the present invention comprises a microphone positioned against or in the user's ear and detects air pressure changes in the ear. This microphone is referred to herein as an internal microphone. Air pressure changes can be caused by one or more factors, including vibration of the eardrum, vibration of bones in the ear, vibration of other anatomical structures in the ear, and bone and / or tissue of the user. Vibrations that are conducted to the ear and cause air pressure changes in the ear. As a result, the sensor may not be fully detectable when a person speaks at normal levels or very low volume (e.g., usually not sufficiently detected by a microphone placed in front of the person's mouth, or close to the person speaking). (At a lower, decibel, or louder level than is detectable by another individual located), and can be used to detect human language. The term speech, as used herein, is taken to include spoken words and utterances, songs, and other utterances generated by humans. The language thus detected can be used for a number of purposes, for example, processing the detected language using speech recognition software or detecting using a communication device such as a mobile phone. Retransmitting the input language (which allows separation of the language input device from the RF transceiver).
[0019]
It should be noted that the term air pressure change is used in its broadest sense and includes, for example, sound waves (whether or not audible to a user), pressure fluctuations, vibrations, resonance, and the like. is there. Further, the term air pressure change, as used herein, includes vibrations conducted by the user's bones and tissues that are transmitted to the ear. These conducted vibrations can vibrate the housing that supports the internal microphone, which provides sound detection by the internal microphone. The conducted vibrations may also cause the sound to resonate and / or amplify in the anatomical portion of the ear, thereby resulting in detection of the sound by the internal microphone. Air pressure changes can be caused by one or more factors, including vibration of the eardrum, vibration of bones in the ear, vibration of other anatomical structures in the ear, and bone and / or tissue of the user. Vibrations that are conducted to the ear and cause air pressure changes in the ear.
[0020]
In addition to internal microphones, the present invention may also include external microphones. The external microphone detects air pressure changes or sounds originating from outside the user's ear. As described in more detail below, these sounds are converted to electrical signals and compared to electrical signals corresponding to the sounds detected by the internal microphone. Each signal may be processed to distinguish in-ear air pressure changes from externally generated ambient noise, speech, and the like.
[0021]
The present invention also provides for the detection and monitoring of various biological processes, including human heart rate, respiratory and gastronomic events that produce detectable air pressure changes in or near the ear, Can be used as a medical diagnostic tool. Thus, by monitoring the air pressure near or inside the ear, the human heartbeat, breathing and any irregularities associated therewith can be studied. The sound detected by the sensors of the present invention can be amplified to a certain level, studied by medical personnel, and / or processed by devices programmed to analyze such biological functions.
[0022]
The present invention can provide an output having a characteristic continuity, for example, similar to the signal generated by moving a computer mouse along a surface. The electrical signals generated by the sensors may include identifiable information generated by two- or three-dimensional movement of a particular body part, particularly by tongue, jaw, and oral and nasal movements. The signal output obtained from the sensor is similar to the signal generated by a computer joystick with top, bottom, left, right, front, and back signal outputs. The intensity of the signal or other component can be used as a measure of the speed characteristic of the activity.
[0023]
By measuring air pressure in both ears using separate sensors, at least two electrical signals can be generated and processed to produce a two-dimensional (or stereophonic) information pattern. Information from each sensor, along with similarities and differences in the data streams, can be used to identify further information from humans. In some cases, the additional information improves control command generation, thought detection, language recognition, biological process detection, and other functions of the systems described herein.
[0024]
The present invention can be used for many additional purposes. One exemplary use is to provide input to a computer or some other electrical or electronic device. An exemplary input is an electrical signal. However, it is understood that the signal generated by the sensor used to detect a change in air pressure may be other than electrical, or the electrical signal generated by the sensor may be converted to a non-electrical form. Should be. Examples of alternative signal types include, for example, optical signals, fluid signals, radio frequency (RF) signals, and the like. The input may control a computer or other device, or the input may be used for some other purpose. In order to facilitate the description of the invention herein and to avoid complexity, the invention is directed to uses for providing electrical input to a computer (e.g., whether digital or analog). , A personal computer or some other computer for controlling the operation of a computer). It is understood that the present invention can be used for many other purposes.
[0025]
One example of the use of the present invention in combination with a computer controlled using the present invention is to provide functions and capabilities for persons with disabilities. For example, the present invention enables a disabled or healthy person to control the operation of one machine in a manufacturing facility, control the operation of an electric wheelchair or similar device, control the operation of a video game, and the like. Can be used to It is understood that these are merely exemplary and that the present invention may be used for many other purposes.
[0026]
In the present invention, it is not necessary that the individual be subjected to a stimulus signal (eg, an incident acoustic or electromagnetic signal). Rather, in the present invention, the activity of the individual (eg, tongue movement including tongue clicking on the teeth or pallet) is used to emit air pressure or sound to one or both ears of the individual. These air pressures or sounds can be detected or sensed and used as outputs of the invention, which are provided as inputs to a computer or some other device. Thus, the present invention exhibits a non-stimulatory signal (ie, a signal generated by an individual's activity) without having to direct the stimulus to the individual.
[0027]
According to embodiments of the present invention, the sensor senses or detects air pressure, changes in air pressure, or sounds produced by the individual's ear. These pressure changes can be caused by the individual's eardrum or other anatomy in the ear. In addition, this pressure change may occur in other parts of the individual's body, and vibrations or air pressure changes may occur and be transmitted to the ear by bone or tissue detected by the sensor.
[0028]
For ease of description herein, a sensing or detecting event is referred to as detection, and what is detected is referred to as a change in the ear. Also, for ease of description herein, activities that cause a detectable change are described as "initial activities". The initiation activity may be one or more physical or mental activities (thinking, talking, tongue movements in the mouth (sometimes referred to as "tongue activity"), other movements in the mouth or nostrils or associated with the mouth or nostrils or Activity, clicking or other activity of the tongue on teeth or pallets, exhalation or inspiration by the lungs, heart beats, and nasal activity). By way of example, movement of the tongue results in a detectable air pressure. These movements can be two-dimensional (eg, up / down, left / right, in / out, etc.) or three-dimensional (any combination of front-back, left-right, and up-down). They produce their output even if the corresponding output by the sensor is one-dimensional for one sensor or two-dimensional for two sensors (one per ear).
[0029]
The present invention monitors changes in the human ear that occur instantaneously or nearly instantaneously in response to initiation activity to provide a substantially real-time detection and control system. In addition, monitoring of this change is passive, thus avoiding potential health and / or environmental concerns associated with subjecting the body to electrical signals and / or irradiation. Further, changes in the ear uniquely correspond to one of a variety of initiation activities that allow a system requiring multiple control functions to detect and differentiate between multiple different initiation activities (eg, a unique signal). With signature).
[0030]
According to one aspect of the invention, the sensor is in electrical communication with a processing circuit, senses a change in the ear, and converts the sensed change into an electrical signal. This electrical signal is then processed to provide control instructions or some other useful output (eg, an output similar to that generated by a computer mouse or joystick corresponding to a particular initiation activity). Exemplary control functions include controlling a video game display, controlling one medical device (eg, a wheelchair), and controlling computer functions to provide a handless mouse, keyboard, joystick. But not limited to these.
[0031]
Turning now to the drawings, FIG. 1A is a block-level illustration showing a system 10 for detecting initiation activity and providing an output corresponding to the detected activity. The system 10 includes a pressure sensor 12 coupled to a processing circuit 14. The sensor 12 comprises an inner ear microphone, as described in more detail below. The sensor 12 detects changes in the ear resulting from initiation activity by the individual wearing the sensor 12. The processing circuit 14 includes a data collection circuit 16 (for example, a computer sound card). Other exemplary data acquisition circuits include a PCI 9118HG data acquisition card manufactured by Adlink Technology or a DAQi250 data acquisition card manufactured by Ines Company Gmbh (Germany). The data acquisition circuit may include an analog-to-digital (A / D) converter that converts analog signal data to digital signal data. Buffer 17 stores a portion of the signal from data collection circuit 16 (assuming that the signals may be relatively continuous) until filtration and signal detection can be performed as described in further detail below. May be provided for: The processing circuit 14 also receives the digital signal data from the data acquisition circuit 16 and the buffer 17, performs various signal processing functions on the digital signal data, detects the occurrence of initiation activity, and detects the occurrence of initiation activity. A processor 18 for determining the type is provided. The system 10 also includes an output peripheral 20 coupled to the processor 18 for executing one or more controls provided by the processor 18 corresponding to the initiation activity. Those skilled in the art will recognize that, depending on the application, the analog-to-digital converter function and the buffer function may be omitted or performed by software.
[0032]
FIG. 1B is a block-level illustration illustrating another embodiment of a system 22 for detecting initiation activity and providing an output corresponding to the detected activity. System 22 includes sensor 12 having an internal microphone (described in more detail below). The electrical signal generated by the sensor 12 is amplified using an amplifier 24 as needed. However, in some applications, amplifier 24 is not required, depending on the equipment that receives and processes the electrical signal output by sensor 12.
[0033]
The electrical signal is then received by the interface adapter 26. This interface adapter 26 may be a mechanical connection, such as an electrical connector received by a corresponding jack on the device that ultimately receives and processes the electrical signal output by the sensor 12. Interface adapter 26 may also include more complex equipment, such as a universal serial bus (USB) adapter. As will be apparent to those skilled in the art, depending on the processor, device or application that receives the electrical signal generated by the sensor 12, the interface adapter 26 may be optional or the physical interface between the sensor 12 and the device. And / or any device for establishing a logical connection to receive the electrical signal generated by the sensor 12.
[0034]
The electrical signal is then received by the computer interface 28. This computer interface 28 is optional, depending on the configuration of the system 22, as well as the amplifier 24 and the interface adapter 26. This computer interface 28 may be a mechanical connection, such as a jack or a receptacle, or may be a more complex device (eg, a sound board for a computer). In one embodiment, the amplifier 24 and / or the interface adapter 26 are omitted and the signal generated by the sensor 12 is an input to the processing circuit 14 'via a conventional computer sound board, wherein the sound board is It is used to convert an analog signal generated by the sensor 12 into a digital signal.
[0035]
The electrical signal is then processed by processing circuit 14 '. Processing circuit 14 'may take the form of processing circuit 14 illustrated in FIG. 1A and may optionally include such devices (e.g., analog-to-digital converters, buffers, and / or processors 18'). Processor 18 'may be configured to execute logic for various applications that utilize the signals generated by sensor 12.
[0036]
In the exemplary embodiment, processor 18 'is programmed to execute a speech recognition software program. As is known in the art, speech recognition software converts the spoken language into text that can be manipulated electronically using, for example, a word processing program. This text may be output to output peripheral 20. For example, text may be displayed on a display or printed by a printer. The text may also be stored for later retrieval by storage device 30 on computer-readable media (including, but not limited to, magnetic and optical storage devices). Alternatively, the electrical signal itself or a recognized language derived therefrom controls a machine such as a self-powered wheelchair, robotic arm, computer, transport vehicle, home and industrial electrical equipment or machine, etc. Can be used to
[0037]
FIG. 1C is a block-level illustration illustrating a system 32 for detecting initiation activity and providing an output corresponding to the detected activity. This system 32 comprises a sensor 12 having at least an internal microphone 34. This sensor 12 and internal microphone 24 will be described in more detail below. Sensor 12 outputs an electrical signal that is amplified as needed by amplifier 24. This electrical signal is then received by the communication device 36 via a suitable interface adapter 26, if necessary. The communication device may be, for example, either a telephone hardwired to a telephone system, as shown in the illustrated embodiment, or a wireless telephone such as a mobile telephone. Alternatively, communication device 36 may be a radio, a portable computing device, or the like. In one embodiment, the signal generated by the sensor 12 is an input to a personal computer, a personal digital assistant (PDA), etc., and via a network (eg, LAN, WAN, Internet, etc.) to another location or Transmitted to the device. In another configuration, the communication device may be replaced with another type of device, such as a recorder for recording the user's language for later retrieval or an amplification system for disseminating the language to a live audience. .
[0038]
Further, the sensor 12 may include a speaker 38 that is used to convey (ie, spread) sound to the user. In this way, the sensor 12 and the communication device 34 can be used as a two-way communication device.
[0039]
FIG. 1D is a block-level illustration illustrating a system 40 for detecting initiation activity and providing an output corresponding to the detected activity. The system 40 comprises a sensor 12, which preferably comprises an internal microphone 34 (FIG. 2B) described in more detail below. Sensor 12 is connected to medical diagnostic device 42 via amplifier 24, interface adapter 26, and computer interface 28, if desired. The medical diagnostic device 42 may be used by a medical practitioner to detect air pressure detected by the sensor 12 corresponding to a patient's biological processes (heart beat, breathing sound, gastronomic sound, etc.). It has an audio output 44 (eg, speakers, stethoscope accessory, etc.) to obtain. To assist healthcare professionals in listening to biological processes, medical diagnostic devices optionally include filters (hardware or software) to provide these sounds before disseminating them to medical workers. Can be separated. In another embodiment, the medical diagnostic device 42 has a video output 46 (eg, an LCD or CRT screen) so that the sound emitted by the heart and detected by the sensor 12, for example, in the patient's ear, It can be converted to a graph (eg, amplitude versus time) and displayed on video output 46 in a manner similar to an electrocardiogram display.
[0040]
Medical diagnostic device 42 may also include a recording device 48 (eg, a digital or analog data storage medium) for storing detection of a patient's biological process. The recorded sound can be compared to subsequent detections. This comparison can be made by an individual or by software programmed to separate the differences between the first and second detections.
[0041]
The medical diagnostic device 42 may also include a processor 50 that executes programmed logic (eg, software) to analyze detected pneumatic pressure changes. The software can be programmed to search for signals generated by the sensor for patterns, irregularities (including those not normally detectable by humans), differences from baseline detection, and the like.
[0042]
Further, data collected by or calculated by the medical diagnostic device 42 from the sensor 12 may be communicated to other locations. For example, the medical diagnostic device 42 may be deployed in an ambulance and communicate information about a patient to a destination hospital. As another example, data can be gathered by one medical worker and communicated to another medical worker (eg, a specialist in another city).
[0043]
In another embodiment, the sensor may be located remotely from the medical diagnostic device 42. For example, an individual may use sensor 12 from a location such as his / her home. The information detected by the sensor 12 may then be communicated to a remote medical diagnostic device 42. The communication may be made with respect to the telephone or other communication device discussed above with respect to the system 32 illustrated in FIG. 1C. Alternatively, the signal generated by sensor 12 may be an input to a personal computer, PDA, etc., and may be communicated to medical diagnostic device 42 via a network (eg, LAN, WAN, Internet, etc.).
[0044]
FIG. 1E is a block diagram illustrating a system 52 for detecting initiation activity and providing an output corresponding to the detected activity. This system 52 comprises a sensor 12 which preferably has an internal sensor 34. In an exemplary embodiment of the sensor 12, the sensor 12 has an additional pressure detector or external microphone 54. Use of the external microphone 54 is optional. As described in more detail below with respect to FIG. 2B, the internal microphone 34 is located on a housing 150 (FIG. 2B) that is inserted at least partially into the individual's ear. That is, the internal microphone 34 is at least inserted into the cavity defined by the outer portion of the ear (described in more detail below with respect to FIG. 2A). As a result, the internal microphone 34 detects a change in air pressure located in the ear. These air pressure changes are the result of the initiation activity, and in part, to outwardly emitted sounds (eg, other people's language, environmental noise, etc.). External microphone 54 is located in housing 150 (FIG. 2B) and generally faces away from the individual wearing sensor 12. As a result, the external microphone 54 detects an air pressure change located outside the ear. These air pressure changes are the result of externally generated noise (such as other people's language, environmental noise, etc.) and, in part, the initiating activity of the individual wearing the sensor 12, especially noise for that individual's language.
[0045]
The internal microphone 34 is connected to a processing circuit 14 "or another device used to receive electrical signals generated by the microphones 34 and 54, respectively, in response to a sensed air pressure change. , Using separate and distinct inputs, or channels, to the processing circuit 14 ". In one embodiment, internal microphone 34 is connected to the left channel input of a computer sound card or computer interface 28a via amplifier 24a and interface adapter 26a. The external microphone 54 is connected to the right channel input of the computer sound card or the computer interface 28b via the amplifier 24b and the interface adapter 26b.
[0046]
The processing of the unique signals generated by the microphones 34 and 54 is described in more detail below with respect to FIG. 3B. This unique signal can be used to distinguish between the initiation activity emitted by the user and the sound emitted externally. In an alternative configuration of the system 52, the system 52 may be adapted to cancel noise emitted outward from the detection of the internal microphone 34.
[0047]
When the test indicates that the user speaks (or causes an air pressure change in the ear from another type of initiation activity), the intensity of the signal generated by the internal microphone 34 corresponding to the language (or initiation activity) will typically be It was shown that the intensity of the signal generated by the external microphone 54 corresponding to the same language (or starting activity) was stronger. Also, if the test indicates that the sound is emitted by a source other than the user (e.g., another person is speaking), the strength of the signal generated by the external microphone 54 corresponding to this sound will typically be It is stronger than the intensity of the signal generated by the corresponding internal microphone 34. These sound energy differences, or relative signal strengths, can be used to determine whether the source of the detected air pressure change is from a user or external to the user. .
[0048]
For example, if the user is speaking, the internal microphone 34 may detect the user's language and external noise (eg, air conditioner and computer noise). In this example, external microphone 54 may detect the language of the user, but only to a lesser extent than internal microphone 34. The external microphone 54 also detects external noise, which is detected to a greater extent by the external microphone 54 than by the internal microphone 34. Thus, the processing circuit 14 "can be programmed to compare the signals and recognize that the source of the language is from the user. Further, the processing circuit 14" can identify the language and noise components. Alternatively, it can be programmed to separate the user's language by comparing the two signals. As a result, a relatively noise free speech signal can be generated, which can be used with speech recognition software, as indicated above. In alternative embodiments, the techniques described above may be used to distinguish between the language of the user and the language of another individual. The language of both individuals can then be analyzed as needed. As will be appreciated by those skilled in the art, the foregoing techniques may be applied to the detection of other types of initiation activity (thinking, oral-related movements, biological processes, etc.).
[0049]
2A and 2B, an external view and a cross-sectional view of the ear 100 are shown, respectively. FIG. 2B also shows sensor 12 in cross section. According to Henry Gray's famous textbook "Anatomy", the human ear is divided into three parts, including the outer ear 102, the middle ear (tympanic) 104, and the inner ear (maze) 106. The middle ear 104 and the inner ear 106 are not described in great detail herein. The outer ear 102 includes enlarged portions, namely, pinna 108 (also called auricle) and eustachian tube 110 (also called ear canal or ear canal). The pinna 108 serves to collect the vibrations of the air surrounding the individual's head. The Eustachian tube 110 transmits the vibration to the tympanic chamber, that is, the eardrum 112.
[0050]
The pinna 108 has a generally oval shape with a larger end facing upwards and an irregularly concave slightly forward facing outer surface. The pinna 108 has many bumps and depressions. Typically, the ear 100 has protruding and curved edges, or earrings 114. Approximately parallel to the ear ring 114 is another curved ridge, or anti-ring 116. The opposite ring 116 is branched so as to form a triangular depression, that is, a fovea (also called a triangular fossa) of the opposite ring 118. The narrow, curved depression between the ear ring 114 and the annulus 116 is referred to as a fossa of the helical or scapha 120. The annulus 116 also has a deep, large cavity, ie, the concha 122 (the concha 122 has an upper portion called the concha of the ear and a lower portion called the concha of the concha due to the start of the cuff 114 (ie, the cuff leg). Bend around). The instep 122 faces inward with respect to the opening of the ear canal 110. Protruding from the front of the concha 122 and posterior to the rear (typically relative to the opening of the Eustachian tube 110) is a pointed ridge or tragus 124. Opposite the tragus 124 is a nodule, or tragus 126. A notch-like depression, or intertrabecular notch 128, is between the tragus 124 and the antitragus 126. The earlobe 130 is below the tragus 124 and the antitragus 126.
[0051]
The eustachian tube 110 is an elliptical columnar passage and extends from the bottom of the concha 122 to the eardrum 112. The Eustachian tube 110 measures approximately one inch and a half when measuring from the tragus 124 to the eardrum 112. The Eustachian tube is approximately one inch long when measured from the bottom of the concha 122 to the eardrum 112. The Eustachian tube 110 forms a gentle "S" curve, initially pointing inward, forward and slightly upward (ie, outward). The Eustachian tube 110 then travels inward and backwards (ie, midway), and then travels inward, forward, and slightly downward (ie, inward).
[0052]
It is not clear which physical, chemical, or neural mechanism causes or produces sounds originating from the ear in or near the ear in response to air pressure changes or various initiation activities of the user. However, due to the oral cavity being connected to the ear through the Eustachian tube, movement and speech cause a change in air pressure, air pressure or airflow to or from the ear, which can be detected by the sensor 12. Air pressure can be induced. Regardless of the exact physical, chemical or neural mechanism, empirical testing has shown that the initiation activity described herein produces a change in air pressure within or near the human ear And that the changes in barometric pressure have substantially their own signature and are therefore substantially unique for a given initiation activity of the individual. Thus, changes in air pressure can be monitored near the ear and used to detect user initiation activity.
[0053]
Further, some initiation activities (eg, tongue movement) may generate a detectable pressure wave having a strength corresponding to the direction, speed and / or intensity of the movement. The present invention may use a single sensor 12 for one ear 100, but two sensors 12 (one for each ear 100) are used to obtain additional information, so that each sensor 12 Different and / or cumulative information that may be correlated by the processor may be detected.
[0054]
The present invention uses the various forms of the terms "change in air pressure", "change in the ear" and "sound emitted or produced by the ear" in their broadest sense to characterize the measured parameter. Alternatively, the change in air pressure can be characterized as a sound wave. These sound waves (or vibrations) can propagate through media other than air, such as bone and tissue. As is well known to those skilled in the art, when a sound wave diverges from its source, its intensity attenuates (the energy per unit area decreases with the inverse square of the distance), but the total energy is constant. Therefore, it is desirable to bring the microphone 34 sufficiently close to the sound source of the sound wave and to increase the intensity level of the resulting change as much as possible.
[0055]
The frequency range in which sound waves are audible to humans is from about 20 Hz to about 20 KHz, but the present invention does not care whether changes in the ear are audible. This is because the microphone 34 is sufficiently sensitive to a frequency detection range sufficient to detect a change in air pressure at a high frequency or a low frequency, and has a frequency detection range sufficient to detect a change in air pressure at a high or low frequency. This is because it is selected to have Thus, a frequency range suitable for detecting any onset activity (eg, about 10 Hz to about 20 KHz) may be monitored, and such variations are contemplated to be within the scope of the present invention.
[0056]
FIG. 2B illustrates that at least a portion of the human ear 100 (ie, if not deeper within the ear 100 (eg, within the concha 122, the opening of the Eustachian tube 110 or slightly within the Eustachian tube 110), 1 shows the sensor 12 inserted in a cavity defined by (1). The sensor 12 includes a housing 150, an internal microphone 34, and, optionally, an external microphone 54. In the embodiment shown, the housing 150 has an exterior 152 and an interior 154. However, the housing 150 can take many different configurations. The housing is preferably analogous to the insertable or partially insertable hearing aid housing, especially the digital hearing aid housing, for the ear 100 and / or the ear canal 110. External 152 is optional. The exterior 152 shown is made of a material such as plastic and is larger than the opening in the ear canal 110 and engages the pinna 108 or engages the ear 100 and covers the entire pinna 108 ( For example, similar to the outside of a general headphone assembly). In one embodiment, the exterior 152 fits within the concha 122 and is at least partially maintained by the tragus 124 and / or the antitragus 126. Such an arrangement isolates, at least in part, the internal microphone 34 from externally generated noise and air pressure changes.
[0057]
Alternatively, the housing 150 may resemble a small earphone, as found in a conventional wireless telephone headset, or as used in a personal audio / music player. Earset 150 may be maintained by insertion into ear 100, by a member placed on or suspended from the ear, and / or by a headset assembly. The illustrated housing 150 is made from any suitable material, such as a plastic, rubber or gel-like material. If desired, housing 150 'or portions thereof may be made of a flexible material, a sound absorbing material (or sound insulation material), and / or may contain a sound insulating material (e.g., foam).
[0058]
Interior 154 may be made of a flexible material (eg, rubber) and is dimensioned and shaped to fit snugly within ear 100. Such materials are sometimes referred to in the art as soft-solids. If desired, the entire housing 150, or portions thereof, can be made of a flexible material, a sound absorbing material (or sound insulating material), and / or can contain a sound insulating material (eg, foam).
[0059]
The internal microphone 34 is arranged in the inside 154 of the housing 150. Accordingly, interior 154 is sized and shaped to position interior microphone 34 with respect to ear 100 and / or ear canal 110 (if desired). In one embodiment, interior 154 places internal microphone 34 on concha 122. In another embodiment, the interior 154 places the internal microphone 34 at an opening in the ear canal 110 where the ear canal 110 mates with the concha 122. It should be understood that the internal 154 and / or the internal microphone 34 need not enter the ear canal 110. In yet another embodiment, and as described by way of example in FIG. 2B, interior 154 places internal microphone 34 within ear canal 110. In another embodiment, interior 154 places microphone 34 and / or speaker 38 (FIG. 16, described below) in concha 122. In another embodiment, interior 154 places microphone 34 and / or speaker 38 at an opening in ear canal 110 where ear canal 110 mates with concha 122. It should be understood that interior 154, microphone 34 and / or speaker 38 need not enter ear canal 110. In still another embodiment, interior 154 extends into ear canal 110 and places microphone 34 and / or speaker 38 within ear canal 110. When placed within the Eustachian tube 110, the internal microphone 34 enters the Eustachian tube 110 at a depth of about 0.1 inches to about 0.5 inches, as measured from the opening of the Eustachian tube 110.
[0060]
Housing 150 with both exterior 152 and interior 154 can be tailored to the individual and can create a close and comfortable fit to the individual's ear. Alternatively, the housing may have a standard, or "stock" design for all individuals, made in many sizes. As those skilled in the art will appreciate, many alternative configurations for housing 150 are possible and each is considered to be within the scope of the present invention.
[0061]
In one embodiment, microphone 34 is held in place by an adhesive. The interior 154 of the housing 150 has a recess 156 in which the microphone 34 is located. Preferably, air near the eardrum and / or air in the ear canal 110 is in fluid communication with air near the microphone 34. Thus, the sound or air pressure change generated in the ear 100 is directly transmitted to the microphone 34 through the air medium. Other sounds conducted by the user's bones and tissue may be mechanically propagated by the housing 150 to the microphone 34. In one embodiment, microphone 34 is between about 1 mm and about 6 mm in diameter. However, those skilled in the art will recognize that microphone 34 need not be disk-shaped. In an alternative embodiment, the microphone 34 is located within a hollow cavity defined by the housing 150, and an opening in the wall of the interior 154 of the housing 150 provides air inside the housing 150 and the interior of the ear canal 110. Provided to achieve fluid communication with air.
[0062]
By inserting the microphone 34 into the ear 100 and / or the ear canal 110, the microphone 34 is shielded from environmental noise. More specifically, the housing 150 and the user's head at least partially block externally generated sound waves before reaching the microphone 34.
[0063]
In one embodiment, microphone 34 is a directional microphone modified to detect air pressure changes from a particular direction. Directional microphones are oriented as desired to detect a variety of different air pressure changes caused by different types of initiation activity. For example, the microphone may be directed toward a desired sound source (eg, the eardrum 112, the wall of the Eustachian tube 110, or the bone structure around the opening of the Eustachian tube 110). Because the microphone is directional, the microphone detects less environmental noise (the source of this noise is outside the ear and is typically from a direction that does not match the microphone's directional sensitivity). In another embodiment of the present invention, microphone 34 is a noise cancellation microphone, further reducing the detection of environmental noise.
[0064]
If the microphone 34 is desired for such factors as, for example, comfort, detection of certain air pressure changes caused by certain types of initiation activity, optimizing detection of the user's language, etc. It should be understood that the various anatomical structures can be moved closer or further away therefrom. It is noted that microphone 34 may detect the user's language speaking at various volumes.
[0065]
The microphones 34 and 54 can be in many different forms (eg, silicon or semiconductor microphones (also referred to as pressure sensors)) (eg, US Pat. Nos. 4,533,795; 4,922,471; 156,585, each of which is incorporated herein by reference in its entirety)). The foregoing device is exemplary, and other electroacoustic transducers from many different vendors may be used.
[0066]
In the illustrated embodiment, when the sensor 12 is inserted into the ear 100, a slightly positive pressure is generated by the compression of air within the ear canal 100. This slightly positive pressure, undetectable in an individual, is believed to improve the overall operating characteristics and sensitivity of the sensor 12.
[0067]
The microphone 34 can be used to initiate various forms of initiating activity (e.g., human language speaking at different volumes, groans, whistling, singing, coughing, physical movements of the human (e.g. Open mouth, human breathing, human heartbeat) and the like. In addition, air pressure changes in the ear caused by thought can be recognized by detecting changes in the ear when the trained individual thinks.
[0068]
The use of a sensor with only the internal microphone 34 on one of the individual's ears 100 (ie, without the external microphone 54) has shown that it can be used to detect the initiation activity described herein. . However, empirical trials have shown that by using two such sensors 12, one in each ear of an individual, the performance of systems such as systems 10, 22, 32, 40, and 52 may have more information It was shown to improve about 6-fold due to the detection of Note that in certain circumstances (eg, when using a mobile phone while driving a car), the use of the sensor 12 in both ears is discouraged. The circuit routines, processing routines and logic routines described herein are modified to process signals from the second earset 12 or sensor 12 (sensor 12 with or without external microphone 54). Can be done. Such modifications will be apparent to those skilled in the art.
[0069]
Although not shown in FIG. 2B, speakers 38 (FIGS. 1C and 16) are located on or within housing 150 of sensor 12 and propagate sound to the individual. For example, when using the sensor 150 as a microphone for the communication device 36, the sensor 12 may also be used to broadcast a received sound to a user.
[0070]
As shown, the sensor 12 also includes an external microphone 54. The external microphone 54 is located on the exterior 152 of the housing 150 and is directed outside the wearer of the sensor 12 assembly. External microphone 54 may be secured to housing 150 with an adhesive and may be located in a recess defined by exterior 152. Similar to the internal microphone 34, the external microphone 54 is small (eg, about 1 mm to about 6 mm, but need not be disc-shaped).
[0071]
The location of the external microphone 54 allows the external microphone 54 to detect air pressure changes that are near the wearer's ear but have a sound source external to the wearer of the sensor 12. In one embodiment, external microphone 54 may be a noise cancellation microphone, if desired, as is known in the art.
[0072]
The internal microphone 34 is electrically connected to the amplifier 24 by a lead 158, and the external microphone 54 is electrically connected to the amplifier 24 by a lead 160. Although shown as a single unit in FIG. 2B, amplifier 24 includes separate amplifier circuits 24a and 24b (FIG. 1E) for each signal generated by both internal microphone 34 and external microphone 54.
Amplifier 24 is electrically connected to interface adapter 26 (not shown in FIG. 2B) by conductor 162. More specifically, conductor 162 carries the amplified signal separately from microphones 34 and 54 to different interface adapters 26a and 26b. As those skilled in the art will appreciate, if the amplifier 24 is omitted, the microphones 34 and 54 and / or the speaker 38 may be directly coupled to the interface adapter 26 via a wire. If two sensors 12 are used by placing one sensor 12 in each human ear 100, processing circuitry or other devices that receive signals from the sensors 12 include an internal microphone 34 for each sensor 12 and Four signals corresponding to each of the external microphones 54 are received.
[0073]
The microphones 34 and 54 of the sensor 12 monitor air pressure changes and convert the air pressure changes into analog electrical signals 190 as shown in FIG. 2C. In signal 190, there are at least two signal components, a high frequency component 192 and a low frequency component 194. Further, other frequencies may also be present in the electrical signal 190, and the present invention may be adjusted to analyze various signal frequencies, as described herein.
[0074]
In an alternative embodiment, the internal microphone 34 and the external microphone 54 are provided in a headphone-type assembly having a band located around the user's head and a hub located in one or both ears 100 of the user. One exemplary headphone and internal microphone assembly that may be used is a model 4190 microphone manufactured by Blueel & Kjaer, Denmark.
[0075]
A method 200 for practicing the present invention is disclosed in FIG. 3A. Method 200 includes detecting initiation activity by monitoring changes in ear 100 using internal microphone 34 of sensor 12 at step 202. External microphone 54 is optional in the performance of method 200. Once a start activity is detected at step 202, one or more control instructions or other outputs corresponding to the detected start activity are provided at step 204 to perform the desired output function.
[0076]
A method 200 'for practicing the present invention is disclosed in FIG. 3B. The method 200 'involves detecting a change in air pressure using both the internal microphone 34 and the external microphone 54. More specifically, in step 202 ′, changes in air pressure within ear 100 and / or ear canal 110 are detected by internal microphone 34. These detections may be the result of initiation activity, but are generated by sound components and / or the language of the wearer external to the person wearing the sensor 12 and through the air from the wearer's mouth through the wearer's ear. Sound components propagated to the 100 regions may also be included. In step 202 ′, a change in air pressure near (but external to) the human ear 100 wearing the sensor 12 is also detected by the external microphone 54. These detections are primarily generated by sound components generated outside the person wearing the sensor 12 and / or the language of the wearer and propagated from the mouth of the wearer through the air to the ear 100 area of the wearer. This is the result of the sound component. The detection is converted by microphones 34 and 54 into respective electrical signals (referred to herein as internal and external signals).
[0077]
Next, in step 206, the internal signal and the external signal are compared. If the user produces a pressure change in the ear 100 from speech or other type of initiation activity, the intensity of the signal generated by the internal microphone 34 corresponding to the initiation activity will typically be the corresponding intensity generated by the external microphone 54. Signal strength. The test indicates that if the sound is generated by a sound source other than the user (eg, another human language), the intensity of the signal generated by the external microphone 54 corresponding to this sound is typically generated by the internal microphone 34. It was also shown that the intensity of the corresponding signal was stronger.
[0078]
Using the signal intensity difference, the sound source of the detected air pressure change (ie, the sound source from the user or from outside the user) can be reliably determined. From a further comparison of the internal and external signals, two components from each signal are derived. Two components corresponding to each signal are detected by the external microphone 54, depending on the component associated with the air pressure change caused by the initiation activity and externally generated noise and / or sound (depending on the system in which the sensor 12 is used). (Which may or may not include the user's language). It is noted that for initiation activities other than language, the initiation activity component of the external signal may be almost undetectable.
[0079]
Subsequent processing of the internal and external signals depends on the system in which sensor 12 is used and what type of initiation activity is detected. For example, the signal may be used by a processor or other device that accepts the signal to produce a corresponding output signal. However, in most applications, it is advantageous to isolate the components of the internal signal generated by the initiation activity and, if necessary, eliminate any externally generated components of the internal signal as far as possible. It is. Thus, in step 208, the method 200 'distinguishes the starting active component of the internal microphone signal. In another embodiment of step 208, method 200 'may cancel noise (or all sounds) detected by external microphone 54 from detection of internal microphone 34. More specifically, components generated outside the internal signal are filtered or mechanically removed from the internal signal. The signal obtained in step 208 is used in step 204 'to provide an appropriate output response to a control command or start action.
[0080]
A similar process for processing external signals is performed in step 210 to derive an externally generated sound signal (e.g., isolating another human language from noise and the human language wearing sensor 12). Do). Thereafter, at step 212, an appropriate output response to the control command or externally generated sound may be generated.
[0081]
A method for detecting a change in the ear 100 (step 202) is shown in FIG. The microphone 34 is placed in the user's ear 100 and the user's starting activity should be detected at step 214. However, initiating activity can cause changes in or near other parts of the body. Thus, in an alternative embodiment of the present invention, the sensor 12 may be placed on, in, or near other parts of the body, with any initiation by analyzing physiological or pneumatic changes. Detecting activity is contemplated to be within the scope of the present invention.
[0082]
Changes in the ear 100 are monitored by the microphone 34 at step 216 and converted to electrical signals at step 218 for further analysis. After being converted to an electrical signal at step 218, the electrical signal is analyzed at step 220 to detect initiation activity. Although it is contemplated that initiation activity can be detected at step 220 by simply analyzing a signal corresponding to a change in air pressure or a change in the ear 100 without further data processing, step 220 is typically Data processing with signal analysis. If a sensor with an external microphone is used, the foregoing logic involves capturing an electrical signal corresponding to a change in barometric pressure outside the ear 100 and using this signal in the analysis of step 220 described above. It can be modified as follows.
[0083]
An exemplary method of analyzing and processing the electrical signal corresponding to the monitored pressure (step 220) is shown in FIG. Again, the analysis logic can be adapted to include processing of the second electrical signal delivered from the external microphone 54, as described herein. An analog electrical signal (an example of which is shown in FIG. 2C) is converted at step 222 to a digital signal as shown by the example of FIG. As is well known to those skilled in the art, an analog signal can be converted to a digital signal by sampling the analog signal at a selected frequency and identifying the amplitude of the signal at each sampling point. Each sampled data point then serves as a digital word in memory and is used for further analysis. In FIG. 6, a sampled analog signal is shown, where the dashed line indicates an exemplary analog signal for a particular time period, and the points on the dashed line are the sampled analog signals stored in memory. Represents the amplitude value. It is desirable that the frequency of sampling be sufficient to capture enough data points to sufficiently represent the analog signal. By way of example, the sampling rate may be 32 kHz, and the total signal time length analyzed may be 2048 ms. However, alternatively, other sampling rates and data acquisition time frames may be utilized, and such variations are contemplated to be within the scope of the present invention.
[0084]
Once the analog signal has been converted to digital signal data in step 222, the digital data is analyzed and processed in step 224, for example, by a signal processor to detect the presence of an initiating act. As indicated above, step 224 includes comparing the internal and external signals, and filtering or mathematical manipulation of the signals based on the comparison (to isolate the desired components of detection and / or undesired detection). To remove components). Additionally or alternatively, data analysis and processing may be performed on multiple segments (eg, as shown in FIGS. 7 and 8). As shown in FIG. 7, the processing of step 224 may include analyzing the first data segment in step 226, followed by analyzing the second data segment in step 228. Once the various data segments have been analyzed separately, these data segments are analyzed together at step 230. If all data segments have not yet been analyzed in step 232, the method returns to step 228 and the next data segment is analyzed, after which all preceding segments are analyzed together in step 230. This process continues until all data segments have been analyzed at step 232, thereby allowing results to be produced at step 234 using the analyzed data segments.
[0085]
The data segment analysis may be viewed graphically in FIG. 8, where the digital signal data 236 is shown as being continuous for simplicity. The total length of the data for analysis can be separated into 64 segments, each of which is 32 ms in length. Note that signal 236 includes both high frequency component 238 and low frequency component 240. Data segments associated with the initiating act may possibly be found in either component, or the data of the initiating act may span multiple data segments, so that the data segments may be analyzed separately and together. Thus, in step 226 of FIG. 7, the first data segment is analyzed (region 242), then in step 228 the second data segment is analyzed (region 244), and in step 230 both data segments are joined together. (Area 246). The process then continues for all data segments, so that the data analysis of the present invention may analyze both high and low frequency signals to detect initiating actions.
[0086]
Returning to FIG. 5, at step 224, once data from the sensor that is deemed to be initial data is found in the data signal, at step 248, subsequent analysis is performed to determine the type of act of initiation. . Such analysis may include feature extraction and analysis using a neural net, tuned to recognize each signal / feature of such a signal. If the neural network determines that the signal represents the act of initiating a particular feature, the neural network provides an output or outputs it for an application as described herein. The occurrence of the output that results is produced. However, or alternatively, once the act of initiation is detected, other techniques may be utilized to identify the type of act of initiation and any such technique may fall within the scope of the invention. Is contemplated.
[0087]
One exemplary method of analyzing a digital signal in a data segment (step 224) is shown in FIG. For each data segment of 32 ms, these data are transformed at step 250 from the time domain to the frequency domain using, for example, a fast Fourier transform (FFT), as is well known to those skilled in the art. As is well known, the time domain signal f (t) is tied to the frequency domain f (jω) according to the following equation:
F (f (t)) = ∫f (t) e−jωtdt = f (jω) Equation 1
Here, F (f (t)) is a traditional Fourier transform. As is well known to those skilled in the art, the fast Fourier transform is related to the traditional Fourier transform. This is because the fast Fourier transform is an efficient algorithm for calculating the discrete Fourier transform. After the digital signal data has been transformed into the frequency domain by a fast Fourier transform, the frequency domain data is processed at step 252 to distinguish between noise data and data related to the initiation action. As is well known to those skilled in the art, the separation of data from noise is often simplified in the frequency domain. This is because, unlike noise, data signals have some physical characteristics. The data signal in the time domain has a smaller amplitude than the noise, but the data signal has a larger amplitude in the frequency domain than the noise. Therefore, the fast Fourier transform is a typical method for noise separation. Additionally or alternatively, signal data from external microphone 54 may be used to derive a signal component, as described in further detail above.
[0088]
The details around the data processing of digital signal data can be achieved through various data processing techniques, as is well known to those skilled in the art, and any data processing methodology is contemplated to fall within the scope of the present invention. You. While many different data processing methodologies may be used, an exemplary methodology is disclosed below, with the following methods and systems.
[0089]
Referring to FIG. 10, a system 270 and method are described. One or more sensors 12 sense changes in the user's ear 100 and, if desired, external to the user's ear 100. The analog signal from the sensor is provided to processor 18 via a data acquisition card, an analog-to-digital converter, and buffers 16/17. The signal received from the sensor is substantially continuous, at least for each time period during which the initiation action is performed; therefore, buffer 17 stores a portion of the signal sufficient for analysis by processor 18. obtain.
[0090]
In one embodiment, processor 18 may include a bandpass filter 272, a frequency spectrum filter 274, a signal detector 276, a signal comparator 278, a feature extraction portion 280, and a neural network 282. System 270 also includes an output 284, which may be connected to a desired output peripheral 20.
[0091]
To summarize the operation of the overall system 270, the sensor 12 and data acquisition, A / D, and buffers 16/17 provide signals to the bandpass filter 272. An example of raw data or a signal supplied to the bandpass filter 272 is shown in the graph 286 of FIG. The raw signal is presented to a bandpass filter, which directs it to the frequency domain using fast Fourier transform techniques. This fast Fourier transform converts a digital signal into the frequency domain. In bandpass filters, for example, frequencies higher or lower than the frequency range representing the initiation action are removed from the signal. Frequencies above and below the frequency range of interest are typically due to noise. An example of the signal after being filtered by a bandpass filter is shown at 288 in the graph of FIG. Various bandpass filters may be used to provide bandpass filtering, excluding signal frequencies above and below the desired frequency range.
[0092]
Portions of the signal represented at 288 (e.g., portions 288a and 288b) may not represent an act of initiation, for example, because they are relatively low power and thus may still be noise. is there. Thus, the frequency spectrum filter 274 performs further filtering according to the power of the various parts of the signal to determine the parts that are due to the initiation action and therefore should be considered for further analysis. Power filtering may be performed by slicing the signal of FIG. 12 into multiple windows or segments (eg, represented at 290a, 290b,... 290i in FIG. 13). It is understood that the graphs of FIGS. 12 and 13 are at different scales. Therefore, windows 290a-290i are at time taAnd time tb(Which is the time t shown for signal portion 288c in FIG. 12).aAnd time tbIs the same as the time frame between).
[0093]
Frequency filtering suppresses or eliminates frequencies where the power of the signal does not exceed a predetermined threshold or value, and thus appears to represent noise. By eliminating these noise components, a signal representing the initiation action can be obtained. To perform frequency filtering, for example, the frequency spectrum for the signal is calculated using the following equation:
Pf  = Magf 2  + Phasef 2      Equation 2
Where f = F0... FiAnd [F0Fi] Represents the frequency range over which the signal resulting from tongue movement is expected.
[0094]
Power is literally a function of the square of the absolute value plus the square of the phase. The power as calculated above for each window 290a, 290b,... 290i is reconstructed to create the graph 292 shown in FIG. Graph 292 shows values 292a, 292b,... 292i from the mentioned calculations. Curve 292 is relatively smooth and represents the frequency spectrum in which the signal caused by the act of initiation can be found in graph 288 of FIG. Typically, the signal caused by the act of initiating is relatively high power and occurs at a time approximately at the center of graph 292 (eg, over time frame T shown in FIG. 13). It is the point in time at which this time frame exists and its duration that either detects the signal or determines the point in time at which the signal 288 represents the act of initiation. Thus, in effect, the signal detector component 276 of the system 270 is a combination of the graphs of FIGS. 12 and 13 and the analysis just described to provide a signal detection function. Time frame T is also shown in the graph of FIG. 12, and thus specifies the portion 288d of signal 288c (blocked window 288e shown) that is considered to be caused by the act of initiating.
[0095]
As an alternative to, or in addition to, the filtering and detection operations of the frequency spectrum filter 274, the signal detector 276, and the feature extraction 278, the signal comparator 278 performs the method 200 'to provide a signal indicating the act of initiating ( That is, a signal portion 288d) can be generated. The signal portion 288d or at least features of the signal may then be provided to the neural network 282. Using the principle of feature extraction, the features of the signal portion 288d are provided to this neural network. In neural network 282, this feature is compared to other features to which the neural network has been adjusted. Adjustment of the neural network is a well-known procedure. The neural network may determine whether an input feature (eg, a feature representing signal portion 288d) is an acceptable match or acceptably correlated for adjustment of the neural network; This neural network results in the generation of output 284. Output 284 may be an electrical signal, similar to the type of signal produced by a computer mouse, joystick, or other device. Thus, in one example, the movement of the tongue as the user's tongue moves from the lower left front of the mouth to the upper right of the back of the mouth will produce an output signal similar to the movement of the mouse from the lower left to the upper right of the mouse pad. Can occur.
[0096]
For example, the features extracted from signal 288 may be any features or features indicative of features that distinguish the curve representing the signal from others. Various features are used in the feature extraction method, which are well known. In the present invention, an exemplary feature is the smoothed frequency spectrum of signal portion 288d. Other features may be the log of the frequency spectrum, the frequency spectrum itself, and the like.
[0097]
Neural network 282 may be a conventional neural network tuned in a representative manner. Neural network 282 may compare the features of signal portion 288d to its adjustments and determine whether the features are more similar to one adjusted feature or to another adjusted feature. obtain. If the input features of the signal portion 288d are significantly similar to one tuned feature, the neural network will result in the generation of a signal at approximately the output, for example, as described above. If the input features are not sufficiently similar to any of the adjusted features, or are relatively similar to two or more adjusted features, the neural network will not generate an output signal at the output. Because otherwise, uncertainties can result in the generation of unwanted output signals.
[0098]
As described above, if two sensors 12 are used, the system 270 may operate each signal from each sensor 12 sequentially or may have parallel processing capability, so that both The signals from the sensors can be processed substantially simultaneously. Output 284 may reflect the results of signal analysis of signals emanating from both sensors, and may be used to provide an output signal at output 284 that reflects substantially three-dimensional data.
[0099]
Another embodiment of the invention is directed to a communication system comprising a communication device and an ear microphone (ie, earset) assembly. The communication system allows a user to talk to a remotely located person. The ear microphone assembly (also referred to herein as an earset) includes a microphone and a speaker supported by a housing. The housing is held by the user's ears and allows the user of the communication system to use his hands freely while talking to a remotely located person. This microphone is pointing towards the user's ear canal and detects sounds coming from or coming out of the ear (or changes in air pressure occurring inside the ear), allowing the user to speak accurately and reliably. To detect. The location of this microphone may also help reduce the detection of externally generated sounds. The ear microphone assembly allows for the separation of a cellular or wireless telephone's speech input device from the telephone's RF transceiver.
[0100]
Further, the earset assembly of the present invention allows a user to speak more quietly (eg, whisper or nearly whisper) than with a conventional headset. This allows for more personal conversations and less confusion with others. Speaking more gently requires less concentration to maintain the conversation, thereby allowing the individual to at least partially engage in other activities while speaking. There is also a great deal of evidence to show.
[0101]
The earset of the present invention does not rely on the directionality of the microphone or the detection of sound coming from the user's mouth. Thus, the need to repeatedly adjust the position of this earset, which would otherwise distract the user and require the use of the user's hand. Also, the size and placement of this earset is small, resulting in a more aesthetically appealing device. Such devices can be used sparingly. For example, the device does not draw much attention when used in public, by others, or by persons seen by others (eg, television newscasters or intelligence agents).
[0102]
As a result, sensors can be used to detect human speech. Glossary is used in its broadest sense and is the spoken word and utterance, as well as other utterances produced by the user (eg, a "tongue" sound produced by complaining, whistling, singing, coughing, lip or tongue movement Are also noted. For ease of description herein, a microphone sensing or detecting event is referred to as detection, and what is detected is referred to as a change within the ear, or simply a change in air pressure. You. The present invention provides a substantially real-time speech detection system that monitors changes within the human ear that occur immediately or almost immediately in response to human speech.
[0103]
Referring now to the drawings, FIG. 15 is a block diagram illustrating a communication system 32 'for establishing dual (two-way) audio communication between two or more individuals. The communication system 32 'includes a communication network 37 or a skeletal network. The communication network 37 establishes a communication link with the at least one communication device 36 'so that the user of the communication device 36' can use the remotely located telephone 31, as is known in the art. Enables conversation with a remotely located person. In the illustrated embodiment, communication device 36 'and remote phone 31 are wireless phones (e.g., mobile phones). However, those skilled in the art will recognize that communication device 36 'and / or remote telephone 31 may include other types of devices, such as hard-wired (landline) telephones, radios, personal digital assistants (PDAs), portable or stationary computers, and the like. Understand). Communication network 37 may also be an alternative type of network (eg, Internet, WAN, or LAN).
[0104]
Communication system 32 'includes an ear microphone assembly (or earset 12'), which has a microphone 34 'and a speaker 38' supported by a housing 150 '(FIG. 16). The physical arrangement of the earset 12 'will be described in further detail below. The microphone 34 'is used to detect sounds originating or coming out of the user's ear (sometimes referred to as air pressure changes in the ear) that are the result of the user's speech. Microphone 34 'converts these detections into electrical signals. This electrical signal is amplified by an amplifier 24 'as needed. This amplified electrical signal is then received by the communication device 36 'via the appropriate interface adapter 26'. Interface adapter 26 'may be, for example, a jack or other electrical connector that is received by a corresponding receptacle of communication device 36'.
[0105]
The inner portion 154 'of the housing 150' has a recess 156 'in which the microphone 34' is located. Preferably, the air adjacent to the eardrum 112 and / or the air in the ear canal 110 is in fluid communication with the air adjacent to the microphone 34 '. In this manner, sound or air pressure changes generated inside the ear 100 are transmitted directly to the microphone 34 'through an air medium. Other sounds transmitted by the user's bones and tissues may be transmitted mechanically via the housing 150 'to the microphone 34'. In one embodiment, microphone 34 'is held in place using an adhesive. Microphone 34 'is, in one embodiment, smaller than 2 mm. In an alternative embodiment, the microphone 34 'is located in a hollow cavity defined by the housing 150', and the opening in the wall of the housing 150 'that defines the cavity defines the air and ear canal in this cavity. Provided to establish fluid communication with the air in 110.
[0106]
The inner portion 154 'of the housing 150' has a second recess 157 in which the speaker 38 'is located. Preferably, speaker 38 'responds to the speech of a remotely located person using remote telephone 31 and broadcasts the sound received by communication device 36'. This sound is a reproduction of a remotely located human story and is made audible to the user by the speaker 38 '.
[0107]
Microphone 34 'is electrically connected to amplifier 24' using conductor 158 '. Speaker 38 'is also electrically connected to amplifier 24' using conductor 160 '. Amplifier 24 'is electrically connected to interface adapter 26' (FIG. 15) using conductor 162 '. More specifically, conductor 162 'carries the amplified signal from microphone 34' to interface adapter 26 'and carries the signal to be converted to sound from interface adapter 26' to the speaker. As those skilled in the art will appreciate, amplifier 24 'may be omitted or bypassed, and microphone 34' and / or speaker 38 'may be directly coupled to interface adapter 26' by a wire.
[0108]
The speaker 38 'is used to transmit (i.e., broadcast) sound to the user. These sounds include sounds generated in response to signals received by communication device 36 'through communication network 37. In this manner, the earset 12 'and the communication device 36' can be used as a two-way communication device.
[0109]
In one embodiment, earset 12 'is coupled to the communication device using three wires. The first of these wires is used as normal ground. The second of these conductors carries the electrical signal to be converted to sound waves to speaker 38 '. The third of these conductors carries an electrical signal representing the detected sound from the microphone 34 'to the communication device 36' for transmission to the communication network 37. The third conductor also carries power for microphone 34 'and amplifier 24'. In this embodiment, the interface adapter 26 'can be implemented using a 2.5 mm jack, as is known in the art.
[0110]
Using the microphone 34 'in one of the individual's ears 100 and using one earset 12' can be used to detect a talk, resulting in communication by the communication device 36 ', and can be remotely located. Has been shown to be able to listen to this user using the remote telephone 31. However, empirical testing has shown that by using two such earsets, one in each of the individual's ears, the performance of the system 32 'may be reduced due to the detection of more information. It was shown to be improved.
[0111]
A block diagram of the ear microphone assembly and, in particular, the amplifier 24 'is shown in FIG. Since the microphone 34 'is located in close proximity to the speaker 38', the microphone 34 'tends to detect sound generated by the speaker 38'. These detections are in addition to detecting the user's story. The sound generated by the speaker 38 'and detected by the microphone 34' is referred to herein as feedback, and is indicated by arrow 51 in FIG. In one embodiment, the sensitivity of the earset 12 'is adjusted to minimize detection of sound from the speaker 38' and / or minimize delivery of feedback components to the communication device 36 '. Is done. For example, if desired, a potentiometer may be used to adjust the gain of amplifier 24 '. Physical separation between the speaker 38 'and the microphone 34' to reduce the detection of feedback is also possible.
[0112]
In an exemplary embodiment, amplifier 24 'is configured to cancel at least some, if not all, of the feedback components of the electrical signal generated by microphone 34'. In this embodiment, the speaker 38 'and the microphone 34' are placed in close physical proximity so that the feedback detected by the microphone 34 'is very similar to the sound generated by the speaker 38'. You. FIG. 17 illustrates an exemplary amplifier circuit 24 'for canceling at least a portion of the feedback component. As will be apparent to those skilled in the art, various alternative analog or digital circuits may be used, each falling within the scope of the invention.
[0113]
The illustrated amplifier circuit 24 'receives an electrical signal output from a microphone 34' (herein referred to as a microphone signal). This microphone signal is filtered by the filter 53. The filter 53 may be, for example, a filter for removing low-frequency components (for example, frequencies less than about 400 Hz) of the microphone signal. The filtered microphone signal is then amplified by an amplifier 55 (eg, a low power, non-inverting operational amplifier). The increase in amplifier 55 is selected to adjust the microphone signal to a voltage level that meets the input requirements of communication device 36 '.
[0114]
As shown, a speaker 38 'is coupled to the communication device 36' to receive an electrical signal for conversion to a sound to be disseminated to a user of the earset 12 '. This signal is referred to herein as a speaker signal. This speaker signal is also filtered by the filter 58. Filter 58 may be, for example, a filter for removing low frequency components (eg, frequencies below about 400 Hz) of the speaker signal. The filtered speaker signal is then amplified by amplifier 60. Amplifier 60 may be, for example, a low power inverting operational amplifier. The increase in amplifier 60 is selected to adjust the loudspeaker signal to have an amplitude equal to or approximately equal to the amplified feedback component of the microphone signal.
[0115]
The amplified microphone signal and the amplified speaker signal are then combined to eliminate the feedback component of the microphone signal and produce a modified microphone signal. It should be noted that the polarity or phase of the amplified microphone signal and / or the amplified speaker signal can be adjusted to properly combine the signals. The combination of the signals can be performed by the adder 56. As will be apparent to those skilled in the art, in analog systems, signals can be combined by simply sending the signals together. In one example, the conductors carrying the signals are directly connected together. Alternatively, an analog or digital circuit or process may be used to perform the combined function of adder 56.
[0116]
Note that if the speaker signal needs to compensate for any propagation delay of feedback 51, it may be delayed by a delay element. The output of summer 56 further modulates the modified microphone signal (eg, removes high frequency components of the modified microphone signal (eg, frequencies greater than about 4 KHz for the communication systems described herein)). For filter 62.
[0117]
Many alternatives to the exemplary amplifier circuit 24 'are contemplated and each is considered to fall within the scope of the present invention.
[0118]
As another example, high and low frequency filters can be replaced by band pass filters. In another example modification, the speaker signal may be amplified and / or filtered before being applied to the speaker.
[0119]
In yet another example modification, analog microphone and speaker signals can be converted to digital signals and processed using digital signal processing techniques to obtain a microphone signal with no or little feedback components.
[0120]
Processing of microphone signals by the communication device 36 'for transmission is well known in the art and will not be described in further detail.
[0121]
With further reference to FIG. 18, in another embodiment of the present invention, the earset 12 ′ includes a microphone 34 ′ (referred to herein as an internal microphone 34 ′) directed to the user's ear canal. An external microphone 54 'may be provided. The external microphone 54 'detects a change in air pressure generated outside the user's ear, that is, a sound. As described in more detail below, these sounds are converted to electrical signals and compared to the electrical signals corresponding to the sounds detected by the internal microphone 34 '. Each signal can be processed to identify changes in air pressure within the ear from externally generated noise, speech, and the like.
[0122]
An external microphone 54 'is located on the outer portion 72' of the housing 150 'and is pointed away from the wearer of the earset 12' assembly. External microphone 54 'may be adhesively secured to housing 150' and may be located in a recess defined by external portion 72 '. Like the internal microphone 34 ', the external microphone 54' is small (e.g., less than 2 mm in size).
[0123]
The location of the external microphone 54 'allows the external microphone 54' to detect changes in air pressure near the wearer's ears but with an external source to the user of the earset 12 '. In one embodiment, external microphone 54 'is an omnidirectional microphone.
[0124]
FIG. 18 is a block diagram illustrating a system 32 "for detecting user conversation. The system 32" includes an internal microphone 34 ', speaker 38', and amplifier 24a, as described in more detail above. An earset 12 having a '. Further, the earset 12 'of the system 32 "has an external microphone 54'. As will be apparent to those skilled in the art, the use of the external microphone 54 'is optional. 16) is positioned above and generally directed away from the individual wearing the earset 12 '. As a result, the external microphone 54' detects air pressure changes outside the ear. Predominantly externally generated noise (such as other people's conversations, environmental noise, etc.), and some if the conversation travels from the user's mouth to the external microphone 54 'via air, the earset 12' Is the result of the noise generated for the conversation of the individual wearing.
[0125]
The external microphone 54 'generates an electric signal corresponding to the sound detected by the external microphone 54'. External microphone 54 'is electrically coupled to communication device 36' using a separate and different input, i.e., channel, than that used for internal microphone 34 '. The signal generated by the external microphone can be amplified by amplifier 24b 'and coupled to communication device 36' using interface adapter 26b '. Communication device 36 'correlates the two signals generated by microphones 34', 54 ', as described below. Alternatively, the internal microphone 34 'and the external microphone 54' are respectively connected to the left and right channel inputs of the processing circuit for correlating the signal, as discussed below.
[0126]
The unique signals generated by the internal microphone 34 'and the external microphone 54' may be used to distinguish between user-generated speech and externally generated sound. In an alternative configuration of system 32 ", system 32" may be adjusted to cancel externally generated noise from the detection of internal microphone 34 '.
[0127]
When the user speaks, both the internal microphone 34 'and the external microphone 54' detect the conversation. Sound generated by sources other than the user (eg, the noise of another individual, traffic, machines, air conditioners, or computers, etc.) is referred to herein as noise. Both the external microphone 54 'and the internal microphone 34' detect noise. Accordingly, communication device 36 '(or other processing circuitry) may be programmed to separate the user's conversation by identifying (i.e., separating) the speech and noise components. As a result, a relatively noise free speech signal may be generated, which signal may be communicated by the communication device 36 'to the communication network 37 (FIG. 15). One of ordinary skill in the art will be able to assist in separating the starting active component and the noise component in the manner described herein for system 32 "(eg, by using method 300 described below). It will be appreciated that the earset 12 'may be used with other systems (e.g., systems 10, 22, 32, 40 and 52 described above).
[0128]
In one embodiment, signal separation may be performed by solving equations 1 and 2 shown below for the sound component signal ("S") and the noise component signal ("N"). Impulse response of internal microphone (FMI) And the external microphone impulse response (FME) Reflects microphone sensitivity, microphone frequency response, ear and housing resonance characteristics, and the like. YIRepresents the entire signal generated by the internal microphone and YERepresents the entire signal generated by the external microphone. Assuming that the entire system is linear (the features of the system are additive and homogeneous), the system can be represented by Equations 3 and 4 as follows (the asterisk, or "*", is a convolution) Operator):
FMI* S + FMI* N = YI          Equation 3
FME* S + FME* N = YE          Equation 4.
[0129]
Output signal YIAnd YEAnd the known impulse response FMIAnd FMEBy using, the two equations can be solved in real time for the two unknown signals S and N.
[0130]
A method 300 for detecting conversation using the system 32 "is illustrated in FIG. 19. The method 300 includes detecting air pressure changes using both the internal microphone 34 'and the external microphone 54'. More specifically, at step 302, changes in air pressure within the ear 100 are detected by the internal microphone 34 '. These detections may be the result of a user speaking, but the earset 12 It may also include noise components generated outside of the individual wearing the 'and / or sound components generated by the user's speech as well as sound components transmitted from the user's mouth to the area of the user's ear 100 via air. In step 302, a change in air pressure near the user's ear 100 but outside the user's ear is applied to the external microphone 54 '. These detections are mainly due to noise generated outside the user and / or sound components generated by the user's speech and from the user's mouth to the area of the user's ear 100 via air. The detection is converted into respective electrical signals (referred to herein as internal and external signals) by microphones 34 'and 54', which are described in more detail above. As discussed, it may be processed to reduce any detected feedback from speaker 38 '.
[0131]
Next, in step 304, the speech and noise components are separated as described above. The conversation signal obtained from step 304 is used in step 306 to provide a signal conveyed by communication device 36 '.
[0132]
The illustrations described herein illustrate the configuration, function, and operation of various systems for detecting changes in the human ear and generating output signals or control instructions corresponding to initiation activity. Each functional block may represent a module, segment, or portion of software code that includes one or more executable instructions for performing the specified logical function.
[0133]
Although the block diagrams and flowcharts show a particular order of execution, it is understood that the order of execution may be different from that shown. For example, the order of execution of two or more blocks may be changed relative to the order shown. Also, two or more blocks shown in succession may be performed simultaneously or partially simultaneously. Further, various blocks may be omitted. It is understood that all such variations are within the scope of the present invention.
[0134]
Although the invention has been shown and described with respect to certain preferred embodiments, it is obvious that equivalent changes and modifications will become apparent to those skilled in the art upon reading and understanding this specification and the accompanying drawings. is there. In particular, with respect to various functions that may be performed by the components (assemblies, devices, circuits, etc.) described above, the terms used to describe such components (including references to “means”) are: Unless otherwise indicated, the identification of the described components, even if not structurally equivalent to the disclosed structure that functions in the exemplary embodiments of the invention illustrated herein. It is intended to correspond to any component that performs the function of (i.e., one that is functionally equivalent). Moreover, while particular features of the invention may be disclosed in connection with only one of several embodiments, such features are desired for any given or particular application and It can be combined with one or more other features of other embodiments, as may be advantageous.
[Brief description of the drawings]
[0135]
FIG. 1A is a block-level diagram illustrating a system used to detect air pressure fluctuations and provide a control function corresponding to the detected air pressure in accordance with the present invention.
FIG. 1B is a block-level diagram illustrating a system in which air pressure fluctuations are detected and processed and, in the illustrated embodiment, processed by a speech recognition software program for interpreting a human language. is there.
FIG. 1C is a block-level diagram illustrating the system where air pressure fluctuations are detected and retransmitted by the communication device.
FIG. 1D is a block-level diagram illustrating the system in which air pressure fluctuations are detected and used by a medical diagnostic device.
FIG. 1E is a block-level diagram illustrating a system having a sensor with an internal microphone and an external microphone.
FIG. 2A is a schematic diagram of an ear.
FIG. 2B is a cross-sectional view of a sensor embodiment for monitoring air pressure changes in a human ear.
FIG. 2C is a graph illustrating an exemplary electrical signal generated by a sensor according to the present invention.
FIG. 3A is a flow chart diagram illustrating a method of detecting a pneumatic pressure change and providing a control command in response to the detected change in accordance with the present invention.
FIG. 3B is a flowchart diagram illustrating another method of detecting a pneumatic change and providing a control command in response to the detected change in accordance with the present invention.
FIG. 4 is a flowchart diagram illustrating a monitoring method according to the present invention.
FIG. 5 is a flow chart diagram illustrating a method of processing electrical signals corresponding to mouth / tongue activity, thinking, language and / or another type of initiation activity.
FIG. 6 is a graph illustrating the conversion of an analog electrical signal to digital signal data according to the present invention.
FIG. 7 is a flowchart diagram illustrating a method for analyzing digital signal data according to the present invention.
FIG. 8 is a graph illustrating a method of analyzing digital signal data using the flowchart of FIG. 7, in accordance with the present invention.
FIG. 9 is a flowchart diagram illustrating a method of processing digital signal data according to the present invention.
FIG. 10 is a system diagram illustrating a system including portions and functions of the present invention.
FIG. 11 is a graph illustrating exemplary raw signal information detected by a sensor used in the present invention to detect air pressure changes.
FIG. 12 is a graph of frequencies obtained by filtering the signal information of FIG. 11 (for example, frequencies filtered to remove noise).
FIG. 13 is a graph showing power spectrum window slicing of the curve of FIG.
FIG. 14 is a graph of such a power spectrum.
FIG. 15 is a block diagram illustrating a communication system according to an embodiment of the invention.
FIG. 16 is a cross-sectional view of an ear microphone assembly, or earset, positioned against a human ear, and the ear is also shown in cross-section.
FIG. 17 is a block diagram of an ear microphone assembly.
FIG. 18 is a block diagram of an ear microphone assembly according to another aspect of the present invention.
FIG. 19 is a flowchart of a method for processing a signal generated by the ear microphone assembly of FIG. 17;

Claims (31)

検出システムであって、以下:
個人の耳に対して配置可能なハウジング(150、150’);
個人の耳に挿入するために該ハウジングに対して配置されたマイクロホン(34、34’)であって、該マイクロホンは、該個人が開始活動を行う間に、該耳内の空気圧変化を検出し、該内部で検出される空気圧変化に対応する電気シグナルを生成するように操作可能である、マイクロホン;および
該電気シグナルを処理して、対応する出力を生成するために、該マイクロホンに連結された処理回路(14、14’、14”、36、36’、42)、
を備える、検出システム。
A detection system, comprising:
Housing (150, 150 ') positionable with respect to the individual's ear;
A microphone (34, 34 ') positioned relative to the housing for insertion into an individual's ear, wherein the microphone detects a change in air pressure within the ear while the individual performs initiation activity. A microphone operable to generate an electrical signal corresponding to a pneumatic pressure change detected therein; and a microphone coupled to process the electrical signal to generate a corresponding output. Processing circuits (14, 14 ', 14 ", 36, 36', 42);
A detection system comprising:
請求項1に記載のシステムであって、前記マイクロホンは、耳甲介に配置するために配置される、システム。The system of claim 1, wherein the microphone is positioned for placement in the concha. 請求項1に記載のシステムであって、前記マイクロホンは、耳管に配置するために配置される、システム。The system according to claim 1, wherein the microphone is arranged for placement in an Eustachian tube. 請求項1に記載の音声認識システム(22)であって、前記開始活動は、言語であり、前記処理回路は、自動化音声認識を行って、対応する出力を生成するための論理を実行する、システム。The speech recognition system (22) of claim 1, wherein the initiation activity is a language and the processing circuitry performs logic to perform automated speech recognition and generate a corresponding output. system. 請求項1に記載の通信システム(32、32’、32”)であって、前記開始活動は、言語であり、該システムは、前記対応する出力を、遠隔地に伝えるための通信デバイスを備える、システム。The communication system (32, 32 ', 32 ") according to claim 1, wherein the initiation activity is a language and the system comprises a communication device for communicating the corresponding output to a remote location. ,system. 請求項1に記載の医学的診断システム(40)であって、前記開始活動は生物学的プロセスであり、前記処理回路は、医学的診断を行うための論理を実行する、システム。The medical diagnostic system (40) according to claim 1, wherein the initiation activity is a biological process, and wherein the processing circuitry executes logic for performing a medical diagnosis. 請求項6に記載の医学的診断システムであって、前記ハウジングおよびマイクロホンは、前記処理回路から遠隔に位置し、前記電気シグナルは、通信媒体によって該マイクロホンから該処理回路に伝えられる、システム。7. The medical diagnostic system according to claim 6, wherein the housing and the microphone are located remotely from the processing circuit, and the electrical signal is transmitted from the microphone to the processing circuit by a communication medium. 請求項1に記載の医学的診断システムであって、前記開始活動は、生物学的プロセスであり、該システムは、生物測定情報を医療提供者に提供するための音声出力およびビデオ出力のうちの1つを備える、システム。2. The medical diagnostic system of claim 1, wherein the initiating activity is a biological process, wherein the system includes an audio output and a video output for providing biometric information to a health care provider. A system comprising one. 請求項8に記載の医学的診断システムであって、前記ハウジングおよびマイクロホンは、前記処理回路から遠隔に位置し、前記電気シグナルは、該マイクロホンから該処理回路へ通信媒体により伝えられる、システム。9. The medical diagnostic system according to claim 8, wherein the housing and the microphone are located remotely from the processing circuit, and the electrical signal is transmitted from the microphone to the processing circuit by a communication medium. 請求項1に記載のシステムであって、前記開始活動は、思考であり、前記処理回路は、前記電気シグナルから該思考を認識するための論理を実行し、前記出力は、計算デバイスまたは機器(20)の項目を制御するための制御命令である、システム。2. The system of claim 1, wherein the initiation activity is a thought, the processing circuitry performs logic to recognize the thought from the electrical signal, and the output is a computing device or equipment. 20) A system which is a control command for controlling the item of 20). 請求項10に記載のシステムであって、前記認識論理は、ニューラルネットワークマッチング論理を含む、システム。The system of claim 10, wherein the recognition logic includes neural network matching logic. 請求項1に記載のシステムであって、前記開始活動は、口腔と関連する動きであり、前記処理回路は、前記電気シグナルから該動きを認識するための論理を実行し、前記出力は、計算デバイスまたは機器の項目を制御するための制御命令である、システム。2. The system of claim 1, wherein the initiation activity is a movement associated with the oral cavity, the processing circuitry performs logic to recognize the movement from the electrical signal, and the output is calculated. A system that is a control instruction for controlling an item of a device or equipment. 請求項12に記載のシステムであって、前記認識論理は、ニューラルネットワークマッチング論理を含む、システム。13. The system of claim 12, wherein said recognition logic includes neural network matching logic. 請求項1〜12のいずれかに記載のシステムであって、前記ハウジングに対して配置され、前記耳に隣接して位置し、そして前記個人の耳に対して外部の空気圧変化を検出し、該外部で検出された空気圧変化に対応する電気シグナルを生成するように操作可能である第2マイクロホン(54、54’)をさらに備える、システム。13. The system according to any of the preceding claims, wherein the system is located relative to the housing, located adjacent to the ear, and detects a change in air pressure external to the individual's ear, The system further comprising a second microphone (54, 54 ') operable to generate an electrical signal corresponding to an externally detected air pressure change. 請求項14に記載のシステムであって、前記処理回路は、前記内部で検出された空気圧変化に対応する電気シグナルと、前記外部で検出された空気圧変化に対応する電気シグナルとを比較して、前記開始活動により生じた空気圧変化の検出と該個人に対して外部の供給源により生成された空気圧変化の検出とを区別するための論理を実行する、システム。15. The system of claim 14, wherein the processing circuit compares an electrical signal corresponding to the internally detected air pressure change with an electrical signal corresponding to the externally detected air pressure change, A system that performs logic to distinguish between detecting pneumatic pressure changes caused by the initiation activity and detecting pneumatic pressure changes generated by a source external to the individual. 請求項14〜15のいずれかに記載のシステムであって、前記処理回路は、前記内部で検出された空気圧変化に対応する電気シグナルと、前記外部で検出された空気圧変化に対応する電気シグナルとを比較して、各シグナルの開始活動成分および各シグナルの外部供給源成分を決定するための論理を実行する、システム。16. The system according to any of claims 14 to 15, wherein the processing circuit comprises: an electrical signal corresponding to the internally detected air pressure change; and an electrical signal corresponding to the externally detected air pressure change. And performing logic to determine the starting activity component of each signal and the external source component of each signal. 請求項14〜16のいずれかに記載のシステムであって、前記処理回路は、前記内部で検出された空気圧変化に対応する電気シグナルの少なくとも外部供給源成分を消去するための論理を実行する、システム。17. The system according to any one of claims 14 to 16, wherein the processing circuit performs logic to eliminate at least an external source component of an electrical signal corresponding to the internally detected pneumatic pressure change. system. ヒトの耳における空気圧変化を検出するためのセンサ(12、12’)であって、該センサは、以下:
個人の耳に少なくとも部分的に挿入するために適合された内部部分(154、154’)および該耳の耳介の少なくとも一部を係合するように適合された外部部分(152、152’)を有するハウジング(150、150’);
該耳内から生じた空気圧変化を検出するように、該ハウジングの内部部分に関して配置された内部マイクロホン(34、34’);ならびに
該耳に対して外部に生じた空気圧変化を検出するように、該ハウジングの外部部分に対して配置される外部マイクロホン(54、54’)、
を備える、センサ。
A sensor (12, 12 ') for detecting a change in air pressure in a human ear, the sensor comprising:
An inner portion (154, 154 ') adapted for at least partial insertion into an individual's ear and an outer portion (152, 152') adapted to engage at least a portion of the pinna of the ear A housing (150, 150 ') having:
An internal microphone (34, 34 ') positioned with respect to the interior part of the housing to detect a change in air pressure generated from within the ear; and to detect a change in air pressure generated externally to the ear, External microphones (54, 54 ') positioned relative to the outer part of the housing;
A sensor comprising:
請求項18に記載のセンサであって、前記内部マイクロホンは、耳甲介に配置するために配置される、センサ20. The sensor of claim 18, wherein the internal microphone is positioned for placement on the concha. 請求項18に記載のセンサであって、前記内部マイクロホンは、前記耳管に配置するために配置される、センサ。19. The sensor according to claim 18, wherein the internal microphone is arranged for placement in the ear canal. 請求項18〜20のいずれかに記載のセンサであって、前記内部マイクロホンおよび外部マイクロホンにより生成された電気シグナルを別々に増幅するための増幅器(24、24a、24b、24’、24a’、24b’)をさらに備える、センサ。21. A sensor according to any of claims 18 to 20, wherein the amplifiers (24, 24a, 24b, 24 ', 24a', 24b) for separately amplifying the electrical signals generated by the internal and external microphones. ') Further comprising a sensor. 請求項18〜21のいずれかに記載のセンサであって、前記内部マイクロホンおよび外部マイクロホンにより生成された電気シグナルは、処理回路(14、14’、14”、36、36’、42)に別個のチャネルにより連結される、センサ。22. Sensor according to any of claims 18 to 21, wherein the electrical signals generated by the internal and external microphones are separate to processing circuits (14, 14 ', 14 ", 36, 36', 42). Sensors connected by channels of 請求項18〜22のいずれかに記載のセンサであって、前記ハウジングの内部部分を前記耳へ挿入する際、正の圧力が耳管に発生する、センサ。23. The sensor according to any of claims 18 to 22, wherein a positive pressure is generated in the ear canal when inserting the interior portion of the housing into the ear. 請求項18〜23のいずれかに記載のセンサであって、前記個人に音を広めるためのスピーカー(38,38’)をさらに備える、センサ。24. The sensor according to any of claims 18 to 23, further comprising a speaker (38, 38 ') for spreading sound to the individual. イヤセット(12、12’)であって、該イヤセットは、以下:
個人の耳に対して配置可能なハウジング(150、150’);
個人の耳へ挿入するために、該ハウジングに対して配置されるマイクロホン(34、34’)であって、該マイクロホンは、該個人が話している間に耳内の空気圧変化を検出し、該内部で検出された空気圧変化に対応する電気的マイクロホンシグナルを生成するように操作可能である、マイクロホン;
該ハウジングに対して配置され、そして電気的スピーカーシグナルに対応する音を生成するように操作可能であるスピーカー(38、38’);ならびに
該マイクロホンシグナルおよび該スピーカーシグナルを受容するように連結され、そして該マイクロホンシグナルの低減したフィードバック成分を有する、修正したマイクロホンシグナルを生じるように操作可能である回路(24’)であって、該フィードバック成分は、修正マイクロホンシグナルを生成するように、前記スピーカーにより生成された音のマイクロホンによる検出から生じる、回路、
を備える、イヤセット。
An earset (12, 12 '), wherein the earset comprises:
Housing (150, 150 ') positionable with respect to the individual's ear;
A microphone (34, 34 ') positioned relative to the housing for insertion into an individual's ear, wherein the microphone detects a change in air pressure in the ear while the individual is speaking; A microphone operable to generate an electrical microphone signal corresponding to the air pressure change detected therein;
A speaker (38, 38 ') disposed relative to the housing and operable to generate a sound corresponding to an electrical speaker signal; and coupled to receive the microphone signal and the speaker signal; And a circuit (24 ') operable to produce a modified microphone signal having a reduced feedback component of the microphone signal, the feedback component being provided by the speaker to produce a modified microphone signal. A circuit resulting from the detection of the generated sound by the microphone,
An earset comprising:
請求項25に記載のイヤセットであって、前記回路は、以下:
前記マイクロホンシグナルを増幅するための増幅器(55);
前記スピーカーシグナルを増幅するための増幅器(60);
該増幅されたマイクロホンシグナルおよび該増幅されたスピーカーシグナルを合わせて、前記修正マイクロホンシグナルを生成するための組み合わせ手段(56)、
を備える、イヤセット。
26. The earset according to claim 25, wherein the circuit comprises:
An amplifier (55) for amplifying the microphone signal;
An amplifier (60) for amplifying the speaker signal;
Combining means (56) for combining the amplified microphone signal and the amplified speaker signal to generate the modified microphone signal;
An earset comprising:
請求項25〜26のいずれかに記載のイヤセットであって、前記マイクロホンおよび前記スピーカーは、耳甲介に配置するために配置される、イヤセット。27. The earset according to any of claims 25 to 26, wherein the microphone and the speaker are arranged for placement on the concha. 請求項25〜26のいずれかに記載のイヤセットであって、前記マイクロホンおよび前記スピーカーは、前記耳管に配置するために配置される、イヤセット。27. The earset according to any of claims 25 to 26, wherein the microphone and the speaker are arranged for placement in the ear canal. 請求項25〜28のいずれかに記載のイヤセットであって、前記ハウジングに対して配置され、前記耳に隣接して位置し、そして前記個人の耳に対して外部の空気圧変化を検出し、前記外部で検出された空気圧変化に対応する電気シグナルを生成するように操作可能な第2マイクロホン(54、54’)をさらに備える、イヤセット。29. The earset according to any of claims 25 to 28, wherein the earset is positioned relative to the housing, positioned adjacent the ear, and detects a change in air pressure external to the individual's ear; An earset further comprising a second microphone (54, 54 ') operable to generate an electrical signal corresponding to the externally detected air pressure change. 請求項29に記載のイヤセットであって、処理回路(14、14’、14”、36、36’、42)は、前記内部で検出された空気圧変化に対応する電気シグナルと、前記外部で検出された空気圧変化に対応する電気シグナルとを比較して、前記個人の言語により生成された空気圧変化の検出と、該個人に対して外部の供給源により生じた空気圧変化の検出を区別するための論理を実行する、イヤセット。30. The earset of claim 29, wherein a processing circuit (14, 14 ', 14 ", 36, 36', 42) includes an electrical signal corresponding to the internally detected pneumatic pressure change and an external signal. Comparing an electrical signal corresponding to the detected air pressure change to distinguish between the detection of the air pressure change generated in the language of the individual and the detection of the air pressure change caused by an external source to the individual. An earset that performs the logic of 組み合わせで、請求項25〜30のいずれかに記載のイヤセットを備え、そして通信デバイス(36、36’)をさらに備える通信システム(32、32’、32”)であって、該イヤセットおよび該通信デバイスは、前記修正マイクロホンシグナルを受容し、該修正マイクロホンシグナルに対応する出力を遠隔位置に伝えるように連結され、該通信デバイスは、前記スピーカーシグナルが該通信デバイスにより生成されるシグナルを受容するように適合されている、通信システム。31. A communication system (32, 32 ', 32 ") comprising, in combination, an earset according to any of claims 25 to 30, and further comprising a communication device (36, 36'), wherein the earset and The communication device is coupled to receive the modified microphone signal and deliver an output corresponding to the modified microphone signal to a remote location, the communication device receiving the signal whose speaker signal is generated by the communication device. A communication system that is adapted to:
JP2002577483A 2001-03-30 2002-03-29 Ear microphone apparatus and method Expired - Fee Related JP3957636B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US28028201P 2001-03-30 2001-03-30
US09/897,696 US6647368B2 (en) 2001-03-30 2001-07-02 Sensor pair for detecting changes within a human ear and producing a signal corresponding to thought, movement, biological function and/or speech
US09/919,291 US6671379B2 (en) 2001-03-30 2001-07-31 Ear microphone apparatus and method
PCT/US2002/010176 WO2002080615A2 (en) 2001-03-30 2002-03-29 Ear microphone apparatus and method

Publications (3)

Publication Number Publication Date
JP2004525572A true JP2004525572A (en) 2004-08-19
JP2004525572A5 JP2004525572A5 (en) 2005-08-18
JP3957636B2 JP3957636B2 (en) 2007-08-15

Family

ID=27403127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002577483A Expired - Fee Related JP3957636B2 (en) 2001-03-30 2002-03-29 Ear microphone apparatus and method

Country Status (6)

Country Link
US (1) US6671379B2 (en)
EP (1) EP1372482A2 (en)
JP (1) JP3957636B2 (en)
AU (1) AU2002307038B2 (en)
CA (1) CA2443195A1 (en)
WO (1) WO2002080615A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008015800A1 (en) * 2006-08-02 2008-02-07 National University Corporation NARA Institute of Science and Technology Speech processing method, speech processing program, and speech processing device

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2283964C (en) * 1997-03-12 2008-05-06 Nomadix, Llc Nomadic translator or router
US8713641B1 (en) 1998-12-08 2014-04-29 Nomadix, Inc. Systems and methods for authorizing, authenticating and accounting users having transparent computer access to a network using a gateway device
US7194554B1 (en) 1998-12-08 2007-03-20 Nomadix, Inc. Systems and methods for providing dynamic network authorization authentication and accounting
US8266266B2 (en) 1998-12-08 2012-09-11 Nomadix, Inc. Systems and methods for providing dynamic network authorization, authentication and accounting
US8190708B1 (en) 1999-10-22 2012-05-29 Nomadix, Inc. Gateway device having an XML interface and associated method
US20020031234A1 (en) * 2000-06-28 2002-03-14 Wenger Matthew P. Microphone system for in-car audio pickup
US20020107053A1 (en) * 2001-02-05 2002-08-08 Petez Jose A. PTT speaker/mike assembly
US6714654B2 (en) * 2002-02-06 2004-03-30 George Jay Lichtblau Hearing aid operative to cancel sounds propagating through the hearing aid case
US6728385B2 (en) * 2002-02-28 2004-04-27 Nacre As Voice detection and discrimination apparatus and method
US20040047475A1 (en) * 2002-09-09 2004-03-11 Ford Global Technologies, Inc. Audio noise cancellation system for a sensor in an automotive vehicle
US7406179B2 (en) * 2003-04-01 2008-07-29 Sound Design Technologies, Ltd. System and method for detecting the insertion or removal of a hearing instrument from the ear canal
CA2473195C (en) * 2003-07-29 2014-02-04 Microsoft Corporation Head mounted multi-sensory audio input system
US20050058313A1 (en) 2003-09-11 2005-03-17 Victorian Thomas A. External ear canal voice detection
US7818037B2 (en) * 2003-09-19 2010-10-19 Radeum, Inc. Techniques for wirelessly controlling push-to-talk operation of half-duplex wireless device
US7818036B2 (en) * 2003-09-19 2010-10-19 Radeum, Inc. Techniques for wirelessly controlling push-to-talk operation of half-duplex wireless device
US7149552B2 (en) * 2003-09-19 2006-12-12 Radeum, Inc. Wireless headset for communications device
US20050090295A1 (en) * 2003-10-14 2005-04-28 Gennum Corporation Communication headset with signal processing capability
KR101096635B1 (en) * 2003-11-03 2011-12-30 에스티 에릭슨 에스에이 Apparatus for determining a frequency offset error and receiver based thereon
EP1531650A3 (en) * 2003-11-12 2008-07-09 Gennum Corporation Hearing instrument having a wireless base unit
FR2889013B1 (en) * 2005-07-25 2007-12-21 Aquitaine Comm Mobile Services COMMUNICATION DEVICE, PARTICULARLY ADAPTED TO NOISE ROOMS
KR100656523B1 (en) * 2005-07-27 2006-12-11 삼성전자주식회사 Method and system using human body motion
WO2007053562A2 (en) * 2005-10-31 2007-05-10 North Carolina State University Tongue operated magnetic sensor based wireless assistive technology
US7983433B2 (en) * 2005-11-08 2011-07-19 Think-A-Move, Ltd. Earset assembly
US7797022B2 (en) * 2005-12-16 2010-09-14 Starkey Laboratories, Inc. Method and apparatus for wireless components for hearing communication devices
US7502484B2 (en) * 2006-06-14 2009-03-10 Think-A-Move, Ltd. Ear sensor assembly for speech processing
US8254591B2 (en) * 2007-02-01 2012-08-28 Personics Holdings Inc. Method and device for audio recording
US10194032B2 (en) 2007-05-04 2019-01-29 Staton Techiya, Llc Method and apparatus for in-ear canal sound suppression
US11683643B2 (en) 2007-05-04 2023-06-20 Staton Techiya Llc Method and device for in ear canal echo suppression
US11856375B2 (en) 2007-05-04 2023-12-26 Staton Techiya Llc Method and device for in-ear echo suppression
JP4530051B2 (en) * 2008-01-17 2010-08-25 船井電機株式会社 Audio signal transmitter / receiver
US8103029B2 (en) * 2008-02-20 2012-01-24 Think-A-Move, Ltd. Earset assembly using acoustic waveguide
US8477973B2 (en) 2009-04-01 2013-07-02 Starkey Laboratories, Inc. Hearing assistance system with own voice detection
US9219964B2 (en) 2009-04-01 2015-12-22 Starkey Laboratories, Inc. Hearing assistance system with own voice detection
US20110051977A1 (en) * 2009-08-28 2011-03-03 Losko David J Ear Canal Microphone
JP5691618B2 (en) * 2010-02-24 2015-04-01 ヤマハ株式会社 Earphone microphone
US8983103B2 (en) 2010-12-23 2015-03-17 Think-A-Move Ltd. Earpiece with hollow elongated member having a nonlinear portion
US9143309B2 (en) 2012-04-13 2015-09-22 Dominant Technologies, LLC Hopping master in wireless conference
US10136426B2 (en) 2014-12-05 2018-11-20 Dominant Technologies, LLC Wireless conferencing system using narrow-band channels
US10568155B2 (en) 2012-04-13 2020-02-18 Dominant Technologies, LLC Communication and data handling in a mesh network using duplex radios
US9548854B2 (en) * 2012-04-13 2017-01-17 Dominant Technologies, LLC Combined in-ear speaker and microphone for radio communication
JP2014187679A (en) * 2013-02-20 2014-10-02 Funai Electric Co Ltd Earphone microphone
WO2015074694A1 (en) * 2013-11-20 2015-05-28 Phonak Ag A method of operating a hearing system for conducting telephone calls and a corresponding hearing system
WO2016090370A1 (en) 2014-12-05 2016-06-09 Dominant Technologies, LLC Communication and data handling in a mesh network using duplex radios
WO2017147428A1 (en) * 2016-02-25 2017-08-31 Dolby Laboratories Licensing Corporation Capture and extraction of own voice signal
US10652718B2 (en) * 2017-03-16 2020-05-12 Qualcomm Incorporated Audio correlation selection scheme
CN107948787B (en) * 2017-11-29 2018-11-02 新昌县鸿吉电子科技有限公司 Protect the control platform of hearing
CN108495231B (en) * 2018-03-26 2019-08-30 广东小天才科技有限公司 The microphone change of voice method and system of data supporting are used based on mobile terminal
CN113810819B (en) * 2021-09-23 2022-06-28 中国科学院软件研究所 Method and equipment for acquiring and processing silent voice based on ear cavity vibration
CN218772357U (en) * 2022-03-21 2023-03-28 华为技术有限公司 Earphone set

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3870034A (en) 1973-03-26 1975-03-11 Cyborg Corp Personal galvanic skin response monitoring instrument
US4064870A (en) 1976-05-19 1977-12-27 Centrul De Protectia Si Igiena Muncii Method and device for evaluating nerve impulse propagation velocity and latency of electrodermal reflexes
US4429702A (en) 1981-06-22 1984-02-07 Electro Audio Dynamics, Inc. Apparatus for measurement of acoustic volume
US4533795A (en) 1983-07-07 1985-08-06 American Telephone And Telegraph Integrated electroacoustic transducer
JPS60103798A (en) 1983-11-09 1985-06-08 Takeshi Yoshii Displacement-type bone conduction microphone
DE3807251A1 (en) 1988-03-05 1989-09-14 Sennheiser Electronic CAPACITIVE SOUND CONVERTER
US4930156A (en) * 1988-11-18 1990-05-29 Norcom Electronics Corporation Telephone receiver transmitter device
CH678695A5 (en) 1989-06-09 1991-10-31 Pierre Levrat
GB2234882B (en) 1989-08-03 1994-01-12 Plessey Co Plc Noise reduction system
US5164984A (en) * 1990-01-05 1992-11-17 Technology Management And Ventures, Ltd. Hands-free telephone assembly
US5155689A (en) 1991-01-17 1992-10-13 By-Word Technologies, Inc. Vehicle locating and communicating method and apparatus
US5149104A (en) 1991-02-06 1992-09-22 Elissa Edelstein Video game having audio player interation with real time video synchronization
US5844984A (en) * 1992-03-19 1998-12-01 Pan Communications, Inc. Two-way communications earset with filter
US5373555A (en) 1992-05-11 1994-12-13 Jabra Corporation Unidirectional ear microphone and gasket
US5812659A (en) 1992-05-11 1998-09-22 Jabra Corporation Ear microphone with enhanced sensitivity
US5280524A (en) 1992-05-11 1994-01-18 Jabra Corporation Bone conductive ear microphone and method
DE69232313T2 (en) 1992-05-11 2002-06-20 Jabra Corp UNIDIRECTIONAL EARPHONE AND METHOD THEREFOR
US5692517A (en) 1993-01-06 1997-12-02 Junker; Andrew Brain-body actuated system
US5474082A (en) 1993-01-06 1995-12-12 Junker; Andrew Brain-body actuated system
US5878396A (en) 1993-01-21 1999-03-02 Apple Computer, Inc. Method and apparatus for synthetic speech in facial animation
GB9406224D0 (en) 1994-03-29 1994-05-18 Deas Alexander R Adaptive telephone interface
US5659156A (en) 1995-02-03 1997-08-19 Jabra Corporation Earmolds for two-way communications devices
US5638826A (en) 1995-06-01 1997-06-17 Health Research, Inc. Communication method and system using brain waves for multidimensional control
US5740258A (en) 1995-06-05 1998-04-14 Mcnc Active noise supressors and methods for use in the ear canal
EP0858288A2 (en) 1995-09-11 1998-08-19 James A. Nolan Method and apparatus for continuous, non-invasive monitoring of blood pressure parameters
JPH09114543A (en) 1995-10-02 1997-05-02 Xybernaut Corp Handfree computer system
US6072884A (en) * 1997-11-18 2000-06-06 Audiologic Hearing Systems Lp Feedback cancellation apparatus and methods
US5734713A (en) 1996-01-30 1998-03-31 Jabra Corporation Method and system for remote telephone calibration
US5881159A (en) 1996-03-14 1999-03-09 Sarnoff Corporation Disposable hearing aid
US5676138A (en) 1996-03-15 1997-10-14 Zawilinski; Kenneth Michael Emotional response analyzer system with multimedia display
US5812978A (en) 1996-12-09 1998-09-22 Tracer Round Associaties, Ltd. Wheelchair voice control apparatus
US6283915B1 (en) 1997-03-12 2001-09-04 Sarnoff Corporation Disposable in-the-ear monitoring instrument and method of manufacture
US6175633B1 (en) 1997-04-09 2001-01-16 Cavcom, Inc. Radio communications apparatus with attenuating ear pieces for high noise environments
US6022311A (en) 1997-12-18 2000-02-08 General Hearing Instrument, Inc. Apparatus and method for a custom soft-solid hearing aid
US6156585A (en) 1998-02-02 2000-12-05 Motorola, Inc. Semiconductor component and method of manufacture
US6024700A (en) 1998-07-16 2000-02-15 Nemirovski; Guerman G. System and method for detecting a thought and generating a control instruction in response thereto
US6094492A (en) 1999-05-10 2000-07-25 Boesen; Peter V. Bone conduction voice transmission apparatus and system
US6503197B1 (en) 1999-11-09 2003-01-07 Think-A-Move, Ltd. System and method for detecting an action of the head and generating an output in response thereto
US6647368B2 (en) * 2001-03-30 2003-11-11 Think-A-Move, Ltd. Sensor pair for detecting changes within a human ear and producing a signal corresponding to thought, movement, biological function and/or speech

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008015800A1 (en) * 2006-08-02 2008-02-07 National University Corporation NARA Institute of Science and Technology Speech processing method, speech processing program, and speech processing device
JPWO2008015800A1 (en) * 2006-08-02 2009-12-17 国立大学法人 奈良先端科学技術大学院大学 Audio processing method, audio processing program, and audio processing apparatus
US8155966B2 (en) 2006-08-02 2012-04-10 National University Corporation NARA Institute of Science and Technology Apparatus and method for producing an audible speech signal from a non-audible speech signal

Also Published As

Publication number Publication date
EP1372482A2 (en) 2004-01-02
AU2002307038A2 (en) 2002-10-15
WO2002080615A2 (en) 2002-10-10
CA2443195A1 (en) 2002-10-10
US20020141602A1 (en) 2002-10-03
US6671379B2 (en) 2003-12-30
AU2002307038B2 (en) 2005-11-24
WO2002080615A3 (en) 2003-08-07
JP3957636B2 (en) 2007-08-15

Similar Documents

Publication Publication Date Title
JP3957636B2 (en) Ear microphone apparatus and method
US6647368B2 (en) Sensor pair for detecting changes within a human ear and producing a signal corresponding to thought, movement, biological function and/or speech
AU2002307038A1 (en) Ear microphone apparatus and method
US11185257B2 (en) Hearing assistance device with brain computer interface
US9380374B2 (en) Hearing assistance systems configured to detect and provide protection to the user from harmful conditions
US11826138B2 (en) Ear-worn devices with deep breathing assistance
US9301057B2 (en) Hearing assistance system
US20150319546A1 (en) Hearing Assistance System
JP6580497B2 (en) Apparatus, device, program and method for identifying facial expression with high accuracy using myoelectric signal
US9361906B2 (en) Method of treating an auditory disorder of a user by adding a compensation delay to input sound
WO2016167877A1 (en) Hearing assistance systems configured to detect and provide protection to the user harmful conditions
WO2010015865A1 (en) Breathing monitor and method for monitoring breating
JP2017029323A (en) Device, terminal, and program for identifying face expression by using myoelectric signal
KR20150041443A (en) Handsfree of Multi-function sports hair band type
AU2006200446A1 (en) Ear Microphone Apparatus and Method
Jain et al. Development of a low-cost electronic stethoscope-DIY Digital Stethoscope
CN116367059A (en) Intelligent hearing aid for self-hearing detection and implementation method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060706

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060929

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20061010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070508

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100518

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130518

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees