JP3670180B2 - hearing aid - Google Patents
hearing aid Download PDFInfo
- Publication number
- JP3670180B2 JP3670180B2 JP33845899A JP33845899A JP3670180B2 JP 3670180 B2 JP3670180 B2 JP 3670180B2 JP 33845899 A JP33845899 A JP 33845899A JP 33845899 A JP33845899 A JP 33845899A JP 3670180 B2 JP3670180 B2 JP 3670180B2
- Authority
- JP
- Japan
- Prior art keywords
- recognition result
- recognition
- output
- voice
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、マイクロホン等により検出した音声を聴力障害者が理解しやすい形式に加工変換して提示する補聴器、音声言語障害を持つ者より発せられた音声や音声言語障害を是正するために用いる補助的装置や手段(例として喉頭摘出後の代用発声法(speech production substitutes))により発せられた音声を加工変換して出力する補聴器に関する。
【0002】
【従来の技術】
補聴器には、気導方式と、骨導方式とが従来から使用されている。補聴器の種類としては、箱形補聴器、耳かけ補聴器、CROS(Contra-lateral Routing of Signal)補聴器、耳穴形補聴器がある。また、従来の処理方式として分けると、アナログ補聴器とディジタル補聴器とがある。また、補聴器には、小寺の報告によると集団で使用する大型のもの(卓上訓練用補聴器、集団訓練用補聴器)、個人的に使用する小型のものがある(小寺一興、補聴器の選択と評価 図説耳鼻咽喉科new approach メジカルビュ−,39,1996参照)。
【0003】
このディジタル補聴器は、マイクロホンで検出した音声を先ずA/D(analog/digital)変換処理することでディジタルデータを生成する。そして、このディジタル補聴器は、例えばフーリエ変換処理を施すことにより入力されたディジタルデータを周波数スペクトルに分解することで解析を行い、各周波数帯域毎に音声の感覚的な大きさに基づいた増幅度の算出を行う。そして、このディジタル補聴器は、各周波数帯域毎に増幅されたディジタルデータをディジタルフィルターに通過させてD/A変換処理を行って再び音声を使用者の耳に出力するように構成されている。これにより、ディジタル補聴器は、話し手の音声を雑音の少ない状態で使用者に聞かせていた。
【0004】
また、従来において、例えば喉頭摘出により音声障害をもつ人は、通常の声帯振動による発声機構を失い、音声生成が困難になる。
【0005】
現在まで、喉頭摘出後の代用発声法として、音源としての振動体の性質から大別するとゴム膜(笛式人工喉頭)やブザー(電気人工喉頭(経皮型、埋込み型))等の人工材料を用いる方法と、下咽頭や食道粘膜を使用する方法(食道発声、気管食道瘻発声、ボイスプロステーシス(voice prostheses)使用の気管食道瘻発声)がある。また、その他の代用発声法としては、口唇を動かしたときに生じる筋電図を利用したものや聴力障害による発声障害者のために種々の音声処理技術を利用した発声発話訓練装置、パラトグラフ(palatograph)によるものや口腔内の振動子によるものが報告されている。
【0006】
【発明が解決しようとする課題】
しかし、上述したディジタル補聴器では、各周波数帯域毎にディジタルデータを増幅させる処理を行っているだけなので、マイクロホンにより周囲の音を無作為に収音し、雑音をそのまま再生してしまい使用者の不快感が残り、アナログ補聴器と比べても、種々の聴力検査において大幅な改善はなかった。また、従来のディジタル補聴器では、難聴者の身体状態、利用状態及び使用目的に応じて検出した音声に対する処理を適応させることはなされていなかった。
【0007】
そこで、本発明の目的は、使用者の身体状態、利用状態及び使用目的に応じて音声認識の結果を提示するとともに、ノイズが少ない状態で認識結果を提示することができる補聴器を提供することにある。
【0008】
また、上記代用発声法に共通してみられるのは、喉頭摘出前の本人自身の本来の正常な状態での声帯振動によるものではないので、生成する音声の音質が良くなく、本来正常であった本人が発していた声とはかけ離れているという問題点が挙げられる。
【0009】
そこで、本発明は、上述したような実情に鑑みて提案されたものであり、喉頭摘出や舌口腔底切除や構音障害等による音声言語障害を有する人達が本来自身がもつ、或いは自在に変換させて自然な音声で発声することを可能とするとともに、外部からの音声を使用者に出力して自然な会話を行わせることができる補聴器を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述の課題を解決する本発明に係る補聴器は、音声言語障害を有した使用者から発せられた音声及び/又は外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号に基づいて音声認識をする処理を行う音声認識手段と、音声データを記憶する記憶手段と、上記音声認識手段からの認識結果に基づいて上記記憶手段に記憶された音声データを組み合わせ、出力する音声を示す音声情報を生成する音声情報生成手段と、上記音声情報生成手段で生成された音声情報を音声に変換して外部に出力する使用者音声出力手段と、上記音声認識手段で認識された認識結果を上記外部からの音声として使用者に出力する外部音声出力手段とを備えることを特徴とするものである。
【0011】
このような補聴器は、外部からの音声を使用者に出力するとともに、障害を有して発せられた音声を発声した使用者に出力する。
【0012】
本発明に係る補聴器は、外部からの音声を検出して音声信号を生成する音響電気変換手段と、上記音響電気変換手段からの音声信号を用いて音声認識処理を行う認識手段と、使用者の身体状態、利用状態及び使用目的に応じて、上記認識手段からの認識結果の内容を変更するように変換する変換手段と、上記認識手段による認識結果及び/又は認識結果を上記変換手段により変換した認識結果を出力させる制御信号を生成する出力制御手段と、上記出力制御手段で生成された制御信号に基づいて上記認識手段による認識結果及び/又は上記変換手段により変換された認識結果、である音声情報を出力して使用者に音声を提示するための認識結果を出力して認識結果である音声情報を使用者に提示する出力手段とを備えることを特徴とするものである。
【0013】
このような補聴器は、変換手段で認識結果の内容を変更することで出力結果を変更して使用者に変換手段で変更された音声等を提示する。このような補聴器によれば、使用者の身体状態、利用状態及び使用目的に応じて自在に変換方式を変更して認識結果を提示する。
【0014】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。
【0015】
本発明は、例えば図1及び図2に示すように構成された補聴器1に適用される。この補聴器1は、図1に示すように、ヘッドマウントディスプレイ (head-mounted display: HMD)2と、音声認識、音声情報の生成等を行うコンピュータ部3との間を光ファイバーケーブル4で接続してなる携帯型のものである。また、コンピュータ部3は、例えば使用者の腰部に装着されるような支持部5に付属して配設されており、当該支持部5に付属したバッテリ6から電力が供給されることで駆動するとともに、HMD2を駆動させる。
【0016】
HMD2は、使用者の目前に配置されるディスプレイ部7と、使用者からの音声を検出する使用者用マイクロホン8と、使用者に音声を出力する音声出力部9と、使用者の頭部に上述の各部を配置させるように支持する支持部5と、外部からの音声等を検出する外部用マイクロホン11とを備える。
【0017】
ディスプレイ部7は、使用者の目前に配されることで例えば使用者用マイクロホン8及び/又は後述の外部用マイクロホン11で検出した音声の意味内容等を表示する。なお、このディスプレイ部7は、コンピュータ部3からの命令に応じて、上述の音声の意味内容のみならず、他の情報を表示しても良い。
【0018】
使用者用マイクロホン8は、使用者の口元付近に配設され、使用者が発した音声を検出する。そして、この使用者用マイクロホン8は、使用者からの音声を電気信号に変換してコンピュータ部3に出力する。
【0019】
外部用マイクロホン11は、丸板状に形成された音声出力部9の側面に設けられる。この外部用マイクロホン11は、外部からの音声を検出して電気信号に変換してコンピュータ部3に出力する。
【0020】
この使用者用マイクロホン8及び外部用マイクロホン11は、配設する位置を問わず、使用者の操作に応じて、種々のマイク(骨導マイク、気導音と骨導音を拾い上げるマイクをもつ超小型送受話一体ユニットのマイク(日本電信電話株式会社製)、無指向性マイク、単一指向性(超指向性等)マイク、双指向性マイク、ダイナミックマイク、コンデンサーマイク(エレクトレットマイク)、ズームマイク、ステレオマイク、MSステレオマイク、ワイヤレスマイク)、セラミックマイク、マグネティックマイク、マイクロフォンアレイを用いても良い。また、イヤホンとしては、マグネティックイヤホンが使用可能である。これらのマイクの収音技術として、また、伝送技術としてエコーキャンセラ等を用いても良い。また、これらのマイクロホン8,11は、従来より採用されている利得調整器と音声調整器と出力制御装置(maximam output power control式、automatic recruitment control コンプレッション式等)を適用したものが使用可能である。
【0021】
更に、使用者用マイクロホン8及び外部用マイクロホン11は、図1に示すように、別個に設ける一例のみならず、一体に構成されたものであっても良い。
【0022】
支持部5は、例えば形状記憶合金等の弾性材料等からなり、使用者の頭部に固定可能とすることで、上述のディスプレイ部7,使用者用マイクロホン8,音声出力部9を所定の位置に配設可能とする。なお、この図1に示した支持部5は、使用者の額から後頭部に亘って支持部材を配設することでディスプレイ部7等を所定位置に配設するものの一例について説明したが、所謂ヘッドホン型の支持部であっても良いことは勿論であり、音声出力部9を両耳について設けても良い。
【0023】
コンピュータ部3は、例えば使用者の腰部に装着される支持部5に付属されてなる。このコンピュータ部3は、図2に示すように、例えばマイクロホン8,11で検出して生成した電気信号が入力される。このコンピュータ部3は、電気信号を処理するためのプログラムを格納した記録媒体、この記録媒体に格納されたプログラムに従って音声認識、音声情報の生成処理を行うCPU(Central Processing Unit)等を備えてなる。なお、このコンピュータ部3は、腰部のみならず、頭部のHMD2と一体化しても良い。
【0024】
コンピュータ部3は、使用者用マイクロホン8及び/又は外部用マイクロホン11で検出した音声から生成した電気信号に基づいて、記録媒体に格納されたプログラムを起動することで、CPUにより音声認識処理を行うことで、認識結果を得る。これにより、コンピュータ部3は、CPUにより、使用者用マイクロホン8及び/又は外部用マイクロホン11で検出した音声の内容を得る。
【0025】
つぎに、本発明を適用した補聴器1の電気的な構成について図2を用いて説明する。この補聴器1は、音声を検出して音声信号を生成する上述のマイクロホン8,11に相当するマイクロホン21と、マイクロホン21で生成された音声信号が入力され音声認識処理を行う上述のコンピュータ部3に含まれる信号処理部22、信号処理部22からの認識結果に基づいて音声情報を生成する上述のコンピュータ部3に含まれる音声情報生成部23と、音声データが記憶され信号処理部22及び音声情報生成部23にその内容が読み込まれる上述のコンピュータ部3に含まれる記憶部24と、音声情報生成部23からの音声情報を用いて音声を出力する上述の音声出力部9に相当するスピーカ部25と、音声情報生成部23からの音声情報を用いて当該音声情報が示す内容を表示する上述のディスプレイ部7に相当する表示部26とを備える。
【0026】
上記マイクロホン21は、例えば喉頭摘出後の代用発声法を用いて発せられた使用者からの音声又は外部からの音声を検出して、当該音声に基づく音声信号を生成する。そして、このマイクロホン21は、生成した音声信号を信号処理部22に出力する。
【0027】
また、このマイクロホン21は、使用者の口元付近に配設され、使用者が発した音声を検出する。また、このマイクロホン21は、外部からの音声を検出して音声信号を生成する。なお、以下の説明においては、使用者の音声を検出するマイクロホンを上述と同様に使用者用マイクロホン8と呼び、外部からの音声を検出するマイクロホンを上述と同様に外部用マイクロホン11と呼び、双方を総称するときには単にマイクロホン21と呼ぶ。
【0028】
上記代用発声法としては、例えば人工喉頭(電気式、笛式)、食道発声及び種々の音声再建術を実現するための機構である。
【0029】
上記信号処理部22は、マイクロホン21からの音声信号を用いて音声認識処理を行う。この信号処理部22は、例えば内部に備えられたメモリに格納した音声認識処理を行うためのプログラムに従った処理を行うことにより音声認識処理を実行する。具体的には、この信号処理部22は、使用者の音声をサンプリングして生成し記憶部24に格納された音声データを参照し、マイクロホン21からの音声信号を言語として認識する処理を行う。この結果、この信号処理部22は、マイクロホン21からの音声信号に応じて認識結果を生成する。
【0030】
この信号処理部22は、例えば認識対象音声による分類と対象話者による分類の音声認識処理があり、認識対象音声による分類の音声認識処理では単語音声認識(isolated word recognition)と連続音声認識(continuous speech recognition)がある。また、音声情報生成部23は、連続単語音声認識には連続単語音声認識(continuous word recognition)と文音声認識(sentence speech recognition)、会話音声認識(conversational speech recognition)、音声理解(speech understanding)がある。また対象話者による分類では不特定話者型(speaker independent)、特定話者型(speaker dependent)、話者適応型(speaker adaptive)等がある。この信号処理部22が行う音声認識手法としては、ダイナミックプログラミング(Dynamic Programming)マッチングによるもの、音声の特徴によるもの、隠れマルコフモデル(HMM)によるものがある。
【0031】
また、信号処理部22は、入力した音声を用いて話者認識を行う。このとき、信号処理部22は、使用者の話者からの音声の特徴を抽出する処理や音声の周波数特性を用いて話者認識結果を生成して音声情報生成部23に出力する。また、信号処理部22は、話者による変動が小さな特徴量を用いる方法、マルチテンプレート法、統計的手法を用いて不特定話者認識を行う。また、話者適応には、個人差の正規化法、話者間の音声データの対応関係によるもの、モデルパラメータの更新によるもの、話者選択によるものがある。この信号処理部22では、以上の音声認識を使用者の身体状態、利用状態及び使用目的に応じて行う。
【0032】
ここで、使用者の身体状態とは使用者の難聴や言語障害の程度等を意味し、利用状態とは使用者が補聴器1を使用する環境(室内、野外、騒音下)等を意味し、使用目的とは使用者が補聴器1を利用するときの目的、すなわち認識の向上させることや、使用者が理解しやすいようにすること等であって、例えば普段話す人と対話することや、不特定多数の人と対話することや、音楽(オペラ、演歌)を観覧することや、講演を聴くことや、言語障害者と対話することである。
【0033】
また、この信号処理部22は、マイクロホン21に入力した音声を記憶し、学習する機能を有する。具体的には、信号処理部22は、マイクロホン21で検出した音声の波形データを保持しておき、後の音声認識処理に用いる。これにより、信号処理部22は、更に音声認識を向上させる。更に、この信号処理部22は、学習機能を備えることで出力する結果を正確にすることができる。
【0034】
上記記憶部24には、上記信号処理部22が入力された音声を認識するときに、入力された音声を検出することで生成した音声波形と比較される音声モデルを示すデータが格納されている。また、記憶部24には、例えば喉頭摘出前に発声した声帯振動による発声機構を持つ使用者の音声や、出力することを希望する音声を予めサンプリングして得たデータが音声データとして格納されている。
【0035】
音声情報生成部23は、信号処理部22からの認識結果及び記憶部24に格納された使用者の音声を示す音声データを用いて、音声情報を生成する。このとき音声情報生成部23は、認識結果に応じて、記憶部24に格納された音声データを組み合わせるとともに、認識結果を加工変換して音声情報を生成する。このとき、音声情報生成部23は、内蔵したCPU、音声情報生成プログラムを用いて音声情報を生成する。
【0036】
また、この音声情報生成部23は、認識結果を用いて音声から音声分析し、当該音声分析した音声の内容に応じて、音声データを再構成するという処理を行うことで、音声を示す音声情報を生成する。そして、音声情報生成部23は、生成した音声情報をスピーカ部25及び表示部26に出力する。
【0037】
更に、音声情報生成部23は、信号処理部22からの認識結果を、使用者の身体状態、利用状態及び使用目的に応じて加工、変換、合成等をして音声情報を生成する処理を行う。更に、この音声情報生成部23は、マイクロホン21で検出された音声を使用者に提示するための処理を認識結果及び/又は加工等をして得た認識結果について行う。
【0038】
更にまた、音声情報生成部23は、認識結果から生成した音声情報を修飾して新たな音声情報を生成しても良い。このとき、音声情報生成部23は、使用者の身体状態、利用状態及び使用目的に基づいて、更に使用者が理解し易い言葉を付け加えることで、使用者の音声の認識を更に向上させる。
【0039】
更にまた、この音声情報生成部23は、音声情報を表示部26に出力するときに音声の意味内容を画像として表示部26に出力する。音声情報生成部23は、例えば使用者又は使用者の話者及び外部からの音声が入力されて信号処理部22からの認識結果として物体を示す認識結果が入力されたときには、当該物体を示す画像データを表示部26に出力して表示させる処理を行う。
【0040】
更にまた、この音声情報生成部23は、信号処理部22からの認識結果に応じて、以前にスピーカ部25又は表示部26に出力した音声情報を再度出力する。音声情報生成部23は、音声情報を出力した後に、使用者又は使用者に対する話者がもう一度聞き直したいことに応じて発した音声を示す認識結果が入力されたと判定したときには、スピーカ部25又は表示部26に出力した音声情報を再度出力する処理を行う。また、音声情報生成部23は、例えば使用者の話者からの音声の特徴を抽出する処理や音声の周波数特性を用いた話者認識結果に基づいて、以前にスピーカ部25又は表示部26に出力した音声情報を再度出力しても良い。更に、音声情報生成部23は、人工知能の機能を用いて音声対話を行うことで、スピーカ部25又は表示部26に出力した音声情報を再度出力しても良い。
【0041】
更にまた、音声情報生成部23は、再度出力する処理を行うか否かを操作入力部28からの操作入力命令に応じて切り換えても良い。すなわち、使用者が再度出力する処理を行うか否かの切換を操作入力部28を操作することで決定し、操作入力部28をスイッチとして用いる。
【0042】
また、この音声情報生成部23は、再度音声情報を出力するとき、以前に出力した音声情報を再度出力するか、以前に出力した音声情報とは異なる音声情報を出力するかを、信号処理部22を介して入力される操作入力部28からの操作入力信号に応じて選択する。
【0043】
表示部26は、上記音声情報生成部23で生成した音声情報が示す音声、カメラ機構29で撮像した画像等を表示する。
【0044】
操作入力部28は、スイッチ、キーボード、マウス等でも良く、使用者に操作されることで、操作入力信号を生成する。
【0045】
このような補聴器1は、マイクロホン21で検出した音声について信号処理部22で音声認識処理をして、認識結果に基づいて音声情報生成部23でプログラムを起動することで使用者に応じた処理を行うことができる。これにより、補聴器1は、スピーカ部25にマイクロホン21からの音声を出力するとともに、表示部26に表示するので、音声に対する使用者の認識を向上させることができる。視覚聴覚同時に矛盾する音韻情報を提示した場合にいずれの情報とも異なった音韻に異聴が生ずるというMuGurk効果(MuGurk H and MacDonald J: Hearing lips and seeing voice,Nature 264,746-8,1976参照)や、乳児がすでに聴覚からの音声情報と視覚からの口形の情報との対応関係を獲得しているとの報告(Kuhl PK et al. Human processing of auditory-visual information in speech perception. ICSLP'94 S11.4,Yokohama,1994)や視覚が音源方向の知覚に影響を与える(腹話術効果)、及び人間は無意識のうちに音源かどうかを学習し、区別するなどの報告は人間のコミュニケーションが本来マルチモーダルなものであるとする仮説を支持するものである(Saitou H and Mori T:視覚認知と聴覚認知Ohmsha,119-20,1999参照)。以上のことは、視覚が聴覚に影響を及ぼしていることを意味し、表示部26に認識結果等を表示することで音声情報を補足し、音声に対する使用者の認識を向上させる。この補聴器1では、音声のみならず、表示部26に表示する画像を通じて話者に音声の意味内容を伝達し、対話することができる。
【0046】
更に、この補聴器1によれば、使用者用マイクロホン8及び/又は外部用マイクロホン11で検出した音声を認識した結果に応じて表示部26に表示する音声の意味内容及びスピーカ部25から出力する音声の内容を変更させることができるので、更に音声に対する使用者の認識を向上させることができる。従って、この補聴器1によれば、音声情報生成部23により音声認識処理を変更するプログラムを実行することにより、身体状態(難聴の程度等)、利用状態及び使用目的に応じて認識処理を変更することで、使用者が理解しやすい音声の意味的な情報を表示することで更に認識を向上させることができる。
【0047】
スピーカ部25は、上記音声情報生成部23で生成した音声を出力する。このスピーカ部25としては、例えば使用者から話し手に対して音声を出力するものであっても良く、更には、使用者が発した音声を使用者の耳に対して発声するように音声を出力するものであっても良い。また、使用者の耳に対して発声するように音声を出力するスピーカ部25は、スピーカユニットの変換方式としてダイナミック型や静電型(コンデンサ型、エレクトロスタティック型)によるものでも良く、形状としてはヘッドフォン(オープンエア型、クローズド型、カナルタイプ等のイン・ザ・イヤー型等)によるものでも良い。また、スピーカ部25は、従来の補聴器、拡声器、集音器のスピーカによるものでも良く、使用者から話者に対して音声を出力するスピーカ部25は従来から用いられているスピーカ装置でよい。
【0048】
また、スピーカ部25は、音声情報に基づいて出力する音声と逆位相の音を出力するようにしても良い。これにより、スピーカ部25から出力する音声に含まれる雑音成分を除去し、使用者及び/又は使用者に対する話者に雑音の少ない音声を出力する。
【0049】
また、この補聴器1は、外部の通信ネットワークと接続された通信回路27を備えている。この通信回路27は、電話、携帯電話、インターネットや無線、衛星通信等の通信ネットワークを介して例えば音声言語障害を有する者から発せられた音声が入力される。この通信回路27は、外部からの音声や音声を示すデータを信号処理部22に入力する。また、この通信回路27は、音声情報生成部23で生成した音声情報を外部のネットワークに出力する。
【0050】
また、この通信回路27は、信号処理部22、音声情報生成部23を介して文字放送、文字ラジオを表示部26で表示させても良い。このとき、通信回路27は、文字放送等を受信するためのチューナ機能を備え、使用者の所望のデータを受信する。
【0051】
このように構成された補聴器1は、例えば喉頭摘出後に電気式人工喉頭を使って発声された音声がマイクロホン21に入力された場合であっても、信号処理部22で音声認識し、記憶部24に格納された喉頭摘出前にサンプリングした音声を示す音声データを用いて音声情報生成部23で出力する音声を示す音声情報を生成するので、スピーカ部25から喉頭摘出前の使用者の音声に近似した音声を出力することができる。
【0052】
なお、上述した本発明を適用した補聴器1の説明においては、マイクロホン21で検出される喉頭摘出した人の音声である一例について説明したが、聴力障害による言語障害の一つである構音障害(articulation disorders)を持つ者からの音声を検出したときであっても良い。このとき、補聴器1は、言語障害の音声を音声データとして記憶部24に記憶しておき、当該発声者が発声したことに応じて記憶部24に格納された発声者の音声を示す音声データを参照して信号処理部22で音声認識処理を行い、音声情報生成部23で認識結果に応じて音声データを組み合わせることで音声情報を生成する処理を行うことにより、スピーカ部25から音声言語障害のない音声を出力するとともに、表示部26により音声情報に基づいた音声内容を表示することができる。
【0053】
したがってこの補聴器1によれば、例えば喉頭摘出者が代用発声法により発生した音声を表示部26に表示することで不自然な音声を訂正させることができる。
【0054】
更に、補聴器1は、例えば聴力障害による構音障害を持つ者は発声のためのフィードバックが得られず、「きょうは(今日は)」という音声が「きょんわあ」となってしまうのを上述した処理を行うことにより正常な「きょうは(今日は)」という音声に訂正してスピーカ部25から出力することができる。
【0055】
更に、この補聴器1は、表示部26を備えているので、発声者の音声をスピーカ部25から正常な音声にして出力するとともに、発声者の音声内容を表示することにより音声障害者や難聴者の言語訓練学習にとって好適なシステムを提供することができる。
【0056】
つぎに、上述の音声情報生成部23が信号処理部22からの認識結果を加工、変換して音声情報を生成する処理、音声データを組み合わせる処理で適用することができる種々の例について述べる。なお、変換処理等の種々の例は、以下に述べる例に限定するものではない。
【0057】
音声情報生成部23は、信号処理部22からの認識結果を変換するとき、人工知能技術を用いて認識結果を加工変換して音声情報を生成しても良い。音声情報生成部23は、例えば音声対話システムを用いる。ここで、特に聴力の低下した老人は相手話者の言ったことを再度聞き直すことがあるが、このシステムを用いて認識結果を加工変換することにより、補聴器1と使用者とが対話して以前に記憶した相手話者の言ったことの情報を得て、使用者の音声認識を向上させることができ、聞き直す手間を省略することができる。
【0058】
このようなシステムは、マルチモーダル対話システムである表情つき音声対話システムを用いることで実現可能である。このマルチモーダル対話システムでは、ポインティングデバイスとタブレットを利用する入力技術である直接操作・ペンジェスチャ技術、テキスト入力技術、音声認識等の音声入出力技術、人間の視覚、聴覚、触覚、力覚を利用した仮想現実感技術、ノンバーバルモダリティ技術の技術要素をモダリティとし組み合わせて用いる。このとき、音声情報生成部23は、言語情報を補足する手段、対話の文脈情報(或いはその補足手段)、使用者の認知的負担或いは心理的抵抗感を軽減する手段として各モダリティを用いる。なお、ノンバーバルインターフェースとして身振り(gesture)インターフェースを用いてもよい。その場合ジェスチャーインターフェースの計測として装着型センサによる身振り計測には身振りトラッキングが必要であり手袋型デバイス、磁気や光学的位置計測を用い、身振りの非接触計測にはマーカを立体解析したりする映像や3D再構成によるものを用いてもよい。
【0059】
なお、このマルチモーダル対話システムの詳細は文献「Nagao K and Takeuchi A,Speech dialogue with facial displays: Multimodal human-computer conversation.Proc.32nd Ann Meeting of the Association for Computational Linguistics,102-9,Morgan Kaufmann Publishers,1994及びTakeuchi A and Nagao K,Communicative facial displays as a new conversational modality.Proc ACM/IFIP Conf on Human Factors in Computing Systems(INTERCHI'93),187-93, ACM Press,1993」に記載されている。
【0060】
このような人工知能機能を用いた音声対話システムとしては、マイクホン21で検出した音声を、信号処理部22でA/D変換、音響分析、ベクトル量子化の後、音声認識モジュールによって、上位スコアをもつ単語レベルの最良仮説を生成するシステムが使用可能である。ここで、音声情報生成部23は、隠れマルコフモデル(HMM)に基づく音韻モデルを用いて、ベクトル量子コードから音素を推定し、単語列を生成する。音声情報生成部23は、生成した単語列を、構文・意味解析モジュールにより意味表現に変換する。このとき、音声情報生成部23は、単一化文法を用いて構文解析を行い、次にフレーム型知識ベースと事例ベース(例文を解析して得られた文パターン)を用いて曖昧さの解消を行う。発話の意味内容の決定後、プラン認識モジュールにより使用者の意図を認識する。これは対話の進行に従い動的に修正・拡張されていく使用者の信念モデルと対話のゴールに関するプランに基づいている。意図を認識する課程で、主題の管理や、代名詞の照応解消、省略の補完などを行う。そして使用者の意図に基づいて協調的な応答を生成するモジュールが起動する。このモジュールはあらかじめ用意されたテンプレートの発話パターンに領域知識により得られた応答に関する情報を埋め込むことにより発話を生成する。この応答は音声合成モジュールにより音声となる。なお、この信号処理部22及び音声情報生成部23が行う処理としては、例えば文献(Nagao N,A preferential constraint satisfaction technique for natural language analysis. Proc 10th European Conf on Artificial Intelligence ,523-7,John Wiley&Sons,1992)、(Tanaka H,Natural language processing and its applications,330-5,1999,電子情報通信学会編 コロナ社)、(Nagao K, Abduction and dynamic preference in plan-based dialogue understanding.Proc 13th Int joint Conf on Artificial Intelligence,1186-92,Morgan Kaufmann Publishers,1993)に記載された処理を行うことでも実現可能である。
【0061】
また、音声情報生成部23は、人工知能機能を用いて行う処理として、システムの擬人化を行い、音声認識、構文・意味解析、プラン認識より表情パラメータ調節、表情アニメーションを表示部26を用いて行うことにより、視覚的手段を用いて音声対話に対して使用者の認知的負担、心理的抵抗感を軽減する。なお、この音声情報生成部23が行う処理としては、FACS(Facial Action Coding System;Ekman P and Friesen WV, Facial Action Coding System.Consulting Psychologists Press Palo Alto,Calif,1978)に記載された処理を行うことができる。
【0062】
更にまた、音声情報生成部23は、音声対話コンピュータシステム(参照Nakano M et al,柔軟な話者交代を行う音声対話システムDUG-1,言語処理学会第5回年次大会論文集,161-4,1999)としては話し言葉を理解する逐次理解方式(Incremental Utterance Understanding:Nakano M, Understanding unsegmented user utterances in real-time spoken dialogue systems.Proc of the 37th Ann meeting of the association for computational linguistics,200-7)と内容の逐次変更が可能な逐次生成方式(Incremental Utterance Production:Dohsaka K and Shimazu A,A computational model of incremental utterance production in task-oriented dialogues. Proc of the 16th Int Conf on Computational Linguistics, 304-9, 1996. 及びDohsaka K and Shimazu A,System architecture for spoken utterance production in collaborative dialogue. Working Notes of IJCAI 1997 Workshop on Collaboration, Cooperation and Conflict in Dialogue Systems, 1997及び Dohsaka K et al,複数の対話ドメインにおける協調的対話原則の分析、電子情報通信学会技術研究報告NLC-97-58,25-32,1998)による音声と画像を用いる人工知能システムである。ここで、音声情報生成部23は、理解と応答のプロセスが平行動作する。また、音声情報生成部23は、ISTARプロトコール(参照Hirasawa J,Implementation of coordinative nodding behavior on spoken dialogue systems, ICSLP-98,2347-50,1998)を用いて音声認識と同時に単語候補を言語処理部に逐次的に送る。
【0063】
すなわち、音声対話システムDUG-1で用いている技術を用いることにより、補聴器1では、例えば所定のデータ量(文節)ごとに使用者及び/又外部からの音声を音声認識するとともに、音声情報を生成する処理を行う。音声情報生成部23では、使用者及び/又は外部からの音声に応じて、音声認識処理、音声情報認識処理を随時中止、開始することができ、効率的な処理を行うことができる。更に、この補聴器1では、使用者の音声に応じて、音声認識処理、音声情報生成処理を制御することができるので、柔軟に話者の交替を実現することができる。すなわち、音声情報を生成している最中に使用者及び/又は外部からの音声を検出することで処理を変更し、使用者に提示する音声情報の内容を変更等の処理を行うことができる。
【0064】
更にまた、音声情報生成部23は、キーワードスポティングを用いて使用者の自由な発話を理解する処理を行っても良い(Takabayashi Y,音声自由対話システム TOSBURG II −使用者中心のマルチモーダルインターフェースの実現に向けて−.信学論 vol J77-D-II No.8 1417-28,1994)。
【0065】
この音声情報生成部23は、例えばアクセント等の処理を行うように変換処理を行って音声情報を出力しても良い。このとき、音声情報生成部23は、必要に応じて、特定の発音についてはアクセントの強弱を変化させるように音声情報を変換して出力するようにする。
【0066】
音声情報生成部23は、音声データを合成するとき、どのような内容の音声でも合成するときには規則による音声合成、滑らかな音声を合成するために可変長単位を用いた音声合成、自然な音声を合成するための韻律制御、また音声の個人性付与のために音質変換を行って音声情報を生成しても良い。これは、例えば書籍「"自動翻訳電話" ATR国際電気通信基礎技術研究所編 pp.177-209, 1994オーム社」に記載されている技術を適用することにより実現可能である。
【0067】
また、ボコーダ(vocoder)処理を用いても高品質の音声を合成することが可能である。例えば音声分析変換合成法STRAIGHT(speech transformation and representation based on adaptive interpolation of weighted spectrogram)等を施すことで実現可能である(文献「Maeda N et al,Voice Conversion with STRAIGHT. TECHNICAL REPORT OF IEICE, EA98-9,31-6, 1998」参照)。
【0068】
更に、この音声情報生成部23は、文字情報から音声を作り出す音声合成(text to speech synthesis)技術を用いることにより話の内容に関する情報(音韻性情報)や音の高さや大きさに関する情報(韻律情報)を聴力障害者の難聴の特性に合わせてその人の最も聞き易い音の高さに調整することも可能であり、他に話速変換技術(voice speed converting)、周波数圧縮(frequency compress)処理などの音声特徴量の変換処理を行う。また出力する音声の帯域を調整する帯域拡張(frequency band expansion)処理や、音声強調(speech enhancement)処理等を音声情報に施す。帯域拡張処理、音声強調処理としては、例えば「Abe M, "Speech Modification Methods for Fundamental Frequency, Duration and Speaker Individuality," TECHNICAL REPORT OF IEICE, SP93-137,69-75, 1994」にて示されている技術を用いることで実現可能である。なお、上述したように、信号処理部22及び音声情報生成部23で音声認識処理をして認識結果を加工変換する場合のみならず、上記処理のみを行ってスピーカ部25に出力しても良い。また、この補聴器1では、認識結果及び/又は上記処理のみを行った結果を同時に又は時間差を付けて出力しても良い。また、この補聴器1では、認識結果及び/又は上記処理のみを行った結果をスピーカ部25又は表示部26の右チャンネルと左チャンネルとで異なる内容を出力しても良い。
【0069】
更にまた、上記音声情報生成部23は、認識結果を用いて音声から言語を理解し、当該理解した言語を用いて音声データから音声情報を構成するという処理を行うのみならず、他の処理を認識結果に基づいて理解した言語を必要に応じて加工変換する処理を行っても良い。すなわち、この音声情報生成部23は、音声情報を構成するとともに、音声情報としてスピーカ部25に出力するときの速度を変化させる話速変換処理を行っても良い。すなわち、この話速変換処理は、使用者の状態に応じて適当な話速を選択することによりなされる。
【0070】
更にまた、この音声情報生成部23は、認識結果に応じて、例えば日本語の音声情報を英語の音声情報に変換して出力するような翻訳処理を行って出力しても良く、通信機能と合わせて自動翻訳電話にも応用可能である。更には音声情報生成部23は自動要約(automatic abstracting)を行い、「United States of America」を「USA」と要約するように変換して音声情報を出力しても良い。
【0071】
音声情報生成部23が行う他の自動要約処理としては、例えば文章内から要約に役立ちそうな手がかり表現を拾い出し、それらをもとに読解可能な文表現を生成する生成派の処理(文献「McKeown K and Radev DR,Generating Summaries ofMultiple News Articles. In Proc of 18th Ann Int ACM SIGIR Conf on Res and Development in Information Retrieval,74-82, 1995 及び Hovy E,Automated Discourse Generation using Discourse Structure Relations, Artificial Intelligence, 63, 341-85, 1993」参照)、要約を「切り抜き」と考えて処理し客観的評価が可能となるように問題を設定しようという立場の抽出派の処理(文献「Kupiec J et al,A Trainable Document Summarizer, In Proc of 14th AnnInt ACM SIGIR Conf on Res and Development in Information Retrieval, 68-73, 1995」、及び「Miike S, et al, A Full-text Retrieval System with a Dynamic Abstruct Generation Function.Proc of 17th Ann Int ACM SIGIR Conference on Res and Development in Information Retrieval,152-9, 1994」及び「Edmundson HP,New Method in Automatic Extracting. J of the ACM, 16,264-85, 1969」参照)がある。更に、この音声情報生成部23は、例えば文献「Nakazawa M, et al.Text summary generation system from spontaneous speech,日本音響学会講演論文集 1-6-1,1-2, 1998」に記載されている手法(Partial Matching MethodとIncremental Reference Interval-Free連続DPを用いて重要キーワードの抽出を行い、Incremental Path Methodを用いて単語認識を行う)を用いることが可能である。
【0072】
更にまた、この音声情報生成部23は、認識結果に応じて、特定の音素、母音、子音、アクセント等において、消去したり、音声を出力することに代えてブザー音、あくび音、せき音、単調な音等を音声情報とともに出力するように制御しても良い。このとき、音声情報生成部23は、例えば文献「Warren RM andPerceptual Restoration of Missing Speech Sounds, Science vol.167 ,392-393, 1970」や文献「Warren RM,Obusek CJ, "Speech perception and phonemic restoration,” Perception and psychophysics vol.9 ,358-362, 1971」に記載されている手法を実現した処理を音声情報について行う。
【0073】
更にまた、音声情報生成部23は、認識結果を用いてホーン調となるように音質を変換させて音声情報を出力しても良い。上記ホーン調とは、集音管を使ったもので、約2000Hz以下の帯域の音声を増幅させて、利得を約15dB程度とすることである。すなわち、このホーン調とは、管共鳴を用いた重低音を再生する技術により出力される音質である。この音声情報生成部23は、例えばUS PATENT 4628528により公知となされいているアコースティックウェーブ・ガイド(acoustic wave guide)技術を用いて出力される音質に近似した音に変換して音声情報を出力する。ここで、音声情報生成部23は、例えば低音のみを通過させるフィルター処理を行って音声情報を出力する処理を行っても良く、例えばSUVAG(Systeme Universel Verbo-tonal d'Audition-Guberina)機器を用いることにより、所定の周波数帯域の音声のみを通過させる種々のフィルタ処理を行って音声情報を出力する処理を行っても良い。
【0074】
更にまた、この音声情報生成部23は、例えばマイクロホン21に音楽が入力されたと判断したときには、音声情報を変換して表示部26に音符や色を表示するように処理を行っても良い。また、この音声情報生成部23は、音声のリズムなどが分かるために変換した音声のリズムを信号が点滅するように音声情報を変換して表示部26に表示しても良い。
【0075】
更にまた、この音声情報生成部23は、例えば警報等の発信音がマイクロホン21に入力されたと判断したときには、音声情報を変換することで表示部26に警報等がマイクロホン21で検出された旨の表示を行ったり、スピーカ部25に警報の内容を知らせるような内容を出力しても良く、例えば救急車や非常ベルのサイレンを聞いたら表示するだけでなく大音量で「救急車ですよ」や「火事ですよ」とスピーカ部25から出力するとともに、表示部26に救急車や火事を示す画像を表示することで難聴者に非常事態を伝えることができ、最悪の事態を避けることができる。
【0076】
更にまた、音声情報生成部23は、過去に行った変換合成処理について記憶する機能を備えていても良い。これにより、音声情報生成部23は、過去に行った変換合成処理の改良を自動的に行う学習処理を行うことができ、変換合成処理の処理効率を向上させることができる。
【0077】
更にまた、この信号処理部22及び音声情報生成部23は、話し手の音声のみについての認識結果を生成して音声情報を生成し、スピーカ部25及び/又はディスプレイ部7に提示することで使用者に知らせる一例のみならず、例えば特定の雑音に対してのみ音声認識を行っても良い。要するに、信号処理部22及び音声情報生成部23は、入力した音について音声認識処理を行って、認識結果を使用者の身体状態、利用状態及び使用目的に応じて変換することで使用者が理解し易い表現で音声情報を生成して出力する処理を行う。
【0078】
更にまた、上述した本発明を適用した補聴器1の説明おいては、記憶部24に予めサンプリングして格納した音声データを音声情報生成部23により組み合わせることにより音声情報を生成して出力するものの一例について説明したが、上記音声情報生成部23は、記憶部24に記憶された音声データを組み合わせて音声情報を生成するときに格納された音声データに変換処理を施す音声データ変換部を備えていても良い。このような音声データ変換部を備えた補聴器1は、例えばスピーカ部25から出力する音声の音質を変化させることができる。
【0079】
更にまた、上述した本発明を適用した補聴器1の説明おいては、例えば喉頭摘出前の使用者の音声を予めサンプリングすることにより得た音声データを記憶部24に格納するものの一例について説明したが、記憶部24には、一つの音声データのみならず複数の音声データを予めサンプリングして格納しても良い。すなわち記憶部24には、例えば喉頭摘出前に発せられた音声を予めサンプリングした音声データ、及び前記喉頭摘出前に発せられた音声に近似した音声データを格納しても良く、更には全く異なる音質の音声データを格納しても良く、更にまた、喉頭摘出前の音声データを生成し易い音声データを格納しても良い。このように複数の音声データが記憶部24に格納されているとき、音声情報生成部23は、各音声データの関係を例えば関係式等を用いて関連づけを行って選択的に音声データを用いて音声情報を生成しても良い。
【0080】
また、上述の補聴器1は、サンプリングして記憶部24に格納した音声データを合成することで音声情報を生成して出力する一例について説明したが、記憶部24に記憶されている音声データを合成することで生成した音声情報に、音声情報生成部23によりボコーダ処理を施すことにより、サンプリングして記憶されている音声データが示す音声とは異なる音質の音声に変換して出力しても良い。このとき、音声情報生成部23は、ボコーダ処理を用いた例としてSTRAIGHTを施す。
【0081】
更にまた、信号処理部22は、話者認識(speaker recognition)処理を入力される音声について行って各話者に対応した認識結果を生成しても良い。そして、この信号処理部22では、各話者に関する情報を認識結果とともにスピーカ部25や表示部26に出力することで使用者に提示しても良い。
【0082】
補聴器1で話者認識を行うときには、ベクトル量子化(文献Soong FK and Rosenberg AE,On the use of instantaneous and transitional spectral information in speaker recognition.Proc of ICASSP’86,877-80,1986)によるものでも良い。このベクトル量子化を利用した話者認識では、準備段階の処理として登録話者用の学習用音声データからスペクトルの特徴を表すパラメータを抽出して、これらをクラスタリングすることによりコードブックを作成する。ベクトル量子化による方法は話者の特徴が作成された符号帳に反映されていると考える手法である。認識時には入力された音声と全ての登録話者のコードブックを用いてベクトル量子化を行い、入力音声全体に対して量子化ひずみ(スペクトルの誤差)を計算する。この結果を用いて話者の識別や照合の判定を行う。
【0083】
また、補聴器1で話者認識を行うときには、HMM (文献Zheng YC and Yuan BZ,Text-dependent speaker identification using circular hidden Markov models.Proc of ICASSP’88,580-2,1988)よる方法であっても良い。この方法では、準備段階の処理として登録話者の学習用音声データからHMMを作成する。HMMを用いる方法では話者の特徴は状態間の遷移確率とシンボルの出力確率に反映されると考える。話者認識の段階では入力音声を用いて全ての登録話者のHMMによる尤度を計算して判定を行う。HMMの構造としてleft~to~rightモデルに対してエルゴティックなHMMを用いてもよい。
【0084】
更にまた、補聴器1では、ATR-MATRIX system(ATR音声翻訳通信研究所製:参照 Takezawa T et al, ATR-MATRIX: A spontaneous speech translation system between English and Japanese. ATR J2,29-33,June1999)で用いられている音声認識(ATRSPREC)、音声合成(CHATR)、言語翻訳(TDMT)を行うことで、マイクロホン21で入力した音声を翻訳して出力することができる。
【0085】
上記音声認識(ATRSPREC)では、大語彙連続音声認識を行い、音声認識ツールを用いて音声認識に必要な音響モデルと言語モデルの構築、及び信号処理から探索までの工程を処理する。この音声認識では、行った処理をツール群として完結し、ツール同士の組み合わせることができる。また、この音声認識を行うとき、不特定話者の音声認識を行っても良い。
【0086】
上記音声合成(CHATR)では、あらかじめデータベース化された多量の音声単位から、出力したい文に最も適した単位を選択してつなぎあわせ、音声を合成する。このため、滑らかな音声が出力することができる。この音声合成では、話し手の声に最も近い音声データを用いて話し手の声に似た声で合成することができる。また、この音声合成を行うときには、音声情報生成部23は、入力された音声から話し手が男性か女性かを判断し、それに応じた声で音声合成を行っても良い。
【0087】
上記言語翻訳(TDMT)では、文の構造を判断する処理、対話用例を用いた対話特有のくだけた表現などの多様な表現を扱って言語翻訳を行う。また、この言語翻訳では、マイクロホン21が一部聞き取れなかった部分があっても、翻訳できる部分はなるべく翻訳する部分翻訳処理を行い、一文全体を正確に翻訳できない場合でも、話し手が伝えたい内容をかなりの程度相手に伝える。
【0088】
また、上記音声認識、音声合成、言語翻訳を行うときには、通信回路27を介して携帯電話等の通信機器と接続して双方向の対話可能である。
【0089】
上記音声認識、音声合成、言語翻訳を行う補聴器1では、例えば日英双方向の音声翻訳システムの利用、ほぼリアルタイムの認識、翻訳、合成、話し始めの指示をシステムに与える必要がなく、全二重の対話が可能自然な発話に対する、質の高い認識、翻訳、合成「あのー」、「えーと」といった言葉や、多少くだけた表現があっても認識が可能 となる。
【0090】
更にまた、音声情報生成部23は、上記音声認識(ATRSPREC)において、信号処理部22からの認識結果に基づいて文の構造を判断するだけでなく、対話用例を用いることにより、対話特有のくだけた表現などの多様な表現に対応した音声情報を生成する。また、音声情報生成部23は、マイクロホン21で会話中の一部が聞き取れなかった部分があっても、音声情報を生成することができる部分はなるべく音声情報を生成する。これにより、音声情報生成部23は、一文全体の音声情報を正確に生成できない場合でも、話し手が伝えたい内容をかなりの程度相手に伝える。このとき、音声情報生成部23は、翻訳処理(部分翻訳機能)を行って音声情報を生成しても良い。
【0091】
また、音声情報生成部23は、上記音声合成(CHATR)において、予めデータベース化して記憶された多量の音声単位の音声データから、出力したい文に最も適した単位を選択してつなぎあわせ、音声を合成して音声情報を生成する。これにより、音声情報生成部23は、滑らかな音声を出力するための音声情報を生成する。また、音声情報生成部23は、話し手の声に最も近い音声データを用いて話し手の声に似た声で合成処理を行っても良く、入力された音声から話し手が男性か女性かを判断し、それに応じた声で音声合成を行って音声情報を生成しても良い。
【0092】
更にまた、音声情報生成部23は、マイクロホン21からの音声から、特定の音源の音のみを抽出してスピーカ部25及び/又は表示部26に出力しても良い。これにより、補聴器1は、複数の音源から到来する音の混合の中から、特定の音源の音のみを抽出して聞くことができるカクテルパーティ現象を人工的に作ることができる。
【0093】
更にまた、音声情報生成部23は、音韻的に近い例を用いて誤りを含んだ認識結果を訂正する手法を用いて聞き間違いを修正して音声情報を生成しても良い(文献Ishikawa K, Sumida E: A computer recovering its own misheard-Guessing the original sentence form a recognition result based on familiar expressions- ATR J 37,10-11,1999)。このとき、音声情報生成部23は、使用者の身体状態、利用状態及び使用目的応じて処理を行って、使用者にとってわかりやすい形態に加工変換する。
【0094】
なお、上述した補聴器1の説明においては、マイクロホン21で検出した音声について音声認識処理、音声生成処理を行う一例について説明したが、使用者等により操作される操作入力部28を備え当該操作入力部28に入力されたデータを音声及び/又は画像とするように信号処理部22により変換しても良い。また、この操作入力部28は、例えば使用者の指に装着され、指の動きを検出することでデータを生成して信号処理部22に出力するものであっても良い。
【0095】
また、この補聴器1は、例えば使用者が液晶画面等をペンにより接触させることで文字及び/又は画像を描き、その軌跡を取り込むことによる画像に基づいて文字及び/又は画像データを生成する文字及び/又は画像データ生成機構を備えていても良い。補聴器1は、生成した文字及び/又は画像データを信号処理部22及び音声情報生成部23により認識・変換等の処理を行って出力する。
【0096】
更に、上述の補聴器1は、マイクロホン21等からの音声を用いて信号処理部22により音声認識処理を行う一例に限らず、例えば使用者及び/又は使用者以外の人が装着する鼻音センサ、呼気流センサ、頸部振動センサからの検出信号及びマイクロホン21等からの信号を用いて音声認識処理を行っても良い。このように、補聴器1は、マイクロホン21のみならず上記各センサを用いることにより、信号処理部22による認識率を更に向上させることができる。
【0097】
更に、この補聴器1は、例えば自動焦点機能やズーム機能を搭載したデジタルカメラにより動画像や静止画像等を撮像するカメラ機構29を図2に示すように備え、表示部26に表示するものであっても良い。このカメラ機構29は例えば図1のディスプレイ部7と一体に搭載されても良い。また、上記カメラ機構29としては、デジタルカメラを用いても良い。
【0098】
また、この補聴器1に備えられたカメラ機構29は、撮像した画像を使用者の視力や乱視等の状態に合わせて歪ませたり拡大させたりする画像変換処理を施して表示部26に表示する眼鏡機能を備えていても良い。
【0099】
このような補聴器1は、例えばカメラ機構29からCPU等からなる信号処理回路を経由して表示部26に撮像した画像を表示する。この補聴器1は、このようなカメラ機構29により例えば話者を撮像した画像を使用者に提示することで、使用者の認識を向上させる。また、この補聴器1は、撮像した画像を通信回路27を介して外部のネットワークに出力しても良く、更には外部のネットワークからカメラ機構29で撮像した画像を入力して通信回路27及び信号処理回路等を介して表示部26に表示しても良い。
【0100】
更に、この補聴器1では、話者を撮像した画像を用いて信号処理部22で顔面認識処理、物体認識処理を行って音声情報生成部23を介して表示部26に表示しても良い。これにより、補聴器1では、撮像対象者の口唇、顔の表情、全体の雰囲気等を使用者に提示して、使用者の音声認識を向上させる。
【0101】
撮像機能を用いた顔の認識において顔の個人性特徴を抽出して個人認識をおこなうものとして、以下の方法があるがこれらに限られるものではない。
【0102】
濃淡画像のマッチングにより識別するための特徴表現の一つとしてパターンをモザイク化し、各ブロック内の画素の平均濃度をブロックの代表値とすることで濃淡画像を低次元ベクトルに情報圧縮して表現する方法でM特徴といわれている方法である。また、KI特徴という濃淡顔画像の特徴表現で、Karhunen-Loeve(KL)展開を顔画像の標本集合に適応して求められる直交基底画像を固有顔とよび、任意の顔画像をこの固有顔を用いて展開した係数から構成される低次元の特徴ベクトルで記述する方法である。更に、顔画像集合のKL展開による次元圧縮に基づくKI特徴によるもの照合パターンをまずフーリエスペクトルに変換しKI特徴の場合と同様に標本集合をKL展開することで次元圧縮を行って得られる低次元の特徴スペクトルであるKF特徴による識別を行う方法がある。以上の方法によるものが顔画像認識に用いることが可能であり、それらを用いて顔の認識を行うことは対話者が誰であるかという個人識別情報をコンピュータに与えることになり、使用者にとって対話者に対する情報が得られ、音声情報に対する認識が増す。なお、このような処理は、文献「小杉 信:“ニューラルネットを用いた顔画像の識別と特徴抽出”,情処学CV研報,73-2(1991-07)」、文献「Turk MA and Pentland AP,Face recognition using eigenface.Proc CVPR,586-91(1991-06)」、文献「Akamatsu S et al,Robust face intification by pattern matching Based on KL expansion of the Fourier Spectrum 信学論 vol J76-D-II No.7,1363-73,1993」、文献「Edwards GJ et al,Learning to identify and track faces in image seguences,Proc of FG '98,260-5,1998」に記載されている。
【0103】
この補聴器1では、物体認識を行うときには、物体を示すパターンをモザイク化しておき、実際に撮像した画像とマッチングを取ることにより物体の識別を行う。そして、この補聴器1では、マッチングがとれた物体の動きベクトルを検出することで、物体の追尾を行う。これにより、物体から発せられる音声から生成される音声情報に対する認識が増す。この物体認識処理は、SonyCSLから提案されているUbiquitous Talker(文献Nagao K and Rekimoto J,Ubiquitous Talker:Spoken language interaction with real world objects. Proc 14th IJCAI-95,1284-90,Morgan Kaufmann Publishers,1995)で用いられてる技術を採用することができる。
【0104】
更に、この補聴器1は、静止画撮像用デジタルカメラのようにシャッターを押すことで静止画を撮像しても良い。更に、カメラ機構29は、動画像を生成して信号処理部22に出力しても良い。このカメラ機構29により動画像を撮像するときの信号方式としては、例えばMPEG(Moving Picture Experts Group)方式などを用いる。更にまた、この補聴器1に備えられるカメラ機構29は、3次元画像を撮像することで、話者や話者の口唇を撮像して表示部26に表示させることで更に使用者の認識を向上させることができる。
【0105】
このような補聴器1は、使用者自身の発した音声や相手の発した音声等及び/又はその場の情景を撮像した画像を記録し再生することで、言語学習における復習することができ言語学習に役立てることができる。
【0106】
また、この補聴器1によれば、画像を拡大処理等して表示部26に表示することで相手を確認し全体の雰囲気をつかめ音声聴取の正確さが向上し、更に読唇(lip reading)を行うことが可能となり認識を上昇させる。
【0107】
更にまた、この補聴器1は、例えばスイッチ機構が設けられており、マイクロホン21で検出した音声をスピーカ部25により出力するか、カメラ機構29により撮像した画等像を表示部26により出力するか、又は音声及び画像の双方を出力するかを使用者により制御可能としても良い。このときスイッチ機構は、使用者に操作されることで、音声情報生成部23から出力を制御する。
【0108】
また例として、スイッチ機構は、使用者及び/又は使用者以外の音声を検出して、例えば「音声」という音声を検出したときにはマイクロホン21で検出した音声をスピーカ部25により出力するように切り換え、例えば「画像」という音声を検出したときにはカメラ機構29により撮像した画等像を表示部26により出力するように切り換え、「音声、画像」という音声を検出したときには音声及び画像の双方を出力するするように切り換えても良く、以上のような音声認識を用いたスイッチ制御機構を備えていても良い。また、ジェスチャーインターフェースを用いることで、ジェスチャー認識によるスイッチ制御システムとしても良い。
【0109】
更にまた、このスイッチ機構は、カメラ機構29のズーム状態等のパラメータを切り換えることでカメラ機構29で画像を撮像するときの状態を切り換える機能を備えていても良い。
【0110】
つぎに、この補聴器1において、音声情報生成部23により作成した音声情報を出力する機構の種々の例について説明する。なお、本発明は、以下に説明する出力する機構に限られることはないことは勿論である。
【0111】
すなわち、この補聴器1において、音声情報を出力する機構としてはスピーカ部25や表示部26に限らず、例えば骨導や皮膚刺激を利用したものであっても良い。この音声情報を出力する機構は、例えば小さな磁石を鼓膜等に装着し、磁石を振動させるものや、骨を通して信号を蝸牛に伝達するものであっても良い。
【0112】
このような補聴器1は、例えば圧挺板を備え、音声情報生成部23により変換することにより得た信号を前記圧挺板に出力するようにしたものや、皮膚刺激を用いたタクタイルエイド(Tactile Aid)等の触覚による補償技術を利用したものであっても良く、これらの骨振動や皮膚刺激等を用いた技術を利用することで、音声情報生成部23からの信号を使用者に伝達することができる。皮膚刺激を利用した補聴器1においては、音声情報生成部23からの音声情報が入力されるタクタイルエイド用振動子アレイが備えられており、タクタイルエイドと当該振動子アレイを介してスピーカ部25から出力する音声を出力しても良い。
【0113】
また、上述した補聴器1の説明においては、音声情報を音声として出力するときの処理の一例について説明したが、これに限らず、例えば人工中耳により使用者に認識結果を提示するものであっても良い。すなわち、この補聴器1は、音声情報を電気信号としてコイル、振動子を介して使用者に提示しても良い。
【0114】
更には、この補聴器1は、人工内耳機構を備え、人工内耳により使用者に認識結果を提示するものであっても良い。すなわち、この補聴器1は、例えば埋め込み電極、スピーチプロセッサ等からなる人工内耳システムに音声情報を電気信号として供給して使用者に提示しても良い。
【0115】
更には、この補聴器1は、脳幹インプラント(Auditory Brainstem Implant)機構を備え、聴性脳幹インプラントにより使用者に音声情報を提示するものであっても良い。すなわち、この補聴器1は、例えば埋め込み電極、スピーチプロセッサ等からなる脳幹インプラントシステムに音声情報を電気信号として供給して使用者に提示しても良い。
【0116】
更にまた、この補聴器1は、使用者の身体状態、利用状態及び使用目的に応じて、例えば超音波帯域の音声が認識可能な難聴者に対しては認識結果及び加工変換した認識結果を音声情報として超音波帯域の音声に変調・加工変換して出力しても良い。更にまた、この補聴器1は、超音波出力機構(bone conduction ultrasound)を用いて超音波周波数帯域の信号を生成し、超音波振動子等を介して使用者に出力しても良い。
【0117】
更にまた、この補聴器1は、ヘッドホンの接触子を耳珠に当て、骨伝導をおこしさらに耳珠、外耳道内壁の振動が気導音となるシステムである骨伝導ユニットを備え、当該骨伝導ユニットを使用して音声情報を使用者に提示しても良い。この骨導ユニットとしては、聴覚障害者用ヘッドホンシステムであるライブホン(日本電信電話株式会社製)が使用可能である。
【0118】
更にまた、この補聴器1は、スピーカ部25、表示部26等の複数の出力手段を備える一例について説明したが、これらの出力手段を組み合わせて用いても良く、更には各出力手段を単独で出力しても良い。また、この補聴器1では、マイクロホン21に入力した音声の音圧レベルを変化させる従来の補聴器の機能を用いて音声を出力するとともに、上述した他の出力手段で認識結果を提示しても良い。
【0119】
更にまた、この補聴器1は、スピーカ部25及び/又は表示部26から出力する出力結果を同時に或いは時間差を持たせて出力してするように音声情報生成部部23で制御するスイッチ機構を備えていても良く、複数回に亘って出力結果を出力するか一回に限って出力結果を出力するかを制御するスイッチ機構を備えていても良い。
【0120】
また、この補聴器1の説明においては、図2に示したような一例について説明したが、入力された音声について上述した種々の加工変換処理を行って表示部26に表示させる第1の処理を行うCPUと、入力された音声について上述した種々の加工変換処理を行ってスピーカ部25に出力結果を出力するための第2の処理を行うCPUと、カメラ機構29で撮像した画像を表示するための第3の処理を行うCPUとを備えたものであっても良い。
【0121】
このような補聴器1は、各処理を行うCPUを独立に動作させて第1の処理又は第2の処理を行わせて出力させても良く、更には各処理を行うCPUを同時に動作させて第1の処理、第2の処理、及び第3の処理を行わせて出力させても良く、更には、第1及び第2の処理、第1及び第3の処理又は第2及び第3の処理を行うCPUを同時に動作させて出力させても良い。
【0122】
更にまた、補聴器1は、使用者の身体状態、利用状態及び使用目的に応じて上述した種々の出力機構からの出力結果を同時に或いは時間差を持たせて出力してするように音声情報生成部23で制御しても良い。
【0123】
更に、この補聴器1は、複数のCPUを有し、上述した複数のCPUで行う第1〜第3処理のうち、少なくとも1の処理をひとつのCPUで行うとともに、残りの処理を他のCPUで行っても良い。
【0124】
例えば、この補聴器1において、ひとつのCPUが入力された音声を文字データとして加工変換を行って表示部26に出力する処理(text to speech synthesis)を行うとともに、又はひとつのCPUが入力された音声に対して文字データとして加工変換を行って他のCPUが入力された同じ音声に対してSTRAIGHT処理を行ったりしてスピーカ部25に出力する処理を行い、他のCPUが入力された音声に対してボコーダ処理のうち、例えば音声分析合成法STRAIGHTを用いた処理を行ってスピーカ部25に出力する処理を行っても良い。すなわちこの補聴器1は、スピーカ部25に出力する信号と、表示部26に出力信号とで異なる処理を異なるCPUにより行うものであっても良い。
【0125】
更に、この補聴器1においては、上述した種々の加工変換処理を行って上述の種々の出力機構に出力する処理を行うCPUを有するとともに、加工変換処理を施さないでマイクロホン21に入力された音声を出力しても良い。
【0126】
更に、この補聴器1においては、上述した種々の加工変換処理の一を行うためのCPUと、他の加工変換処理を行うCPUとを別個に備えていても良い。
【0127】
更に、この補聴器1においては、上述のように認識結果や加工変換した認識結果や撮像した画像等について音声情報生成部23で変換する処理を行うとともに、従来と同様に音声を検出して得た電気信号を増幅させて音質調整、利得調整や圧縮調整等を行いスピーカ部25に出力するものであっても良い。
【0128】
なお、この補聴器1において、信号処理部22及び音声情報生成部23で行う処理を、例えばフーリエ変換、ボコーダ処理(STRAIGHT等)の処理を組み合わせて適用することで、上述した処理を行っても良い。
【0129】
また、本発明を適用した補聴器1では、個人的に使用する小型のタイプの補聴器について説明したが、集団で用いる大型のもの(卓上訓練用補聴器や集団訓練用補聴器)にも用いてもよい。
【0130】
視覚ディスプレイとしてHMD、Head-coupled display(頭部結合型表示装置)があげられる。以下に例を示す。双眼式HMD(左右眼毎に視差画像を提示し立体視を可能とするものや左右眼双方に同じ画像を提示し見かけ上の大画面を与えるもの)、単眼式、シースルー型HMD、視覚補助や視覚強調機能のついたディスプレイ、眼鏡型の双眼望遠鏡に自動焦点機能付でVisual filterを用いたもの、接眼部にコンタクトレンズを使用するシステム、網膜投影型(Virtual Retinal Display、Retinal projection display、網膜投影型の中間型)、視線入力機能付きHMD(製品名HAQ-200(島津製作所))や頭部以外(首、肩、顔面、眼、腕、手など)にマウントするディスプレイ、立体ディスプレイ(投影式オブジェクト指向型ディスプレイ(例 head-mounted projector:Iinami M et al., Head-mounted projector(II)-implementation Proc 4th Ann Conf Of Virtual Reality Society of Japan 59-62,1999)、リンク式の立体ディスプレイ、大画面のディスプレイ(spatial immnersive display)(例omnimax、 CAVE(Cruz-Neira C et al. Surrounded-screen projection-based virtual reality: The design and implementation of the CAVE, Proc of SIGGRAPH'93,135-42,1993参照)、CAVE型立体映像表示装置であるCABIN(Hirose M et al. 電子情報通信学会論文誌Vol J81-D-II No.5.888-96,1998)、CAVE等の投影ディスプレイとHMDの両方の特徴をもつ小型超広視野ディスプレイ(Endo T et al. Ultra wide field of view compact display. Proc 4th Ann Conf of Virtual Reality Society of Japan,55-58,1999)、アーチスクリーン)が使用可能である。
【0131】
特に大画面のディスプレイのものは大型補聴器として用いるときに使用してもよい。また、上述した補聴器1では、音の再現方法としてバイノーラル方式(3次元音響システムはHead-Related Transfer Functionを用いた空間音源定位システムを用いる:例 Convolvotron & Acoustetron II(Crystal River Engineering),ダイナミック型ドライバユニットとエレクトレットマイクロフォンを使用した補聴器TE-H50(Sony))を使用してもよく、実際と近い音場をつくったり、トランスオーラル方式(トラッキング機能付きのトランスオーラル方式が3次元映像再現におけるCAVEに対応する)を用いたりするものは主に大型の補聴器システムの場合に用いるのが好ましい。
【0132】
更にまた、上述のHMD2は、頭頂部に3次元位置検出センサーを備えていても良い。このようなHMD2を備えた補聴器1では、使用者の頭の動きに合わせてディスプレイ表示を変化させることが可能となる。
【0133】
強調現実感(Augmented reality(AR))を利用した補聴器1では、使用者の動作に関するセンサを備え、センサで検出した情報、マイクロホン21で検出し音声情報生成部23で生成した音声情報とを用いることで、AR空間を生成する。音声情報生成部23は、種々のセンサシステムとVR形成システムを統合するシステムとディスプレイシステムによりなるバーチャルリアリティ(Virtual realtiy(VR))システムとを協調的に用いることにより、実空間にVR空間を適切に重畳することで、現実感を強調するARの空間をつくることが可能となる。これにより補聴器1では視覚ディスプレイを用いるときに、顔面部にある画像からの情報を、情報が来るたびに大幅に視線をはずすことなく、ただ画像が目の前にあるだけでなく、画像情報が、いかにもそこにあるように自然に受けいれるようになり自然な状態で視覚からの情報を受け取ることが可能となる。以上を実行するには以下のシステムがある。
【0134】
このような補聴器1は、図3に示すように、AR空間を形成するためには、仮想環境映像生成のための3Dグラフィックアクセラレータを音声情報生成部23の内部に搭載することでコンピュータグラフィックスの立体視が可能な構成とし、更に無線通信システムを搭載する。この補聴器1に使用者の位置と姿勢の情報を取得するため、センサ31として頭部に小型ジャイロセンサ(例 データテックGU-3011)を、使用者の腰に加速度センサ(例 データテックGU-3012)を接続する。以上のセンサ31からの情報を音声情報生成部23で処理を行った後、使用者の右目、左目に対応するスキャンコンバータ32a、32bで処理をして表示部26に映像が行くというシステム(Ban Y et al, Manual-less operation with wearable augmented reality system.Proc 3th Ann Conf of Virtual Reality society of Japan,313-4,1998参照)を用いることで可能となる。
【0135】
また、この補聴器1では、センサ31に加えて状況認識システム(例Ubiquitous Talker(Sony CSL))とVRシステムを形成する他のシステムである以下の種々のセンサシステムとVR形成システムを統合するシステムとディスプレイシステム、及び、この補聴器1とを協調的に用いることにより、AR空間を強化することも可能であり、マルチモダリティを用いて音声情報を補足可能となる。
【0136】
このようなVR等の空間を形成するには、先ず、使用者がセンサ31に本人から情報を送り、その情報がVR形成システムを統合するシステムに送られ、ディスプレイシステムから使用者に情報が送られることで実現する。
【0137】
上記センサ31(情報入力システム)として以下のデバイスがある。
【0138】
特に人体の動きの取り込みや、空間に作用するデバイスとして光学式3次元位置センサ(ExpertVision HiRES & Face Tracker(MotionAnalysis))、磁気式3次元位置センサ(InsideTrack(Polhemus),3SPACE system(POLHEMUS), Bird(Ascension Tech.))、機械式3Dディジタイザ(MicroScribe 3D Extra(Immersion))、磁気式3Dディジタイザ(Model 350 (Polhemus))、音波式3Dディジタイザ(Sonic Digitizer(Science Accessories))、光学式3Dスキャナー(3D Laser Scanner(アステックス))、生体センサ(体内の電気で測る)サイバーフィンガー(NTTヒューマンインタフェース研究所)、手袋型デバイス(DetaGlove(VPL Res),Super Glove(日商エレクトロニクス)Cyber Glove(Virtual Tech))、フォースフィードバック(Haptic Master(日商エレクトロニクス)、PHANToM(SensAble Devices))、3Dマウス(Space Controller(Logitech))、視線センサ(眼球運動分析装置(ATR視聴覚機構研究所製))、体全体の動きの計測に関するシステム(DateSuit(VPL Res))、モーションキャプチャーシステム(HiRES(Motion Analysis))、加速度センサ(三次元半導体加速度センサ(NEC製))、視線入力機能付きHMDがある。
【0139】
また、ARを実現するためには、表示部26のみならず、触覚を利用した触覚ディスプレイ、触圧ディスプレイ、力覚ディスプレイがある。触覚ディスプレイにより音声を触覚により伝え、聴覚だけでなく触覚をも加えることで音声の認識をあげことが可能となる。この触覚ディスプレイとしては、例えば振動子アレイ(オプタコンや触覚マウス、タクチュアルボコーダ等)、触知ピンアレイ(ペーパーレスブレイル等)などが使用可能である。他にwater jet、air jet.PHANToM(SensAble Devices)、Haptic Master(日商エレクトロニクス)などがある。具体的には、補聴器1は、VRな空間でVRキーボードを表示し、信号処理部22及び音声情報生成部23での処理をVRキーボードまたはVRスイッチにより制御する。これにより、わざわざキーボードを用意したり、スイッチまで手を伸ばしたりすることが無くなり、使用者の操作を楽にし、耳に装着するのみの補聴器と近い装用感を得ることができる。
【0140】
前庭感覚ディスプレイとしては、ウオッシュアウトとウオッシュバックにより狭い動作範囲の装置でも多様な加速度表現ができるシステム(モーションベット)が使用可能である。
【0141】
VRシステムを統合するシステムとしては、以下のものがあり、それら限定されることはないが、C、C++のライブラリとして供給され、表示とそのデータベース、デバイス入力、干渉計算、イベント管理などをサポートし、アプリケーションの部分は使用者がライブラリを使用してプログラミングするものや、ユーザプログラミングを必要とせずデータベースやイベント設定をアプリケーションツールで行い、そのままVRシュミレーションを実行するシステムなどを使用してもよい。またこの補聴器1に関する個々のシステム間を通信にてつなげてもよい。また、状況を高い臨場感を保って伝送するのに広帯域の通信路を使用しても良い。また、補聴器1では、3Dコンピュータグラフィックスの分野で用いられている以下の技術を用いてもよい。現実に起こり得ることを忠実に画像として提示し、非現実的な空間を作り、実際には不可能なことも画像として提示することがコンセプトとなる。3Dコンピュータグラフィックスでは、以下のモデリング技術、レンダリング技術、アニメーション技術により可能となる。複雑で精密なモデルを作るモデリング技術としては、ワイヤーフレームモデリング、サーフェスモデリング、ソリッドモデリング、べジエ曲線、B−スプライン曲線、NURBS曲線、ブール演算(ブーリアン演算)、自由形状変形、自由形状モデリング、パーティクル、スイープ、フィレット、ロフティング、メタボール等がある。また、質感や陰影をつけリアルな物体を追求するためにレンダリング技術としては、シェーディング、テクスチュアマッピング、レンダリングアルゴリズム、モーションブラー、アンチエリアシング、デプスキューイングがある。また、作成したモデルを動かし、現実の世界をシミュレーションするためのアニメーション技術としては、キーフレーム法、インバースキネマティクス、モーフィング、シュリンクラップアニメーション、αチャンネルがある。また、サウンドレンダリングとして「文献Takala T,Computer Graphics (Proc SIGGRAPH 1992)Vol26,No2,211-20」に記載されている技術を用いても良い。
【0142】
このようなVRシステムを統合するシステムとしては、例えばDivision Incのシステム(VRランタイムソフトウェア[dVS]、VR空間構築ソフトウェア[dVISE]、VR開発用ライブラリ[VC Toolkit]、SENSE8社のWorldToolKitと、WorldUp、Superscape社のVRT、ソリッドレイ社のRealMaster、モデルなしのVRの生成として、文献「Hirose M et al. A study of image editing technology for synthetic sensation. Proc ICAT'94,63-70,1994」に記載されている方法等を使用しても良い。
【0143】
また、本実施の形態では、HMD2と、コンピュータ部3との間を光ファイバーケーブル4で接続してなる携帯型の補聴器1について説明したが、HMD2とコンピュータ部3との間をワイヤレスとし、HMD2とコンピュータ部3との間を無線や赤外線を用いた信号伝送方式等により情報の送受信を行っても良い。更に、この補聴器1においては、HMD2とコンピュータ部3との間をワイヤレスとする場合のみならず、図2に示した各部が行う機能毎に分割して複数の装置とし、各装置間をワイヤレスとしても良く、少なくともコンピュータ部3を使用者に装着させずにHMD2と情報の送受信を行っても良い。更にまた、この補聴器1においては、使用者の身体状態、利用状態、使用目的に応じて、図2に示した各部が行う機能毎に分割して複数の装置とし、各装置間をワイヤレスとしても良い。これにより、補聴器1は、使用者が装着する装置の重量、体積を軽減し、使用者の身体の自由度を向上させ、使用者の認識を更に向上させることができる。
【0144】
また、補聴器1では、通信回路27を介して信号処理部22及び音声情報生成部23で行う処理の制御及びバージョンアップ、修理等をしても良い。これにより、補聴器1では、通信回路27を通じて視覚ディスプレイ、聴覚ディスプレイ等を通じて修理、制御、調整等を受けることができる。
【0145】
また、本発明を適用した補聴器1によれば、合成した音声を表示することで使用者に提示することができるので、例えば事務(ウェアブルコンピュータとして)、通信(自動翻訳電話への応用など)、産業医学領域(メンタルヘルスなど)、医療現場(聴力検査への利用)、外国語学習、言語訓練、娯楽(テレビゲーム)、個人用のホームシアター、コンサートや試合等の観戦、番組製作(アニメーション、実写映像、ニュース、音楽制作)、水中(ダイビングでの水中における会話など)、諜報活動や軍事、騒音下などの悪条件での作業業務(建築現場工場など)、スポーツ(自動車やヨット等のレースや、山や海等の冒険時、選手の試合時や練習時での選手同士や選手とコーチ間の意志疎通や情報変換)、や宇宙空間での作業、運輸(宇宙船や飛行機のパイロット)、カーナビゲーションシステム、VRとARとを用いた種々のシミュレーション作業(遠隔手術(マイクロサージュリー)など)等、教育、トレーニング、内科治療、傷病治療、政治、旅行、買い物、マーケティング、広告、宗教、デザインの分野、アミューズメントパーク等におけるFish-tank VR display、裸眼立体視システム、テレイグジスタンス視覚システムなどを用いたVRやARや、テレエグシスタンスやアールキューブを利用したもの、電話やインターネットでの応対業務にも適用可能であり、音声言語障害者のみならず、重病患者、重度身体障害者のコミュニケーション、介護学校等の広い分野で使用可能である。
【0146】
【発明の効果】
以上詳細に説明したように、本発明に係る補聴器は、音声言語障害者を検出して得た認識結果に基づいて予め記憶した音声データを組み合わせて音声情報を音声に変換して外部に出力するとともに、外部からの音声を使用者に出力することができるので、喉頭摘出や舌口腔底切除や構音障害等による音声言語障害を有する人達が本来自身がもつ、或いは自在に変換させて自然な音声で発声することを可能とするとともに、外部からの音声を使用者に出力することで使用者の聴覚を補うことができる。
【0147】
本発明に係る補聴器は、使用者の身体状態、利用状態及び使用目的に応じて、上記認識手段からの認識結果の内容を変更するように加工変換する変換手段を備えているので、使用者の身体状態、利用状態及び使用目的に応じて音声認識の結果を提示するとともに、ノイズが少ない状態で認識結果を提示することができる。
【図面の簡単な説明】
【図1】本発明を適用した補聴器の外観の一例を示すブロック図である。
【図2】本発明を適用した補聴器の構成を示すブロック図である。
【図3】本発明を適用した補聴器でAR空間を作るための構成について示すブロック図である。
【符号の説明】
1 音声生成装置、2 ヘッドマウントディスプレイ、3 コンピュータ部、7 ディスプレイ部、8 使用者用マイクロホン、11 外部用マイクロホン、21 マイクロホン、23 音声情報生成部、24 記憶部、25 スピーカ部、26 表示部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a hearing aid that converts and presents speech detected by a microphone or the like into a format that is easily understood by a hearing impaired person, and an auxiliary that is used to correct a speech or spoken language disorder that is produced by a person with a speech language disorder. The present invention relates to a hearing aid that processes and converts a voice emitted by an automatic device or means (for example, speech production substitutes after laryngectomy).
[0002]
[Prior art]
Conventionally, an air conduction method and a bone conduction method are used for hearing aids. As the types of hearing aids, there are a box-type hearing aid, an ear-hiding hearing aid, a CROS (Contra-lateral Routing of Signal) hearing aid, and an ear-hole type hearing aid. Moreover, if it divides as a conventional processing system, there are an analog hearing aid and a digital hearing aid. In addition, according to Kodera's report, there are large-sized hearing aids (table training hearing aids, group training hearing aids) and small personally-used hearing aids (Koji Kodera, selection and evaluation of hearing aids) Otolaryngology new approach medical view, see 39, 1996).
[0003]
This digital hearing aid first generates digital data by performing A / D (analog / digital) conversion processing on sound detected by a microphone. The digital hearing aid analyzes the digital data input by, for example, performing Fourier transform processing by decomposing the digital data into frequency spectra, and calculates the amplification degree based on the sensory magnitude of the sound for each frequency band. Perform the calculation. The digital hearing aid is configured to pass the digital data amplified for each frequency band through a digital filter, perform D / A conversion processing, and output the sound to the user's ear again. As a result, the digital hearing aid allowed the user to hear the speaker's voice with little noise.
[0004]
Conventionally, for example, a person who has a speech disorder due to, for example, laryngectomy loses the utterance mechanism due to normal vocal cord vibration, and speech generation becomes difficult.
[0005]
To date, artificial materials such as rubber membranes (flute-type artificial larynx) and buzzers (electric artificial larynx (percutaneous type, implantable type)) can be roughly classified according to the nature of the vibrating body as a sound source as a substitute utterance method after laryngectomy And methods using the hypopharynx and esophageal mucosa (esophageal speech, tracheoesophageal speech, and tracheoesophageal speech using voice prostheses). Other alternative utterance methods include electromyograms generated when the lips are moved, utterance training devices that use various speech processing technologies for persons with speech impairment due to hearing impairment, and palatographs (palatographs). ) And by the vibrator in the oral cavity have been reported.
[0006]
[Problems to be solved by the invention]
However, since the digital hearing aid described above only performs the process of amplifying the digital data for each frequency band, the surrounding sound is randomly picked up by the microphone, and the noise is reproduced as it is. Pleasant feeling remained and there was no significant improvement in various hearing tests compared to analog hearing aids. Further, conventional digital hearing aids have not been adapted to the processing for the detected sound according to the physical condition, usage state, and purpose of use of the hearing impaired person.
[0007]
Therefore, an object of the present invention is to provide a hearing aid that can present a result of speech recognition according to a user's physical condition, usage state, and purpose of use, and can present a recognition result with less noise. is there.
[0008]
Moreover, what is commonly seen in the above alternative utterance method is not due to the vocal cord vibration in the normal state of the person himself before laryngectomy, so the sound quality of the generated speech is not good and is normally normal. The problem is that it is far from the voice that the person himself uttered.
[0009]
Therefore, the present invention has been proposed in view of the above-described circumstances, and those who have speech language disorders such as laryngectomy, tongue-and-mouth excision, articulation disorder, or the like originally have or are freely converted. It is an object of the present invention to provide a hearing aid that makes it possible to utter a natural voice and to output a voice from the outside to a user so that a natural conversation can be performed.
[0010]
[Means for Solving the Problems]
A hearing aid according to the present invention that solves the above-described problems includes an acoustoelectric conversion unit that generates a sound signal by detecting a sound emitted from a user having a spoken language disorder and / or an external sound, and the sound Voice recognition means for performing voice recognition processing based on a voice signal from the electrical conversion means; Audio data A voice information generating means for generating voice information indicating a voice to be output by combining voice data stored in the memory means based on a recognition result from the voice recognition means, and the voice information generation User voice output means for converting voice information generated by the means into voice and outputting the voice to the outside, and external voice output means for outputting the recognition result recognized by the voice recognition means to the user as voice from the outside Are provided.
[0011]
Such a hearing aid outputs sound from the outside to the user and also outputs the sound uttered with a fault to the user.
[0012]
A hearing aid according to the present invention includes an acoustoelectric converter that detects an external sound and generates an audio signal, a recognition unit that performs an audio recognition process using the audio signal from the acoustoelectric converter, and a user's The content of the recognition result from the recognition means is changed according to the physical condition, usage condition and purpose of use. conversion Conversion means, and the recognition result and / or the recognition result by the recognition means conversion An output control means for generating a control signal for outputting the recognized result, and a recognition result by the recognition means and / or a conversion means based on the control signal generated by the output control means. To output voice information that is the converted recognition result and present the voice to the user Output recognition result and recognition result Voice information Output means for presenting to the user.
[0013]
Such a hearing aid changes the output result by changing the content of the recognition result by the conversion means, and presents the voice or the like changed by the conversion means to the user. According to such a hearing aid, the conversion method is freely changed according to the user's physical condition, usage state, and usage purpose, and the recognition result is presented.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0015]
The present invention is applied to a
[0016]
The HMD 2 includes a display unit 7 disposed in front of the user, a user microphone 8 that detects voice from the user, a
[0017]
The display unit 7 is arranged in front of the user and displays, for example, the meaning content of the sound detected by the user microphone 8 and / or the
[0018]
The user microphone 8 is disposed in the vicinity of the user's mouth, and detects the voice uttered by the user. The user microphone 8 converts voice from the user into an electrical signal and outputs the electrical signal to the
[0019]
The
[0020]
The user microphone 8 and the
[0021]
Further, as shown in FIG. 1, the user microphone 8 and the
[0022]
The
[0023]
The
[0024]
The
[0025]
Next, the electrical configuration of the
[0026]
The
[0027]
The
[0028]
The substitute utterance method is, for example, a mechanism for realizing artificial larynx (electric type, whistle type), esophageal utterance, and various voice reconstruction techniques.
[0029]
The
[0030]
The
[0031]
Further, the
[0032]
Here, the user's physical condition means the degree of hearing loss or language disorder of the user, and the use state means the environment (in the room, outdoors, under noise) etc. where the user uses the
[0033]
The
[0034]
The
[0035]
The voice
[0036]
In addition, the voice
[0037]
Further, the voice
[0038]
Furthermore, the voice
[0039]
Furthermore, the sound
[0040]
Furthermore, the audio
[0041]
Furthermore, the audio
[0042]
In addition, when outputting the audio information again, the audio
[0043]
The
[0044]
The
[0045]
Such a
[0046]
Furthermore, according to this
[0047]
The
[0048]
Further, the
[0049]
The
[0050]
In addition, the
[0051]
The
[0052]
In the above description of the
[0053]
Therefore, according to this
[0054]
Furthermore, the
[0055]
Further, since the
[0056]
Next, various examples that can be applied in the process in which the above-described voice
[0057]
When converting the recognition result from the
[0058]
Such a system can be realized by using a voice dialogue system with an expression, which is a multimodal dialogue system. This multimodal dialogue system uses direct input / pen gesture technology, text input technology, voice input / output technology such as voice recognition, human vision, hearing, touch, and force sense, which are input technologies that use a pointing device and a tablet. The virtual reality technology and the non-verbal modality technology elements are used as modalities. At this time, the voice
[0059]
Details of this multimodal dialogue system can be found in the literature `` Nagao K and Takeuchi A, Speech dialogue with facial displays: Multimodal human-computer conversation.Proc. 32nd Ann Meeting of the Association for Computational Linguistics, 102-9, Morgan Kaufmann Publishers, 1994 and Takeuchi A and Nagao K, Communicative facial displays as a new conversational modality. Proc ACM / IFIP Conf on Human Factors in Computing Systems (INTERCHI'93), 187-93, ACM Press, 1993.
[0060]
As a speech dialogue system using such an artificial intelligence function, the speech detected by the
[0061]
In addition, the speech
[0062]
Furthermore, the speech
[0063]
That is, by using the technology used in the voice dialogue system DUG-1, the
[0064]
Furthermore, the voice
[0065]
The voice
[0066]
When synthesizing voice data, the voice
[0067]
It is also possible to synthesize high-quality speech using a vocoder process. For example, it can be realized by applying speech analysis and synthesis method STRAIGHT (speech transformation and representation based on adaptive interpolation of weighted spectrogram) (references “Maeda N et al, Voice Conversion with STRAIGHT. TECHNICAL REPORT OF IEICE, EA98-9”). , 31-6, 1998 ”).
[0068]
Further, the speech
[0069]
Furthermore, the voice
[0070]
Furthermore, the speech
[0071]
As another automatic summarization process performed by the voice
[0072]
Furthermore, the voice
[0073]
Furthermore, the voice
[0074]
Furthermore, when it is determined that music is input to the
[0075]
Furthermore, when the voice
[0076]
Furthermore, the voice
[0077]
Furthermore, the
[0078]
Furthermore, in the description of the
[0079]
Furthermore, in the description of the
[0080]
Moreover, although the above-mentioned
[0081]
Furthermore, the
[0082]
When performing speaker recognition with
[0083]
When performing speaker recognition with the
[0084]
Furthermore, in the
[0085]
In the above speech recognition (ATRSPREC), large vocabulary continuous speech recognition is performed, and the steps from the acoustic model and language model necessary for speech recognition and signal processing to search are processed using a speech recognition tool. In this speech recognition, the performed processing is completed as a tool group, and the tools can be combined. Further, when performing this voice recognition, voice recognition of an unspecified speaker may be performed.
[0086]
In the above-mentioned speech synthesis (CHATR), a unit most suitable for a sentence to be output is selected from a large number of speech units stored in advance in a database and connected to synthesize speech. For this reason, smooth sound can be output. In this voice synthesis, voice data similar to the voice of the speaker can be synthesized using the voice data closest to the voice of the speaker. In addition, when performing this voice synthesis, the voice
[0087]
In the above language translation (TDMT), language translation is performed by handling various expressions such as a process for determining the structure of a sentence and a simple expression unique to a dialog using a dialog example. Also, in this language translation, even if there is a part that the
[0088]
Further, when performing the above speech recognition, speech synthesis, and language translation, it is possible to interactively communicate with a communication device such as a mobile phone via the
[0089]
In the
[0090]
Furthermore, the speech
[0091]
Also, the voice
[0092]
Furthermore, the audio
[0093]
Furthermore, the speech
[0094]
In the description of the
[0095]
Further, the
[0096]
Furthermore, the above-described
[0097]
Further, the
[0098]
In addition, the
[0099]
Such a
[0100]
Further, in the
[0101]
There are the following methods for extracting a personality feature of a face and performing personal recognition in face recognition using an imaging function, but the method is not limited to these.
[0102]
Mosaic pattern is used as one of feature representations for identification by grayscale image matching, and grayscale image is expressed by compressing information into low-dimensional vector by using average density of pixels in each block as representative value of block. This method is called M feature. In addition, a feature expression of a gray face image called a KI feature, an orthogonal base image obtained by applying Karhunen-Loeve (KL) expansion to a sample set of face images is called an eigenface, and an arbitrary face image is assigned to this eigenface. This is a method of describing with a low-dimensional feature vector composed of coefficients expanded by using. Further, a low-dimensional dimension obtained by performing dimension compression by converting a collation pattern based on a KI feature based on dimensional compression by KL expansion of a face image set into a Fourier spectrum and then performing KL expansion on the sample set in the same manner as in the case of the KI feature. There is a method for performing identification based on the KF feature which is the feature spectrum. The above methods can be used for face image recognition, and performing face recognition using them gives personal identification information to the computer as to who the conversation is, so that the user can Information for the interlocutor is obtained, and recognition of voice information is increased. Such processing is described in the literature “Shin Kosugi:“ Identification and Feature Extraction of Facial Images Using Neural Networks ”, Information Processing CV Research Bulletin, 73-2 (1991-07)”, “Turk MA and Pentland AP, Face recognition using eigenface.Proc CVPR, 586-91 (1991-06), “Akamatsu S et al, Robust face intification by pattern matching Based on KL expansion of the Fourier Spectrum II No. 7,1363-73, 1993 ”and literature“ Edwards GJ et al, Learning to identify and track faces in image seguences, Proc of FG '98, 260-5, 1998 ”.
[0103]
In this
[0104]
Further, the
[0105]
Such a
[0106]
Further, according to the
[0107]
Furthermore, the
[0108]
Further, as an example, the switch mechanism detects the voice of the user and / or the person other than the user, and switches the voice detected by the
[0109]
Furthermore, this switch mechanism may have a function of switching the state when the
[0110]
Next, in the
[0111]
That is, in this
[0112]
Such a
[0113]
In the description of the
[0114]
Furthermore, the
[0115]
Furthermore, this
[0116]
Furthermore, the
[0117]
Furthermore, the
[0118]
Furthermore, although this
[0119]
Furthermore, the
[0120]
In the description of the
[0121]
Such a
[0122]
Furthermore, the
[0123]
Further, the
[0124]
For example, in the
[0125]
Further, the
[0126]
Further, the
[0127]
Furthermore, in this
[0128]
In the
[0129]
In the
[0130]
Examples of visual displays include HMDs and head-coupled displays. An example is shown below. Binocular HMD (one that presents a parallax image for each left and right eye and enables stereoscopic viewing, and one that presents the same image to both the left and right eyes to give an apparent large screen), monocular, see-through HMD, visual assistance, Display with visual enhancement function, eyeglass-type binocular telescope with auto-focus function and Visual filter, system using contact lens for eyepiece, retina projection type (Virtual Retinal Display, Retinal projection display, retina Projection type intermediate type, HMD with line-of-sight input function (product name HAQ-200 (Shimadzu Corporation)), display mounted on other than the head (neck, shoulder, face, eyes, arms, hands, etc.), stereoscopic display (projection) Object-oriented display (eg head-mounted projector: Iinami M et al., Head-mounted projector (II) -implementation Proc 4th Ann Conf Of Virtual Reality Society of Japan 59-62,1999) Display, spatial immnersive display (eg omnimax, CAVE (Cruz-Neira C et al. Surrounded-screen projection-based virtual reality: The design and implementation of the CAVE, Proc of SIGGRAPH'93,135-42,1993 CABIN (Hirose M et al. Transactions of the Institute of Electronics, Information and Communication Engineers Vol J81-D-II No.5.888-96,1998), a feature of both a projection display such as CAVE and an HMD. A compact ultra-wide field of view display (Endo T et al. Ultra field of view compact display. Proc 4th Ann Conf of Virtual Reality Society of Japan, 55-58, 1999), arch screen) can be used.
[0131]
In particular, a large-screen display may be used as a large hearing aid. In the
[0132]
Furthermore, the above-described
[0133]
The
[0134]
As shown in FIG. 3, such a
[0135]
Further, in this
[0136]
In order to form such a space such as VR, first, the user sends information to the
[0137]
The sensor 31 (information input system) includes the following devices.
[0138]
In particular, 3D optical position sensor (ExpertVision HiRES & Face Tracker (Motion Analysis)), 3D magnetic position sensor (InsideTrack (Polhemus), 3SPACE system (POLHEMUS), Bird (Ascension Tech.)), Mechanical 3D digitizer (MicroScribe 3D Extra (Immersion)), magnetic 3D digitizer (Model 350 (Polhemus)), acoustic 3D digitizer (Sonic Digitizer (Science Accessories)), optical 3D scanner ( 3D Laser Scanner (ASTEX)), biosensor (measured by electricity inside the body) cyber finger (NTT Human Interface Laboratories), glove-type device (DetaGlove (VPL Res), Super Glove (Nissho Electronics) Cyber Glove (Virtual Tech) )), Force feedback (Haptic Master (Nissho Electronics), PHANToM (SensAble Devices)), 3 Mouse (Space Controller (Logitech)), eye sensor (eye movement analyzer (ATR Audio Visual Laboratory)), whole body motion measurement system (DateSuit (VPL Res)), motion capture system (HiRES (Motion Analysis) )), Acceleration sensors (three-dimensional semiconductor acceleration sensors (manufactured by NEC)), and HMDs with a line-of-sight input function.
[0139]
In order to realize AR, there are not only the
[0140]
As a vestibule-like display, a system (motion bet) that can express various accelerations even in a device with a narrow operating range by washout and washback can be used.
[0141]
The systems that integrate the VR system include the following, but are not limited to these systems, but are provided as C and C ++ libraries that support display and database, device input, interference calculation, event management, etc. The application portion may be programmed by a user using a library, or a system that performs database simulation and event simulation without executing user programming, and executes VR simulation as it is. Moreover, you may connect between each system regarding this
[0142]
As a system for integrating such VR systems, for example, a system of Division Inc (VR runtime software [dVS], VR space construction software [dVISE], VR development library [VC Toolkit], SENSE8 WorldToolKit, WorldUp, As described in the document “Hirose M et al. A study of image editing technology for synthetic sensation. Proc ICAT '94, 63-70, 1994”. You may use the method.
[0143]
In the present embodiment, the
[0144]
In the
[0145]
In addition, according to the
[0146]
【The invention's effect】
As described above in detail, the hearing aid according to the present invention combines speech data stored in advance based on a recognition result obtained by detecting a speech language handicapped person, converts speech information into speech, and outputs the speech to the outside. At the same time, since the external voice can be output to the user, people who have spoken language disorder such as laryngectomy, tongue-and-mouth excision, articulation disorder, etc. have their own or can be converted freely and natural voice The user's hearing can be supplemented by outputting voice from the outside to the user.
[0147]
The hearing aid according to the present invention includes conversion means for processing and converting so as to change the content of the recognition result from the recognition means in accordance with the user's physical condition, usage state and purpose of use. It is possible to present the result of speech recognition according to the physical condition, the utilization state, and the purpose of use, and present the recognition result with little noise.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an example of the appearance of a hearing aid to which the present invention is applied.
FIG. 2 is a block diagram showing a configuration of a hearing aid to which the present invention is applied.
FIG. 3 is a block diagram showing a configuration for creating an AR space with a hearing aid to which the present invention is applied.
[Explanation of symbols]
DESCRIPTION OF
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33845899A JP3670180B2 (en) | 1999-02-16 | 1999-11-29 | hearing aid |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11-37559 | 1999-02-16 | ||
JP3755999 | 1999-02-16 | ||
JP33845899A JP3670180B2 (en) | 1999-02-16 | 1999-11-29 | hearing aid |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000308198A JP2000308198A (en) | 2000-11-02 |
JP3670180B2 true JP3670180B2 (en) | 2005-07-13 |
Family
ID=26376682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP33845899A Expired - Lifetime JP3670180B2 (en) | 1999-02-16 | 1999-11-29 | hearing aid |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3670180B2 (en) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004023638A1 (en) * | 2002-08-30 | 2004-03-18 | Shinko Mechatronics Corporation | Supermagnetostrictive device and applied apparatus comprising it |
JP3973530B2 (en) * | 2002-10-10 | 2007-09-12 | 裕 力丸 | Hearing aid, training device, game device, and sound output device |
WO2005009073A1 (en) * | 2003-07-18 | 2005-01-27 | Hiroshi Hosoi | Speech input device |
US7257372B2 (en) * | 2003-09-30 | 2007-08-14 | Sony Ericsson Mobile Communications Ab | Bluetooth enabled hearing aid |
JP2005117484A (en) * | 2003-10-09 | 2005-04-28 | Katsuro Aoki | Loudspeaker device for artificial larynx user |
JP4705349B2 (en) * | 2004-08-20 | 2011-06-22 | 株式会社タムラ製作所 | Wireless microphone system, audio transmission / reproduction method, wireless microphone transmitter, audio transmission method, and program |
JP4541111B2 (en) * | 2004-11-17 | 2010-09-08 | Necトーキン株式会社 | Method of using bone conduction speaker and method of using bone conduction receiver |
JP2008304649A (en) * | 2007-06-06 | 2008-12-18 | Toshiba Corp | Visible-light communication device and visible light communication system for underwater |
JP2010224392A (en) * | 2009-03-25 | 2010-10-07 | Oki Electric Ind Co Ltd | Utterance support device, method, and program |
CN102959618B (en) * | 2010-06-28 | 2015-08-05 | 三菱电机株式会社 | Voice recognition device |
JP2013127536A (en) * | 2011-12-19 | 2013-06-27 | Sharp Corp | Voice output device, communication terminal and hearing aid equipped with the same, program for controlling voice output device, method of providing individualized voice to voice output device users, and system for updating conversion data of voice output device |
CN102915753B (en) * | 2012-10-23 | 2015-09-30 | 华为终端有限公司 | A kind of method of Based Intelligent Control volume of electronic equipment and implement device |
US20140270291A1 (en) * | 2013-03-15 | 2014-09-18 | Mark C. Flynn | Fitting a Bilateral Hearing Prosthesis System |
WO2015046034A1 (en) * | 2013-09-30 | 2015-04-02 | 株式会社Jvcケンウッド | Voice volume notification device, data transmitter, data receiver, and voice volume notification system |
JP6290827B2 (en) * | 2015-06-05 | 2018-03-07 | リウ チン フォンChing−Feng LIU | Method for processing an audio signal and a hearing aid system |
JP6599828B2 (en) * | 2016-08-29 | 2019-10-30 | 株式会社テクノリンク | Sound processing method, sound processing apparatus, and program |
JP6858381B2 (en) * | 2017-11-30 | 2021-04-14 | 国立研究開発法人産業技術総合研究所 | Content creation method |
US11687759B2 (en) * | 2018-05-01 | 2023-06-27 | Semiconductor Components Industries, Llc | Neural network accelerator |
JP6598323B1 (en) * | 2018-06-01 | 2019-10-30 | 学校法人北里研究所 | Hearing aid and program |
JP6730651B1 (en) * | 2019-03-01 | 2020-07-29 | 富士通クライアントコンピューティング株式会社 | Voice conversion device, voice conversion system and program |
JP7458371B2 (en) * | 2019-03-18 | 2024-03-29 | 富士通株式会社 | Speaker identification program, speaker identification method, and speaker identification device |
JP2021026098A (en) * | 2019-08-02 | 2021-02-22 | 株式会社三菱ケミカルホールディングス | Communication support device |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5155604A (en) * | 1974-11-11 | 1976-05-15 | Fujitsu Ltd | Gengopponyakusochi |
JPS60143100A (en) * | 1983-12-29 | 1985-07-29 | Matsushita Electric Ind Co Ltd | Hearing aid |
DE3431584A1 (en) * | 1984-08-28 | 1986-03-13 | Siemens AG, 1000 Berlin und 8000 München | HOERHILFEGERAET |
JPS61114472U (en) * | 1984-12-28 | 1986-07-19 | ||
JPS62224349A (en) * | 1986-03-27 | 1987-10-02 | 三輪 敬之 | Artificial middle ear |
JPS62231981A (en) * | 1986-04-01 | 1987-10-12 | 株式会社ジャパンアート | Image expression for hard hearing person |
JPS63249560A (en) * | 1987-04-02 | 1988-10-17 | 日本電気エンジニアリング株式会社 | Glasses incorporation type sound detector for deaf-mute |
JP2740866B2 (en) * | 1988-10-04 | 1998-04-15 | セイコーエプソン株式会社 | Electronics |
JPH0335296A (en) * | 1989-06-30 | 1991-02-15 | Sharp Corp | Text voice synthesizing device |
JPH0753168B2 (en) * | 1990-01-11 | 1995-06-07 | リオン株式会社 | Implantable listening device |
JPH04156033A (en) * | 1990-10-19 | 1992-05-28 | Nippon Telegr & Teleph Corp <Ntt> | Radio conversation device with telephone line connection function for person hard of hearing |
JPH04249990A (en) * | 1991-01-05 | 1992-09-04 | Toshiba Corp | Picture signal processing unit |
JP3308567B2 (en) * | 1991-08-23 | 2002-07-29 | 株式会社日立製作所 | Digital voice processing apparatus and digital voice processing method |
JPH05289608A (en) * | 1992-04-10 | 1993-11-05 | Sanyo Electric Works Ltd | Conversation assisting device for deaf-mute and conversation assisting device for translation |
JP3068370B2 (en) * | 1993-06-21 | 2000-07-24 | 株式会社東芝 | Portable speech recognition output assist device |
JPH0784592A (en) * | 1993-09-14 | 1995-03-31 | Fujitsu Ltd | Speech recognition device |
JP3455921B2 (en) * | 1993-12-24 | 2003-10-14 | 日本電信電話株式会社 | Voice substitute device |
JPH07191599A (en) * | 1993-12-27 | 1995-07-28 | Matsushita Electric Ind Co Ltd | Video apparatus |
JPH07327213A (en) * | 1994-05-31 | 1995-12-12 | Hitachi Ltd | Video telephone system |
JPH0865647A (en) * | 1994-08-22 | 1996-03-08 | Toshiba Corp | Portable television telephone device |
JP3334353B2 (en) * | 1994-09-02 | 2002-10-15 | ソニー株式会社 | Hearing aid |
AUPM883794A0 (en) * | 1994-10-17 | 1994-11-10 | University Of Melbourne, The | Multiple pulse stimulation |
JPH08212228A (en) * | 1995-02-02 | 1996-08-20 | Sanyo Electric Co Ltd | Summarized sentence generation device and summarized voice generation device |
JPH09292971A (en) * | 1996-04-26 | 1997-11-11 | Sony Corp | Translation device |
JPH10108152A (en) * | 1996-09-27 | 1998-04-24 | Sanyo Electric Co Ltd | Portable information terminal |
JPH10228367A (en) * | 1997-02-14 | 1998-08-25 | Omron Corp | Data transmission terminal |
-
1999
- 1999-11-29 JP JP33845899A patent/JP3670180B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2000308198A (en) | 2000-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4439740B2 (en) | Voice conversion apparatus and method | |
JP3670180B2 (en) | hearing aid | |
Nakajima et al. | Non-audible murmur (NAM) recognition | |
CN110531860B (en) | Animation image driving method and device based on artificial intelligence | |
US6925438B2 (en) | Method and apparatus for providing an animated display with translated speech | |
US5826234A (en) | Device and method for dubbing an audio-visual presentation which generates synthesized speech and corresponding facial movements | |
CN1679371B (en) | Microphone and communication interface system | |
Denby et al. | Silent speech interfaces | |
CN108702580A (en) | Hearing auxiliary with automatic speech transcription | |
US11068668B2 (en) | Natural language translation in augmented reality(AR) | |
CN115705841A (en) | Speech recognition using an accelerometer to sense bone conduction | |
CN107112026A (en) | System, the method and apparatus for recognizing and handling for intelligent sound | |
JP2013008031A (en) | Information processor, information processing system, information processing method and information processing program | |
Jin et al. | EarCommand: " Hearing" Your Silent Speech Commands In Ear | |
Beskow et al. | Synface–a talking head telephone for the hearing-impaired | |
WO2021214065A1 (en) | Voice grafting using machine learning | |
Priya et al. | Indian and English language to sign language translator-an automated portable two way communicator for bridging normal and deprived ones | |
CN116524791A (en) | Lip language learning auxiliary training system based on meta universe and application thereof | |
JP4381404B2 (en) | Speech synthesis system, speech synthesis method, speech synthesis program | |
US11069259B2 (en) | Transmodal translation of feature vectors to audio for assistive devices | |
Williams | Auditory virtual environments | |
Beskow et al. | Visualization of speech and audio for hearing impaired persons | |
Beautemps et al. | Telma: Telephony for the hearing-impaired people. from models to user tests | |
CN116095548A (en) | Interactive earphone and system thereof | |
Goecke | A stereo vision lip tracking algorithm and subsequent statistical analyses of the audio-video correlation in Australian English |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040830 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040906 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040906 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20041008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20041029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3670180 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090422 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100422 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100422 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110422 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120422 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130422 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130422 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140422 Year of fee payment: 9 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |