JP5409786B2 - 補聴装置 - Google Patents

補聴装置 Download PDF

Info

Publication number
JP5409786B2
JP5409786B2 JP2011519568A JP2011519568A JP5409786B2 JP 5409786 B2 JP5409786 B2 JP 5409786B2 JP 2011519568 A JP2011519568 A JP 2011519568A JP 2011519568 A JP2011519568 A JP 2011519568A JP 5409786 B2 JP5409786 B2 JP 5409786B2
Authority
JP
Japan
Prior art keywords
conversation partner
directivity
sound
voice
call
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011519568A
Other languages
English (en)
Other versions
JPWO2010146857A1 (ja
Inventor
和也 野村
知浩 小沼
麻紀 山田
充 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011519568A priority Critical patent/JP5409786B2/ja
Publication of JPWO2010146857A1 publication Critical patent/JPWO2010146857A1/ja
Application granted granted Critical
Publication of JP5409786B2 publication Critical patent/JP5409786B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/803Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from receiving transducers or transducer systems having differently-oriented directivity characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/43Signal processing in hearing aids to enhance the speech intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/552Binaural
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/554Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired using a wireless connection, e.g. between microphone and amplifier or using Tcoils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Neurosurgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephone Function (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Description

本発明は、複数のマイクロホンからの入力に基づき、呼びかけや様々な音を検出可能な補聴装置に関するものである。
補聴器の使用者に、強調した会話相手の声を聞かせることができる「会話強調機能」を備えた補聴器に対して、ユーザの期待が高まっている。会話相手の声を強調する際、会話相手かどうかを判定する一つの方法として、特許文献1では、発話タイミングの整合性により補聴器の装着者と会話成立している音声を検出する方法が開示されている。補聴器は、会話相手の声を強調した上で、さらに周囲からの呼びかけに補聴器の装着者が応答可能であり、周囲の事象により発せられる音を認識できるような構成にする必要がある。
補聴器等の物体に密着させて装着する機器では、マイクロホンの位置や近傍形状の影響により、音の到来方向(角度)ごとに入力音声の周波数特性が異なるという現象が起きる。例えば、補聴器で呼びかけを検出する際、補聴器は、音の到来方向(角度)に依存して周波数特性が異なる音声を入力として呼びかけ音声の音声認識を行う。そのため、音声認識処理する音の周波数特性が、照合に用いる音響標準パタンの学習時(オフライン時)の音声データの周波数特性とずれてしまい、補聴器の認識精度が低下してしまう。
照合に用いる音響標準パタンの周波数特性を補正する方法として、非特許文献1では、ケプストラム平均正規化法CMS(Cepstral Mean Subtraction)が開示されている。ケプストラム平均正規化法CMS法(以下、CMS法という)は、入力音声の周波数特性の差分を、入力音声のケプストラムの平均で推定し、入力音声に差分を適用して補正する方法である。CMS法は、発声終了後に入力音声のケプストラム平均を求める必要があり、実時間処理ができない。
CMS法で実時間処理を実現する方法として、非特許文献2では、入力音声のケプストラム平均を、入力音声の開始から入力音声の現在フレームまでのケプストラム平均と、音声認識の照合に用いる音響標準パタンの学習時(オフライン時)の音声データのケプストラム平均と、からMAP推定によって推定し、入力音声を正規化する、MAP―CMS法が提案されている。
日本国特開2004−133403号公報
S. Furui, "Cepstral Analysis Technique for Automatic Speaker Verification", IEEE Trans. ASSP, vol.ASSP−29, No.2 pp.254−272, 1981 小坂ら, "環境変動に対する即時/逐次適応化の検討", 日本音響学会講論集, 3−6−25, pp.137-138, 3月 1997 "空間音響",イェンス ブラウエルト,森本政之、後藤敏幸、鹿島出版会
しかしながら、上述したCMS法は、発声終了後にケプストラムの平均を求め、音声認識処理や音検出処理を行う必要があり、実時間で補聴処理を行う補聴器へは適用はできない。また、上述したMAP−CMS法は、時間に同期して音声認識処理や音検出処理をすすめる実時間処理が可能であるが、入力開始直後のフレームの音声データでは音声の補正処理が行えず、そのため音声認識の精度が低下してしまう。
本発明の目的は、認識精度を低下させることなく、複数のマイクロホンからの入力音響信号によって、会話相手以外の呼びかけや様々な音を検出できる補聴装置を提供することである。
本発明は、会話相手の音声及び前記会話相手以外が発する音を音響信号に変換する複数のマイクロホンと、前記複数のマイクロホンにおいて変換された複数の音響信号に基づき、前記会話相手以外が発する音の到来方向を推定する会話相手以外音方探査部と、前記複数の音響信号と、推定された前記会話相手以外が発する音の到来方向とに基づき、前記会話相手以外が発する音の周波数特性を補正する周波数特性補正処理部と、所定の特性を有するマイクロホンを用いて収録された音声データに基づき、前記会話相手以外が発する音の音響標準パタンを格納する音響標準パタン格納部と、前記周波数特性が補正された前記会話相手以外が発する音を、前記音響標準パタンと照合し、会話相手以外音であるか否かを判定する会話相手以外音判定と、前記会話相手以外音判定の判定結果に基づき、指向性を形成するか否かを判定する指向性・無指向判定部、を備え、前記周波数特性補正処理部は、前記会話相手以外音判定部において照合に用いられる前記音響標準パタン作成される場合用いられる前記マイクロホンの前記所定の特性と同等になるように、前記会話相手以外が発する音の周波数特性を補正する補聴装置を提供する。
また、本発明は、会話相手の音声、及び前記会話相手以外の呼びかけ音声や様々な音を含む音を音響信号に変換する複数のマイクロホンと、前記複数のマイクロホンにおいて変換された複数の音響信号に基づき、前記会話相手以外の呼びかけ音声の到来方向を推定する呼びかけ方向探査部と、前記複数の音響信号と、推定された前記会話相手以外の呼びかけ音声の到来方向とに基づき、前記会話相手以外の呼びかけ音声の周波数特性を補正する周波数特性補正処理部と、文字列として登録された呼びかけ単語文字列を格納する呼びかけ単語文字列格納部と、所定の特性を有するマイクロホンを用いて収録された音声データに基づき、音素及び音節の特徴を現す音響標準パタンを格納する音響標準パタン格納部と、前記呼びかけ単語文字列格納部に格納された前記呼びかけ単語文字列及び前記音響標準パタン格納部に格納された前記音響標準パタンから、呼び出し単語標準パタンを作成し、前記周波数特性が補正された前記会話相手以外の呼びかけ音声を、前記呼び出し単語標準パタンと照合し、呼びかけ単語か否かを判定する呼びかけ単語判定部と、前記呼びかけ単語判定部の判定結果に基づき、指向性を形成するか否かを判定する指向性・無指向判定部と、を備え、前記周波数特性補正処理部は、前記呼びかけ単語判定部において前記音響標準パタンが作成される場合に用いられる前記マイクロホンの前記所定の特性と同等になるように、前記会話相手以外の呼びかけ音声の周波数特性を補正する補聴装置を提供する。
本発明に係る補聴器によれば、音声認識精度を低下させることなく、複数のマイクロホンからの入力音響信号によって、会話相手以外の呼びかけや様々な音を検出することが可能となる。
本発明の実施の形態1による補聴器を示すシステム構成図 本発明の実施の形態1による補聴器の処理手順を示すフローチャート 図2における呼びかけ検出用の子プロセスを示すフローチャート 右頭部側面にマイクロホンを装着した場合の方向(角度)による周波数特性の図 本発明の実施の形態1の入力音声を音響標準パタン作成時のマイクの周波数特性に補正する補正係数を示す図 本発明の実施の形態1による補聴器の無指向による収音状態を示す図 本発明の実施の形態1による補聴器の会話相手方向に指向性を形成している状態を示す図 本発明の実施の形態1による補聴器の会話相手方向に指向性を形成し、かつ、会話相手以外方向にも指向性を形成している状態を示す図 本発明の実施の形態1の入力音声を音響標準パタン作成時のマイクの周波数特性に補正する補正係数を示した図 本発明の実施の形態2による補聴器を示すシステム構成図 本発明の実施の形態2による補聴器の処理手順を示すフローチャート 図11における呼びかけ検出用の子プロセスを示すフローチャート 本発明の実施の形態3による音響信号処理装置を示すシステム構成図 本発明の実施の形態3による音響信号処理装置の処理手順を示すフローチャート 図14における会話相手以外音検出用の子プロセスを示すフローチャート 本発明の実施の形態4による音響信号処理装置を示すシステム構成図 本発明の実施の形態4による音響信号処理装置の処理手順を示すフローチャート 図17における会話相手以外音検出用の子プロセスを示すフローチャート
以下、本発明の実施形態について、図面を参照して説明する。
(実施の形態1)
図1は、本発明の実施の形態1における補聴装置100の構成を示すブロック図である。図1に示すように、実施の形態1の補聴装置100は、2つのマイクロホン101a、101bと、会話相手方向探査手段102と、会話相手方向指向性合成手段103と、会話相手以外方向指向性合成手段104と、周波数特性補正処理部105と、呼びかけ方向探査手段106と、呼びかけ単語判定手段107と、指向性・無指向判定手段108と、スピーカ109と、補正係数格納部110と、音響標準パタン格納部111と、呼びかけ単語文字列格納部112と、を備える。
<補聴装置100の構成>
マイクロホン101a、101bは、会話相手の音声などの到来する音を収音し、その収音した音を音響信号に変換する。そして、音響信号は、会話相手方向探査手段102に出力される。
以下、説明のため、各マイクホンで収音された音には、会話相手の音声以外に、現在会話している相手以外の人物が、会話相手のいる方向以外から補聴装置100の装着者に向かって呼びかける音声(以下、呼びかけ音声という)が含まれているものとする。
なお、マイクロホン101a、101bで会話相手の音声を収音していないときは、図6に示すように、補聴装置100を右耳に装着した人物Aの周辺には、指向性をつけない信号処理によって全方向の音声が聞こえる状態を示す指向性パタン601が形成される。
会話相手方向探査手段102は、マイクロホン101a、101bから入力された音響信号に基づき、会話相手の音声データを検出し、収音された会話相手の音声が到来する方向を探査する。そして、探査された会話相手の音声が到来する方向は、指向性・無指向判定手段108に出力される。
呼びかけ方向探査手段106は、マイクロホン101a、101bで収音された呼びかけ音声から、その到来方向を探査する。呼びかけ音声の有無の判定には、例えば、入力音声のパワーが予め設定する閾値をこえるかどうかで判定する。
ここで、頭部と耳介による歪である頭部伝達関数は人間の方向知覚に重要な役割を果たしている(例えば、非特許文献3)。そこで、本実施の形態では、音の到来方向(角度)を推定方法として、頭部伝達関数の角度毎のディップ周波数とピーク周波数の特徴と、外耳道入り口位置で観測された入力音声の周波数特性とを比較し、音の到来方向(角度)を推定する。
そして、呼びかけ方向探査手段106は、探査された呼びかけ音声に基づき、呼びかけ音声の到来方向と推定される方向の情報を周波数特性補正処理部105に出力する。
補正係数格納部110は、入力音声が有する周波数の指向特性において、各角度に対する補正係数を、格納する。なお、補正係数は、補聴器の頭部装着による頭部形状の影響が考慮されている。
呼びかけ単語文字列格納部112は、文字列として登録された呼びかけ単語文字列を格納する。呼びかけ単語文字列格納部112に格納される呼びかけ単語文字列は、予め、補聴装置100のフィッティング時に、呼びかけ単語文字列格納部112に格納しておく。
音響標準パタン格納部111は、文字(例えば、50音やアルファベット)に対応する音響標準パタンを格納する。なお、音響標準パタン格納部111に格納されている音響標準パタンは、一つの特性を持つマイクを用いて収録された大量の音声データから、各音素/音節の特徴を表すモデルとしてあらかじめ作成された音声データである。
周波数特性補正処理部105は、呼びかけ方向探査手段106から入力された呼びかけ音声の到来方向と推定された方向の情報に基づき、補正係数格納部110に格納されている補正係数のうち、呼びかけ音声の方向と合致する方向の補正係数を用いて、音響標準パタン作成時のマイクの特性と同等になるように、会話相手以外方向指向性合成手段104より出力された呼びかけ音声データを、随時補正する。そして、補正処理された呼びかけ音声データは、呼びかけ単語判定手段107へ出力される。
呼びかけ単語判定手段107は、呼びかけ単語文字列格納部112に格納された「呼びかけ単語文字列」、及び音響標準パタン格納部111に格納された「音響標準パタン」から、呼び出し単語標準パタンを作成する。そして、呼びかけ単語判定手段107は、作成した呼び出し単語標準パタンを、周波数特性補正処理部105から出力された呼びかけ音声のデータと照合し、呼びかけ単語か否かを判定する。
呼びかけ単語判定手段107は、呼びかけ音声が呼びかけ単語である判定した場合には、無指向情報を、指向性・無指向判定手段108に出力する。一方、呼びかけ単語判定手段107は、会話相手以外の人物の呼びかけ音声が呼びかけ単語でないと判定した場合には、指向情報を、指向性・無指向判定手段108に出力する。
指向性・無指向判定手段108は、会話相手方向探査手段102から入力された会話相手の音声が到来する方向及び呼びかけ単語判定手段107の判定結果に基づき、会話相手方向指向性合成手段103及び会話相手以外方向指向性合成手段104のそれぞれで、指向性を形成するか否かを判定する。
つまり、指向性・無指向判定手段108は、会話相手の音声以外に、会話相手以外の人物から呼びかけ音声が音声データに含まれている場合、会話相手方向探査手段102から入力された会話相手の音声が到来する方向及び呼びかけ単語判定手段107から出力された無指向情報に基づき、会話相手方向指向性合成手段103に、会話相手方向に指向性を形成する旨の判定結果を出力する。更に、指向性・無指向判定手段108は、会話相手以外方向指向性合成手段104に、会話相手の方向以外の方向にも指向性を形成する旨の判定結果を出力する。
一方、指向性・無指向判定手段108は、会話相手の音声以外に、会話相手以外の人物から呼びかけ音声が音声データに含まれていない場合、会話相手方向探査手段102から入力された会話相手の音声が到来する方向及び呼びかけ単語判定手段107から出力された指向性情報に基づき、会話相手方向に指向性を形成する旨の判定結果を出力する。更に、指向性・無指向判定手段108は、会話相手以外方向指向性合成手段104に、指向性を形成しない旨の判定結果を出力する。
会話相手以外方向指向性合成手段104は、指向性・無指向判定手段108の判定結果に基づき、指向性を形成する。指向性・無指向判定手段108が指向性を形成すると判定すると、会話相手の方向以外の方向に指向性を形成する。例えば、図8に示す指向性パタン802のように、呼びかけ検出のために会話相手方向以外にも指向性を形成することで、会話相手以外の方向から到来する音をマイクロホンから検出することが可能となる。一方、指向性・無指向判定手段108が指向性を形成しないと判定すると、会話相手の方向以外の方向に指向性を形成しない。
会話相手方向指向性合成手段103は、指向性・無指向判定手段108の判定結果に基づき、指向性を形成する。つまり、会話相手方向指向性合成手段103は、指向性・無指向判定手段108が指向性を形成すると判定すると、収音された会話相手の音声データ及び会話相手の音声が到来する方向の情報に基づき、会話相手の方向に指向性を形成する。
例えば、会話相手方向指向性合成手段103は、図7の指向性パタン701や図8に示す指向性パタン801のように、会話相手の方向に指向性を変更する。一方、会話相手方向指向性合成手段103は、指向性・無指向判定手段108が指向性を形成しないと判定すると、指向性は作らない。
そして、指向性が合成された会話相手の音声データは、スピーカ109に出力される。
スピーカ109は、音声出力手段であり、会話相手方向指向性合成手段103により形成された指向性により強調された会話相手の音を出力する。その結果、補聴装置100の装着者が、強調された会話相手の音を聴取することができる。
更に、スピーカ109は、会話相手以外方向指向性合成手段104で呼びかけ検出のために会話相手方向以外にも指向性を形成された場合には、会話相手の音の出力するのと同時に、マイクロホン101a、101bで収音した会話相手以外の方向から到来する呼びかけ音を出力することができる。その結果、補聴装置100の装着者が、強調された会話相手の音に加え、会話相手以外の方向から到来する呼びかけ音も聴取することができる。
<補聴装置100の動作>
図2は、実施の形態1の補聴装置100の処理手順をあらわすフローチャートである。図3は、呼びかけ検出用の子プロセスを示すフローチャートである。図2及び図3に示すフローチャートを用いて補聴装置100の処理手順を、以下に説明する。なお、当初、会話は始まっておらず、図6の指向性パタン601で示すように、補聴装置100を右耳に装着した人物Aは、指向性をつけない信号処理によって全方向の音声が聞こえる状態である。
ステップST201では、呼びかけ検出用の子プロセスを生成する。
ステップST202では、会話相手方向探査手段102により会話相手の音声の到来方向を探査する。
ステップST203では、ステップST202での結果に基づき、会話相手方向探査手段102により会話相手がいるか否かを検出する。会話相手の音声が検出されればステップST204に、会話相手の音声が検出されなければ、ステップST202に処理を分岐する。
ステップST204では、会話相手方向探査手段102により、会話相手の音声到来方向を角度として検出する。
ステップST205では、ステップST204で検出された会話相手の方向を角度として、図3に示す呼びかけ検出用子プロセスのステップST301に送信する。
ステップST206では、図3に示す呼びかけ検出用子プロセスから送信された無指向への変更情報を受信する。
ステップST207では、指向性・無指向判定手段108により会話相手の方向に指向性を合成すると判定された場合、ステップST208に処理を分岐する。また、ステップST207では、指向性・無指向判定手段108により指向性を形成しないと判定された場合、すなわち無指向に変更する場合、ステップST210に処理を分岐する。
ステップST208では、会話相手方向指向性合成手段103により、図7の指向性パタン701のように、収音された会話相手の音声データと会話相手方向の方向情報から会話相手Bの方向に指向性を合成する。
ステップST209では、図7に示すように指向性が合成された会話相手Bの音声データは、スピーカ109から出力し、補聴装置100の装着者Aが、強調された会話相手の音を聴取する。
ステップST210では、図6に示す指向性パタン601のように、無指向に変更し、ステップST201に処理を戻す。
<呼びかけ検出用の子プロセス>
次に、図3に示す呼びかけ検出用子プロセスを以下に説明する。
ステップST301では、図2に示すステップST205で送信された、会話相手の音の到来方向を示す角度を受信する。
ステップST302では、会話相手の音の到来方向を示す角度を受信していればステップST303に、会話相手の音の到来方向を示す角度を受信していなければ、ステップST302に処理を分岐させる。
ステップST303では、図8に示す指向性パタン801のように、会話相手Bの音声を、補聴装置100の装着者Aに強調して聞かせるために会話相手方向に指向性を形成し、かつ、図8に示す指向性パタン802のように、呼びかけ検出のために会話相手方向以外にも指向性を形成する。
ステップST304では、呼びかけがあるか否かを判定する。呼びかけがあると判定されれば、ステップST305に、呼びかけがないと判定されればステップST304に処理を分岐する。ここで、呼びかけがあるかないかの判定には例えば、入力音声のパワーが予め設定する閾値をこえるかどうかで判定するなどが一つの方法として考えられる。
ステップST305では、呼びかけ方向探査手段106により呼びかけ音声の方向を判定する。
ステップST306では、呼びかけ音声の角度の情報から、呼びかけ単語判定手段の入力となる音声データを補正する周波数特性の補正係数を呼び出し、随時適用する。なお、周波数特性の補正係数の決め方については後述する。
ステップST307では、呼びかけ単語判定手段107により補正処理された入力音声データは、呼びかけ単語か否かを判定する。
ステップST308では、ステップST307で呼びかけ単語と判定されれば、ステップST309に、呼びかけ単語であると判定されなければステップST304に処理を分岐する。
ステップST309では、指向性・無指向判定手段108により、無指向への変更情報を会話相手方向指向性合成手段103、会話相手以外方向指向性合成手段104に送り、ステップST302に処理を戻す。
上述したステップST201からステップST210及びステップST301からステップST309により、本実施の形態の補聴装置100は、会話相手の声を強調した上で、呼びかけられたときには指向性から無指向に変更される。そのため、補聴器の使用者は、呼びかけ音声が聞こえるようになり、呼びかけ者との会話も可能となる。
<周波数特性の補正係数の決め方>
次に、ステップST306における、周波数特性の補正係数を呼び出す具体的な方法例を、説明する。例えば、装着者Aが右頭部側面に補聴装置100を装着した場合の周波数特性の補正係数について、図4、図5を参照して説明する。図4は、右頭部側面にマイクロホンを装着した場合の方向(角度)による周波数特性の図であり、図5は、本発明の実施の形態1の入力音声を音響標準パタン作成時のマイクの周波数特性に補正する補正係数を示す図である。
図4に示すように、装着者Aが右頭部側面に補聴装置100を装着した場合、右90°方向から到来する音の周波数特性を示す曲線401は、低域側ではその周波数に依らずほぼ平坦であり、高域側でやや落ち込みが見られる。一方、左90°方向から到来する音の周波数特性を示す曲線402は、周波数が高い領域ほど落ち込む。この場合、図4に示す音の周波数特性を、図5の破線501で示す、音響標準パタン作成時のマイクが有する周波数特性に、変更されるように、補正係数を決定する。なお、この音響標準パタン作成時のマイクの周波数特性は、呼びかけ単語判定処理部で用いられる。
図4に示す右90°方向から到来する音の周波数特性(曲線401)の場合、低域部分は補正の必要はないが、図5に示すように、高域部分で矢印に示すように周波数特性を変更する補正が必要となる。同様に、図4に示す左90°方向から到来する音の周波数特性(曲線402)の場合、中高域で高い周波数ほど補正係数を大きくすることで、入力音声を、図5の破線501で示す、音響標準パタン作成時にマイクが有していた周波数特性に、補正することができる。
上述のように、本実施形態に係る補聴装置100によれば、入力音声の周波数特性を、補正係数を用いて、呼びかけ単語判定処理手段の音声認識の照合に用いる音響標準パタンの学習時(オフライン時)の音声データの周波数特性に近づけることで、音声認識精度を低下させることなく実時間処理が実現できる。
なお、補正係数は、一般的な頭部形状において、すでに測定された値を用いても良い。
なお、音声認識の精度をより高くするためには、補聴装置100のフィッティング時に、図9に示すように、補聴装置100を、右耳に装着した人物Aの頭部周辺を囲む、音源901〜908から補正係数を獲得するための音(ホワイトノイズ等)を再生する。次に、再生したホワイトノイズ等を、補聴装置100のマイクにより収録し、その収録音の特性と音響標準パタン作成時のマイクの特性とから補正係数を獲得するのが良い。
なお、呼びかけ単語は、人が呼びかける際に用いる単語だけでなく、人に注意を喚起する目的で再生される館内放送の呼び出し音や、電車のホームの警告音や、車・トラック・バスのクラクションや、方向指示器に連動した警報音や、家庭内の家電機器が進行状態を知らせるために再生する報知音なども同様である。
(実施の形態2)
実施の形態1では、片方の耳(右耳)に装着するタイプの補聴器を一例として説明したが、実施の形態2では、両耳に装着するタイプの補聴器を例にとって説明する。
図10は、本発明の実施の形態2における補聴装置200の構成を示すブロック図である。図10に示すように、実施の形態2の補聴装置200は、右耳装着補聴器200Aと左耳装着補聴器200Bから構成される。図10を参照して、各補聴器の構成について、以下に説明する。
図10に示すように、実施の形態2の補聴装置200を構成する右耳装着補聴器200Aは、2つのマイクロホン201a、201bと、会話相手方向探査手段202と、会話相手方向指向性合成手段203と、会話相手以外方向指向性合成手段204と、周波数特性補正処理部205と、呼びかけ方向探査手段206と、呼びかけ単語判定手段207と、指向性・無指向判定手段208と、スピーカ209と、補正係数格納部221Aと、呼びかけ単語文字列格納部223Aと、音響標準パタン格納部224Aと、を備える。
同様に、実施の形態2の補聴装置200を構成する左耳装着補聴器200Bは、2つのマイクロホン211a、211bと、会話相手方向探査手段212と、会話相手方向指向性合成手段213と、会話相手以外方向指向性合成手段214と、周波数特性補正処理部215と、呼びかけ方向探査手段216と、呼びかけ単語判定手段217と、指向性・無指向判定手段218と、スピーカ219と、補正係数格納部221Bと、呼びかけ単語文字列格納部223Bと、音響標準パタン格納部224Bと、を備える。
以下、右耳装着補聴器200Aの構成について、詳細に説明する。なお、左耳装着補聴器200Bについて、右耳装着補聴器200Aと同じ名称の構成は、すべて右耳装着補聴器200Aの構成と同じ動作をするため、詳細な説明を省略する。
<右耳装着補聴器200Aの構成>
マイクロホン201a、201bは、会話相手の音声などの到来する音を収音し、その収音した音を音響信号に変換する。そして、音響信号は、会話相手方向探査手段202に出力される。
以下、説明のため、各マイクホンで収音された音には、会話相手の音声以外に、現在会話している相手以外の人物が、会話相手のいる方向以外から補聴装置200の装着者に向かって呼びかける音声(以下、呼びかけ音声という)が含まれているものとする。また、補聴装置200の装着者の右側から呼びかけが行われているものとする。
なお、マイクロホン201a、201bで会話相手の音声を収音していないときは、実施の形態1と同様、図6に示すような指向性パタン601が形成されているものとする。
会話相手方向探査手段202は、マイクロホン201a、201bから入力された音響信号に基づき、会話相手の音声データを検出し、収音された会話相手の音声が到来する方向を探査する。そして、探査された会話相手の音声が到来する方向は、指向性・無指向判定手段208に出力される。
呼びかけ方向探査手段206は、マイクロホン201a、201bで収音された呼びかけ音声から、その到来方向を探査する。呼びかけ音声の有無の判定には、例えば、入力音声のパワーが予め設定する閾値をこえるかどうかで判定する。
呼びかけ方向探査手段206は、まず、左耳装着補聴器200Bの呼びかけ方向探査手段216に、Bluetooth(日本国商標登録番号第4477936号)などの無線通信手段を介して、右耳の最大音圧を送信する。同様に、呼びかけ方向探査手段206は、左耳装着補聴器200Bの呼びかけ方向探査手段216から、Bluetooth(日本国商標登録番号第4477936号)などの無線通信手段を介して、左耳の最大音圧を受信する。
そして、呼びかけ方向探査手段206は、両耳の最大音圧同士を比較して、左右のどちらで呼びかけが起こっているかを推定する。例えば、呼びかけ方向探査手段206は、呼びかけ方向を探査する方法として、右側で起こっていると判定されれば、遅延和アレーによる指向性ビームの実現と、指向性ビームのスキャンによる音源方向の推定とにより、呼びかけ方向を探査する。呼びかけ方向探査手段206は、探査された呼びかけ音声に基づき、呼びかけ音声が到来する方向と推定される方向の情報とを周波数特性補正処理部205に出力する。
補正係数格納部221Aは、入力音声が有する周波数の指向特性において、各角度に対する補正係数を、格納する。なお、補正係数は、補聴器の頭部装着による頭部形状の影響を考慮されている。
呼びかけ単語文字列格納部223Aは、文字列として登録された呼びかけ単語文字列を格納する。呼びかけ単語文字列格納部223Aに格納される呼びかけ単語文字列は、予め、補聴装置200のフィッティング時に、呼びかけ単語文字列格納部223Aに格納しておく。
音響標準パタン格納部224Aは、文字(例えば、50音やアルファベット)に対応する音響標準パタンを格納する。なお、音響標準パタン格納部224Aに格納されている音響標準パタンは、一つの特性を持つマイクを用いて収録された大量の音声データから、各音素/音節の特徴を表すモデルとしてあらかじめ作成された音声データである。
周波数特性補正処理部205は、呼びかけ方向探査手段206から入力された呼びかけ音声が到来する方向と推定される方向との情報に基づき、補正係数格納部221Aに格納されている補正係数のうち、呼びかけ音声の方向と合致する方向の補正係数を用いて、音響標準パタン作成時のマイクの特性と同等になるように、会話相手以外方向指向性合成手段104より出力された会話相手の音声データを、随時補正する。そして、補正処理された入力音声データは、呼びかけ単語判定手段207へ出力される。
呼びかけ単語判定手段207は、呼びかけ単語文字列格納部223Aに格納された「呼びかけ単語文字列」、及び音響標準パタン格納部224Aに格納された「音響標準パタン」から、呼びかけ単語標準パタンを作成する。そして、呼びかけ単語判定手段207は、作成した呼びかけ単語標準パタンと、周波数特性補正処理部205から出力された、会話相手以外の人物による呼びかけ音声のデータとを照合し、呼びかけ単語か否かを判定する。
呼びかけ単語判定手段207は、会話相手以外の人物の呼びかけ音声が呼びかけ単語である判定した場合には、無指向情報を、指向性・無指向判定手段208及び左耳装着補聴器200Bの指向性・無指向判定手段218に出力する。一方、呼びかけ単語判定手段207は、会話相手以外の人物の呼びかけ音声が呼びかけ単語でないと判定した場合には、指向性情報を、指向性・無指向判定手段208に出力する。
指向性・無指向判定手段208は、会話相手方向探査手段202から入力された会話相手の音声が到来する方向と、呼びかけ単語判定手段207の判定結果に基づき、会話相手方向指向性合成手段203及び会話相手以外方向指向性合成手段204のそれぞれで、指向性を形成するか否かを判定する。
つまり、指向性・無指向判定手段208は、会話相手の音声以外に、会話相手以外の人物から呼びかけ音声が音声データに含まれている場合、会話相手方向探査手段202から入力された会話相手の音声が到来する方向及び呼びかけ単語判定手段207から出力された無指向情報に基づき、会話相手方向指向性合成手段203に、会話相手方向に指向性を形成する旨の判定結果を出力する。
更に、指向性・無指向判定手段208は、会話相手以外方向指向性合成手段204に、会話相手の方向以外の方向にも指向性を形成する旨の判定結果を出力する。一方、指向性・無指向判定手段208は、会話相手の音声以外に、会話相手以外の人物から呼びかけ音声が音声データに含まれていない場合、会話相手方向探査手段202から入力された会話相手の音声が到来する方向及び呼びかけ単語判定手段207から出力された指向性情報に基づき、会話相手方向に指向性を形成する旨の判定結果を出力する。
更に、指向性・無指向判定手段208は、会話相手以外方向指向性合成手段204に、指向性を形成しない旨の判定結果を出力する。
会話相手以外方向指向性合成手段204は、後述する指向性・無指向判定手段208に基づき、指向性を形成する。指向性・無指向判定手段208が指向性を形成すると判定すると、会話相手の方向以外の方向に指向性を形成する。
例えば、実施の形態1と同様、図8に示す指向性パタン802のように、呼び出し検出のために会話相手方向以外にも指向性を形成することで、会話相手以外の方向から到来する音をマイクロホンから検出することが可能となる。一方、指向性・無指向判定手段208が指向性を形成しないと判定すると、指向性は作らない。
会話相手方向指向性合成手段203は、指向性・無指向判定手段208の判定結果に基づき、指向性を形成する。つまり、会話相手方向指向性合成手段203は、指向性・無指向判定手段208が指向性を形成すると判定すると、収音された会話相手の音声データ及び会話相手の音声が到来する方向の情報に基づき、会話相手の方向に指向性を合成する。
例えば、会話相手方向指向性合成手段203は、実施の形態1と同様、図7の指向性パタン701や図8に示す指向性パタン801のように、会話相手の方向に指向性を変更する。一方、会話相手方向指向性合成手段203は、指向性・無指向判定手段208が指向性を形成しないと判定すると、指向性は作らない。
そして、指向性が合成された会話相手の音声データは、スピーカ209に出力される。
スピーカ209は、音声出力手段であり、会話相手方向指向性合成手段203により形成された指向性により強調された会話相手の音を出力する。その結果、補聴装置200の装着者が、強調された会話相手の音を聴取することができる。
更に、スピーカ209は、会話相手以外方向指向性合成手段204で呼びかけ検出のために会話相手方向以外にも指向性を形成された場合には、会話相手の音の出力するのと同時に、マイクロホン201a、201bで収音した会話相手以外の方向から到来する呼びかけ音を出力することができる。その結果、補聴装置200の装着者が、強調された会話相手の音に加え、会話相手以外の方向から到来する呼びかけ音も聴取することができる。
<補聴装置200の動作>
図11は、実施の形態2の補聴装置200の処理手順をあらわすフローチャートである。図12は、呼びかけ検出用の子プロセスを示すフローチャートである。図11及び図12に示すフローチャートを用いて補聴装置200の処理手順を、以下に説明する。なお、当初、会話は始まっておらず、図6の指向性パタン601で示すように、全方向の音声が聞こえる状態である。
ステップST501では、呼びかけ検出用の子プロセスを生成する。
ステップST502では、会話相手方向探査手段202により会話相手の音声の到来方向を探査する。
ステップST503では、ステップST502での結果に基づき、会話相手方向探査手段102により会話相手がいるか否かを検出する。会話相手の音声が検出されればステップST504に、会話相手の音声が検出されなければ、ステップST502に処理を分岐する。
ステップST504では、会話相手方向探査手段202により、会話相手の音声到来方向を角度として検出する。
ステップST505では、ステップST504で検出された会話相手の方向を角度として、図12に示す呼びかけ検出用子プロセスのステップST601に送信する。
ステップST506では、図12に示す呼びかけ検出用子プロセスから送信された無指向への変更情報を受信する。
ステップST507では、指向性・無指向判定手段208により会話相手の方向に指向性を合成すると判定された場合、ステップST508に処理を分岐する。また、ステップST507では、指向性・無指向判定手段208により指向性を形成しないと判定された場合、すなわち無指向に変更する場合、ステップST510に処理を分岐する。
ステップST508では、会話相手方向指向性合成手段203により、実施の形態1と同様、図7の指向性パタン701のように、収音された会話相手の音声データと会話相手方向の方向情報から会話相手Bの方向に指向性を合成する。
ステップST509では、実施の形態1と同様、図7に示すように指向性が合成された会話相手Bの音声データは、スピーカ109から出力し、補聴装置200の装着者Aが、強調された会話相手の音を聴取する。
ステップST510では、図6に示す指向性パタン601のように、無指向に変更し、ステップST501に処理を戻す。
<呼びかけ検出用の子プロセス>
次に、図12に示す呼びかけ検出用子プロセスを以下に説明する。
ステップST601では、図2に示すステップST505で送信された、会話相手の音の到来方向を示す角度を受信する。
ステップST602では、会話相手の音の到来方向を示す角度を受信していればステップST603に、会話相手の音の到来方向を示す角度を受信していなければ、ステップST602に処理を分岐させる。
ステップST603では、実施の形態1と同様、図8に示す指向性パタン801のように、会話相手Bの音声を、補聴装置200の装着者Aに強調して聞かせるために会話相手方向に指向性を形成する。かつ、ステップST603では、図8に示す指向性パタン802のように、呼び出し検出のために会話相手方向以外にも指向性を形成する。
ステップST604では、呼びかけ方向探査手段206によって、左右の補聴器で最大音圧を互いに通信し、左右のどちらで呼びかけが起こっているかを判定する。
ステップST605では、ステップST604での判定結果に基づき、右側で呼びかけが起こっている場合、ステップST606、左側で呼びかけが起こっている場合、ステップST610に処理を分岐する。
ステップST606では、右耳装着補聴器200Aの呼びかけ方向探査手段206により呼びかけ音声の方向を判定する。
ステップST607では、呼びかけ音声の角度の情報から、呼びかけ単語判定手段207の入力となる音声データを補正する周波数特性の補正係数を呼び出し、随時適用する。なお、周波数特性の補正係数の決め方については、実施の形態1と同様のため、その詳細な説明は省略する。
ステップST608では、右耳装着補聴器200Aの呼びかけ単語判定手段207により補正処理された入力音声データは、呼びかけ単語か否かを判定する。
ステップST609では、ステップST608で呼びかけ単語と判定されれば、ステップST614に、呼びかけ単語であると判定されなければステップST604に処理を分岐する。
ステップST610では、左耳装着補聴器200Bの呼びかけ方向探査手段216により呼びかけ音声の方向を判定する。
ステップST611では、呼びかけ音声の角度の情報から、呼びかけ単語判定手段207の入力となる音声データを補正する周波数特性の補正係数を呼び出し、随時適用する。なお、周波数特性の補正係数の決め方については、実施の形態1と同様のため、その詳細な説明は省略する。
ステップST612では、左耳装着補聴器200Bの呼びかけ単語判定手段217により補正処理された入力音声データは、呼びかけ単語か否かを判定する。
ステップST613では、ステップST612で呼びかけ単語と判定されれば、ステップST614に、呼びかけ単語であると判定されなければステップST604に処理を分岐する。
ステップST614では、右側で呼びかけが起こっている場合、右耳装着補聴器200Aの指向性・無指向判定手段208により、無指向への変更情報を、右耳装着補聴器200Aの会話相手方向指向性合成手段203、会話相手以外方向指向性合成手段204に送り、ステップST602に処理を戻す。
同様に、左側で呼びかけが起こっている場合、左耳装着補聴器200Bの指向性・無指向判定手段218により、無指向への変更情報を、左耳装着補聴器200Bの会話相手方向指向性合成手段213、会話相手以外方向指向性合成手段214に送り、ステップST602に処理を戻す。
上述したステップST501からステップST510及びステップST601からステップST614により、本実施の形態の補聴装置200は、会話相手の声を強調した上で、呼びかけられたときには指向性から無指向に変更される。そのため、補聴器の使用者は、呼びかけ音声が聞こえるようになり、呼びかけ者との会話も可能となる。
(実施の形態3)
図13は、本発明の実施の形態3における音響信号処理装置300の構成を示すブロック図である。図13に示すように、実施の形態3の音響信号処理装置300は、2つのマイクロホン301a、301bと、会話相手方向探査手段302と、会話相手方向指向性合成手段303と、会話相手以外音方向指向性合成手段304と、周波数特性補正処理部305と、会話相手以外音方向探査手段306と、会話相手以外音判定手段307と、指向性・無指向判定手段308と、スピーカ309と、補正係数格納部310と、音響標準パタン格納部311と、を備える。
<音響信号処理装置300の構成>
マイクロホン301a、301bは、会話相手の音声などの到来する音を収音し、その収音した音を音響信号に変換する。そして、音響信号は、会話相手方向探査手段302に出力される。
以下、説明のため、各マイクロホンで収音された音には、会話相手の音声以外に、現在会話している相手以外の人物が、会話相手のいる方向以外から音響信号処理装置300の装着者に到達する会話相手以外の音や音声(以下、会話相手以外音という)が含まれているものとする。
なお、マイクロホン301a、301bで会話相手の音声を収音していないときは、図6に示すように、音響信号処理装置300を右耳に装着した人物Aの周辺には、指向性をつけない信号処理によって全方向の音声が聞こえる状態を示す指向性パタン601が形成(作成)される。
会話相手方向探査手段302は、マイクロホン301a、301bから入力された音響信号に基づき、会話相手の音声データを検出し、収音された会話相手の音声が到来する方向を探査する。そして、探査された会話相手の音声が到来する方向は、指向性・無指向判定手段308に出力される。
会話相手以外音方向探査手段306は、マイクロホン301a、301bで収音された会話相手以外の音から、その到来方向を探査する。会話相手以外音の有無の判定には、例えば、入力音声のパワーが予め設定する閾値をこえるかどうかで判定する。
ここで、頭部と耳介による歪である頭部伝達関数は人間の方向知覚に重要な役割を果たしている(例えば、非特許文献3)。そこで、本実施の形態では、音の到来方向(角度)の推定方法として、頭部伝達関数の角度毎のディップ周波数とピーク周波数の特徴と、外耳道入り口位置で観測された入力音声の周波数特性とを比較し、音の到来方向(角度)を推定する。そして、会話相手以外音方向探査手段306は、探査された会話相手以外音に基づき、会話相手以外音の到来方向と推定される方向の情報を周波数特性補正処理部305に出力する。
補正係数格納部310は、入力音声が有する周波数の指向特性において、各角度に対する補正係数を、格納する。なお、補正係数は、補聴器の頭部装着による頭部形状の影響が考慮されている。音響標準パタン格納部311に格納されている音響標準パタンは、一つの特性を持つマイクを用いて収録された大量の会話相手以外音のデータから、あらかじめ作成されたパタンである。
周波数特性補正処理部305は、会話相手以外音方向探査手段306から入力された会話相手以外音の到来方向と推定された方向(角度)の情報に基づき、補正係数格納部310に格納されている補正係数のうち、会話相手以外音の方向と合致する方向(角度)の補正係数を用いて、音響標準パタン作成時のマイクの特性と同等になるように、会話相手以外方向指向性合成手段304より出力された会話相手以外音データを、随時補正する。そして、補正処理された会話相手以外音データは、会話相手以外音判定手段307へ出力される。
会話相手以外音判定手段307は、音響標準パタン格納部311に格納された音響標準パタンを、周波数特性補正処理部305から出力された会話相手以外音のデータと照合し、会話相手以外音か否かを判定する。
会話相手以外音判定手段307は、会話相手以外音であると判定した場合には、会話相手以外音フラグを、指向性・無指向判定手段308に出力する。一方、会話相手以外音判定手段307は、会話相手以外音でないと判定した場合には、会話相手以外音フラグを、指向性・無指向判定手段308に出力しない。
指向性・無指向判定手段308は、会話相手方向探査手段302から入力された会話相手の音声が到来する方向及び会話相手以外音判定手段307の判定結果に基づき、会話相手方向指向性合成手段303及び会話相手以外方向指向性合成手段304のそれぞれに、指向性を形成させるか否かを判定する。
つまり、指向性・無指向判定手段308は、会話相手の音声以外に、会話相手以外の人物から会話相手以外音が音声データに含まれている場合、会話相手方向探査手段302から入力された会話相手の音声が到来する方向(角度)及び会話相手以外音判定手段307から会話相手以外音フラグが出力されている場合は、会話相手方向指向性合成手段303に、会話相手方向に指向性を形成させる旨の判定結果を出力する。更に、指向性・無指向判定手段308は、会話相手以外方向指向性合成手段304に、会話相手の方向以外の方向にも指向性を形成させる旨の判定結果を出力する。
一方、指向性・無指向判定手段308は、会話相手以外音が音声データに含まれておらず、会話相手以外音判定手段307から会話相手以外音フラグが出力されない場合、会話相手方向探査手段302から入力された会話相手の音声が到来する方向(角度)及び会話相手以外音判定手段307から出力された指向性情報に基づき、会話相手方向に指向性を形成させる旨の判定結果を出力する。更に、指向性・無指向判定手段308は、会話相手以外方向指向性合成手段304に、指向性を形成しない旨の判定結果を出力する。
会話相手以外方向指向性合成手段304は、指向性・無指向判定手段308の判定結果に基づき、指向性を形成する信号処理を行う。指向性・無指向判定手段308から指向性を形成する判定結果を受け取ると、会話相手の方向以外の方向に指向性を形成する。例えば、図8に示す指向性パタン802のように、会話相手以外音検出のために会話相手方向以外にも指向性を形成することで、会話相手以外の方向から到来する音をマイクロホンから検出することが可能となる。一方、指向性・無指向判定手段308から指向性を形成しない判定結果を受け取ると、会話相手の方向以外の方向に指向性を形成する信号処理を行わない。
会話相手方向指向性合成手段303は、指向性・無指向判定手段308の判定結果に基づき、指向性を形成する信号処理を行う。つまり、会話相手方向指向性合成手段303は、指向性・無指向判定手段308が指向性を形成すると判定すると、収音された会話相手の音声データ及び会話相手の音声が到来する方向の情報に基づき、会話相手の方向に指向性を形成する信号処理を行う。
例えば、会話相手方向指向性合成手段303は、図7の指向性パタン701や図8に示す指向性パタン801のように、会話相手の方向に指向性を変更する。一方、会話相手方向指向性合成手段303は、指向性・無指向判定手段308が指向性を形成しないと判定すると、指向性を形成する信号処理を行わない。そして、指向性が合成された会話相手の音声データは、スピーカ309に出力される。
スピーカ309は、音声出力手段であり、会話相手方向指向性合成手段303により形成された指向性により強調された会話相手の音を出力する。その結果、音響信号処理装置300の装着者が、強調された会話相手の音を聴取することができる。
更に、スピーカ309は、会話相手以外方向指向性合成手段304で会話相手以外音検出のために会話相手方向以外にも指向性を形成された場合には、会話相手の音の出力するのと同時に、マイクロホン301a、301bで収音した会話相手以外の方向から到来する会話相手以外音を出力することができる。その結果、音響信号処理装置300の装着者が、強調された会話相手の音に加え、会話相手以外の方向から到来する会話相手以外音も聴取することができる。
<音響信号処理装置300の動作>
図14は、実施の形態3の音響信号処理装置300の処理手順をあらわすフローチャートである。図15は、会話相手以外音検出用の子プロセスを示すフローチャートである。図14及び図15に示すフローチャートを用いて音響信号処理装置300の処理手順を、以下に説明する。なお、当初、会話は始まっておらず、図6の指向性パタン601で示すように、音響信号処理装置300を右耳に装着した人物Aは、指向性をつけない信号処理によって全方向の音声が聞こえる状態である。なお、図6に示す収音状態は、実施の形態1の場合について説明したものであるが、本実施の形態の場合についても同様に適用可能である。
ステップST401では、会話相手以外音検出用の子プロセスを生成する。ステップST402では、会話相手方向探査手段302により会話相手の音声の到来方向を探査する。
ステップST403では、ステップST402での結果に基づき、会話相手方向探査手段302により会話相手がいるか否かを検出する。会話相手の音声が検出されればステップST404に、会話相手の音声が検出されなければ、ステップST402に処理を分岐する。
ステップST404では、会話相手方向探査手段302により、会話相手の音声到来方向を角度として検出する。
ステップST405では、ステップST404で検出された会話相手の方向を角度として、図15に示す会話相手以外音検出用子プロセスのステップST701に送信する。
ステップST406では、図15に示す会話相手以外音検出用子プロセスから送信された無指向への変更情報を受信する。
ステップST407では、指向性・無指向判定手段308により会話相手の方向に指向性を合成すると判定された場合、ステップST408に処理を分岐する。また、ステップST407では、指向性・無指向判定手段308により指向性を形成しないと判定された場合、すなわち無指向に変更する場合、ステップST410に処理を分岐する。
ステップST408では、会話相手方向指向性合成手段303により、図7の指向性パタン701のように、収音された会話相手の音声データと会話相手方向の方向情報から会話相手Bの方向に指向性を合成する。
ステップST409では、図7に示すように指向性が合成された会話相手Bの音声データは、スピーカ309から出力し、音響信号処理装置300の装着者Aが、強調された会話相手の音を聴取する。なお、図7に示す指向性は、実施の形態1の場合について説明したものであるが、本実施の形態の場合についても同様に適用可能である。
ステップST410では、図6に示す指向性パタン601のように、無指向に変更し、ステップST401に処理を戻す。
<会話相手以外音検出用の子プロセス>
次に、図15に示す会話相手以外音検出用子プロセスを以下に説明する。
ステップST701では、図14に示すステップST405で送信された、会話相手の音の到来方向を示す角度を受信する。
ステップST702では、会話相手の音の到来方向を示す角度を受信していればステップST703に、会話相手の音の到来方向を示す角度を受信していなければ、ステップST702に処理を分岐させる。
ステップST703では、図8に示す指向性パタン801のように、会話相手Bの音声を、音響信号処理装置300の装着者Aに強調して聞かせるために会話相手方向に指向性を形成し、かつ、図8に示す指向性パタン802のように、会話相手以外音検出のために会話相手方向以外にも指向性を形成する。なお、図8に示す指向性は、実施の形態1の場合について説明したものであるが、本実施の形態の場合についても同様に適用可能である。
ステップST704では、会話相手以外音があるか否かを判定する。会話相手以外音があると判定されれば、ステップST705に、会話相手以外音がないと判定されればステップST704に処理を分岐する。ここで、会話相手以外音があるかないかの判定には例えば、入力音声のパワーが予め設定する閾値をこえるかどうかで判定するなどが一つの方法として考えられる。
ステップST705では、会話相手以外音方向探査手段306により会話相手以外音の方向を判定する。
ステップST706では、会話相手以外音の角度の情報から、会話相手以外音判定手段の入力となる音声データを補正する周波数特性の補正係数を呼び出し、随時適用する。なお、周波数特性の補正係数の決め方については後述する。
ステップST707では、会話相手以外音判定手段307により補正処理された入力音声データは、会話相手以外音か否かを判定する。
ステップST708では、ステップST707で会話相手以外音と判定されれば、ステップST709に、会話相手以外音であると判定されなければステップST704に処理を分岐する。
ステップST709では、指向性・無指向判定手段308により、無指向への変更情報を会話相手方向指向性合成手段303、会話相手以外方向指向性合成手段304に送り、ステップST702に処理を戻す。
上述したステップST401からステップST410及びステップST701からステップST709により、本実施の形態の音響信号処理装置300は、会話相手の声を強調した上で、会話相手以外音が検出されたときには指向性から無指向に変更される。そのため、補聴器の使用者は、会話相手以外音が聞こえるようになり、会話相手以外音者との会話も可能となる。
<周波数特性の補正係数の決め方>
次に、ステップST706における、周波数特性の補正係数を呼び出す具体的な方法例を、説明する。例えば、装着者Aが右頭部側面に音響信号処理装置300を装着した場合の周波数特性の補正係数について、図4、図5を参照して説明する。図4は、右頭部側面にマイクロホンを装着した場合の方向(角度)による周波数特性の図であり、図5は、本発明の実施の形態1の入力音声を音響標準パタン作成時のマイクの周波数特性に補正する補正係数を示す図である。なお、図4に示す周波数特性の図、図5に示す補正係数は、実施の形態1の場合について説明したものであるが、本実施の形態の場合についても同様に適用可能である。
図4に示すように、装着者Aが右頭部側面に音響信号処理装置300を装着した場合、右90°方向から到来する音の周波数特性を示す曲線401は、低域側ではその周波数に依らずほぼ平坦であり、高域側でやや落ち込みが見られる。一方、左90°方向から到来する音の周波数特性を示す曲線402は、周波数が高い領域ほど落ち込む。この場合、図4に示す音の周波数特性を、図5の破線501で示す、音響標準パタン作成時のマイクが有する周波数特性に、変更されるように、補正係数を決定する。なお、この音響標準パタン作成時のマイクの周波数特性は、会話相手以外音判定処理部で用いられる。
図4に示す右90°方向から到来する音の周波数特性(曲線401)の場合、低域部分は補正の必要はないが、図5に示すように、高域部分で矢印に示すように周波数特性を変更する補正が必要となる。同様に、図4に示す左90°方向から到来する音の周波数特性(曲線402)の場合、中高域で高い周波数ほど補正係数を大きくすることで、入力音声を、図5の破線501で示す、音響標準パタン作成時にマイクが有していた周波数特性に、補正することができる。
上述のように、本実施形態に係る音響信号処理装置300によれば、入力音声の周波数特性を、補正係数を用いて、会話相手以外音判定処理手段の音声認識の照合に用いる音響標準パタンの学習時(オフライン時)の音声データの周波数特性に近づけることで、音声認識精度を低下させることなく実時間処理が実現できる。
なお、補正係数は、一般的な頭部形状において、すでに測定された値を用いても良い。
なお、音声認識の精度をより高くするためには、音響信号処理装置300のフィッティング時に、図9に示すように、音響信号処理装置300を、右耳に装着した人物Aの頭部周辺を囲む、音源901〜908から補正係数を獲得するための音(ホワイトノイズ等)を再生する。次に、再生したホワイトノイズ等を、音響信号処理装置300のマイクにより収録し、その収録音の特性と音響標準パタン作成時のマイクの特性とから補正係数を獲得するのが良い。なお、図9に示す補正係数は、実施の形態1の場合について説明したものであるが、本実施の形態の場合についても同様に適用できる。
なお、呼びかけ単語は、人が呼びかける際に用いる単語だけでなく、人に注意を喚起する目的で再生される館内放送の呼び出し音や、電車のホームの警告音や、車・トラック・バスのクラクションや、方向指示器に連動した警報音や、家庭内の家電機器が進行状態を知らせるために再生する報知音なども同様である。
(実施の形態4)
実施の形態3では、片方の耳(右耳)に装着するタイプの音響信号処理装置を一例として説明したが、実施の形態4では、両耳に装着するタイプの音響信号処理装置を例にとって説明する。
図16は、本発明の実施の形態4における音響信号処理装置400の構成を示すブロック図である。図16に示すように、実施の形態4の音響信号処理装置400は、右耳装着音響信号処理装置400Aと左耳装着音響信号処理装置400Bから構成される。図16を参照して、各音響信号処理装置の構成について、以下に説明する。
図16に示すように、実施の形態4の音響信号処理装置400を構成する右耳装着音響信号処理装置400Aは、2つのマイクロホン401a、401bと、会話相手方向探査手段402と、会話相手方向指向性合成手段403と、会話相手以外方向指向性合成手段404と、周波数特性補正手段405と、音到来方向探査手段406と、会話相手以外音判定手段407と、指向性・無指向判定手段408と、スピーカ409と、補正係数格納部421Aと、音響標準パタン格納部424Aと、を備える。
同様に、実施の形態4の音響信号処理装置400を構成する左耳装着音響信号処理装置400Bは、2つのマイクロホン411a、411bと、会話相手方向探査手段412と、会話相手方向指向性合成手段413と、会話相手以外方向指向性合成手段414と、周波数特性補正手段415と、音到来方向探査手段416と、会話相手以外音判定手段417と、指向性・無指向判定手段418と、スピーカ419と、補正係数格納部421Bと、音響標準パタン格納部424Bと、を備える。
以下、右耳装着音響信号処理装置400Aの構成について、詳細に説明する。なお、左耳装着音響信号処理装置400Bについて、右耳装着音響信号処理装置400Aと同じ名称の構成は、すべて右耳装着音響信号処理装置400Aの構成と同じ動作をするため、詳細な説明を省略する。
<右耳音響信号処理装置400Aの構成>
マイクロホン401a、401bは、会話相手の音声などの到来する音を収音し、その収音した音を音響信号に変換する。そして、音響信号は、会話相手方向探査手段402に出力される。
以下、説明のため、各マイクホンで収音された音には、会話相手の音声以外に、現在会話している相手以外の人物が、会話相手のいる方向以外から音響信号処理装置400の装着者に向かって会話相手以外音る音声(以下、会話相手以外音という)が含まれているものとする。また、音響信号処理装置400の装着者の右側から会話相手以外音が行われているものとする。
なお、マイクロホン401a、401bで会話相手の音声を収音していないときは、実施の形態3と同様、図6に示すような指向性パタン601が形成(作成)されているものとする。なお、図6に示す収音状態は、実施の形態1の場合について説明したものであるが、本実施の形態の場合についても同様に適用可能である。
会話相手方向探査手段402は、マイクロホン401a、401bから入力された音響信号に基づき、会話相手の音声データを検出し、収音された会話相手の音声が到来する方向を探査する。そして、探査された会話相手の音声が到来する方向は、指向性・無指向判定手段408に出力される。
音到来方向探査手段406は、マイクロホン401a、401bで収音された会話相手以外音から、その到来方向を探査する。会話相手以外音の有無の判定には、例えば、入力音声のパワーが予め設定する閾値をこえるかどうかで判定する。
音到来方向探査手段406は、まず、左耳装着音響信号処理装置400Bの音到来方向探査手段416に、Bluetooth(日本国商標登録番号第4477936号)などの無線通信手段を介して、右耳の最大音圧を送信する。同様に、音到来方向探査手段406は、左耳装着音響信号処理装置400Bの音到来方向探査手段416から、Bluetooth(日本国商標登録番号第4477936号)などの無線通信手段を介して、左耳の最大音圧を受信する。
そして、音到来方向探査手段406は、両耳の最大音圧同士を比較して、左右のどちらで会話相手以外音が起こっているかを推定する。例えば、音到来方向探査手段406は、会話相手以外音方向を探査する方法として、右側で起こっていると判定されれば、遅延和アレーによる指向性ビームの実現と、指向性ビームのスキャンによる音源方向の推定とにより、会話相手以外音方向を探査する。音到来方向探査手段406は、探査された会話相手以外音に基づき、会話相手以外音が到来する方向と推定される方向の情報とを周波数特性補正手段405に出力する。
補正係数格納部421Aは、入力音声が有する周波数の指向特性において、各角度に対する補正係数を、格納する。なお、補正係数は、音響信号処理装置の頭部装着による頭部形状の影響を考慮されている。
音響標準パタン格納部424Aに格納されている音響標準パタンは、一つの特性を持つマイクを用いて収録された大量の会話相手以外音のデータから、あらかじめ作成されたパタンである。
周波数特性補正手段405は、音到来方向探査手段406から入力された会話相手以外音の到来方向と推定された方向(角度)の情報に基づき、補正係数格納部421Aに格納されている補正係数のうち、会話相手以外音の方向と合致する方向(角度)の補正係数を用いて、音響標準パタン作成時のマイクの特性と同等になるように、会話相手以外方向指向性合成手段404より出力された会話相手以外音データを、随時補正する。そして、補正処理された会話相手以外音データは、会話相手以外音判定手段407へ出力される。
会話相手以外音判定手段407は、音響標準パタン格納部424Aに格納された音響標準パタンを、周波数特性補正手段405から出力された会話相手以外音のデータと照合し、会話相手以外音か否かを判定する。
会話相手以外音判定手段407は、会話相手以外音であると判定した場合には、会話相手以外音フラグを、指向性・無指向判定手段408及び左耳装着音響信号処理装置400Bの指向性・無指向判定手段418に出力する。一方、会話相手以外音判定手段407は、会話相手以外音でないと判定した場合には、会話相手以外音フラグを、指向性・無指向判定手段408及び左耳装着音響信号処理装置400Bの指向性・無指向判定手段418に出力しない。
指向性・無指向判定手段408は、会話相手方向探査手段402から入力された会話相手の音声が到来する方向及び会話相手以外音判定手段407の判定結果に基づき、会話相手方向指向性合成手段403及び会話相手以外方向指向性合成手段404のそれぞれに、指向性を形成させるか否かを判定する。
つまり、指向性・無指向判定手段408は、会話相手の音声以外に、会話相手以外の人物から会話相手以外音が音声データに含まれている場合、会話相手方向探査手段402から入力された会話相手の音声が到来する方向(角度)及び会話相手以外音判定手段407から会話相手以外音フラグが出力されている場合は、会話相手方向指向性合成手段403に、会話相手方向に指向性を形成させる旨の判定結果を出力する。更に、指向性・無指向判定手段408は、会話相手以外方向指向性合成手段404に、会話相手の方向以外の方向にも指向性を形成させる旨の判定結果を出力する。
一方、指向性・無指向判定手段408は、会話相手以外音が音声データに含まれておらず、会話相手以外音判定手段407から会話相手以外音フラグが出力されない場合、会話相手方向探査手段402から入力された会話相手の音声が到来する方向(角度)及び会話相手以外音判定手段407から出力された指向性情報に基づき、会話相手方向に指向性を形成させる旨の判定結果を出力する。更に、指向性・無指向判定手段408は、会話相手以外方向指向性合成手段404に、指向性を形成しない旨の判定結果を出力する。
会話相手以外方向指向性合成手段404は、指向性・無指向判定手段408の判定結果に基づき、指向性を形成する信号処理を行う。指向性・無指向判定手段408から指向性を形成する判定結果を受け取ると、会話相手の方向以外の方向に指向性を形成する。例えば、図8に示す指向性パタン802のように、会話相手以外音検出のために会話相手方向以外にも指向性を形成することで、会話相手以外の方向から到来する音をマイクロホンから検出することが可能となる。一方、指向性・無指向判定手段408から指向性を形成しない判定結果を受け取ると、会話相手の方向以外の方向に指向性を形成する信号処理を行わない。なお、図8に示す指向性は、実施の形態1の場合について説明したものであるが、本実施の形態の場合についても同様に適用可能である。
会話相手方向指向性合成手段403は、指向性・無指向判定手段408の判定結果に基づき、指向性を形成する信号処理を行う。つまり、会話相手方向指向性合成手段403は、指向性・無指向判定手段408が指向性を形成すると判定すると、収音された会話相手の音声データ及び会話相手の音声が到来する方向の情報に基づき、会話相手の方向に指向性を形成する信号処理を行う。
例えば、会話相手方向指向性合成手段403は、実施の形態3と同様、図7の指向性パタン701や図8に示す指向性パタン801のように、会話相手の方向に指向性を変更する。一方、会話相手方向指向性合成手段403は、指向性・無指向判定手段308が指向性を形成しないと判定すると、指向性を形成する信号処理を行わない。なお、図7に示す指向性は、実施の形態1の場合について説明したものであるが、本実施の形態の場合についても同様に適用可能である。
そして、指向性が合成された会話相手の音声データは、スピーカ409に出力される。
スピーカ409は、音声出力手段であり、会話相手方向指向性合成手段403により形成された指向性により強調された会話相手の音を出力する。その結果、音響信号処理装置400の装着者が、強調された会話相手の音を聴取することができる。
更に、スピーカ409は、会話相手以外方向指向性合成手段404で会話相手以外音検出のために会話相手方向以外にも指向性を形成された場合には、会話相手の音の出力するのと同時に、マイクロホン401a、401bで収音した会話相手以外の方向から到来する会話相手以外音を出力することができる。その結果、音響信号処理装置400の装着者が、強調された会話相手の音に加え、会話相手以外の方向から到来する会話相手以外音も聴取することができる。
<音響信号処理装置400の動作>
図17は、実施の形態4の音響信号処理装置400の処理手順をあらわすフローチャートである。図18は、会話相手以外音検出用の子プロセスを示すフローチャートである。図17及び図18に示すフローチャートを用いて音響信号処理装置400の処理手順を、以下に説明する。なお、当初、会話は始まっておらず、図6の指向性パタン601で示すように、全方向の音声が聞こえる状態である。
ステップST801では、会話相手以外音検出用の子プロセスを生成する。ステップST802では、会話相手方向探査手段402により会話相手の音声の到来方向を探査する。
ステップST803では、ステップST802での結果に基づき、会話相手方向探査手段402により会話相手がいるか否かを検出する。会話相手の音声が検出されればステップST804に、会話相手の音声が検出されなければ、ステップST802に処理を分岐する。
ステップST804では、会話相手方向探査手段402により、会話相手の音声到来方向を角度として検出する。
ステップST805では、ステップST804で検出された会話相手の方向を角度として、図18に示す会話相手以外音検出用子プロセスのステップST901に送信する。
ステップST806では、図18に示す会話相手以外音検出用子プロセスから送信された無指向への変更情報を受信する。
ステップST807では、指向性・無指向判定手段408により会話相手の方向に指向性を合成すると判定された場合、ステップST808に処理を分岐する。また、ステップST807では、指向性・無指向判定手段408により指向性を形成しないと判定された場合、すなわち無指向に変更する場合、ステップST810に処理を分岐する。
ステップST808では、会話相手方向指向性合成手段403により、実施の形態3と同様、図7の指向性パタン701のように、収音された会話相手の音声データと会話相手方向の方向情報から会話相手Bの方向に指向性を合成する。
ステップST809では、実施の形態3と同様、図7に示すように指向性が合成された会話相手Bの音声データは、スピーカ409から出力し、音響信号処理装置400の装着者Aが、強調された会話相手の音を聴取する。
ステップST810では、図6に示す指向性パタン601のように、無指向に変更し、ステップST801に処理を戻す。
<会話相手以外音検出用の子プロセス>
次に、図18に示す会話相手以外音検出用子プロセスを以下に説明する。ステップST901では、図17に示すステップST805で送信された、会話相手の音の到来方向を示す角度を受信する。
ステップST902では、会話相手の音の到来方向を示す角度を受信していればステップST903に、会話相手の音の到来方向を示す角度を受信していなければ、ステップST902に処理を分岐させる。
ステップST903では、実施の形態3と同様、図8に示す指向性パタン801のように、会話相手Bの音声を、音響信号処理装置400の装着者Aに強調して聞かせるために会話相手方向に指向性を形成する。かつ、ステップST903では、図8に示す指向性パタン802のように、呼び出し検出のために会話相手方向以外にも指向性を形成する。
ステップST904では、音到来方向探査手段406によって、左右の音響信号処理装置で最大音圧を互いに通信し、左右のどちらで会話相手以外音が起こっているかを判定する。
ステップST905では、ステップST904での判定結果に基づき、右側で会話相手以外音が起こっている場合、ステップST906、左側で会話相手以外音が起こっている場合、ステップST910に処理を分岐する。
ステップST906では、右耳装着音響信号処理装置400Aの音到来方向探査手段406により会話相手以外音の方向を判定する。
ステップST907では、会話相手以外音の角度の情報から、会話相手以外音単語判定手段の入力となる音声データを補正する周波数特性の補正係数を呼び出し、随時適用する。なお、周波数特性の補正係数の決め方については、実施の形態3と同様のため、その詳細な説明は省略する。
ステップST908では、右耳装着音響信号処理装置400Aの会話相手以外音判定手段407により補正処理された入力音声データは、会話相手以外音単語か否かを判定する。
ステップST909では、ステップST908で会話相手以外音単語と判定されれば、ステップST914に、会話相手以外音単語であると判定されなければステップST904に処理を分岐する。
ステップST910では、左耳装着音響信号処理装置400Bの音到来方向探査手段416により会話相手以外音の方向を判定する。
ステップST911では、会話相手以外音の角度の情報から、会話相手以外音単語判定手段の入力となる音声データを補正する周波数特性の補正係数を呼び出し、随時適用する。なお、周波数特性の補正係数の決め方については、実施の形態3と同様のため、その詳細な説明は省略する。
ステップST912では、左耳装着音響信号処理装置400Bの会話相手以外音判定手段417により補正処理された入力音声データは、会話相手以外音単語か否かを判定する。
ステップST913では、ステップST912で会話相手以外音単語と判定されれば、ステップST914に、会話相手以外音単語であると判定されなければステップST904に処理を分岐する。
ステップST914では、右側で会話相手以外音が起こっている場合、右耳装着音響信号処理装置400Aの指向性・無指向判定手段408により、無指向への変更情報を、右耳装着音響信号処理装置400Aの会話相手方向指向性合成手段403、会話相手以外方向指向性合成手段404に送り、ステップST602に処理を戻す。
同様に、左側で会話相手以外音が起こっている場合、左耳装着音響信号処理装置400Bの指向性・無指向判定手段418により、無指向への変更情報を、左耳装着音響信号処理装置400Bの会話相手方向指向性合成手段413、会話相手以外方向指向性合成手段414に送り、ステップST902に処理を戻す。
上述したステップST801からステップST810及びステップST901からステップST914により、本実施の形態の音響信号処理装置400は、会話相手の声を強調した上で、呼びかけられたときには指向性から無指向に変更される。そのため、音響信号処理装置の使用者は、呼びかけ音声が聞こえるようになり、呼びかけ者との会話も可能となる。
また、上記各実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
本出願は、2009年6月17日出願の日本特許出願(特願2009−144271)、に基づくものであり、その内容はここに参照として取り込まれる。
本発明に係る補聴装置は、音声認識精度を低下させることなく、2つ以上のマイクロホンからの入力信号を用いて会話相手以外の呼びかけや様々な音を検出可能であり、補聴器等として有用である。
101a、101b、201a、201b、211a、211b マイクロホン
301a、301b、401a、401b、411a、411b マイクロホン
102、202、212、302、402、412 会話相手方向探査手段
103、203、213、303、403,413 会話相手方向指向性合成手段
104、204、214、304、404、414 会話相手以外方向指向性合成手段
105、205、215、305 周波数特性補正処理部
106、206、216 呼びかけ方向探査手段
306 会話相手以外音方向探査手段
405、415 周波数特性補正手段
406、416 音到来方向探査手段
107、207、217 呼びかけ単語判定手段
307、407、417 会話相手以外音判定手段
108、208、218 指向性・無指向判定手段
109、209、219、309、409、419 スピーカ
110、221A、221B、310、421A、421B 補正係数格納部
111、224A、224B、311、424A、424B 音響標準パタン格納部
112、223A、223B 呼びかけ単語文字列格納部

Claims (6)

  1. 会話相手の音声、及び前記会話相手以外が発する音を音響信号に変換する複数のマイクロホンと、
    前記複数のマイクロホンにおいて変換された複数の音響信号に基づき、前記会話相手以外が発する音の到来方向を推定する会話相手以外音方探査部と、
    前記複数の音響信号と、推定された前記会話相手以外が発する音の到来方向とに基づき、前記会話相手以外が発する音の周波数特性を補正する周波数特性補正処理部と、
    所定の特性を有するマイクロホンを用いて収録された音声データに基づき、前記会話相手以外が発する音の音響標準パタンを格納する音響標準パタン格納部と、
    前記周波数特性が補正された前記会話相手以外が発する音を、前記音響標準パタンと照合し、会話相手以外音であるか否かを判定する会話相手以外音判定部と、
    前記会話相手以外音判定部の判定結果に基づき、指向性を形成するか否かを判定する指向性・無指向判定部、を備え、
    前記周波数特性補正処理部は、前記会話相手以外音判定部において照合に用いられる前記音響標準パタンが作成される場合に用いられる前記マイクロホンの前記所定の特性と同等になるように、前記会話相手以外が発する音の周波数特性を補正する補聴装置。
  2. 請求項1に記載の補聴装置は、更に、
    前記複数のマイクロホンにおいて変換された複数の音響信号に基づき、前記会話相手の音声の到来方向を推定する会話相手方向探査部を、備え、
    前記会話相手以外音判定部が、前記周波数特性補正処理部において周波数特性が補正された前記会話相手以外が発する音を、前記音響標準パタンと照合し、会話相手以外音であると判定した場合、
    前記指向性・無指向判定部は、前記会話相手方向探査部から入力された会話相手の音声が到来する方向に基づき、前記会話相手の音声が到来する方向について、指向性を形成する判定をするのに加えて、更に、前記会話相手の音声が到来する方向以外の方向にも前記指向性を形成する判定をする補聴装置。
  3. 請求項2に記載の補聴装置であって、
    前記会話相手以外音判定部が、前記周波数特性補正処理部において周波数特性が補正された前記会話相手以外が発する音を、前記音響標準パタンと照合し、会話相手以外音でないと判定した場合、
    前記指向性・無指向判定部は、前記会話相手方向探査部から入力された会話相手の音声が到来する方向に基づき、前記会話相手の音声が到来する方向について、指向性を形成する判定をするのに加えて、更に、前記会話相手の音声が到来する方向以外の方向には前記指向性を形成しない判定をする補聴装置。
  4. 会話相手の音声、及び前記会話相手以外の呼びかけ音声や様々な音を含む音を音響信号に変換する複数のマイクロホンと、
    前記複数のマイクロホンにおいて変換された複数の音響信号に基づき、前記会話相手以外の呼びかけ音声の到来方向を推定する呼びかけ方向探査部と、
    前記複数の音響信号と、推定された前記会話相手以外の呼びかけ音声の到来方向とに基づき、前記会話相手以外の呼びかけ音声の周波数特性を補正する周波数特性補正処理部と、
    文字列として登録された呼びかけ単語文字列を格納する呼びかけ単語文字列格納部と、
    所定の特性を有するマイクロホンを用いて収録された音声データに基づき、音素及び音節の特徴を現す音響標準パタンを格納する音響標準パタン格納部と、
    前記呼びかけ単語文字列格納部に格納された前記呼びかけ単語文字列及び前記音響標準パタン格納部に格納された前記音響標準パタンから、呼び出し単語標準パタンを作成し、前記周波数特性が補正された前記会話相手以外の呼びかけ音声を、前記呼び出し単語標準パタンと照合し、呼びかけ単語か否かを判定する呼びかけ単語判定部と、
    前記呼びかけ単語判定部の判定結果に基づき、指向性を形成するか否かを判定する指向性・無指向判定部、を備え、
    前記周波数特性補正処理部は、前記呼びかけ単語判定部において前記音響標準パタンが作成される場合に用いられる前記マイクロホンの前記所定の特性と同等になるように、前記会話相手以外の呼びかけ音声の周波数特性を補正する補聴装置。
  5. 請求項に記載の補聴装置は、更に、
    前記複数のマイクロホンにおいて変換された複数の音響信号に基づき、前記会話相手の音声の到来方向を推定する会話相手方向探査部を、備え、
    前記呼びかけ単語判定部が、前記周波数特性補正処理部において周波数特性が補正された前記会話相手以外の呼びかけ音声を、前記呼び出し単語標準パタンと照合し、呼びかけ単語であると判定した場合、
    前記指向性・無指向判定部は、前記会話相手方向探査部から入力された会話相手の音声が到来する方向に基づき、前記会話相手の音声が到来する方向について、指向性を形成する判定をするのに加えて、更に、前記会話相手の音声が到来する方向以外の方向に指向性を形成す判定をする補聴装置。
  6. 請求項に記載の補聴装置であって、
    前記呼びかけ単語判定部が、前記周波数特性補正処理部において周波数特性が補正された前記会話相手以外の呼びかけ音声を、前記呼び出し単語標準パタンと照合し、呼びかけ単語でないと判定した場合、
    前記指向性・無指向判定部は、前記会話相手方向探査部から入力された会話相手の音声が到来する方向に基づき、前記会話相手の音声が到来する方向について、指向性を形成する判定をするのに加えて、更に、前記会話相手の音声が到来する方向以外の方向に指向性を形成しない判定をする補聴装置。
JP2011519568A 2009-06-17 2010-06-16 補聴装置 Active JP5409786B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011519568A JP5409786B2 (ja) 2009-06-17 2010-06-16 補聴装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009144271 2009-06-17
JP2009144271 2009-06-17
JP2011519568A JP5409786B2 (ja) 2009-06-17 2010-06-16 補聴装置
PCT/JP2010/004019 WO2010146857A1 (ja) 2009-06-17 2010-06-16 補聴装置

Publications (2)

Publication Number Publication Date
JPWO2010146857A1 JPWO2010146857A1 (ja) 2012-11-29
JP5409786B2 true JP5409786B2 (ja) 2014-02-05

Family

ID=43356188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011519568A Active JP5409786B2 (ja) 2009-06-17 2010-06-16 補聴装置

Country Status (5)

Country Link
US (1) US8654998B2 (ja)
EP (1) EP2445230A4 (ja)
JP (1) JP5409786B2 (ja)
CN (1) CN102428716B (ja)
WO (1) WO2010146857A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012205147A (ja) * 2011-03-25 2012-10-22 Kyocera Corp 携帯電子機器および音声制御システム
US8183997B1 (en) 2011-11-14 2012-05-22 Google Inc. Displaying sound indications on a wearable computing system
US9679568B1 (en) 2012-06-01 2017-06-13 Google Inc. Training a dialog system using user feedback
US9123338B1 (en) 2012-06-01 2015-09-01 Google Inc. Background audio identification for speech disambiguation
US9264803B1 (en) * 2013-06-05 2016-02-16 Google Inc. Using sounds for determining a worn state of a wearable computing device
US9426589B2 (en) * 2013-07-04 2016-08-23 Gn Resound A/S Determination of individual HRTFs
JP6296646B2 (ja) * 2014-01-22 2018-03-20 日東電工株式会社 聴覚補完システム、聴覚補完装置及び聴覚補完方法
DE102016225204B4 (de) * 2016-12-15 2021-10-21 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgerätes
DE102016225207A1 (de) * 2016-12-15 2018-06-21 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgerätes
US10911877B2 (en) * 2016-12-23 2021-02-02 Gn Hearing A/S Hearing device with adaptive binaural auditory steering and related method
JP7103353B2 (ja) * 2017-05-08 2022-07-20 ソニーグループ株式会社 情報処理装置
DK3468228T3 (da) * 2017-10-05 2021-10-18 Gn Hearing As Binauralt høresystem med lokalisering af lydkilder
DK180177B1 (en) * 2018-04-30 2020-07-16 Widex As Method of operating a hearing aid system and a hearing aid system
US10791404B1 (en) * 2018-08-13 2020-09-29 Michael B. Lasky Assisted hearing aid with synthetic substitution
CN114255762A (zh) * 2020-09-10 2022-03-29 北京搜狗科技发展有限公司 一种语音识别方法、装置及电子设备
JP7567345B2 (ja) 2020-10-09 2024-10-16 ヤマハ株式会社 音信号処理方法および音信号処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003516646A (ja) * 2000-03-31 2003-05-13 フォーナック アーゲー マイクロホン装置の伝達特性処理方法、同方法を適用するマイクロホン装置及びこれらを適用する補聴器
JP2004133403A (ja) * 2002-09-20 2004-04-30 Kobe Steel Ltd 音声信号処理装置
JP2004527177A (ja) * 2001-04-18 2004-09-02 ヴェーデクス・アクティーセルスカプ 指向性コントローラおよび補聴器を制御する方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1017253B1 (en) * 1998-12-30 2012-10-31 Siemens Corporation Blind source separation for hearing aids
US20010028718A1 (en) 2000-02-17 2001-10-11 Audia Technology, Inc. Null adaptation in multi-microphone directional system
US20010038699A1 (en) 2000-03-20 2001-11-08 Audia Technology, Inc. Automatic directional processing control for multi-microphone system
JP2003528508A (ja) 2000-03-20 2003-09-24 オーディア テクノロジー インク 多重マイクロフォン・システムのための方向処理
US6865275B1 (en) 2000-03-31 2005-03-08 Phonak Ag Method to determine the transfer characteristic of a microphone system, and microphone system
JP4410378B2 (ja) * 2000-04-14 2010-02-03 三菱電機株式会社 音声認識方法および装置
US7457426B2 (en) * 2002-06-14 2008-11-25 Phonak Ag Method to operate a hearing device and arrangement with a hearing device
JP3910898B2 (ja) * 2002-09-17 2007-04-25 株式会社東芝 指向性設定装置、指向性設定方法及び指向性設定プログラム
DE10322912A1 (de) 2003-05-21 2004-12-16 Bayer Technology Services Gmbh Verfahren zum Nachweis von Nukleinsäuren
US7319769B2 (en) * 2004-12-09 2008-01-15 Phonak Ag Method to adjust parameters of a transfer function of a hearing device as well as hearing device
JP5249207B2 (ja) * 2006-06-23 2013-07-31 ジーエヌ リザウンド エー/エス 適応性のある方向性信号処理を備えた補聴装置
DE102006047982A1 (de) * 2006-10-10 2008-04-24 Siemens Audiologische Technik Gmbh Verfahren zum Betreiben einer Hörfilfe, sowie Hörhilfe
US8325957B2 (en) * 2006-10-10 2012-12-04 Siemens Audiologische Technik Gmbh Hearing aid and method for operating a hearing aid
DE102007008739A1 (de) * 2007-02-22 2008-08-28 Siemens Audiologische Technik Gmbh Hörvorrichtung mit Störsignaltrennung und entsprechendes Verfahren

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003516646A (ja) * 2000-03-31 2003-05-13 フォーナック アーゲー マイクロホン装置の伝達特性処理方法、同方法を適用するマイクロホン装置及びこれらを適用する補聴器
JP2004527177A (ja) * 2001-04-18 2004-09-02 ヴェーデクス・アクティーセルスカプ 指向性コントローラおよび補聴器を制御する方法
JP2004133403A (ja) * 2002-09-20 2004-04-30 Kobe Steel Ltd 音声信号処理装置

Also Published As

Publication number Publication date
EP2445230A4 (en) 2016-05-18
WO2010146857A1 (ja) 2010-12-23
US8654998B2 (en) 2014-02-18
CN102428716A (zh) 2012-04-25
US20120063620A1 (en) 2012-03-15
EP2445230A1 (en) 2012-04-25
JPWO2010146857A1 (ja) 2012-11-29
CN102428716B (zh) 2014-07-30

Similar Documents

Publication Publication Date Title
JP5409786B2 (ja) 補聴装置
US10097921B2 (en) Methods circuits devices systems and associated computer executable code for acquiring acoustic signals
CN108428452B (zh) 终端支架和远场语音交互系统
JP6596049B2 (ja) ハンズフリー通話機器の通話品質を向上させる方法、装置及びハンズフリー通話機器
TWI390945B (zh) 聲波通信用之方法及系統
JP4870130B2 (ja) イア・バイオメトリックスを使用してハンドヘルド・オーディオ・デバイス(handheldaudiodevice)を設定する方法および装置
US20060271370A1 (en) Mobile two-way spoken language translator and noise reduction using multi-directional microphone arrays
US10075801B2 (en) Information processing system and storage medium
US20160048508A1 (en) Universal language translator
US11227125B2 (en) Translation techniques with adjustable utterance gaps
WO2014161309A1 (zh) 一种移动终端实现声源定位的方法及装置
US20190138603A1 (en) Coordinating Translation Request Metadata between Devices
TW200808095A (en) Oscillation/echo canceller system
WO2021244056A1 (zh) 一种数据处理方法、装置和可读介质
JP2004279241A (ja) 音源位置取得システム、音源位置取得方法、該音源位置取得システムに使用するための音反射要素および該音反射要素の形成方法
US11068233B2 (en) Selecting a microphone based on estimated proximity to sound source
CN105827793A (zh) 一种语音定向输出方法及移动终端
CN114333886A (zh) 音频处理方法、装置、电子设备及存储介质
JP4840082B2 (ja) 音声通信装置
KR102088216B1 (ko) 자동 통역 시스템에서 크로스토크를 감소시키는 방법 및 장치
US20230197084A1 (en) Apparatus and method for classifying speakers by using acoustic sensor
JP2006086877A (ja) ピッチ周波数推定装置、無声信号変換装置、無声信号検出装置、無声信号変換方法
Fulop Reviews of Acoustical Patents
CN117392995A (zh) 基于多模态的话者分离方法、装置、设备及存储介质
JP2011199764A (ja) 発言者音声抽出システム、発言者音声抽出装置及び発言者音声抽出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131105

R150 Certificate of patent or registration of utility model

Ref document number: 5409786

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350