JPWO2011048813A1 - 音響処理装置、音響処理方法及び補聴器 - Google Patents

音響処理装置、音響処理方法及び補聴器 Download PDF

Info

Publication number
JPWO2011048813A1
JPWO2011048813A1 JP2011537143A JP2011537143A JPWO2011048813A1 JP WO2011048813 A1 JPWO2011048813 A1 JP WO2011048813A1 JP 2011537143 A JP2011537143 A JP 2011537143A JP 2011537143 A JP2011537143 A JP 2011537143A JP WO2011048813 A1 JPWO2011048813 A1 JP WO2011048813A1
Authority
JP
Japan
Prior art keywords
unit
level
speaker
signal
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011537143A
Other languages
English (en)
Other versions
JP5519689B2 (ja
Inventor
寺田 泰宏
泰宏 寺田
麻紀 山田
麻紀 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011537143A priority Critical patent/JP5519689B2/ja
Publication of JPWO2011048813A1 publication Critical patent/JPWO2011048813A1/ja
Application granted granted Critical
Publication of JP5519689B2 publication Critical patent/JP5519689B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L2021/065Aids for the handicapped in understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/43Signal processing in hearing aids to enhance the speech intelligibility

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

マイクロホンの配置間隔に拠らず、ユーザの近傍の発話者による音声を効率的に強調する音響処理装置、音響処理方法及び補聴器を提供する。音響処理装置は、複数の無指向性マイクロホンによる各々の出力信号を用いて、発話者方向に指向性の主軸を形成した第1の指向性信号を出力し、発話者方向に指向性の死角を形成した第2の指向性信号を出力する。音響処理装置は、第1の指向性信号のレベル、第2の指向性信号のレベルをそれぞれ算出し、当該第1の指向性信号のレベル及び第2の指向性信号のレベルに基づいて、発話者との遠近を判定する。音響処理装置は、当該判定結果に応じて、第1の指向性信号に与えるゲインを導出し、当該ゲインを用いて、第1の指向性信号のレベルを制御する。

Description

本発明は、ユーザから遠くにいる発話者の音声より、ユーザの近くにいる発話者の音声を相対的に強調することによって、近くの発話者の音声を聞き取りやすくする音響処理装置、音響処理方法及び補聴器に関するものである。
ユーザの近くにいる発話者の音声のみを強調する音響処理装置の一例として、特許文献1が挙げられる。この特許文献1では、50[cm]〜1[m]の程度離れて配置された2つのマイクロホンに入力される音声の振幅比を用いて、この振幅比に対応付けて予め計算された重み関数に基づいて近傍場音の強調を行う。図30は、特許文献1に示す音響処理装置の内部構成を示すブロック図である。
図30において、除算器1614は、第1の振幅抽出器1613Aで算出されたマイクロホン1601Aの振幅値と、第2の振幅抽出器1613Bで算出されたマイクロホン1601Bの振幅値とを入力する。次に、除算器1614は、マイクロホン1601Aの振幅値と、マイクロホン1601Bの振幅値とに基づいて、マイクロホンA、B間の振幅比を得る。係数計算器1615は、除算器1614で算出された振幅比に応じた重み付け係数を算出する。近傍場音源分離装置1602は、係数計算器1615により算出された振幅比の値に応じて、予め計算された重み関数を用いて、近傍場の音声の強調処理を行うようにしたものである。
日本国特開2009−36810号公報
しかし、上記した近傍場音源分離装置1602を用いて、ユーザの近くにいる音源又は発話者の音声を強調したい場合、マイクロホン1601A、1601Bの間で大きな振幅比を得る必要がある。このため、2つのマイクロホン1601A、1602Bは、相当の間隔を離して配置されることが必要となる。従って、特にマイクロホンの間隔が、数[mm](ミリメートル)から数[cm](センチメートル)の範囲で、配置される小型な音響処理装置に適用することが困難になる。
特に低周波数帯域において、2つのマイクロホンの間における振幅比が小さくなるため、ユーザの近くにいる音源又は発話者と、ユーザから遠く離れたところにいる音源又は発話者とを適切に判別することが困難である。
本発明は、上記従来の事情に鑑みてなされたもので、マイクロホンの配置間隔に拠らず、ユーザの近傍の発話者による音声を効率的に強調する音響処理装置、音響処理方法及び補聴器を提供することを目的とする。
本発明の音響処理装置は、複数の無指向性マイクロホンによる各々の出力信号を用いて、発話者方向に指向性の主軸を形成した第1の指向性信号を出力する第1の指向性形成部と、前記複数の無指向性マイクロホンによる各々の出力信号を用いて、発話者方向に指向性の死角を形成した第2の指向性信号を出力する第2の指向性形成部と、前記第1の指向性形成部により出力された第1の指向性信号のレベルを算出する第1のレベル算出部と、前記第2の指向性形成部により出力された第2の指向性信号のレベルを算出する第2のレベル算出部と、前記第1及び第2のレベル算出部により算出された前記第1の指向性信号のレベル及び前記第2の指向性信号のレベルに基づいて、前記発話者との遠近を判定する発話者遠近判定部と、前記発話者遠近判定部の結果に応じて、前記第1の指向性信号に与えるゲインを導出するゲイン導出部と、前記ゲイン導出部により導出されたゲインを用いて、前記第1の指向性信号のレベルを制御するレベル制御部を有する。
さらに、本発明の音響処理方法は、複数の無指向性マイクロホンによる各々の出力信号を用いて、発話者方向に指向性の主軸を形成した第1の指向性信号を出力するステップと、前記複数の無指向性マイクロホンによる各々の出力信号を用いて、発話者方向に指向性の死角を形成した第2の指向性信号を出力するステップと、前記出力された第1の指向性信号のレベルを算出するステップと、前記出力された第2の指向性信号のレベルを算出するステップと、前記算出された前記第1の指向性信号のレベル及び前記第2の指向性信号のレベルに基づいて、前記発話者との遠近を判定するステップと、前記判定された前記発話者との遠近に応じて、前記第1の指向性信号に与えるゲインを導出するステップと、前記導出されたゲインを用いて、前記第1の指向性信号のレベルを制御するステップと、を有する。
さらに、本発明の補聴器は、上記音響処理装置を備える。
本発明の音響処理装置、音響処理方法及び補聴器によれば、マイクロホンの配置間隔に拠らず、ユーザの近くにいる発話者による音声を効率的に強調することができる。
第1の実施形態における音響処理装置の内部構成を示すブロック図 第1の指向性マイクロホンにより出力された音声波形及び第1のレベル算出部により算出されたレベルの時間変化の一例を示す図、(a)第1の指向性マイクロホンにより出力された音声波形の時間変化を示す図、(b)第1のレベル算出部により算出されたレベルの時間変化を示す図 第2の指向性マイクロホンにより出力された音声波形及び第2のレベル算出部により算出されたレベルの時間変化の一例を示す図、(a)第2の指向性マイクロホンにより出力された音声波形の時間変化を示す図、(b)第2のレベル算出部により算出されたレベルの時間変化を示す図 算出されたレベル差と瞬時ゲインとの関係の一例を示す図 第1の実施形態における音響処理装置の動作を説明するフローチャート 第1の実施形態における音響処理装置のゲイン導出部によるゲイン導出の処理を説明するフローチャート 第2の実施形態における音響処理装置の内部構成を示すブロック図 第1及び第2の指向性形成部の内部構成を示したブロック図 第1の指向性形成部により出力された音声波形及び第1のレベル算出部により算出されたレベルの時間変化の一例を示す図、(a)第1の指向性形成部により出力された音声波形の時間変化を示す図、(b)第1のレベル算出部により算出されたレベルの時間変化を示す図 第2の指向性形成部により出力された音声波形及び第2のレベル算出部により算出されたレベルの時間変化の一例を示す図、(a)第2の指向性形成部により出力された音声波形の時間変化を示す図、(b)第2のレベル算出部により算出されたレベルの時間変化を示す図 発話者との距離と第1のレベル算出部により算出されたレベルと第2のレベル算出部により算出されたレベルとのレベル差との関係の一例を示す図 第1の実施形態における音響処理装置の動作を説明するフローチャート 第2の実施形態における音響処理装置の内部構成を示すブロック図 第2の実施形態における音響処理装置の音声区間検出部の内部構成を示すブロック図 第1の指向性形成部により出力された音声信号の波形、音声区間検出部による検出結果、及び第3のレベル算出部により算出されたレベルと推定騒音レベルとの比較結果の時間変化を示した図、(a)第1の指向性形成部により出力された音声信号の波形の時間変化を示す図、(b)音声区間検出部により検出された音声区間検出結果の時間変化を示す図、(c)音声区間検出部により、第1の指向性形成部により出力された音声信号の波形に対するレベルと、音声区間検出部により算出された推定騒音レベルとの比較を示す図 第2の実施形態における音響処理装置の動作を説明するフローチャート 第3の実施形態における音響処理装置の内部構成を示すブロック図 第3の実施形態における音響処理装置の遠近判定閾値設定部の内部構成を示したブロック図 第3の実施形態における音響処理装置の動作を説明するフローチャート 第4の実施形態における音響処理装置の内部構成を示すブロック図 遠近判定結果情報と自発話音声判定結果情報とが同一の時間軸で表した一例を示す図 遠近判定結果情報と自発話音声判定結果情報とが同一の時間軸で表した別の一例を示す図 第4の実施形態における音響処理装置の動作を説明するフローチャート 第5の実施形態における音響処理装置の内部構成を示すブロック図 第5の実施形態における音響処理装置の非線形増幅部の内部構成を示すブロック図 ユーザの聴覚特性を補償するレベルの入出力特性 第5の実施形態における音響処理装置の動作を説明するフローチャート 第5の実施形態における音響処理装置の非線形増幅部の動作を説明するフローチャート 第5の実施形態における音響処理装置の非線形増幅部の帯域ゲイン設定部の動作を説明するフローチャート 従来の音響処理装置の内部構成の一例を示すブロック図
以下、本発明の各実施形態について、図面を参照して説明する。各実施形態では、本発明の音響処理装置を補聴器に適用した例について説明する。よって、音響処理装置は、ユーザの耳に装着されており、発話者はユーザのほぼ正面前方にいるものとする。
(第1の実施形態)
図1は、第1の実施形態における音響処理装置10の内部構成を示すブロック図である。図1に示すように、音響処理装置10は、第1の指向性マイクロホン101、第2の指向性マイクロホン102、第1のレベル算出部103、第2のレベル算出部104、発話者遠近判定部105、ゲイン導出部106、及びレベル制御部107を有する。
(第1の実施形態の音響処理装置10の内部構成)
第1の指向性マイクロホン101は、発話者方向に指向性の主軸を有する単一指向性マイクロホンであり、主に発話者の音声の直接音を収音する。第1の指向性マイクロホン101は、この収音された音声信号x1(t)を、第1のレベル算出部103及びレベル制御部107にそれぞれ出力する。
第2の指向性マイクロホン102は、発話者方向に指向性の死角を有する単一指向性マイクロホン又は双指向性マイクロホンであり、発話者の音声の直接音を収音せず、主に部屋の壁面等の反射により生じる発話者の音声の残響音を収音する。第2の指向性マイクロホン102は、この収音された音声信号x2(t)を第2のレベル算出部104に出力する。また、第1の指向性マイクロホン101と第2の指向性マイクロホン102との配置間隔は、数[mm]から数[cm]程度の距離である。
第1のレベル算出部103は、第1の指向性マイクロホン101により出力された音声信号x1(t)を取得し、この取得された音声信号x1(t)のレベルLx1(t)[dB]を算出する。第1のレベル算出部103は、この算出された音声信号x1(t)のレベルLx1(t)を発話者遠近判定部105に出力する。数式(1)は、第1のレベル算出部103により算出されるレベルLx1(t)の算出式の一例を示す。
Figure 2011048813
数式(1)において、Nは、レベル算出のために必要なサンプル数である。例えば、サンプル数Nは、サンプリング周波数を8[kHz]、レベル算出のための分析時間を20[m秒]とした場合、N=160となる。また、τは、時定数を示し、0<τ≦1の値をとるもので、予め定められている。時定数τは、音声の立ち上がりには早く追従するように、下記数式(2)に示すように、
Figure 2011048813
の関係が成立する場合には小さい時定数が用いられる。一方、上記数式(2)に示す関係が成立しない場合(数式(3))には、音声の子音区間又は文節間において、レベルの低下を軽減するために大きい時定数が用いられる。
Figure 2011048813
図2は、第1の指向性マイクロホン101により出力された音声波形と、第1のレベル算出部103が算出したときのレベルLx1(t)を示す。なお、レベルLx1(t)は、第1のレベル算出部103が数式(2)の場合における時定数を100[m秒]、数式(3)の場合における時定数を400[m秒]として、算出した例である。
図2(a)は、第1の指向性マイクロホン101により出力された音声波形の時間変化を示す図面であり、図2(b)は第1のレベル算出部103により算出されたレベルの時間変化を示す図面である。図2(a)において、縦軸は振幅を示し、横軸は時間[秒]を示す。図2(b)において、縦軸はレベルを示し、横軸は時間[秒]を示す。
第2のレベル算出部104は、第2の指向性マイクロホン102により出力された音声信号x2(t)を取得し、この取得された音声信号x2のレベルLx2(t)を算出する。第2のレベル算出部104は、この算出された音声信号x2(t)のレベルLx2(t)を発話者遠近判定部105に出力する。第2のレベル算出部104により算出されたレベルLx2(t)の算出式は、レベルLx1(t)が算出される数式(1)と同一である。
図3は、第2の指向性マイクロホン102により出力された音声波形と、第2のレベル算出部104が算出されたときのレベルLx2(t)を示す。なお、レベルLx2(t)は、第2のレベル算出部104が数式(2)の場合における時定数を100[m秒]、数式(3)の場合における時定数を400[m秒]として、算出した例である。
図3(a)は、第2の指向性マイクロホン102により出力された音声波形の時間変化を示す図面である。また、図3(b)は、第2のレベル算出部104により算出されたレベルの時間変化を示す図面である。図3(a)において、縦軸は振幅を示し、横軸は時間[秒]を示す。図3(b)において、縦軸はレベルを示し、横軸は時間[秒]を示す。
発話者遠近判定部105は、第1のレベル算出部103により算出された音声信号x1(t)のレベルLx1(t)、及び第2のレベル算出部103により算出された音声信号x2(t)のレベルLx2(t)を取得する。発話者遠近判定部105は、これらの取得されたレベルLx1(t)及びレベルLx2(t)に基づいて、発話者がユーザから近いところにいるか否かを判定する。発話者遠近判定部105は、この判定した結果である遠近判定結果情報をゲイン導出部106に出力する。
具体的には、発話者遠近判定部105は、第1のレベル算出部103により算出された音声信号x1(t)のレベルLx1(t)と、第2のレベル算出部104により算出された音声信号x2(t)のレベルLx2(t)とを入力する。次に、発話者遠近判定部105は、音声信号x1(t)のレベルLx1(t)と、音声信号x2(t)のレベルLx2(t)との差分であるレベル差ΔLx(t)=Lx1(t)−Lx2(t)を算出する。
発話者遠近判定部105は、この算出されたレベル差ΔLx(t)に基づいて、発話者がユーザの近くにいるか否かを判定する。発話者がユーザから近いところにいることを表す距離としては、例えば、発話者とユーザとの距離が2[m]以内の場合が該当する。しかし、発話者がユーザから近いところにいることを表す距離は、2[m]以内に限定されない。
レベル差ΔLx(t)が予め設定された第1の閾値β1以上である場合には、発話者遠近判定部105は、発話者がユーザから近いところにいると判定する。第1の閾値β1は、例えば、12[dB]である。また、レベル差ΔLx(t)が予め設定された第2の閾値β2未満である場合には、発話者遠近判定部105は、発話者がユーザから遠く離れたところにいると判定する。
第2の閾値β2は、例えば、8[dB]である。また、レベル差ΔLx(t)が第2の閾値β2以上で、且つ第1の閾値β1未満である場合には、発話者遠近判定部105は、発話者がユーザから少し離れた位置にいると判定する。
発話者遠近判定部105は、ΔLx(t)≧β1の場合は、発話者がユーザから近いところにいることを示す遠近判定結果情報「1」をゲイン導出部106に出力する。遠近判定結果情報「1」は、第1の指向性マイクロホン101で収音された直接音が多く、第2の指向性マイクロホン102で収音された残響音が少ないことを表す。
発話者遠近判定部105は、ΔLx(t)<β2の場合は、発話者がユーザから遠く離れたところにいることを示す遠近判定結果情報「−1」を出力する。遠近判定結果情報「−1」は、第1の指向性マイクロホン101で収音された直接音が少なく、第2の指向性マイクロホン102で収音された残響音が多いことを表す。
発話者遠近判定部105は、β2≦ΔLx(t)<β1の場合は、発話者がユーザから少し離れた位置にいることを示す遠近判定結果情報「0」を出力する。
ここで、第1のレベル算出部103により算出されたレベルLx1(t)の大きさだけで発話者の遠近を判定することは、当該判定の精度が効率的ではない。第1の指向性マイクロホン101の特性上、レベルLx1(t)の大きさだけでは、ユーザから遠く離れたところにいる人が大きな音量で話した場合と、当該ユーザから近くにいる人が通常の音量で話した場合とのいずれかが判定されにくい。
第1及び第2の指向性マイクロホン101、102の特性は、次のとおりである。発話者がユーザの近くにいる場合には、第1の指向性マイクロホン101により出力された音声信号x1(t)は、第2の指向性マイクロホン102により出力された音声信号x2(t)に比べて相対的に大きい。
さらに、発話者がユーザの遠くにいる場合には、第1の指向性マイクロホン101により出力された音声信号x1(t)は、第2の指向性マイクロホン102により出力された音声信号x2(t)とほぼ変わらない。特に、残響の多い部屋で用いる場合は、この傾向が顕著になる。
このため、発話者遠近判定部105は、第1のレベル算出部103により算出されたレベルLx1(t)の大きさだけで、発話者がユーザの近くにいるか遠くにいるかを判定しない。従って、発話者遠近判定部105は、直接音が主体的に収音された音声信号x1(t)のレベルLx1(t)と、残響音が主体的に収音された音声信号x2(t)のレベルLx2(t)との差に基づいて、発話者の遠近を判定する。
ゲイン導出部106は、発話者遠近判定部105により出力された遠近判定結果情報に基づいて、第1の指向性マイクロホン101により出力された音声信号x1(t)に対するゲインα(t)を導出する。ゲイン導出部106は、この導出されたゲインα(t)をレベル制御部107に出力する。
ゲインα(t)は、遠近判定結果情報又はレベル差ΔLx(t)に基づいて定められる。図4は、発話者遠近判定部105により算出されたレベル差ΔLx(t)とゲインα(t)との関係の一例を示す図面である。
図4に示すように、遠近判定結果情報が「1」である場合には、発話者がユーザから近いところにいて当該ユーザの会話相手である可能性が高いため、音声信号x1(t)に対するゲインα(t)としてゲインα1が付与される。ゲインα1には、例えば「2.0」が設定されることにより、音声信号x1(t)が相対的に強調される。
また、遠近判定結果情報が「−1」である場合には、発話者がユーザから遠く離れたところにいて当該ユーザの会話相手である可能性が低いため、音声信号x1(t)に対するゲインα(t)としてゲインα2が付与される。ゲインα2には、例えば「0.5」が設定されることにより、音声信号x1(t)が相対的に減衰される。
また、遠近判定結果情報が「0」である場合には、音声信号x1(t)は、特に強調も減衰も行われないため、ゲインα(t)として「1.0」が付与される。
ここで、ゲインα(t)が急激に変化することにより音声信号x1(t)に発生する歪みを軽減するため、上記した説明でゲインα(t)として導出された値は、瞬時的ゲインα’(t)として付与される。ゲイン導出部106は、下記数式(4)に従ってゲインα(t)の算出を最終的に行う。また、数式(4)において、ταは、時定数を表し、0<τα≦1の値をとるもので、予め定められている。
Figure 2011048813
レベル制御部107は、ゲイン導出部106により上記数式(4)に従って導出されたゲインα(t)、及び第1の指向性マイクロホン101により出力された音声信号x1(t)を取得する。レベル制御部107は、第1の指向性マイクロホン101により出力された音声信号x1(t)に対して、ゲイン導出部106で導出されたゲインα(t)を乗じた出力信号y(t)を生成する。
(第1の実施形態の音響処理装置10の動作)
次に、第1の実施形態の音響処理装置10の動作について図5を参照して説明する。図5は、第1の実施形態の音響処理装置10の動作を説明するフローチャートである。
第1の指向性マイクロホン101は、発話者の音声の直接音を収音する(S101)。並行的に、第2の指向性マイクロホン102は、発話者の音声の残響音を収音する(S102)。第1の指向性マイクロホン101及び第2の指向性マイクロホン102によるそれぞれの音声の収音処理は、同一のタイミングにて行われる。
第1の指向性マイクロホン101は、この収音された音声信号x1(t)を、第1のレベル算出部103及びレベル制御部107にそれぞれ出力する。また、第2の指向性マイクロホン102は、この収音された音声信号x2(t)を第2のレベル算出部104に出力する。
第1のレベル算出部103は、第1の指向性マイクロホン101により出力された音声信号x1(t)を取得し、この取得された音声信号x1(t)のレベルLx1(t)を算出する(S103)。並行的に、第2のレベル算出部104は、第2の指向性マイクロホン102により出力された音声信号x2(t)を取得し、この取得された音声信号x2のレベルLx2(t)を算出する(S104)。
第1のレベル算出部103は、この算出されたレベルLx1(t)を発話者遠近判定部105に出力する。また、第2のレベル算出部104は、この算出されたレベルLx2(t)を発話者遠近判定部105に出力する。
発話者遠近判定部105は、第1のレベル算出部103により算出されたレベルLx1(t)、及び第2のレベル算出部104により算出されたレベルLx2(t)を取得する。
発話者遠近判定部105は、これらの取得されたレベルLx1(t)及びレベルLx2(t)のレベル差ΔLx(t)に基づいて、発話者がユーザから近いところにいるか否かを判定する(S105)。発話者遠近判定部105は、この判定された結果である遠近判定結果情報をゲイン導出部106に出力する。
ゲイン導出部106は、発話者遠近判定部105により出力された遠近判定結果情報を取得する。ゲイン導出部106は、発話者遠近判定部105により出力された遠近判定結果情報に基づいて、第1の指向性マイクロホン101により出力された音声信号x1(t)に対するゲインα(t)を導出する(S106)。
このゲインα(t)の導出の詳細は後述する。ゲイン導出部106は、この導出されたゲインα(t)をレベル制御部107に出力する。
レベル制御部107は、ゲイン導出部106により導出されたゲインα(t)、及び第1の指向性マイクロホン101により出力された音声信号x1(t)を取得する。レベル制御部107は、第1の指向性マイクロホン101により出力された音声信号x1(t)に対して、ゲイン導出部106で導出されたゲインα(t)を乗じた出力信号y(t)を生成する(S107)。
(ゲイン導出処理の詳細)
ゲイン導出部106が、発話者遠近判定部105により出力された遠近判定結果情報に基づいて、音声信号x1(t)に対するゲインα(t)を導出する処理の詳細について、図6を参照して説明する。図6は、ゲイン導出部106の動作の詳細を説明したフローチャートである。
遠近判定結果情報が「1」、すなわち、レベル差ΔLx(t)≧β1である場合には(S1061、YES)、音声信号x1(t)に対する瞬時ゲインα’(t)として「2.0」が導出される(S1062)。遠近判定結果情報が「−1」、すなわち、レベル差ΔLx(t)<β2である場合には(S1063、YES)、音声信号x1(t)に対する瞬時ゲインα’(t)として「0.5」が導出される(S1064)。
遠近判定結果情報が「0」、すなわち、β2≦レベル差ΔLx(t)<β1である場合には(S1063、NO)、瞬時ゲインα’(t)として「1.0」が導出される(S1065)。瞬時ゲインα’(t)が導出された後、ゲイン導出部106は、上記数式(4)に従ってゲインα(t)の算出を行う(S1066)。
以上のように、第1の実施形態の音響処理装置では、配置間隔が数[mm]から数[cm]程度の第1及び第2の指向性マイクロホンを用いた場合でも、発話者がユーザから近いところにいるのか遠いところにいるかが判定される。具体的には、本実施形態は、配置間隔が数[mm]から数[cm]程度の第1及び第2の指向性マイクロホンから、それぞれ収音された音声信号x1(t)及びx2(t)のレベル差ΔLx(t)の大きさによって、発話者の距離を判定する。
この判定結果に応じて算出されたゲインが、発話者の直接音を収音する第1の指向性マイクロホンに出力された音声信号に乗じて、レベルの制御がなされる。
従って、会話相手等のようにユーザから近いところにいる発話者の音声は強調され、反対に、ユーザから遠いところにいる発話者の音声は減衰又は抑圧される。結果的に、マイクロホンの配置間隔に拠らずに、ユーザの近くにいる会話相手の音声のみを明瞭かつ効率的に聞き取るために強調することができる。
(第2の実施形態)
図7は、第1の実施形態における音響処理装置11の内部構成を示すブロック図である。図7において、図1と同じ構成要素については同じ符号を用い、当該構成要素の説明を省略する。図7に示すように、音響処理装置11は、指向性収音部1101、第1のレベル算出部103、第2のレベル算出部104、発話者遠近判定部105、ゲイン導出部106、及びレベル制御部107を有する。
(第2の実施形態の音響処理装置11の内部構成)
図7に示すように、指向性収音部1101は、マイクロホンアレイ1102、第1の指向性形成部1103及び第2の指向性形成部1104を有する。
マイクロホンアレイ1102は、複数の無指向性マイクロホンが配置されたアレイである。図7の構成は、2つの無指向性マイクロホンによりアレイを構成した場合の一例である。2つの無指向性マイクロホンの間隔Dは、必要とする周波数帯域や設置スペースの制約によって決定される任意の値である。ここでは、周波数帯域の観点からD=5mm〜30mm程度の範囲を考える。
第1の指向性形成部1103は、マイクロホンアレイ1102の2つの無指向性マイクロホンにより出力された音声信号を用いて、発話者方向に指向性の主軸を有する指向性を形成し、主に発話者の音声の直接音を収音する。第1の指向性形成部1103は、指向性の形成がなされた音声信号x1(t)を、第1のレベル算出部103及びレベル制御部107にそれぞれ出力する。
第2の指向性形成部1104は、マイクロホンアレイ1102の2つの無指向性マイクロホンにより出力された音声信号を用いて、発話者方向に指向性の死角を有する指向性を形成する。次に、第2の指向性形成部1104は、発話者の音声の直接音を収音せずに、主に部屋の壁面等の反射によって生じる発話者の音声の残響音を収音する。第2の指向性形成部1104は、指向性の形成がなされた音声信号x2(t)を第2のレベル算出部104に出力する。
指向性の形成の方法としては、一般的に、音圧傾度型や加算型が用いられる。ここでは、指向性の形成の一例について、図8を参照して説明する。図8は、図7に示した指向性収音部1101の内部構成を示したブロック図であり、音圧傾度型の指向性の形成法を説明する図面である。図8に示すように、マイクロホンアレイ1102には、2つの無指向性マイクロホン1201−1、1201−2が用いられている。
第1の指向性形成部1103は、遅延器1202、演算器1203及びEQ1204により構成される。
遅延器1202は、無指向性マイクロホン1201−2により出力された音声信号を取得し、この取得された音声信号を所定量遅延する。この遅延器1202による遅延量は、マイクロホン間隔をD[m]、音速をc[m/s]とした場合、例えば、遅延時間D/c[s]に相当する値となる。遅延器1202は、所定量遅延された音声信号を演算器1203に出力する。
演算器1203は、無指向性マイクロホン1201−1により出力された音声信号と、遅延器1202により遅延された音声信号とをそれぞれ取得する。演算器1203は、無指向性マイクロホン1201−1により出力された音声信号から、遅延器1202により遅延された音声信号を減算した差を算出し、この算出された音声信号をEQ1204に出力する。
イコライザEQ1204は、演算器1203により出力された音声信号の主に低周波数帯域を補償する。演算器1203により、無指向性マイクロホン1201−1により出力された音声信号と、遅延器1202により遅延された音声信号との差は低周波数帯域の信号が小さくなっている。このため、EQ1204は、発話者方向の周波数特性を平坦化するために挿入される。
第2の指向性形成部1104は、遅延器1205、演算器1206及びEQ1207により構成される。第2の指向性形成部1104は、第1の指向性形成部1103と入力信号が反対となる。
遅延器1205は、無指向性マイクロホン1201−1により出力された音声信号を取得し、この取得された音声信号を所定量遅延する。この遅延器1205による遅延量は、マイクロホン間隔をD[m]、音速をc[m/s]とした場合、例えば、遅延時間D/c[s]に相当する値となる。遅延器1205は、所定量遅延された音声信号を演算器1206に出力する。
演算器1206は、無指向性マイクロホン1201−2により出力された音声信号と、遅延器1205により遅延された音声信号とをそれぞれ取得する。演算器1206は、無指向性マイクロホン1201−2により出力された音声信号と、遅延器1205により遅延された音声信号との差分を算出し、この算出された音声信号をEQ1207に出力する。
イコライザEQ1207は、演算器1206により出力された音声信号の主に低周波数帯域を補償する。演算器1206により、無指向性マイクロホン1201−2により出力された音声信号と、遅延器1205により遅延された音声信号との差分は、低周波数帯域の信号が小さくなっている。このため、EQ1207は、発話者方向の周波数特性を平坦化するために挿入される。
第1のレベル算出部103は、第1の指向性形成部1103により出力された音声信号x1(t)を取得し、この取得された音声信号x1(t)のレベルLx1(t)[dB]を上記した数式(1)に従って算出する。第1のレベル算出部103は、この算出された音声信号x1(t)のレベルLx1(t)を発話者遠近判定部105に出力する。
上記数式(1)において、Nは、レベル算出のために必要なサンプル数である。例えば、サンプル数Nは、サンプリング周波数を8[kHz]、レベル算出のための分析時間を20[m秒]とした場合、N=160となる。
また、τは、時定数を示し、0<τ≦1の値をとるもので、予め定められている。時定数τは、音声の立ち上がりには早く追従するように、上記数式(2)に示す関係が成立する場合には、小さい時定数が用いられる。
一方、数式(2)に示す関係が成立しない場合(上記数式(3))には、音声の子音区間や文節間において、レベルの低下を軽減するために大きい時定数が用いられる。
図9は、第1の指向性形成部1103により出力された音声波形と、第1のレベル算出部103が算出したときのレベルLx1(t)を示す。なお、算出したレベルLx1(t)は、第1のレベル算出部103が、上記数式(2)において時定数を100[m秒]、上記数式(3)において時定数を400[m秒]とした例である。
図9(a)は、第1の指向性形成部1103により出力された音声波形の時間変化を示す図面であり、図9(b)は、第1のレベル算出部103により算出されたレベルの時間変化を示す図面である。図9(a)において、縦軸は振幅を示し、横軸は時間[秒]を示す。図9(b)において、縦軸はレベルを示し、横軸は時間[秒]を示す。
第2のレベル算出部104は、第2の指向性形成部1104により出力された音声信号x2(t)を取得し、この取得された音声信号x2のレベルLx2(t)を算出する。第2のレベル算出部104は、この算出された音声信号x2(t)のレベルLx2(t)を発話者遠近判定部105に出力する。第2のレベル算出部104により算出されたレベルLx2(t)の算出式は、レベルLx1(t)が算出される数式(1)と同一である。
図10は、第2の指向性形成部1104により出力された音声波形と、第2のレベル算出部104が算出されたときのレベルLx2(t)を示す。なお、算出したレベルLx2(t)は、第2のレベル算出部104が、上記数式(2)において時定数を100[m秒]、上記数式(3)において時定数を400[m秒]とした例である。
図10(a)は、第2の指向性形成部1104により出力された音声波形の時間変化を示す図面である。また、図10(b)は、第2のレベル算出部104により算出されたレベルの時間変化を示す図面である。図10(a)において、縦軸は振幅を示し、横軸は時間[秒]を示す。図10(b)において、縦軸はレベルを示し、横軸は時間[秒]を示す。
発話者遠近判定部105は、第1のレベル算出部103により算出された音声信号x1(t)のレベルLx1(t)、及び第2のレベル算出部103により算出された音声信号x2(t)のレベルLx2(t)を取得する。発話者遠近判定部105は、これらの取得されたレベルLx1(t)及びレベルLx2(t)に基づいて、発話者がユーザから近いところにいるか否かを判定する。発話者遠近判定部105は、この判定した結果である遠近判定結果情報をゲイン導出部106に出力する。
具体的には、発話者遠近判定部105は、第1のレベル算出部103により算出された音声信号x1(t)のレベルLx1(t)と、第2のレベル算出部104により算出された音声信号x2(t)のレベルLx2(t)とを入力する。次に、発話者遠近判定部105は、音声信号x1のレベルLx1(t)と、音声信号x2のレベルLx2(t)との差分であるレベル差ΔLx(t)=Lx1(t)−Lx2(t)を算出する。
発話者遠近判定部105は、この算出されたレベル差ΔLx(t)に基づいて、発話者がユーザの近くにいるか否かを判定する。発話者がユーザから近いところにいることを表す距離としては、例えば、発話者とユーザとの距離が2[m]以内の場合が該当する。しかし、発話者がユーザから近いところにいることを表す距離は、2[m]以内に限定されない。
レベル差ΔLx(t)が予め設定された第1の閾値β1以上である場合には、発話者遠近判定部105は、発話者がユーザから近いところにいると判定する。第1の閾値β1は、例えば、12[dB]である。また、レベル差ΔLx(t)が予め設定された第2の閾値β2未満である場合には、発話者遠近判定部105は、発話者がユーザから遠く離れたところにいると判定する。
第2の閾値β2は、例えば、8[dB]である。また、レベル差ΔLx(t)が第2の閾値β2以上で、且つ第1の閾値β1未満である場合には、発話者遠近判定部105は、発話者はユーザから少し離れた位置にいると判定する。
一例として、図11は、実際の2つの無指向性マイクロホンにより収録したデータを用いて、上記の方法により算出したレベル差ΔLx(t)と、ユーザと発話者との間の距離との関係をグラフで示したものである。図11より、発話者がユーザから遠くなるにつれてレベル差ΔLx(t)が、低下することが確認できる。また、第1の閾値β1、第2のβ2をそれぞれ上記の値(β1=12[dB]、β2=8[dB])に設定した場合、約2[m]以内の発話者の音声は強調でき、約4[m]以上の発話者の音声は減衰できる。
発話者遠近判定部105は、ΔLx(t)≧β1の場合は、発話者がユーザから近いところにいることを示す遠近判定結果情報「1」をゲイン導出部106に出力する。遠近判定結果情報「1」は、第1の指向性形成部1103で収音された直接音が多く、第2の指向性形成部1104で収音された残響音が少ないことを表す。
発話者遠近判定部105は、ΔLx(t)<β2の場合は、発話者がユーザから遠く離れたところにいることを示す遠近判定結果情報「−1」を出力する。遠近判定結果情報「−1」は、第1の指向性形成部1103で収音された直接音が少なく、第2の指向性形成部1104で収音された残響音が多いことを表す。
発話者遠近判定部105は、β2≦ΔLx(t)<β1の場合は、発話者がユーザから少し離れた位置にいることを示す遠近判定結果情報「0」を出力する。
ここで、第1実施形態と同様に、第1のレベル算出部103により算出されたレベルLx1(t)の大きさだけで発話者の遠近を判定することは、当該判定の精度が効率的でない。第1の指向性形成部1103の特性上、レベルLx1(t)の大きさだけでは、ユーザから遠く離れたところにいる人が大きな音量で話した場合と、当該ユーザから近くにいる人が通常の音量で話した場合とのいずれかが判定されにくい。
第1及び第2の指向性形成部1103、1104の特性は、次のとおりである。発話者がユーザの近くにいる場合には、第1の指向性形成部1103により出力された音声信号x1(t)は、第2の指向性形成部1104により出力された音声信号x2(t)に比べて相対的に大きい。
さらに、発話者がユーザの遠くにいる場合には、第1の指向性形成部1103により出力された音声信号x1(t)は、第2の指向性形成部1104により出力された音声信号x2(t)とほぼ変わらない。特に、残響の多い部屋で用いる場合は、この傾向が顕著になる。
このため、発話者遠近判定部105は、第1のレベル算出部103により算出されたレベルLx1(t)の大きさだけで、発話者がユーザの近くにいるか遠くにいるかを判定しない。従って、発話者遠近判定部105は、直接音が主体的に収音された音声信号x1(t)のレベルLx1(t)と、残響音が主体的に収音された音声信号x2(t)のレベルLx2(t)との差分に基づいて、発話者の遠近を判定する。
ゲイン導出部106は、発話者遠近判定部105により出力された遠近判定結果情報に基づいて、第1の指向性形成部1103により出力された音声信号x1(t)に対するゲインα(t)を導出する。ゲイン導出部106は、この導出されたゲインα(t)をレベル制御部107に出力する。
ゲインα(t)は、遠近判定結果情報又はレベル差ΔLx(t)に基づいて定められる。発話者遠近判定部105により算出されたレベル差ΔLx(t)とゲインα(t)との関係は、第1実施形態において図4に図示した関係と同一である。
図4に示すように、遠近判定結果情報が「1」である場合には、発話者がユーザから近いところにいて当該ユーザの会話相手である可能性が高いため、音声信号x1(t)に対するゲインα(t)としてゲインα1が付与される。ゲインα1には、例えば「2.0」が設定されることにより、音声信号x1(t)が相対的に強調される。
また、遠近判定結果情報が「−1」である場合には、発話者がユーザから遠く離れたところにいて当該ユーザの会話相手である可能性が低いため、音声信号x1(t)に対するゲインα(t)としてゲインα2が付与される。ゲインα2には、例えば「0.5」が設定されることにより、音声信号x1(t)が相対的に減衰される。
また、遠近判定結果情報が「0」である場合には、音声信号x1(t)は、特に強調も減衰も行われないため、ゲインα(t)として「1.0」が付与される。
ここで、ゲインα(t)が急激に変化することにより音声信号x1(t)に発生する歪みを軽減するため、上記した説明でゲインα(t)として導出された値は、瞬時的ゲインα’(t)として付与される。ゲイン導出部106は、上記数式(4)に従ってゲインα(t)の算出を行う。また、数式(4)において、ταは、時定数を表し、0<τα≦1の値をとるもので、予め定められている。
レベル制御部107は、ゲイン導出部106により上記数式(4)に従って導出されたゲインα(t)、及び第1の指向性形成部1103により出力された音声信号x1(t)を取得する。レベル制御部107は、第1の指向性形成部1103により出力された音声信号x1(t)に対して、ゲイン導出部106で導出されたゲインα(t)を乗じた出力信号y(t)を生成する。
(第2の実施形態の音響処理装置11の動作)
次に、第2の実施形態の音響処理装置11の動作について図12を参照して説明する。図12は、第2の実施形態の音響処理装置11の動作を説明するフローチャートである。
指向性収音部1101のマイクロホンアレイ1102により各々出力された音声信号に対し、第1の指向性形成部1103は、発話者からの直接音成分に関する指向性を形成する(S651)。第1の指向性形成部1103は、当該指向性が形成された音声信号を第1のレベル算出部103及びレベル制御部107にそれぞれ出力する。
並行的に、指向性収音部1101のマイクロホンアレイ1102により各々出力された音声信号に対し、第2の指向性形成部1104は、発話者からの残響音成分に関する指向性を形成する(S652)。第2の指向性形成部1104は、当該指向性が形成された音声信号を第2のレベル算出部104に出力する。
第1のレベル算出部103は、第1の指向性形成部1103により出力された音声信号x1(t)を取得し、この取得された音声信号x1(t)のレベルLx1(t)を算出する(S103)。並行的に、第2のレベル算出部104は、第2の指向性形成部1104により出力された音声信号x2(t)を取得し、この取得された音声信号x2のレベルLx2(t)を算出する(S104)。
第1のレベル算出部103は、この算出されたレベルLx1(t)を発話者遠近判定部105に出力する。また、第2のレベル算出部104は、この算出されたレベルLx2(t)を発話者遠近判定部105に出力する。
発話者遠近判定部105は、第1のレベル算出部103により算出されたレベルLx1(t)、及び第2のレベル算出部104により算出されたレベルLx2(t)を取得する。
発話者遠近判定部105は、これらの取得されたレベルLx1(t)及びレベルLx2(t)のレベル差ΔLx(t)に基づいて、発話者がユーザから近いところにいるか否かを判定する(S105)。発話者遠近判定部105は、この判定された結果である遠近判定結果情報をゲイン導出部106に出力する。
ゲイン導出部106は、発話者遠近判定部105により出力された遠近判定結果情報を取得する。ゲイン導出部106は、発話者遠近判定部105により出力された遠近判定結果情報に基づいて、第1の指向性形成部1103により出力された音声信号x1(t)に対するゲインα(t)を導出する(S106)。
このゲインα(t)の導出の詳細は、第1実施形態において図6を参照して説明したため、当該説明は省略する。ゲイン導出部106は、この導出されたゲインα(t)をレベル制御部107に出力する。
レベル制御部107は、ゲイン導出部106により導出されたゲインα(t)、及び第1の指向性形成部1103により出力された音声信号x1(t)を取得する。レベル制御部107は、第1の指向性形成部1103により出力された音声信号x1(t)に対して、ゲイン導出部106で導出されたゲインα(t)を乗じた出力信号y(t)を生成する(S107)。
以上のように、第2の実施形態の音響処理装置では、複数の無指向性マイクロホンの配置間隔が数[mm]から数[cm]程度のマイクロホンアレイにより収音される。次に、同装置は、第1及び第2の指向性形成部によりそれぞれ指向性が形成された音声信号x1(t)と、x2(t)のレベル差ΔLx(t)の大きさによって、発話者がユーザから近いところにいるのか遠いところにいるかが判定される。
この判定結果に応じて算出されたゲインが、発話者の直接音を収音する第1の指向性形成部に出力された音声信号に乗じて、レベルの制御がなされる。
従って、第2実施形態では、会話相手等のようにユーザから近いところにいる発話者の音声は強調され、反対に、ユーザから遠いところにいる発話者の音声は減衰又は抑圧される。結果的に、マイクロホンの配置間隔に拠らずに、ユーザの近くにいる会話相手の音声のみを明瞭かつ効率的に聞き取るために強調することができる。
さらに、第2実施形態では、マイクロホンアレイを構成する無指向性マイクロホンの個数の増加により発話者方向に鋭い指向性の形成が可能となり、発話者の遠近を高精度に判定することができる。
(第3の実施形態)
図13は、第3の実施形態の音響処理装置12の内部構成を示すブロック図である。第3の実施形態の音響処理装置12が第2の実施形態の音響処理装置11と異なる点は、図13に示すように、音声区間検出部501なる構成要素を更に有する点である。図13において、図7と同じ構成要素については同じ符号を用い、当該構成要素の説明を省略する。
(第3の実施形態の音響処理装置12の内部構成)
音声区間検出部501は、第1の指向性形成部1103により出力された音声信号x1(t)を取得する。音声区間検出部501は、第1の指向性形成部1103により出力された音声信号x1(t)を用いて、音響処理装置12のユーザを含まない発話者が音声を発声している区間を検出する。音声区間検出部501は、この検出された音声区間検出結果情報を発話者遠近判定部105に出力する。
図14は、音声区間検出部501の内部構成の一例を示すブロック図である。図14に示すように、音声区間検出部501は、第3のレベル算出部601、推定騒音レベル算出部602、レベル比較部603及び音声区間判定部604を有する。
第3のレベル算出部601は、上記した数式(1)に従って、第1の指向性形成部1103により出力された音声信号x1(t)のレベルLx3(t)を算出する。なお、推定騒音レベル算出部602及びレベル比較部603は、レベルLx3(t)の代わりに、第1のレベル算出部103により算出された音声信号x1(t)のレベルLx1(t)を、それぞれ入力しても構わない。
この場合には、音声区間検出部501は第3のレベル算出部601を有する必要はなく、Lx3(t)=Lx1(t)とすればよい。第3のレベル算出部601は、この算出されたレベルLx3(t)を推定騒音レベル算出部602及びレベル比較部603にそれぞれ出力する。
推定騒音レベル算出部602は、第3のレベル算出部601により出力されたレベルLx3(t)を取得する。推定騒音レベル算出部602は、この取得されたレベルLx3(t)に対する推定騒音レベルNx(t)[dB]を算出する。数式(5)は、推定騒音レベル算出部602により算出される推定騒音レベルNx(t)の算出式の一例を示す。
Figure 2011048813
数式(5)において、τは、時定数であり、0<τ≦1の値をとるもので、予め定められている。時定数τは、音声区間において、推定騒音レベルNx(t)が上昇しないように、Lx3(t)>Nx(t−1)の時は大きい時定数が用いられる。推定騒音レベル算出部602は、この算出された推定騒音レベルNx(t)をレベル比較部603に出力する。
レベル比較部603は、推定騒音レベル算出部602により算出された推定騒音レベルNx(t)、及び第3のレベル算出部601により算出されたレベルLx3(t)をそれぞれ取得する。レベル比較部603は、レベルLx3(t)と前記騒音レベルNx(t)とを比較し、この比較された比較結果情報を音声区間判定部604に出力する。
音声区間判定部604は、レベル比較部603により出力された比較結果情報を取得する。音声区間判定部604は、この取得された比較結果情報に基づいて、第1の指向性形成部1103により出力された音声信号x1(t)に対して、発話者が音声を発声している区間を判定する。音声区間判定部604は、音声区間と判定された音声区間検出結果である音声区間検出結果情報を発話者遠近判定部105に出力する。
レベルLx3(t)と推定騒音レベルNx(t)との比較において、レベル比較部603は、レベルLx3(t)と、推定騒音レベルNx(t)との差が第3の閾値βN以上である区間を「音声区間」として音声区間判定部604に出力する。
第3の閾値βNは、例えば、6[dB]である。また、レベル比較部603は、レベルLx3(t)と推定騒音レベルNx(t)とを比較し、その差が第3の閾値βN未満である区間を「非音声区間」として音声区間判定部604に出力する。
音声区間検出部501による音声区間の検出結果について、図15を参照して説明する。図15は、第1の指向性形成部1103により出力された音声信号の波形、音声区間判定部604による検出結果、及び第3のレベル算出部601により算出されたレベルと騒音推定レベルとの比較結果の時間変化を示した図面である。
図15(a)は、第1の指向性形成部1103により出力された音声信号x1(t)の波形の時間変化を示す図である。図15(a)において、縦軸は振幅を示し、横軸は時間[秒]を示す。
図15(b)は、音声区間判定部604により検出された音声区間検出結果の時間変化を示す図である。図15(b)において、縦軸は音声区間検出結果を示し、横軸は時間[秒]を示す。
図15(c)は、音声区間判定部604において、第1の指向性形成部1103により出力された音声信号x1(t)の波形に対するレベルLx3(t)と、推定騒音レベルNx(t)との比較を示す図である。図15(c)において、縦軸はレベルを示し、横軸は時間[秒]を示す。
図15(c)では、Lx3(t)≦Nx(t−1)における時定数は1[秒]、Lx3(t)>Nx(t−1)における時定数は120[秒]とした例である。図15(b)及び図15(c)には、レベルLx3(t)と騒音レベルNx(t)、及び第3の閾値βNを6[dB]である場合の(Nx(t)+βN)と音声検出結果が示されている。
発話者遠近判定部105は、音声区間検出部501の音声区間判定部604により出力された音声区間検出結果情報を取得する。発話者遠近判定部105は、この取得された音声区間検出結果情報に基づいて、音声区間検出部501により検出された音声区間のみ、発話者がユーザから近いところにいるか否かを判定する。発話者遠近判定部105は、この判定された遠近判定結果情報をゲイン導出部106に出力する。
(第3の実施形態の音響処理装置12の動作)
次に、第3の実施形態の音響処理装置12の動作について図16を参照して説明する。図16は、第3の実施形態の音響処理装置12の動作を説明するフローチャートである。図16において、図12に示す第2の実施形態の音響処理装置11の動作と同一の動作についての説明は省略し、上記した構成要素に関連する処理を主に説明する。
第1の指向性形成部1103は、ステップS651で形成された音声信号x1(t)を、音声区間検出部501及びレベル制御部107にそれぞれ出力する。音声区間検出部501は、第1の指向性形成部1103により出力された音声信号x1(t)を取得する。
音声区間検出部501は、ステップS651で第1の指向性形成部1103により出力された音声信号x1(t)を用いて、発話者が音声を発声している区間を検出する(S321)。音声区間検出部501は、この検出された音声区間検出結果情報を発話者遠近判定部105に出力する。
この音声区間検出の処理において、第3のレベル算出部601は、上記した数式(1)に従って、第1の指向性形成部1103により出力された音声信号x1(t)のレベルLx3(t)を算出する。第3のレベル算出部601は、この算出されたレベルLx3(t)を推定騒音レベル算出部602及びレベル比較部603にそれぞれ出力する。
推定騒音レベル算出部602は、第3のレベル算出部601により出力されたレベルLx3(t)を取得する。推定騒音レベル算出部602は、この取得されたレベルLx3(t)に対する推定騒音レベルNx(t)を算出する。推定騒音レベル算出部602は、この算出された推定騒音レベルNx(t)をレベル比較部603に出力する。
レベル比較部603は、推定騒音レベル算出部602により算出された推定騒音レベルNx(t)、及び第3のレベル算出部601により算出されたレベルLx3(t)をそれぞれ取得する。レベル比較部603は、レベルLx3(t)と前記騒音レベルNx(t)とを比較し、この比較された比較結果情報を音声区間判定部604に出力する。
音声区間判定部604は、レベル比較部603により出力された比較結果情報を取得する。音声区間判定部604は、この取得された比較結果情報に基づいて、第1の指向性形成部1103により出力された音声信号x1(t)に対して、発話者が音声を発声している区間を判定する。音声区間判定部604は、音声区間と判定された音声区間検出結果である音声区間検出結果情報を発話者遠近判定部105に出力する。
発話者遠近判定部105は、音声区間検出部501の音声区間判定部604により出力された音声区間検出結果情報を取得する。発話者遠近判定部105は、この取得された音声区間検出結果情報に基づいて、音声区間検出部501により検出された音声区間のみ、発話者がユーザから近いところにいるか否かを判定する(S105)。これらの処理以降の内容は、第2の実施形態(図12参照)と同一であるため省略する。
以上のように、第3の実施形態の音響処理装置では、第2の実施形態の音響処理装置の内部構成に付加した音声区間検出部501により、第1の指向性形成部により形成された音声信号の音声区間が検出される。この検出された音声区間に限って、発話者がユーザから近いところにいるのか遠いところにいるかが判定される。この判定結果に応じて算出されたゲインが、発話者の直接音を収音する第1の指向性形成部に出力された音声信号に乗じて、レベルの制御がなされる。
従って、会話相手等のようにユーザから近いところにいる発話者の音声は強調され、反対に、ユーザから遠いところにいる発話者の音声は減衰又は抑圧される。結果的に、マイクロホンの配置間隔に拠らずに、ユーザの近くにいる会話相手の音声のみを明瞭かつ効率的に聞き取るために強調することができる。さらに、第1の指向性形成部により出力された音声信号x1(t)の音声区間に限って発話者との遠近を判定するため、発話者との遠近を高精度に判定することができる。
(第4の実施形態)
図17は、第4の実施形態の音響処理装置13の内部構成を示すブロック図である。第4の実施形態の音響処理装置13が第3の実施形態の音響処理装置12と異なる点は、図17に示すように、自発話音声判定部801及び遠近判定閾値設定部802なる構成要素を更に有する点である。
図17において、図13と同じ構成要素については同じ符号を用い、説明を省略する。また、以下の説明において、自発話音声とは、第4の実施形態の音響処理装置13を搭載している補聴器を装着しているユーザの発声した音声を表す。
(第4の実施形態の音響処理装置13の内部構成)
音声区間検出部501は、第1の指向性形成部1103により出力された音声信号x1(t)を取得する。音声区間検出部501は、第1の指向性形成部1103により出力された音声信号x1(t)を用いて、音響処理装置13のユーザ或いは発話者が音声を発声している区間を検出する。
音声区間検出部501は、この検出された音声区間検出結果情報を発話者遠近判定部105及び自発話音声判定部801にそれぞれ出力する。音声区間検出部501の具体的な構成要素は、図14に示す構成要素と同一である。
自発話音声判定部801は、音声区間検出部501から出力された音声区間検出結果情報を取得する。自発話音声判定部801は、この取得された音声区間検出結果情報に基づく音声区間において、レベルLx3(t)の絶対音圧レベルを用いて、音声区間検出部501により検出された音声が自発話音声であるか否かを判定する。
自発話音声の音源であるユーザの口元は、第1の指向性形成部1103が配置されているユーザの耳位置と近い位置にあるため、第1の指向性形成部1103で収音される自発話音声の絶対音圧レベルは大きい。自発話音声判定部801は、レベルLx3(t)が第4の閾値β4以上である場合には、当該レベルLx3(t)に対応する音声は自発話音声であると判定する。
第4の閾値β4は、例えば、74[dB(SPL)]である。自発話音声判定部801は、この判定された結果に対応する自発話音声判定結果情報を遠近判定閾値設定部802及び発話者遠近判定部105にそれぞれ出力する。
発話者遠近判定部105による発話者遠近の判定の際、自発話音声が必要以上のレベルでユーザの耳に入力される場合があり、ユーザの耳を保護する観点においては好ましくない。従って、自発話音声判定部801は、レベルLx3(t)に対応する音声が自発話音声と判定された場合に、当該自発話音声判定結果情報として「0」又は「−1」を出力する。
すなわち、自発話音声そのものは、レベル制御部107によりレベル制御されないようにすることがユーザの耳を保護する観点で好ましい。
遠近判定閾値設定部802は、自発話音声判定部801により出力された自発話音声判定結果情報を取得する。遠近判定閾値設定部802は、自発話音声判定部801により自発話音声と判定された音声区間の音声信号x1(t)及びx2(t)を用いて、音声信号x2(t)に含まれる直接音成分を除去する。
遠近判定閾値設定部802は、音声信号x2(t)に含まれる残響レベルを算出する。遠近判定閾値設定部802は、この算出された残響レベルに応じて、第1の閾値β1及び第2の閾値β2を設定する。図18は、適応フィルタを用いた遠近判定閾値設定部802の内部構成の一例を示す。
図18は、遠近判定閾値設定部802の内部構成を示したブロック図である。遠近判定閾値設定部802は、適応フィルタ901、遅延器902、差信号算出部903及び判定閾値設定部904により構成される。
適応フィルタ901は、第1の指向性形成部1103により出力された音声信号x1(t)に、当該適応フィルタ901の係数を畳み込む。次に、適応フィルタ901は、この畳み込まれた音声信号yh(t)を差信号算出部903及び判定閾値設定部904にそれぞれ出力する。
遅延器902は、第2の指向性形成部1104により出力された音声信号x2(t)を所定量遅延し、この遅延された音声信号x2(t−D)を差信号算出部903に出力する。パラメータDは、遅延器902により遅延されるサンプル数を表す。
差信号算出部903は、適応フィルタ901により出力された音声信号yh(t)及び遅延器902により遅延された音声信号x2(t−D)を取得する。差信号算出部903は、これらの音声信号x2(t−D)と音声信号yh(t)との差である差信号e(t)を算出する。
差信号算出部903は、この算出された差信号e(t)を判定閾値設定部904に出力する。適応フィルタ901は、差信号算出部903により算出された差信号e(t)を用いてフィルタ係数を更新する。なお、フィルタ係数は、第2の指向性形成部1104により出力された音声信号x2(t)に含まれる直接音成分が除去されるように調整される。
また、適応フィルタ901の係数を更新するアルゴリズムとしては、学習同定法、アフィン射影法、再帰最小二乗法等が用いられる。さらに、適応フィルタ901のタップ長は、第2の指向性形成部1104により出力された音声信号x2(t)の直接音成分のみが除去され、当該音声信号x2(t)の残響音成分が差信号として出力されるために、比較的短いものとされる。例えば、適応フィルタ901のタップ長は、数[m秒]〜数十[m秒]程度に相当する長さとする。
第2の指向性形成部1104により出力された音声信号x2(t)を遅延する遅延器902は、第1の指向性形成部1103との因果律を満たすために挿入される。第1の指向性形成部1103により出力された音声信号x1(t)は、適応フィルタ901を通すと必ず所定量の遅延が発生するためである。
遅延させるサンプル数は、適応フィルタ901のタップ長の半分程度の値に設定される。
判定閾値設定部904は、差信号算出部903により出力された差信号e(t)、及び適応フィルタ901により出力された音声信号yh(t)をそれぞれ取得する。判定閾値設定部904は、この取得された差信号e(t)及び音声信号yh(t)を用いてレベルLe(t)を算出し、第1の閾値β1及び前記第2の閾値β2を設定する。
レベルLe(t)[dB]は数式(6)に従って算出される。パラメータLは、レベル算出のためのサンプル数である。サンプル数Lは、一文節や一単語の長さ程度の値であり、例えばこの長さを2[秒]及びサンプリング周波数8[kHz]の場合には、L=16000である。数式(6)では、差信号e(t)の絶対レベルへの依存を低減するため、直接音の推定信号にあたる適応フィルタ901により出力された音声信号yh(t)のレベルで正規化が行われている。
Figure 2011048813
数式(6)において、レベルLe(t)は、残響音成分が多い場合は値が大きくなり、残響音成分が少ない場合は値が小さくなる。例えば、極端な例として、残響がない無響室では、数式(6)において分子が小さくなるため、Le(t)は、−∞[dB]に近い値となる。一方、残響が多く拡散音場に近い残響室では、数式(6)において分母と分子が同レベルとなるため、0[dB]に近い値となる。
従って、レベルLe(t)が所定値より大きい場合には、発話者がユーザの近くにいる場合でも第2の指向性形成部1104で残響音が多く収音される。所定量とは、例えば、−10[dB]である。
この場合、第1及び第2のレベル算出部103、104によりそれぞれ算出されたレベルLx1(t)と、レベルLx2(t)とのレベル差ΔLx(t)が小さくなるため、第1の閾値β1及び第2の閾値β2はそれぞれ小さい値が設定される。
反対に、レベルLe(t)が所定値より小さい場合には、第2の指向性形成部1104で残響音はあまり多く収音されない。所定量とは、例えば、−10[dB]である。この場合、第1及び第2のレベル算出部103、104によりそれぞれ算出されたレベルLx1(t)と、レベルLx2(t)とのレベル差ΔLx(t)が大きくなるため、第1の閾値β1及び第2の閾値β2はそれぞれ大きい値が設定される。
発話者遠近判定部105は、音声区間検出部501による音声区間検出結果情報、自発話音声判定部801による自発話音声判定結果情報、及び遠近判定閾値設定部802により設定された第1及び第2の閾値β1、β2を入力する。次に、発話者遠近判定部105は、入力した音声区間検出結果情報、自発話音声判定結果情報、及び設定された第1及び第2の閾値β1、β2に基づき、発話者がユーザから近いところにいるか否かを判定する。発話者遠近判定部105は、この判定された遠近判定結果情報をゲイン導出部106に出力する。
(第4の実施形態の音響処理装置13の動作)
次に、第4の実施形態の音響処理装置13の動作について図19を参照して説明する。図19は、第4の実施形態の音響処理装置13の動作を説明するフローチャートである。図19において、図16に示す第3の実施形態の音響処理装置13の動作と同一の動作についての説明は省略し、上記した構成要素に関連する処理を主に説明する。
音声区間検出部501は、検出された音声区間検出結果情報を発話者遠近判定部105及び自発話音声判定部801にそれぞれ出力する。自発話音声判定部801は、音声区間検出部501から出力された音声区間検出結果情報を取得する。
自発話音声判定部801は、この取得された音声区間検出結果情報に基づく音声区間において、レベルLx3(t)の絶対音圧レベルを用いて、音声区間検出部501により検出された音声が自発話音声であるか否かを判定する(S431)。自発話音声判定部801は、この判定された結果に対応する自発話音声判定結果情報を遠近判定閾値設定部802及び発話者遠近判定部105にそれぞれ出力する。
遠近判定閾値設定部802は、自発話音声判定部801により出力された自発話音声判定結果情報を取得する。遠近判定閾値設定部802は、自発話音声判定部801により自発話音声と判定された音声区間の音声信号x1(t)、及びx2(t)を用いて、音声信号x2(t)に含まれる残響レベルを算出する。遠近判定閾値設定部802は、この算出された残響レベルに応じて、第1の閾値β1及び第2の閾値β2を設定する(S432)。
発話者遠近判定部105は、音声区間検出部501による音声区間検出結果情報、自発話音声判定部801による自発話音声判定結果情報、及び遠近判定閾値設定部802により設定された第1、第2の閾値β1、β2を入力する。次に、発話者遠近判定部105は、入力された音声区間検出結果情報、自発話音声判定結果情報、及び設定された第1、第2の閾値β1、β2に基づき、発話者がユーザから近いところにいるか否かを判定する(S105)。
発話者遠近判定部105は、この判定された遠近判定結果情報をゲイン導出部106に出力する。これらの処理以降の内容は、第1の実施形態(図5参照)と同一であるため省略する。
以上のように、第4の実施形態の音響処理装置では、第3の実施形態の音響処理装置の内部構成に付加した自発話音声判定部により、第1の指向性形成部により収音された音声信号x1(t)に自発話音声が含まれているか否かが判定される。
さらに、第3の実施形態の音響処理装置の内部構成に付加した遠近判定閾値設定部により、自発話音声と判定された音声区間において、第2指向性形成部によりそれぞれ収音された音声信号に含まれる残響レベルが算出される。また、遠近判定閾値設定部により、この算出された残響のレベルに応じて、第1の閾値β1及び第2の閾値β2が設定される。
本実施形態では、この設定された第1の閾値β1及び第2の閾値β2、音声区間検出結果情報及び自発話音声判定結果情報に基づいて、発話者がユーザから近いところにいるのか遠いところにいるかが判定される。この判定結果に応じて算出されたゲインが、発話者の直接音を収音する第1の指向性形成部1103に出力された音声信号に乗じて、レベルの制御がなされる。
従って、本実施形態では、会話相手等のようにユーザから近いところにいる発話者の音声は強調され、反対に、ユーザから遠いところにいる発話者の音声は減衰又は抑圧される。結果的に、マイクロホンの配置間隔に拠らずに、ユーザの近くにいる会話相手の音声のみを明瞭かつ効率的に聞き取るために強調することができる。
さらに、本実施形態では、第1の指向性形成部1103により出力された音声信号x1(t)の音声区間に限って発話者の遠近を判定するため、発話者の遠近を高精度に判定することができる。
さらに、本実施形態では、検出された音声区間における自発話音声を用いて音声信号の残響レベルを算出することにより、当該残響レベルの程度に応じて、遠近を判定するための閾値を動的に設定することが可能になる。従って、本実施形態では、ユーザと発話者との遠近を高精度に判定することができる。
(第5の実施形態)
図20は、第5の実施形態の音響処理装置14の内部構成を示すブロック図である。第5の実施形態の音響処理装置14が第3の実施形態の音響処理装置12と異なる点は、図20に示すように、自発話音声判定部801及び会話相手判定部1001なる構成要素を更に有する点である。図20において、図7と同じ構成要素については同じ符号を用い、説明を省略する。
(第5の実施形態の音響処理装置14の内部構成)
自発話音声判定部801は、音声区間検出部501から出力された音声区間検出結果情報を取得する。自発話音声判定部801は、この取得された音声区間検出結果情報に基づく音声区間において、レベルLx3(t)の絶対音圧レベルを用いて、音声区間検出部501により検出された音声が自発話音声であるか否かを判定する。
自発話音声の音源であるユーザの口元は、第1の指向性形成部1103が配置されているユーザの耳位置と近い位置にあるため、第1の指向性形成部1103で収音される自発話音声の絶対音圧レベルは大きい。自発話音声判定部801は、レベルLx3(t)が第4の閾値β4以上である場合には、当該レベルLx3(t)に対応する音声は自発話音声であると判定する。
第4の閾値β4は、例えば、74[dB(SPL)]である。自発話音声判定部801は、この判定された結果に対応する自発話音声判定結果情報を会話相手判定部1001に出力する。また、自発話音声判定部801は、自発話音声判定結果情報を発話者遠近判定部105及び会話相手判定部1001にそれぞれ出力しても構わない。
発話者遠近判定部105は、音声区間検出部501による音声区間検出結果情報に基づき、発話者がユーザから近いところにいるか否かを判定する。また、発話者遠近判定部105は、自発話音声判定部801により出力された自発話音声判定結果情報を取得しても構わない。
この場合には、発話者遠近判定部105は、音声区間と検出された区間のうち自発話音声と判定された音声区間を除いて、発話者との遠近を判定する。発話者遠近判定部105は、音声区間検出結果情報に基づいて、判定された遠近判定結果情報を会話相手判定部1001に出力する。
また、発話者遠近判定部105は、音声区間検出結果情報及び自発話音声判定結果情報に基づいて、判定された遠近判定結果情報を会話相手判定部1001に出力しても構わない。
会話相手判定部1001は、自発話音声判定部801による自発話音声判定結果情報、及び発話者遠近判定部105による遠近判定結果情報をそれぞれ取得する。
会話相手判定部1001は、発話者がユーザの近くにいると判定された場合、ユーザの近くにいる発話者の音声と、自発話音声判定部801により判定された自発話音声とを用いて、発話者がユーザの会話相手か否かを判定する。
発話者遠近判定部105にて発話者が近くにいると判定された場合とは、遠近判定結果情報が「1」を示す場合である。
会話相手判定部1001は、当該発話者がユーザの会話相手であると判定された場合には、会話相手判定結果情報を「1」として、ゲイン導出部106に出力する。一方、会話相手判定部1001は、当該発話者がユーザの会話相手ではないと判定された場合には、会話相手判定結果情報を「0」又は「−1」として、ゲイン導出部106に出力する。
会話相手判定部1001が自発話音声判定結果情報及び遠近判定結果情報に基づいて、発話者がユーザの会話相手であるか否かを判定する一例について、図21及び図22を参照して説明する。
図21は、遠近判定結果情報と自発話音声判定結果情報とが同一の時間軸で表された一例を示す図である。図22は、遠近判定結果情報と自発話音声判定結果情報とが同一の時間軸で表された別の一例を示す図である。図21及び図22に示す遠近判定結果情報と、自発話音声判定結果情報とは、会話相手判定部1001により参照される。
図21は、自発話音声判定結果情報が発話者遠近判定部105に出力されないときの図であり、この場合には自発話音声判定結果情報は会話相手判定部1001に出力される。図21に示すように、自発話音声判定結果情報が「1」のときに遠近判定結果情報も「1」となる。このとき、会話相手判定部1001は、遠近判定結果情報を「0」として扱う。遠近判定結果情報が「1」の状態と、自発話音声判定結果情報が「1」の状態とが時間的にほぼ連続的に交互に発生している場合には、会話相手判定部1001は、発話者がユーザの会話相手であると判定する。
また、図22は、自発話音声判定結果情報が発話者遠近判定部105に出力されるときの図である。図22に示すように、遠近判定結果情報が「1」の状態と、自発話音声判定結果情報が「1」の状態とが時間的にほぼ連続的に交互に発生している場合には、会話相手判定部1001は、発話者がユーザの会話相手であると判定する。
ゲイン導出部106は、会話相手判定部1001による会話相手判定結果情報を用いて、ゲインα(t)を導出する。具体的には、会話相手判定結果情報が「1」である場合には、ゲイン導出部106は、発話者がユーザの会話相手であると判定されているため、瞬時ゲインα’(t)を「2.0」と設定する。
また、会話相手判定結果情報が「0」又は「−1」である場合には、発話者がユーザの会話相手ではないと判定されているため、瞬時ゲインα’(t)を「0.5」又は「1.0」のいずれかに設定する。なお、「0.5」又は「1.0」は、どちらに設定されても構わない。
ゲイン導出部106は、導出された瞬時ゲインα’(t)を用いて、上記数式(4)に従ってゲインα(t)を導出し、この導出されたゲインα(t)をレベル制御部107に出力する。
(第5の実施形態の音響処理装置14の動作)
次に、第5の実施形態の音響処理装置14の動作について図23を参照して説明する。図23は、第5の実施形態の音響処理装置14の動作を説明するフローチャートである。図23において、図16に示す第3の実施形態の音響処理装置12の動作と同一の動作についての説明は省略し、上記した構成要素に関連する処理を主に説明する。
音声区間検出部501は、検出された音声区間検出結果情報を発話者遠近判定部105及び自発話音声判定部801にそれぞれ出力する。自発話音声判定部801は、音声区間検出部501から出力された音声区間検出結果情報を取得する。
自発話音声判定部801は、音声区間検出結果情報に基づく音声区間において、レベルLx3(t)の絶対音圧レベルを用いて、音声区間検出部501により検出された音声が自発話音声であるか否かを判定する(S431)。
自発話音声判定部801は、この判定された結果に対応する自発話音声判定結果情報を会話相手判定部1001に出力する。また、自発話音声判定部801は、自発話音声判定結果情報を会話相手判定部1001及び発話者遠近判定部105に出力しても構わない。
発話者遠近判定部105は、音声区間検出部501による音声区間検出結果情報に基づき、発話者がユーザから近いところにいるか否かを判定する(S105)。発話者遠近判定部105にて発話者が近くにいると判定された場合(S541、YES)、会話相手判定部1001は、発話者がユーザの会話相手か否かを判定する(S542)。具体的には、会話相手判定部1001は、ユーザの近くにいる発話者の音声と、自発話音声判定部801により判定された自発話音声とを用いて、発話者がユーザの会話相手か否かを判定する。
発話者遠近判定部105にて発話者が近くにいないと判定された場合、すなわち、遠近判定結果情報が「0」である場合には(S541、NO)、ゲイン導出部106によるゲイン導出の処理がなされる(S106)。
ゲイン導出部106は、会話相手判定部1001による会話相手判定結果情報を用いて、ゲインα(t)を導出する(S106)。これらの処理以降の内容は、第1の実施形態(図5参照)と同一であるため省略する。
以上のように、第5の実施形態の音響処理装置では、第3の実施形態の音響処理装置の内部構成に付加した自発話音声判定部により、第1の指向性形成部により収音された音声信号x1(t)に自発話音声が含まれているか否かが判定される。
さらに、本実施形態は、会話相手判定部により、発話者がユーザの近くにいると判定された音声区間において、自発話音声判定結果情報と遠近判定結果情報との時間的な発生順序に基づいて、当該発話者がユーザの会話相手か否かが判定される。
この判定された会話相手判定結果情報に基づいて算出されたゲインが、発話者の直接音を収音する第1の指向性形成部に出力された音声信号に乗じて、レベルの制御がなされる。
従って、本実施形態では、会話相手等のようにユーザから近いところにいる発話者の音声は強調され、反対に、ユーザから遠いところにいる発話者の音声は減衰又は抑圧される。結果的に、マイクロホンの配置間隔に拠らずに、ユーザの近くにいる会話相手の音声のみを明瞭かつ効率的に聞き取るために強調することができる。
さらに、本実施形態では、第1の指向性形成部により出力された音声信号x1(t)の音声区間に限って発話者の遠近を判定するため、発話者との遠近を高精度に判定することができる。
さらに、本実施形態では、ユーザの近くにいる発話者が会話相手である場合のみ当該発話者の音声を強調することができ、ユーザの会話相手のみの音声が明瞭に聞き取ることができる。
(第6の実施形態)
図24は、第6の実施形態の音響処理装置15の内部構成を示すブロック図である。第6の実施形態の音響処理装置15は、第2の実施形態の音響処理装置11を補聴器に適用したものである。第2の実施形態の音響処理装置11と異なる点は、図24に示すように、図7に示すゲイン導出部106とレベル制御部107とを非線形増幅部3101に統合し、更に音声出力部としてスピーカ3102なる構成要素を更に有する点である。第6実施形態においては、図7と同じ構成要素については同じ符号を用い、当該構成要素の説明を省略する。
(第6の実施形態の音響処理装置15の内部構成)
非線形増幅部3101は、第1の指向性形成部1103により出力された音声信号x1(t)、及び発話者遠近判定部105により出力された遠近判定結果情報を取得する。非線形増幅部3101は、発話者遠近判定部105により出力された遠近判定結果情報に基づいて、第1の指向性形成部1103により出力された音声信号x1(t)を増幅し、スピーカ3102に出力する。
図25は、非線形増幅部3101の内部構成の一例を示すブロック図である。図25に示すように、非線形増幅部3101は、帯域分割部3201、複数の帯域信号制御部(#1〜#N)3202、及び帯域合成部3203を有する。
帯域分割部3201は、第1の指向性形成部1103からの音声信号x1(t)を、フィルタ等により、Nバンドの周波数帯域の信号x1n(t)に分割する。ただし、パラメータnは、n=1〜Nである。なお、フィルタは、DFT(Discrete Fourier Transform)フィルタバンクやバンドパスフィルタ等を用いる。
各帯域信号制御部(#1〜#N)3202は、発話者遠近判定部105からの遠近判定結果情報、及び帯域分割部3201からの各周波数帯域の信号x1n(t)のレベルに基づいて、各周波数帯域信号x1n(t)に乗ずるゲインを設定する。次に、各帯域信号制御部(#1〜#N)3202は、設定されたゲインを用いて、当該各周波数帯域の信号x1n(t)のレベルを制御する。
図25には、帯域信号制御部(#1〜#N)3202のうち周波数帯域#nにおける帯域信号制御部(#n)3202について、その内部構成を示したものである。当該帯域信号制御部(#n)3202は、帯域レベル算出部3202−1、帯域ゲイン設定部3202−2、及び帯域ゲイン制御部3202−3を有する。他の周波数帯域における帯域信号制御部3202は、同様の内部構成を有する。
帯域レベル算出部3202−1は、周波数帯域信号x1n(t)のレベルLx1n(t)[dB]を算出する。レベル算出式は、例えば上記数式(1)の方法で算出される。
帯域ゲイン設定部3202−2は、帯域レベル算出部3202−1で算出された帯域レベルLx1n(t)、及び発話者遠近判定部105により出力された遠近判定結果情報を入力する。次に、帯域ゲイン設定部3202−2は、帯域レベルLx1n(t)、及び遠近判定結果情報に基づいて、当該帯域信号制御部3202の制御対象である帯域信号x1n(t)に乗ずる帯域ゲインαn(t)を設定する。
具体的には、遠近判定結果情報が「1」である場合、発話者は、ユーザから近いところにおり、当該ユーザの会話相手である可能性が高い。このため、帯域ゲイン設定部3202−2は、当該信号の帯域レベルLx1n(t)を用いて、図26に示すような当該ユーザの聴覚特性を補償する帯域ゲインαn(t)を設定する。図26は、ユーザの聴覚特性を補償するレベルの入出力特性を示す説明図である。
帯域ゲイン設定部3202−2は、例えば、帯域レベルLx1n(t)=60[dB]の場合、出力帯域レベルを80[dB]とするため、帯域ゲインを20[dB]上昇させるゲイン値αn(t)=10[倍](=10^(20/20))を設定する。
また、遠近判定結果情報が「0」或いは「−1」である場合には、発話者がユーザから近いところにおらず、当該ユーザの会話相手である可能性が低い。このため、帯域ゲイン設定部3202−2は、当該制御対象である帯域信号x1n(t)に対する帯域ゲインαn(t)として「1.0」を設定する。
帯域ゲイン制御部3202−3は、当該帯域ゲインαn(t)を、当該制御対象である帯域信号x1n(t)に乗じ、帯域信号制御部3202による制御後の帯域信号yn(t)を算出する。
帯域合成部3203は、帯域分割部3201に対応する方法により各帯域信号yn(t)を合成し、帯域合成後の信号y(t)を算出する。
スピーカ3102は、非線形増幅部3101により帯域ゲインが設定された帯域合成後の信号y(t)を出力する。
(第6の実施形態の音響処理装置15の動作)
次に、第6の実施形態の音響処理装置15の動作について図27を参照して説明する。図27は、第6の実施形態の音響処理装置15の動作を説明するフローチャートである。図27において、図12に示す第2の実施形態の音響処理装置11の動作と同一の動作についての説明は省略し、上記した構成要素に関連する処理を主に説明する。
非線形増幅部3101は、第1の指向性形成部1103により出力された音声信号x1(t)、及び発話者遠近判定部105により出力された遠近判定結果情報を取得する。次に、非線形増幅部3101は、発話者遠近判定部105により出力された遠近判定結果情報に基づいて、第1の指向性形成部1103により出力された音声信号x1(t)を増幅し、スピーカ3102に出力する(S3401)。
非線形増幅部3101の処理の詳細について、図28を参照して説明する。図28は、非線形増幅部3101の動作の詳細を説明したフローチャートである。
帯域分割部3201は、第1の指向性形成部1103により出力された音声信号x1(t)を、N個のバンドの周波数帯域の信号x1n(t)に分割する(S3501)。
帯域レベル算出部3202−1は、各周波数帯域の信号x1n(t)のレベルLx1n(t)を算出する(S3502)。
帯域ゲイン設定部3202−2は、帯域レベルLx1n(t)、及び発話者遠近判定部105により出力された遠近判定結果情報に基づいて、帯域信号x1n(t)に乗ずる帯域ゲインαn(t)を設定する(S3503)。
図29は、帯域ゲイン設定部3202−2の動作の詳細を説明したフローチャートである。
帯域ゲイン設定部3202−2は、遠近判定結果情報が「1」である場合には(S36061、YES)、発話者がユーザから近いところにおり、当該ユーザの会話相手である可能性が高い。このため、帯域ゲイン設定部3202−2は、帯域レベルLx1n(t)を用いて、図26に示すような当該ユーザの聴覚特性を補償する帯域ゲインαn(t)を設定する(S3602)。
また、遠近判定結果情報が「0」或いは「−1」である場合には(S3601、NO)、発話者がユーザから近いところにおらず当該ユーザの会話相手である可能性が低い。このため、帯域ゲイン設定部3202−2は、帯域信号x1n(t)に対する帯域ゲインαn(t)として「1.0」を設定する(S3603)。
帯域ゲイン制御部3202−3は、帯域ゲインαn(t)を、帯域信号x1n(t)に乗じ、帯域信号制御部3202による制御後の帯域信号yn(t)を算出する(S3504)。
帯域合成部3203は、帯域分割部3201に対応する方法により各帯域信号yn(t)を合成し、帯域合成後の信号y(t)を算出する(S3505)。
スピーカ3102は、ゲインが調整された帯域合成後の信号y(t)を出力する(S3402)。
以上のように、第6の実施形態の音響処理装置15では、第2の実施形態の音響処理装置11の内部構成のゲイン導出部106とレベル制御部107とを非線形増幅部3101に統合した。また、第6実施形態の音響処理装置15では、音声出力部にスピーカ3102なる構成要素を更に有することにより、会話相手の音声のみを増幅することができ、ユーザの会話相手のみの音声が明瞭に聞き取ることができる。
以上、添付図面を参照しながら各種の実施形態について説明したが、本発明の音響処理装置はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。例えば、上記した各実施形態1〜6は、適宜、組み合わせて構成することにより、より精度の高い発話者のレベル制御が可能となる。
上記した瞬時ゲインα’(t)の値は、「2.0」又は「0.5」と具体的に記載されたものであるが、この数字に限定されない。例えば、本発明の音響処理装置は、補聴器として用いるユーザの難聴度合い等に応じて、当該瞬時ゲインα’(t)の値は個別に予め設定することも可能である。
上記した第5の実施形態の会話相手判定部は、発話者遠近判定部にて発話者がユーザの近くにいると判定された場合、その発話者の音声と、自発話音声判定部で判定された自発話音声とを用いて、発話者がユーザの会話相手か否かを判定する。
この他、会話相手判定部1001は、発話者遠近判定部105にて発話者がユーザの近くにいると判定された場合、発話者と自発話とのそれぞれの音声を認識する。このとき、会話相手判定部1001は、この認識された音声の中に所定のキーワードを抽出し、同じ分野のキーワードであると判定した場合には、当該発話者はユーザの会話相手と判定するようにしても構わない。
所定のキーワードとは、例えば、「旅行」の話題であれば、「飛行機」、「車」、「北海道」、「九州」等のキーワードで、同一の分野に関連する。
また、会話相手判定部1001は、ユーザの近くにいる発話者について特定話者認識を行う。この認識された結果の人物が、予め事前登録されている特定の話者又は当該ユーザの周囲に一人しか話者がいない場合には、当該人物はユーザの会話相手と判定する。
また、図16に示した第3の実施形態では、第1のレベル算出の処理が音声区間検出の処理の後に行われるように示されている。しかし、第1のレベル算出の処理は、音声区間検出の処理の前に行われても構わない。
また、図19に示した第4の実施形態では、第1のレベル算出の処理が音声区間検出及び自発話音声判定の各処理の後で、且つ、遠近判定閾値設定の処理の前に行われるように示されている。
なお、音声区間検出の処理、自発話音声判定の処理及び遠近判定閾値設定の処理の順番が満たされれば、第1のレベル算出の処理は、音声検出の処理若しくは自発話音声判定の処理の前、又は遠近判定閾値設定の後に行われても構わない。
同様に、第2のレベル算出の処理が遠近判定閾値設定の処理の前に行われるように示されている。しかし、第2のレベル算出の処理は、遠近判定閾値設定の後に行われても構わない。
また、図23に示した第5の実施形態では、第1のレベル算出の処理が音声区間検出及び自発話音声判定の各処理の後に行われるように示されている。しかし、音声区間検出の処理の後に自発話音声判定の処理が行われる条件が満たされれば、第1のレベル算出の処理は、音声区間検出の処理又は自発話音声判定の処理の前に行われても構わない。
上記したマイクロホンアレイ1102を除く各処理部は、具体的には、マイクロプロセッサ、ROM、RAM等から構成されるコンピュータシステムとして実装される。各処理部には、第1及び第2の指向性形成部1103、1104、第1及び第2のレベル算出部103、104、発話者遠近判定部105、ゲイン導出部106、レベル制御部107、音声区間検出部501、自発話音声判定部801、遠近判定閾値設定部802、会話相手判定部1001等が含まれる。
このRAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
上記した各処理部を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されても構わない。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。
RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
上記した各処理部を構成する構成要素の一部又は全部は、音響処理装置10〜60のいずれかの音響処理装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。
当該ICカード又はモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。また、ICカード又はモジュールは、上記した超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカード又はモジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
また、本発明の実施形態は、上記した音響処理装置が行う音響処理方法であるとしてもよい。また、本発明は、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、コンピュータプログラム又はデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリ等に記録したものとしてもよい。
また、本発明は、これらの記録媒体に記録されているデジタル信号であるとしてもよい。また、本発明は、コンピュータプログラム又はデジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、当該メモリは、上記したコンピュータプログラムを記憶しており、当該マイクロプロセッサは、当該コンピュータプログラムに従って動作してもよい。
また、本発明は、プログラム又はデジタル信号を記録媒体に記録して移送することにより、又は、プログラム又はデジタル信号を、ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
本出願は、2009年10月21日出願の日本特許出願(特願2009−242602)に基づくものであり、その内容はここに参照として取り込まれる。
本発明にかかる音響処理装置は、2つの指向性マイクロホンのレベル差に応じた発話者遠近判定部を有し、近くにいる会話相手のみの声を聞きたい補聴器等として有用である。
10 音響処理装置
20 音響処理装置
30 音響処理装置
40 音響処理装置
50 音響処理装置
1101 指向性収音部
1102 マイクロホンアレイ
1103 第1の指向性形成部
1104 第2の指向性形成部
103 第1のレベル算出部
104 第2のレベル算出部
105 発話者遠近判定部
106 ゲイン導出部
107 レベル制御部
1201−1 無指向性マイクロホン
1201−2 無指向性マイクロホン
1202 遅延器
1203 演算器
1204 EQ
501 音声区間検出部
601 第3のレベル算出部
602 推定騒音レベル算出部
603 レベル比較部
604 音声区間判定部
801 自発話音声判定部
802 遠近判定閾値設定部
901 適応フィルタ
902 遅延器
903 差信号算出部
904 判定閾値設定部
1001 会話相手判定部
3101 非線形増幅部
3201 帯域分割部
3202 帯域信号制御部
3202−1 帯域レベル算出部
3202−2 帯域ゲイン設定部
3202−3 帯域ゲイン制御部
3203 帯域合成部

Claims (6)

  1. 複数の無指向性マイクロホンによる各々の出力信号を用いて、発話者方向に指向性の主軸を形成した第1の指向性信号を出力する第1の指向性形成部と、
    前記複数の無指向性マイクロホンによる各々の出力信号を用いて、発話者方向に指向性の死角を形成した第2の指向性信号を出力する第2の指向性形成部と、
    前記第1の指向性形成部により出力された第1の指向性信号のレベルを算出する第1のレベル算出部と、
    前記第2の指向性形成部により出力された第2の指向性信号のレベルを算出する第2のレベル算出部と、
    前記第1及び第2のレベル算出部により算出された前記第1の指向性信号のレベル及び前記第2の指向性信号のレベルに基づいて、前記発話者との遠近を判定する発話者遠近判定部と、
    前記発話者遠近判定部の結果に応じて、前記第1の指向性信号に与えるゲインを導出するゲイン導出部と、
    前記ゲイン導出部により導出されたゲインを用いて、前記第1の指向性信号のレベルを制御するレベル制御部と、
    を有することを特徴とする音響処理装置。
  2. 請求項1に記載の音響処理装置であって、
    前記第1の指向性信号の音声区間を検出する音声区間検出部と、を更に有し、
    前記発話者遠近判定部は、前記音声区間検出部により検出された音声区間における音声信号に基づいて、前記発話者の遠近を判定することを特徴とする音響処理装置。
  3. 請求項1又は2に記載の音響処理装置であって、
    前記音声区間検出部にて検出された音声区間における前記第1の指向性信号のレベルに基づいて、自発話音声か否かを判定する自発話音声判定部と、
    前記自発話音声判定部により判定された自発話音声に含まれる残響音を推定し、この推定された残響音に基づいて、前記発話者遠近判定部が前記発話者との遠近を判定する際に用いられる判定閾値を設定する遠近判定閾値設定部と、を更に有し、
    前記発話者遠近判定部は、前記遠近判定閾値設定部により設定された前記判定閾値を用いて前記発話者との遠近を判定することを特徴とする音響処理装置。
  4. 請求項3に記載の音響処理装置であって、
    前記発話者遠近判定部の結果と、前記自発話音声判定部の結果とに基づいて、前記発話者遠近判定部により判定された前記発話者音声が会話相手により発声されたか否かを判定する会話相手判定部と、を更に有し、
    前記ゲイン導出部は、前記会話相手判定部の結果に応じて、前記第1の指向性信号に与えるゲインを導出することを特徴とする音響処理装置。
  5. 複数の無指向性マイクロホンによる各々の出力信号を用いて、発話者方向に指向性の主軸を形成した第1の指向性信号を出力するステップと、
    前記複数の無指向性マイクロホンによる各々の出力信号を用いて、発話者方向に指向性の死角を形成した第2の指向性信号を出力するステップと、
    前記出力された第1の指向性信号のレベルを算出するステップと、
    前記出力された第2の指向性信号のレベルを算出するステップと、
    前記算出された前記第1の指向性信号のレベル及び前記第2の指向性信号のレベルに基づいて、前記発話者との遠近を判定するステップと、
    前記判定された前記発話者との遠近に応じて、前記第1の指向性信号に与えるゲインを導出するステップと、
    前記導出されたゲインを用いて、前記第1の指向性信号のレベルを制御するステップと、
    を有することを特徴とする音響処理方法。
  6. 請求項1〜請求項4のいずれか一項に記載の音響処理装置を備えることを特徴とする補聴器。
JP2011537143A 2009-10-21 2010-10-20 音響処理装置、音響処理方法及び補聴器 Active JP5519689B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011537143A JP5519689B2 (ja) 2009-10-21 2010-10-20 音響処理装置、音響処理方法及び補聴器

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009242602 2009-10-21
JP2009242602 2009-10-21
JP2011537143A JP5519689B2 (ja) 2009-10-21 2010-10-20 音響処理装置、音響処理方法及び補聴器
PCT/JP2010/006231 WO2011048813A1 (ja) 2009-10-21 2010-10-20 音響処理装置、音響処理方法及び補聴器

Publications (2)

Publication Number Publication Date
JPWO2011048813A1 true JPWO2011048813A1 (ja) 2013-03-07
JP5519689B2 JP5519689B2 (ja) 2014-06-11

Family

ID=43900057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011537143A Active JP5519689B2 (ja) 2009-10-21 2010-10-20 音響処理装置、音響処理方法及び補聴器

Country Status (5)

Country Link
US (1) US8755546B2 (ja)
EP (1) EP2492912B1 (ja)
JP (1) JP5519689B2 (ja)
CN (1) CN102549661B (ja)
WO (1) WO2011048813A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5817366B2 (ja) 2011-09-12 2015-11-18 沖電気工業株式会社 音声信号処理装置、方法及びプログラム
US8185387B1 (en) * 2011-11-14 2012-05-22 Google Inc. Automatic gain control
US20140112483A1 (en) * 2012-10-24 2014-04-24 Alcatel-Lucent Usa Inc. Distance-based automatic gain control and proximity-effect compensation
US9685171B1 (en) * 2012-11-20 2017-06-20 Amazon Technologies, Inc. Multiple-stage adaptive filtering of audio signals
WO2014108222A1 (en) 2013-01-08 2014-07-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Improving speech intelligibility in background noise by sii-dependent amplification and compression
JP6125953B2 (ja) * 2013-02-21 2017-05-10 日本電信電話株式会社 音声区間検出装置、その方法、及びプログラム
JP6326071B2 (ja) * 2013-03-07 2018-05-16 アップル インコーポレイテッド 部屋およびプログラム反応型ラウドスピーカシステム
DE102013207149A1 (de) * 2013-04-19 2014-11-06 Siemens Medical Instruments Pte. Ltd. Steuerung der Effektstärke eines binauralen direktionalen Mikrofons
EP2876900A1 (en) 2013-11-25 2015-05-27 Oticon A/S Spatial filter bank for hearing system
CN105474610B (zh) * 2014-07-28 2018-04-10 华为技术有限公司 通信设备的声音信号处理方法和设备
JP6361360B2 (ja) * 2014-08-05 2018-07-25 沖電気工業株式会社 残響判定装置及びプログラム
CN107431867B (zh) * 2014-11-19 2020-01-14 西万拓私人有限公司 用于快速识别自身语音的方法和设备
CN105100413B (zh) * 2015-05-27 2018-08-07 努比亚技术有限公司 一种信息处理方法及装置、终端
DE102015210652B4 (de) 2015-06-10 2019-08-08 Sivantos Pte. Ltd. Verfahren zur Verbesserung eines Aufnahmesignals in einem Hörsystem
KR20170035504A (ko) 2015-09-23 2017-03-31 삼성전자주식회사 전자 장치 및 전자 장치의 오디오 처리 방법
WO2018173266A1 (ja) 2017-03-24 2018-09-27 ヤマハ株式会社 収音装置および収音方法
DE102017215823B3 (de) * 2017-09-07 2018-09-20 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgerätes
WO2019160006A1 (ja) * 2018-02-16 2019-08-22 日本電信電話株式会社 ハウリング抑圧装置、その方法、およびプログラム
US10939202B2 (en) * 2018-04-05 2021-03-02 Holger Stoltze Controlling the direction of a microphone array beam in a video conferencing system
DE102018207346B4 (de) * 2018-05-11 2019-11-21 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät
JP7210926B2 (ja) * 2018-08-02 2023-01-24 日本電信電話株式会社 集音装置
WO2020148859A1 (ja) * 2019-01-17 2020-07-23 Toa株式会社 マイクロホン装置
CN112712790B (zh) * 2020-12-23 2023-08-15 平安银行股份有限公司 针对目标说话人的语音提取方法、装置、设备及介质
WO2022137806A1 (ja) * 2020-12-25 2022-06-30 パナソニックIpマネジメント株式会社 耳装着型デバイス、及び、再生方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0511696A (ja) * 1991-07-05 1993-01-22 Sumitomo Electric Ind Ltd 地図表示装置
JPH05207587A (ja) * 1992-01-24 1993-08-13 Matsushita Electric Ind Co Ltd マイクロホン装置
JPH09311696A (ja) * 1996-05-21 1997-12-02 Nippon Telegr & Teleph Corp <Ntt> 自動利得調整装置
EP2178307B1 (en) 1998-01-16 2013-11-27 Sony Corporation Speaker apparatus and electronic apparatus having speaker apparatus enclosed therein
US6243322B1 (en) * 1999-11-05 2001-06-05 Wavemakers Research, Inc. Method for estimating the distance of an acoustic signal
US8326611B2 (en) * 2007-05-25 2012-12-04 Aliphcom, Inc. Acoustic voice activity detection (AVAD) for electronic systems
WO2003010996A2 (en) * 2001-07-20 2003-02-06 Koninklijke Philips Electronics N.V. Sound reinforcement system having an echo suppressor and loudspeaker beamformer
JP4195267B2 (ja) * 2002-03-14 2008-12-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声認識装置、その音声認識方法及びプログラム
JP4247002B2 (ja) * 2003-01-22 2009-04-02 富士通株式会社 マイクロホンアレイを用いた話者距離検出装置及び方法並びに当該装置を用いた音声入出力装置
JP5207587B2 (ja) * 2005-02-18 2013-06-12 三洋電機株式会社 回路装置
US8180067B2 (en) * 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
US8837746B2 (en) * 2007-06-13 2014-09-16 Aliphcom Dual omnidirectional microphone array (DOMA)
JP2008312002A (ja) 2007-06-15 2008-12-25 Yamaha Corp テレビ会議装置
JP5123595B2 (ja) 2007-07-31 2013-01-23 独立行政法人情報通信研究機構 近傍場音源分離プログラム、及びこのプログラムを記録したコンピュータ読取可能な記録媒体、並びに近傍場音源分離方法
JP2009242602A (ja) 2008-03-31 2009-10-22 Panasonic Corp 粘着シート
JP2010112996A (ja) 2008-11-04 2010-05-20 Sony Corp 音声処理装置、音声処理方法およびプログラム

Also Published As

Publication number Publication date
CN102549661A (zh) 2012-07-04
WO2011048813A1 (ja) 2011-04-28
CN102549661B (zh) 2013-10-09
US20120189147A1 (en) 2012-07-26
EP2492912A1 (en) 2012-08-29
EP2492912B1 (en) 2018-12-05
US8755546B2 (en) 2014-06-17
JP5519689B2 (ja) 2014-06-11
EP2492912A4 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
JP5519689B2 (ja) 音響処理装置、音響処理方法及び補聴器
US11109163B2 (en) Hearing aid comprising a beam former filtering unit comprising a smoothing unit
US9591410B2 (en) Hearing assistance apparatus
CN107872762B (zh) 话音活动检测单元及包括话音活动检测单元的听力装置
US10154353B2 (en) Monaural speech intelligibility predictor unit, a hearing aid and a binaural hearing system
US8842861B2 (en) Method of signal processing in a hearing aid system and a hearing aid system
US9959886B2 (en) Spectral comb voice activity detection
CN108235181B (zh) 在音频处理装置中降噪的方法
JP2023159381A (ja) 音声認識オーディオシステムおよび方法
WO2013132341A2 (en) Voice activity detection and pitch estimation
US9437213B2 (en) Voice signal enhancement
JP4914319B2 (ja) コミュニケーション音声処理方法とその装置、及びそのプログラム
JP5115818B2 (ja) 音声信号強調装置
JP3411648B2 (ja) 車載用オーディオ装置
JP4098647B2 (ja) 音響信号の残響除去方法、装置、及び音響信号の残響除去プログラム、そのプログラムを記録した記録媒体
JP6794887B2 (ja) 音声処理用コンピュータプログラム、音声処理装置及び音声処理方法
JP2005303574A (ja) 音声認識ヘッドセット
JP2012008393A (ja) 音声変更装置、音声変更方法および音声情報秘話システム
JP2020053841A (ja) 音源方向判定装置、音源方向判定方法、及び音源方向判定プログラム
WO2023104215A1 (en) Methods for synthesis-based clear hearing under noisy conditions
JP5234788B2 (ja) 暗騒音推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130319

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140403

R151 Written notification of patent or utility model registration

Ref document number: 5519689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350