JP2020201370A - 話者方向判定プログラム、話者方向判定方法、及び話者方向判定装置 - Google Patents
話者方向判定プログラム、話者方向判定方法、及び話者方向判定装置 Download PDFInfo
- Publication number
- JP2020201370A JP2020201370A JP2019107707A JP2019107707A JP2020201370A JP 2020201370 A JP2020201370 A JP 2020201370A JP 2019107707 A JP2019107707 A JP 2019107707A JP 2019107707 A JP2019107707 A JP 2019107707A JP 2020201370 A JP2020201370 A JP 2020201370A
- Authority
- JP
- Japan
- Prior art keywords
- acquired
- physical quantity
- sound
- microphones
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims description 28
- 230000005236 sound signal Effects 0.000 claims abstract description 91
- 238000012937 correction Methods 0.000 claims abstract description 85
- 238000012545 processing Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 18
- 238000006243 chemical reaction Methods 0.000 description 17
- 238000013519 translation Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 238000001228 spectrum Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/22—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired frequency characteristic only
- H04R1/222—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired frequency characteristic only for microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
Abstract
Description
以下、図面を参照して第1実施形態の一例を詳細に説明する。
dp(k)=θ1(k)−θ2(k)
=arg(z1(k))−arg(z2(k))
=arg(z1(k)/z2(k)) …(1)
θ1(k)=arg(z1(k))=atan(Im1(k)/Re1(k))
θ2(k)=arg(z2(k))=atan(Im2(k)/Re2(k))
…(2)
z1(k)=Re1(k)+iIm1(k)
z2(k)=Re2(k)+iIm2(k) …(3)
θt1(k)=arg(z1(k)+zN(k))
θt2(k)=arg(z2(k)+zN(k)) …(4)
θt1(k)−θt2(k)
=arg(z1(k)+zN(k))−arg(z2(k)+zN(k))
=arg((z1(k)+zN(k))/(z2(k)+zN(k)) …(5)
φ=f(α(np)*ap+(1−α(np))*pz)…(7)
pz=0.0
f(ap)=9.0*ap+40.0
α(np)=0.156*np−7.8 …(8)
apは推定位相差であり、詳細には、上限周波数帯域から下限周波数帯域までの推定位相差の平均値であってよい。npは雑音レベルであり、不動点FPの推定位相差値pzは、事前に設定しておくことができる。関数f()及びα()は、統計的に回帰して導出することで事前に定めておく。関数f()及びα()は、線形関数、三角関数、または機械学習の何れかを使用して導出することができる。また、基準モデルのデータをテーブルなどに予め記憶しておいてもよい。
fd(ap)
=9.0*α(np)*ap+9.0*(1−α(np))*pz+40.0
=9.0*1.56*ap+40.0
=14.04*ap+40.0 …(9)
Th(θ)=f−1(f(Th0)−θ) …(10)
Th0は話者方向判定装置10の筐体11が基準姿勢の状態である場合の判定境界である。Th0=0.0である場合、Th(θ)=−0.11θであり、話者方向判定装置10の筐体11の基準姿勢に対する傾斜が−10[°]である場合、Th(−10)=1.1[rad]となる。
Thd(θ)=fd−1(fd(Thd0)−θ) …(10)
Thd0は話者方向判定装置10の筐体11が基準姿勢の状態である場合の判定境界である。Thd0=0.0である場合、Thd(θ)=−0.07θであり、話者方向判定装置10の筐体11の基準姿勢に対する傾斜が−10[°]である場合、Thd(−10)=0.71[rad]となる。したがって、補正モデルAMによれば、基準モデルOMで筐体11の基準姿勢に対する傾斜に基づいて補正された判定境界1.1[rad]から、筐体11の傾斜に基づいて補正される前の判定境界0.0[rad]に近付く。
第2実施形態では、雑音レベルに代えて、信号対雑音比(以下、SNRという。)を使用して、モデルを補正する点で、第1実施形態と相違する。SNRは雑音情報の一例である。第1実施形態と同様の構成及び作用については、説明を省略する。
SNR=vp−np …(11)
vpは、発話区間の音圧レベルであり、npは雑音レベルである。
φ=f(α2(SNR)*ap+(1−α2(SNR))*pz)…(12)
第3実施形態では、補正モデルを生成することで補正した判定境界を設定する代わりに、推定位相差を補正する点で第1実施形態及び第2実施形態と異なる。第1実施形態及び第2実施形態と同様の構成及び作用については、説明を省略する。
apa=α(np)*ap+(1−α(np))*pz−Th(θ)+Th0
…(13)
第4実施形態では、推定位相差を使用して話者方向を判定する代わりに、推定音圧差を使用して話者方向を判定する点で、第1実施形態と相違する。第1〜第3実施形態と同様の構成及び作用については、説明を省略する。
dpo(k)=P1(k)−P2(k)
=10log10(|z1(k)|2)−10log10(|z2(k)|2)
=10log10(|z1(k)|2/|z2(k)|2)…(14)
P1(k)=10log10(Re1(k)2+Im1(k)2)
=10log10(|z1(k)|2)
P2(k)=10log10(Re2(k)2+Im2(k)2)
=10log10(|z2(k)|2)
z1(k)=Re1(k)+iIm1(k)
z2(k)=Re2(k)+iIm2(k)…(15)
Pt1(k)=10log10(|z1(k)+zN(k)|2)
Pt2(k)=10log10(|z2(k)+zN(k)|2)…(16)
Pt1(k)−Pt2(k)
=10log10(|z1(k)+zN(k)|2)−
10log10(|z2(k)+zN(k)|2)
=10log10(|z1(k)+zN(k)|2/|z2(k)+zN(k)|2)
…(17)
φD=fD(αD(np)*apo+(1−αD(np))*poz)…(19)
apoは推定音圧差であり、pozは不動点の推定音圧差である。推定音圧差apoは、上限周波数帯域から下限周波数帯域までの音圧差の平均値であってよいし、不動点の音圧差pozは、例えば、0であってよい。fD()及びαD()は、統計的に回帰して導出することで事前に定めておく。fD()及びαD()は、線形関数、三角関数、または機械学習の何れかを使用して導出することができる。
[比較例]
複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得し、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成し、
前記補正モデルにおいて、取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定し、
取得された前記物理量と設定された閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する、
話者方向判定処理をコンピュータに実行させるプログラム。
(付記2)
複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得し、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成し、
前記補正モデルにおいて取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定し、
前記基準モデルにおいて取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量である基準閾値との関係が、取得された前記物理量と設定された閾値との関係と同様になるように、取得された前記物理量を補正して補正物理量を生成し、
生成された補正物理量と前記基準閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する、
話者方向判定処理をコンピュータに実行させるプログラム。
(付記3)
前記基準モデルは、前記音の入射角が前記物理量に比例して増加する直線であり、
取得した前記雑音情報が表す雑音レベルが大きくなるに従って、前記直線上の所定点を不動点として、前記直線の傾きを大きくすることで、前記補正モデルを生成する、
付記1または付記2のプログラム。
(付記4)
前記雑音情報は、雑音レベルまたは信号対雑音比である、
付記1〜付記3の何れかのプログラム。
(付記5)
コンピュータが、
複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得し、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成し、
前記補正モデルにおいて、取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定し、
取得された前記物理量と設定された閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する、
話者方向判定方法。
(付記6)
コンピュータが、
複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得し、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成し、
前記補正モデルにおいて取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定し、
前記基準モデルにおいて取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量である基準閾値との関係が、取得された前記物理量と設定された閾値との関係と同様になるように、取得された前記物理量を補正して補正物理量を生成し、
生成された補正物理量と前記基準閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する、
話者方向判定方法。
(付記7)
前記基準モデルは、前記音の入射角が前記物理量に比例して増加する直線であり、
取得した前記雑音情報が表す雑音レベルが大きくなるに従って、前記直線上の所定点を不動点として、前記直線の傾きを大きくすることで、前記補正モデルを生成する、
付記5または付記6の話者方向判定方法。
(付記8)
前記雑音情報は、雑音レベルまたは信号対雑音比である、
付記5〜付記7の何れかの話者方向判定方法。
(付記9)
複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得する傾き情報取得部と、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得する雑音情報取得部と、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得する物理量取得部と、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で前記物理量取得部で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、前記雑音情報取得部で取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成するモデル生成部と、
前記補正モデルにおいて前記傾き情報取得部によって取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定する閾値設定部と、
前記物理量取得部で取得された前記物理量と前記閾値設定部で設定された閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する判定部と、
を含む話者方向判定装置。
(付記10)
複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得する傾き情報取得部と、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得する雑音情報取得部と、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得する物理量取得部と、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で前記物理量取得部で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、前記雑音情報取得部で取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成するモデル生成部と、
前記補正モデルにおいて前記傾き情報取得部によって取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定する閾値設定部と、
前記基準モデルにおいて前記傾き情報取得部によって取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量である基準閾値との関係が、前記物理量取得部で取得された前記物理量と前記閾値設定部で設定された閾値との関係と同様になるように、前記物理量取得部で取得された前記物理量を補正して補正物理量を生成する物理量生成部と、
前記物理量生成部で生成された補正物理量と前記基準閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する判定部と、
を含む話者方向判定装置。
(付記11)
前記基準モデルは、前記音の入射角が前記物理量に比例して増加する直線であり、
前記モデル生成部は、前記雑音情報取得部で取得した雑音情報が表す雑音レベルが大きくなるに従って、前記直線上の所定点を不動点として、前記直線の傾きを大きくすることで、前記補正モデルを生成する、
付記9または付記10の話者方向判定装置。
(付記12)
前記雑音情報は、雑音レベルまたは信号対雑音比である、
付記9〜付記11の何れかの話者方向判定装置。
20 話者方向判定部
20 子機
25 位相差推定部
26 傾斜取得部
27 雑音レベル推定部
29 モデル補正部
31 方向判定部
51 CPU
52 一次記憶部
53 二次記憶部
M01 第1マイク
M02 第2マイク
Claims (8)
- 複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得し、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成し、
前記補正モデルにおいて、取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定し、
取得された前記物理量と設定された閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する、
話者方向判定処理をコンピュータに実行させるプログラム。 - 複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得し、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成し、
前記補正モデルにおいて取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定し、
前記基準モデルにおいて取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量である基準閾値との関係が、取得された前記物理量と設定された閾値との関係と同様になるように、取得された前記物理量を補正して補正物理量を生成し、
生成された補正物理量と前記基準閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する、
話者方向判定処理をコンピュータに実行させるプログラム。 - 前記基準モデルは、前記音の入射角が前記物理量に比例して増加する直線であり、
取得した前記雑音情報が表す雑音レベルが大きくなるに従って、前記直線上の所定点を不動点として、前記直線の傾きを大きくすることで、前記補正モデルを生成する、
請求項1または請求項2に記載のプログラム。 - 前記雑音情報は、雑音レベルまたは信号対雑音比である、
請求項1〜請求項3の何れか1項に記載のプログラム。 - コンピュータが、
複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得し、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成し、
前記補正モデルにおいて、取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定し、
取得された前記物理量と設定された閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する、
話者方向判定方法。 - コンピュータが、
複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得し、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得し、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成し、
前記補正モデルにおいて取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定し、
前記基準モデルにおいて取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量である基準閾値との関係が、取得された前記物理量と設定された閾値との関係と同様になるように、取得された前記物理量を補正して補正物理量を生成し、
生成された補正物理量と前記基準閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する、
話者方向判定方法。 - 複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得する傾き情報取得部と、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得する雑音情報取得部と、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得する物理量取得部と、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で前記物理量取得部で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、前記雑音情報取得部で取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成するモデル生成部と、
前記補正モデルにおいて前記傾き情報取得部によって取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定する閾値設定部と、
前記物理量取得部で取得された前記物理量と前記閾値設定部で設定された閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する判定部と、
を含む話者方向判定装置。 - 複数のマイクロフォンを含む筐体の所定の方向である基準姿勢の方向に対する傾きを示す傾き情報を取得する傾き情報取得部と、
前記複数のマイクロフォンで取得された複数の音信号の各々の少なくとも1つに含まれる雑音に関する雑音情報を取得する雑音情報取得部と、
前記複数のマイクロフォンで取得された複数の音信号に基づいて、位相差および音圧差の少なくとも一方を示す物理量を取得する物理量取得部と、
前記筐体が前記基準姿勢の状態での前記複数のマイクロフォンへの音の入射角と前記筐体が前記基準姿勢の状態で前記物理量取得部で取得される物理量との対応関係を表す基準モデルにおける前記対応関係の物理量が、前記雑音情報取得部で取得された前記雑音情報によって示される雑音レベルに対応する大きさとなるように補正した補正モデルを生成するモデル生成部と、
前記補正モデルにおいて前記傾き情報取得部によって取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量を、閾値として設定する閾値設定部と、
前記基準モデルにおいて前記傾き情報取得部によって取得された前記傾き情報によって示される傾きに応じた前記音の入射角に対応する物理量である基準閾値との関係が、前記物理量取得部で取得された前記物理量と前記閾値設定部で設定された閾値との関係と同様になるように、前記物理量取得部で取得された前記物理量を補正して補正物理量を生成する物理量生成部と、
前記物理量生成部で生成された補正物理量と前記基準閾値とを比較することで、前記複数のマイクロフォンで取得された複数の音信号に対応する発話を行っている話者が存在する方向である話者方向を判定する判定部と、
を含む話者方向判定装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019107707A JP2020201370A (ja) | 2019-06-10 | 2019-06-10 | 話者方向判定プログラム、話者方向判定方法、及び話者方向判定装置 |
US16/889,837 US20200389724A1 (en) | 2019-06-10 | 2020-06-02 | Storage medium, speaker direction determination method, and speaker direction determination apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019107707A JP2020201370A (ja) | 2019-06-10 | 2019-06-10 | 話者方向判定プログラム、話者方向判定方法、及び話者方向判定装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020201370A true JP2020201370A (ja) | 2020-12-17 |
Family
ID=73651835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019107707A Ceased JP2020201370A (ja) | 2019-06-10 | 2019-06-10 | 話者方向判定プログラム、話者方向判定方法、及び話者方向判定装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20200389724A1 (ja) |
JP (1) | JP2020201370A (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004325127A (ja) * | 2003-04-22 | 2004-11-18 | Nippon Telegr & Teleph Corp <Ntt> | 音源検出方法、音源分離方法、およびこれらを実施する装置 |
JP2009296232A (ja) * | 2008-06-04 | 2009-12-17 | Casio Hitachi Mobile Communications Co Ltd | 音入力装置、音入力方法およびプログラム |
JP2015226104A (ja) * | 2014-05-26 | 2015-12-14 | キヤノン株式会社 | 音源分離装置および音源分離方法 |
JP2019087986A (ja) * | 2017-09-14 | 2019-06-06 | 富士通株式会社 | 音源方向判定装置、音源方向判定方法、及び音源方向判定プログラム |
-
2019
- 2019-06-10 JP JP2019107707A patent/JP2020201370A/ja not_active Ceased
-
2020
- 2020-06-02 US US16/889,837 patent/US20200389724A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004325127A (ja) * | 2003-04-22 | 2004-11-18 | Nippon Telegr & Teleph Corp <Ntt> | 音源検出方法、音源分離方法、およびこれらを実施する装置 |
JP2009296232A (ja) * | 2008-06-04 | 2009-12-17 | Casio Hitachi Mobile Communications Co Ltd | 音入力装置、音入力方法およびプログラム |
JP2015226104A (ja) * | 2014-05-26 | 2015-12-14 | キヤノン株式会社 | 音源分離装置および音源分離方法 |
JP2019087986A (ja) * | 2017-09-14 | 2019-06-06 | 富士通株式会社 | 音源方向判定装置、音源方向判定方法、及び音源方向判定プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20200389724A1 (en) | 2020-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10230346B2 (en) | Acoustic voice activity detection | |
US8503686B2 (en) | Vibration sensor and acoustic voice activity detection system (VADS) for use with electronic systems | |
US8194881B2 (en) | Detection and suppression of wind noise in microphone signals | |
WO2020025951A1 (en) | Detection of replay attack | |
US20230000420A1 (en) | On-ear detection | |
CN104737446A (zh) | 基于距离的自动增益控制和邻近效应补偿 | |
CA2798282A1 (en) | Wind suppression/replacement component for use with electronic systems | |
CN106898360A (zh) | 音频信号处理方法、装置和电子设备 | |
US20110188681A1 (en) | Method for adaptively matching microphones of a hearing system as well as a hearing system | |
US20220068298A1 (en) | Wearable mixed sensor array for self-voice capture | |
US11057721B2 (en) | Own voice detection in hearing instrument devices | |
WO2020035180A1 (en) | Method of operating an ear level audio system and an ear level audio system | |
JP5459220B2 (ja) | 発話音声検出装置 | |
JP2020201370A (ja) | 話者方向判定プログラム、話者方向判定方法、及び話者方向判定装置 | |
JP2009089133A (ja) | 放収音装置 | |
US11470429B2 (en) | Method of operating an ear level audio system and an ear level audio system | |
WO2017171864A1 (en) | Acoustic environment understanding in machine-human speech communication | |
JP2016046769A (ja) | 集音装置 | |
JP2015155982A (ja) | 音声区間検出装置、音声認識装置、その方法、及びプログラム | |
JP7106120B2 (ja) | 音声対話装置および音声対話システム | |
JP2020197565A (ja) | 話者方向判定プログラム、話者方向判定方法、及び、話者方向判定装置 | |
JP2021081696A (ja) | 収音装置、収音方法及び収音プログラム | |
CN116312622A (zh) | 一种异音检测方法、装置和系统 | |
WO2022200755A1 (en) | Methods and apparatus for obtaining biometric data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230126 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20230206 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20230206 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20230206 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
AA92 | Notification that decision to refuse application was cancelled |
Free format text: JAPANESE INTERMEDIATE CODE: A971092 Effective date: 20230228 |