JP2017009701A - 音声認識装置、および音声認識方法 - Google Patents

音声認識装置、および音声認識方法 Download PDF

Info

Publication number
JP2017009701A
JP2017009701A JP2015122843A JP2015122843A JP2017009701A JP 2017009701 A JP2017009701 A JP 2017009701A JP 2015122843 A JP2015122843 A JP 2015122843A JP 2015122843 A JP2015122843 A JP 2015122843A JP 2017009701 A JP2017009701 A JP 2017009701A
Authority
JP
Japan
Prior art keywords
sound source
unit
state
vehicle
voice recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015122843A
Other languages
English (en)
Other versions
JP6603919B2 (ja
Inventor
一博 中臺
Kazuhiro Nakadai
一博 中臺
武志 水本
Takeshi Mizumoto
武志 水本
圭佑 中村
Keisuke Nakamura
圭佑 中村
将行 瀧ヶ平
Masayuki Takigahira
将行 瀧ヶ平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2015122843A priority Critical patent/JP6603919B2/ja
Priority to US15/180,218 priority patent/US9697832B2/en
Publication of JP2017009701A publication Critical patent/JP2017009701A/ja
Application granted granted Critical
Publication of JP6603919B2 publication Critical patent/JP6603919B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Abstract

【課題】車両の状態応じて発生するノイズの影響を低減することができる音声認識装置、および音声認識方法を提供することを目的とする。
【解決手段】音声認識装置は、音響信号を収音する収音部と、収音部によって収音された音響信号から空間スペクトルを算出し、算出した空間スペクトルを用いて音源定位を行う音源定位部と、音源定位部によって算出された空間スペクトルのパワーが、車両の状態に基づく所定の閾値を超えた区間を判定する音声区間判定部と、音声区間判定部が判定した区間の音響信号について音声認識を行う音声認識部と、を備える。
【選択図】図1

Description

本発明は、音声認識装置、および音声認識方法に関する。
車両において、ナビゲーションシステム等を音声によるコマンドで操作する音声認識装置が提案されている。
このような音声認識装置では、座席シートの位置毎に、座席シートに着席している話者の音声の音源位置を予めプリセット情報として記憶させておく。そして、音声認識装置では、センサによって検出した座席シートの位置に基づいてプリセット情報を検索し、検索されたプリセット情報を参照して、運転席と助手席それぞれに着席している話者の音声を分離して音声認識を行うことが提案されている(例えば、特許文献1参照)。
再公表WO2006/025106号公報
しかしながら、特許文献1に記載の技術では、車両の状態応じて発生するノイズを音声と認識してしまい、音声認識の精度が落ちるという課題があった。ここで、車両の状態とは、車速に応じた走行状態、ドアの開閉状態やワイパーの動作状態などである。
本発明は上記の点に鑑みてなされたものであり、車両の状態応じて発生するノイズの影響を低減することができる音声認識装置、および音声認識方法を提供することを目的とする。
(1)上記目的を達成するため、本発明の一態様に係る音声認識装置は、音響信号を収音する収音部と、前記収音部によって収音された前記音響信号から空間スペクトルを算出し、算出した前記空間スペクトルを用いて音源定位を行う音源定位部と、前記音源定位部によって算出された前記空間スペクトルのパワーが、車両の状態に基づく所定の閾値を超えた区間を判定する音声区間判定部と、前記音声区間判定部が判定した区間の音響信号について音声認識を行う音声認識部と、を備える。
(2)また、本発明の一態様に係る音声認識装置において、前記車両の状態は、前記車両の走行状態および前記車両の動作状態のうち、少なくとも1つの状態であるようにしてもよい。
(3)また、本発明の一態様に係る音声認識装置において、前記車両の走行状態は、車速に基づく状態であり、前記車両の動作状態は、パワーウィンドの開閉状態、ドアの開閉状態、およびワイパーの動作状態のうち、少なくとも1つの状態であるようにしてもよい。
(4)また、本発明の一態様に係る音声認識装置は、前記音源定位部によって音源定位された結果に基づいて、運転席に着席する運転者と、助手席に着席する乗員の音声信号を分離する音源分離部、を備え、前記音声認識部は、前記音源分離部によって分離された前記運転者または前記乗員の音声信号それぞれについて、前記空間スペクトルのパワーが、前記車両の状態に基づく所定の閾値を超えた区間を判定するようにしてもよい。
(5)また、本発明の一態様に係る音声認識装置において、前記所定の閾値は、車速と、前記車両の動作状態と、前記運転者または前記乗員の音源とに対応付けられているようにしてもよい。
(6)また、本発明の一態様に係る音声認識装置において、前記所定の閾値は、前記運転者の音源に対する前記所定の閾値の方が、前記乗員の音源に対する前記所定の閾値より大きいようにしてもよい。
(7)上記目的を達成するため、本発明の一態様に係る音声認識方法は、収音部が、音響信号を収音する収音手順と、音源定位部が、前記収音手順によって収音された前記音響信号から空間スペクトルを算出し、算出した前記空間スペクトルを用いて音源定位を行う音源定位手順と、音声区間判定部が、前記音源定位手順によって算出された前記空間スペクトルのパワーが、車両の状態に基づく所定の閾値を超えた区間を判定する音声区間判定手順と、音声認識部が、前記音声区間判定手順が判定した区間の音響信号について音声認識を行う音声認識手順と、を含む。
(1)または(7)の構成によれば、車両の状態応じて発生するノイズの影響を低減することができる。
また、(2)の構成によれば、車両の走行状態または動作状態のうちの少なくとも1つの状態に応じた閾値を用いて、音源の発話区間を検出することができる。
また、(3)の構成によれば、車速に基づく状態、パワーウィンドの開閉状態、ドアの開閉状態、およびワイパーの動作状態のうち、少なくとも1つの状態に応じた閾値を用いて、音源の発話区間を検出することができる。
また、(4)の構成によれば、音源分離された運転者または乗員の発話のうち、閾値以上の発話の区間の音声信号を用いて音声認識を行うことで、車両の状態応じて発生するノイズの影響を低減することができる。
また、(5)の構成によれば、車速毎かつ車両の動作状態毎かつ運転者または乗員毎の閾値を用いて、運転者または乗員の発話区間を適切に検出することができる。
また、(6)の構成によれば、運転者の音声を乗員の音声より優先して音声認識することができる。
実施形態に係る音声認識装置の構成を示すブロック図である。 実施形態に係る車両が備える構成の例を示す図である。 実施形態に係る音声認識装置が行う処理のフローチャートである。 実施形態に係る運転席に着席している運転者による音声信号の空間スペクトルの時間変化の例を示す図である。 実施形態に係る助手席に着席している乗員による音声信号の空間スペクトルの時間変化の例を示す図である。 実施形態に係る閾値記憶部に記憶されている運転席に着席している運転者の音声信号に対する閾値の例を示す図である。 本実施形態に係る閾値記憶部に記憶されている助手席に着席している乗員の音声信号に対する閾値の例を示す図である。 実施形態に係る車速vと、閾値T(v)および閾値T(v)との例を示す図である。 実施形態に係る運転席に着席している運転者の音声信号におけるパワーと閾値との時間変化の例を示す図である。 本実施形態に係る助手席に着席している乗員の音声信号におけるパワーと閾値との時間変化の例を示す図である。
以下、図面を参照しながら本発明の実施形態について説明する。また、以下の説明では、音声認識装置を車両に設置する例について説明を行う。
<音声認識装置の構成>
図1は、本実施形態に係る音声認識装置1の構成を示すブロック図である。図2は、本実施形態に係る車両2が備える構成の例を示す図である。
図1に示すように、音声認識装置1は車両2に設置されている。
まず、車両2が備える構成について、図1と図2を用いて説明する。
図2に示すように、車両2は、収音部10、運転席201、助手席202、ステアリングホイール211、シフトレバー212、パーキングブレーキ・ブレーキペダル213、アクセルペダル214、車輪221、パワーウィンド231、ドア232等を含んで構成される。
また、車両2は、図1に示すように、走行装備20、車載用装置30、動作情報出力部40、操作入力部51、および操作入力部52を備えている。
操作入力部51は、車両2の走行に関する入力部であり、例えばステアリングホイール211、シフトレバー212、パーキングブレーキ・ブレーキペダル213、アクセルペダル214、クラッチペダル215等である。操作入力部51は、入力された結果を走行装備20に出力する。
操作入力部52は、車両の走行以外の動作についての操作指示に関する入力部であり、パワーウィンド231を開閉する操作ボタン、ドア232を開閉するハンドル、ワイパー233の動作のオン状態とオフ状態を切り替える切り替えスイッチ等である。操作入力部52は、入力された結果を車載用装置30に出力する。
走行装備20は、走行制御部21、走行機構22、および走行状態検出部23を備える。
走行機構22は、動力伝達装置、走行装置、制御装置等であり、例えばドライブシャフト、車輪221、ブレーキドラム等である。
走行制御部21は、操作入力部51が出力した結果に応じて、走行機構22を制御する。また、走行制御部21は、制御した制御結果を走行状態検出部23に出力する。
走行状態検出部23は、走行制御部21が出力した制御結果に基づいて、車両2の走行状態を検出し、検出した走行状態を示す走行状態情報を動作情報出力部40に出力する。なお、走行状態とは、走行中であるか否か、車速が何km/h(時間)であるか等の状態である。
車載用装置30は、動作制御部31、動作機構32、および動作状態検出部33を備える。
動作機構32は、パワーウィンド231の開閉機構、ドア232の開閉機構、ワイパー233の動作機構等である。
動作制御部31は、操作入力部52が出力した結果に応じて、動作機構32を制御する。また、動作制御部31は、制御した制御結果を動作状態検出部33に出力する。
動作状態検出部33は、動作制御部31が出力した制御結果に基づいて、動作機構32の状態を検出し、検出した動作状態を示す動作状態情報を動作情報出力部40に出力する。なお、動作状態とは、パワーウィンド231の開閉状態、ドア232の開閉状態、ワイパー233の動作状態等である。
動作情報出力部40は、走行状態検出部23が出力した走行状態情報と、動作状態検出部33が出力した動作状態情報とを用いて動作情報を生成し、生成した動作情報を、CAN(Controller Area Network)60を介して音声認識装置1に出力する。なお、CANは、CAN規格に準拠した相互接続された機器間のデータ転送に用いられるネットワークである。また、動作情報には、走行状態情報および動作状態情報のうち、少なくとも1つの情報が含まれている。
なお、走行制御部21、走行状態検出部23、動作制御部31、動作状態検出部33、および動作情報出力部は、例えばECU(電子制御ユニット)である。ECUは、CANを介して、動作情報を音声認識装置1に出力する。
次に、音声認識装置1が備える構成について説明する。
図1に示すように、音声認識装置1は、収音部10、音声信号取得部11、伝達関数記憶部12、音源定位部13、音源分離部14、動作情報取得部15、閾値記憶部16、音声区間判定部17、特徴量算出部18、および音声認識部19を備えている。
収音部10は、マイクロホンであり、マイクロホン100−1〜100−N(Nは2以上の整数)を備える。なお、収音部10は、マイクロホンアレイである。なお、マイクロホン100−1〜100−Nのうちいずれか1つを特定しない場合は、マイクロホン100という。収音部10は、収音した音声信号を電気信号に変換して、変換した音声信号を音声信号取得部11に出力する。なお、収音部10は、収録したNチャネルの音声信号を音声信号取得部11に無線で送信してもよいし、有線で送信してもよい。送信の際にチャネル間で音声信号が同期していればよい。
音声信号取得部11は、収音部10のN個のマイクロホン100によって収録されたNチャネルの音声信号を取得する。音声信号取得部11は、取得したNチャネルの音声信号をチャネルi毎の音声信号x(k)(kは、サンプル時刻を表す整数、iは、1≦i≦Nとなる整数)に対して、例えば離散フーリエ変換(DFT;Discrete Fourier Transform)を行って周波数領域信号x(ω)(ωは、周波数)を生成し、生成した周波数領域信号x(ω)を音源定位部13に出力する。
伝達関数記憶部12には、方位毎にマイクロホン100から所定の位置までの伝達関数aφi(ω)が記憶されている。なお、伝達関数aφi(ω)を要素とするN次元のベクトル[aφ1(ω),aφ2(ω),…,aφN(ω)]を伝達関数ベクトルvaφ(ω)と呼ぶ。
音源定位部13は、音声信号取得部11から入力されたNチャネルの音声信号に対して、伝達関数記憶部12に記憶されている伝達関数を用いて、後述するように、空間スペクトルを算出する。音源定位部13は、算出した空間スペクトルに基づいて音源の方位角の推定(音源定位を行うともいう)を行う。音源定位部13は、推定した音源の方位角情報と、入力されたNチャネルの音声信号を音源分離部14に出力する。音源定位部13は、例えば、MUSIC(MUltiple SIgnal Classification)法を用いて方位角を推定する。なお、方位角の推定には、ビームフォーミング(Beamforming)法、WDS−BF(Weighted Delay and Sum BeamForming;重み付き遅延和ビームフォーミング)法、一般化特異値展開を用いたMUSIC(GSVD−MUSIC;Generalized Singular Value Decomposition−MUltiple SIgnal Classification)法等の他の音源方向推定方式を用いてもよい。
また、音源定位部13は、音源定位された運転席201に着席している運転者の発話(第1音源)の空間スペクトルと、助手席202に着席している乗員の発話(第2音源)の空間スペクトルを、例えばフレーム毎に音声区間判定部17に出力する。ここで、フレームとは、解析されるデータの単位であり、例えばフレーム長が25(msec)、フレームの間隔が10(msec)である。
音源分離部14は、音源定位部13が出力したNチャネルの音響信号および推定された音源の方位角情報を取得する。音源分離部14は、取得した方位角に対応する伝達関数を伝達関数記憶部12から読み出す。音源分離部14は、読み出した伝達関数と、例えばブラインド分離とビームフォーミングのハイブリッドであるGHDSS−AS(Geometrically constrained Highorder Decorrelation based Source Separation with Adaptive Stepsize control)法を用いて、取得したNチャネルの音響信号から音源毎の音声信号を分離する。音源分離部14は、分離した音声信号を特徴量算出部18に出力する。なお、音源分離部14は、例えばビームフォーミング法等を用いて、音源分離処理を行ってもよい。
動作情報取得部15は、動作情報出力部40が出力した動作情報を取得し、取得した動作情報を音声区間判定部17に出力する。
閾値記憶部16には、音声区間を判定するための閾値が、走行状態毎かつ動作状態毎に記憶されている。なお、閾値については、後述する。
音声区間判定部17は、動作情報取得部15が出力した動作情報に対応する閾値を閾値記憶部16から読み出して、車速に対する閾値を設定する。音声区間判定部17は、音源定位部13が出力した空間スペクトルが、設定した閾値以上の区間を発話区間であると判定し、判定した結果を音声区間判定結果として音源毎に抽出する。音声区間判定結果には、音源毎かつフレーム毎に発話の有りまたは無しを示す情報が含まれている。音声区間判定部17は、抽出した音源毎の音声区間判定結果を特徴量算出部18に出力する。
特徴量算出部18は、音源分離部14が出力した音源毎の音声信号から、音声区間判定部17が出力した音源毎の音声区間判定結果に基づいて音源毎の発話区間の音響特徴量を算出し、算出した音源毎の音響特徴量を音声認識部19に出力する。特徴量算出部18は、例えば、静的メル尺度対数スペクトル(MSLS:Mel−Scale Log Spectrum)、デルタMSLS及び1個のデルタパワーを、所定時間(例えば、10ms)毎に算出することで音響特徴量を算出する。なお、MSLSは、音響認識の特徴量としてスペクトル特徴量を用い、MFCC(メル周波数ケプストラム係数;Mel Frequency Cepstrum Coefficient)を逆離散コサイン変換することによって得られる。
音声認識部19は、特徴量算出部18が出力した音源毎の音響特徴量を用いて音声認識処理を行い、発話内容、例えば音韻列や単語を認識する。なお、音声認識部19は、例えば、音響モデルである隠れマルコフモデル(HMM:Hidden Markov Model)と単語辞書を備える。音声認識部19は、認識した認識結果を外部装置(不図示)に出力する。外部装置は、例えばカーナビゲーションシステム等である。
<音声認識装置1が行う処理>
次に、音声認識装置1が行う処理手順を説明する。
図3は、本実施形態に係る音声認識装置1が行う処理のフローチャートである。
(ステップS101)音源定位部13は、音声信号取得部11から入力されたNチャネルの音声信号に対して、伝達関数記憶部12に記憶されている伝達関数を用いて、空間スペクトルを算出する。続けて、音源定位部13は、算出した空間スペクトルに基づいて、例えばMUSIC法によって音源定位を行う。
(ステップS102)音源分離部14は、音源定位部13によって推定された方位角に対応する伝達関数記憶部12に記憶されている伝達関数と、例えばGHDSS−AS法を用いて、音源定位部13が出力したNチャネルの音響信号から音源毎の音声信号を分離する。
(ステップS103)動作情報取得部15は、動作情報出力部40が出力した動作情報を取得する。続けて、音声区間判定部17は、動作情報取得部15が出力した動作情報に対応する閾値を閾値記憶部16から読み出して、車速vに対する閾値T(v)およびT(v)を設定する。
(ステップS104)音声区間判定部17は、音源定位部13が出力した空間スペクトルが、設定した閾値以上の区間を発話区間であると判定し、判定した結果を音声区間判定結果として音源毎に抽出する。
(ステップS105)特徴量算出部18は、音源分離部14が出力した音源毎の音声信号から、音声区間判定部17が出力した音源毎の音声区間判定結果に基づいて音源毎の発話区間の音響特徴量を算出する。
(ステップS106)音声認識部19は、特徴量算出部18が出力した音源毎の音響特徴量を用いて音声認識処理を行い、発話内容、例えば音韻列や単語を認識する。続けて、音声認識部19は、認識した認識結果を外部装置(不図示)に出力する。
<空間スペクトルの算出、音源定位の推定>
ここで、MUSIC法(例えば、参考文献1参照)による空間スペクトルの算出と、音源定位の推定の概略を説明する。
音源定位部13は、周波数ω毎にチャネル間の周波数領域信号x(ω)の相互相関(cross correlation)を要素とするN行N列の相関行列(correlation matrix)R(ω)を、例えば次式(1)によって算出する。
Figure 2017009701
式(1)において、E[…]は、…の期待値を表す。vx(ω)は、周波数領域信号x(ω)を要素とするN次元のベクトル[x(ω),x(ω),…,x(ω)]である。Hは、ベクトル又は行列の共役転置(conjugate transpose)を表す。
音源定位部13は、相関行列R(ω)を固有値展開して、N個の固有値λ(ω)及び固有ベクトルe(ω)を算出する。なお、相関行列R(ω)と固有値λ(ω)ならびに固有ベクトルe(ω)は、次式(2)に示される関係を満たす。
Figure 2017009701
式(2)において、E(ω)は、固有ベクトルe(ω)を要素とするN行N列の行列[e(ω),e(ω),…,e(ω)]である。Λ(ω)は、対角要素としてN個の固有値λ(ω),λ(ω),…,λ(ω)を含むN行N列の対角行列である。ここで、インデックスiは、行列E(ω)における固有ベクトルe(ω)の順序、行列Λ(ω)における固有値λ(ω)の順序を表す。音源定位部13は、インデックスiを、最大の固有値λ(ω)に対して1であり、最小の固有値λ(ω)に対してNとなるように、固有値λi(ω)の降順に定める。
音源定位部13は、伝達関数記憶部12に記憶されている音源方向φ毎の伝達関数ベクトルvaφ(ω)と算出した固有ベクトルe(ω)に基づいて、周波数毎に指標値としてMUSIC評価値(MUSIC estimator)P(ω,φ)を、例えば次式(3)によって算出する。
Figure 2017009701
式(3)において、Lは、予め定めた音源の数であって、1又は1よりも大きく、Nよりも小さい整数である。また、e(ω)は、固有ベクトルである。
音源定位部13は、MUSIC評価値P(ω,φ)と最大固有値λ(ω)を用いて、検出した音源方向φ毎に、予め定めた音声の周波数帯域における空間スペクトルP(φ)を、例えば次式(4)によって算出する。
Figure 2017009701
式(4)において、ωminは、当該周波数帯域の最低周波数を表し、ωmaxは、最高周波数を表す。即ち、式(4)は、MUSIC評価値P(ω,φ)と最大固有値λ1(ω)の平方根の乗算値を、当該周波数成分にわたって加算して空間スペクトルP(φ)を算出することを表す。
音源定位部13は、空間スペクトルP(φ)のうち、所定の閾値以上の値を抽出する。音源定位部13は、抽出した値それぞれ対応する音源方向φを表す方位角情報を生成する。
参考文献1:Schmidt, 1986; Dan`es et al., 2010
<空間スペクトルの例>
次に、運転席201と助手席202における空間スペクトルの時間変化の例を説明する。
図4は、本実施形態に係る運転席201に着席している運転者による音声信号の空間スペクトルの時間変化の例を示す図である。図5は、本実施形態に係る助手席202に着席している乗員による音声信号の空間スペクトルの時間変化の例を示す図である。図4および図5において、横軸は時刻、縦軸はパワーを表している。
図4において、曲線p01は、運転席201に着席している運転者の音声信号の空間スペクトルのパワーの時間変化を表している。図4に示す例では、時刻tのときのパワーが極大値p1maxであり、時刻tのときのパワーが極小値p1minである。
図5において、曲線p02は、助手席202に着席している乗員の音声信号の空間スペクトルのパワーの時間変化を表している。図5に示す例では、時刻tのとき、パワーが極小値p2minであり、時刻t11のとき、パワーが極大値p2maxである。
<音声区間検出に用いられる閾値>
次に、閾値記憶部16に記憶されている閾値の例を説明する。
図6は、本実施形態に係る閾値記憶部16に記憶されている運転席201に着席している運転者の音声信号に対する閾値の例を示す図である。図7は、本実施形態に係る閾値記憶部16に記憶されている助手席202に着席している乗員の音声信号に対する閾値の例を示す図である。
図6および図7に示す例は、走行状態として車速、動作状態としてワイパー233(図2)の動作に対応つけられている閾値の例である。
図6および図7に示すように、車速毎にワイパー233がON(オン)状態の閾値と、OFF(オフ)状態の閾値とが、音源毎に対応つけられている。
図6のように、運転者の音声信号に対して、車速が10km/h以下の場合は、ワイパー233がON状態の閾値として29.0dBと、ワイパー233がOFF状態の閾値として29.0dBが対応つけられている。車速が10km/hより速く30km/h以下の場合は、ワイパー233がON状態の閾値として29.0dBと、ワイパー233がOFF状態の閾値として30.5dBが対応つけられている。車速が30km/hより速く50km/h以下の場合は、ワイパー233がON状態の閾値として30.0dBと、ワイパー233がOFF状態の閾値として30.5dBが対応つけられている。車速が50km/hより速い場合は、ワイパー233がON状態の閾値として30.5dBと、ワイパー233がOFF状態の閾値として30.5dBが対応つけられている。
図7のように、乗員の音声信号について、車速が10km/h以下の場合は、ワイパー233がON状態の閾値として28.0dBと、ワイパー233がOFF状態の閾値として28.0dBが対応つけられている。車速が10km/hより速く30km/h以下の場合は、ワイパー233がON状態の閾値として28.0dBと、ワイパー233がOFF状態の閾値として28.5dBが対応つけられている。車速が30km/hより速く50km/h以下の場合は、ワイパー233がON状態の閾値として29.0dBと、ワイパー233がOFF状態の閾値として29.5dBが対応つけられている。車速が50km/hより速い場合は、ワイパー233がON状態の閾値として29.5dBと、ワイパー233がOFF状態の閾値として29.5dBが対応つけられている。
図6および図7に示すように、本実施形態では、運転者の音声信号より、運転席201に着席している運転者の音声信号に対する同じ車速の場合の閾値を、高く設定している。この理由は、運転者の音声信号を、乗員の音声信号に対して優先して認識するためである。
このため、運転席と助手席に対するぞれぞれの閾値の大小関係を、認識した音声の用途に応じて、例えば利用者(運転者または乗員)が切り替えるようにしてもよい。
また、図6および図7に示した各閾値は、例えば、車両2の各車速vにおける雑音を収音部10によって収音した音声信号(音響信号ともいう)の空間スペクトルのパワーに基づいて設定するようにしてもよい。
また、図6および図7に示した例では、行動状態の例としてワイパー233のON状態とOFF状態を説明したが、これに限られない。閾値記憶部16には、車速に、パワーウィンド231が開かれた状態と閉じられた状態が対応付けられた閾値が記憶され、車速に、ドア232が開かれた状態と閉じられた状態が対応付けられた閾値が記憶されている。
さらに、閾値記憶部16に記憶されている閾値は、表形式に限られず、車速vの閾値T(v)および閾値T(v)それぞれの数式が記憶されていてもよい。
ここで、車速vと、閾値T(v)および閾値T(v)との関係の例を、図6〜図8を用いて説明する。
なお、閾値T(v)とは、運転席201に着席している運転者の音声信号におけるパワーに対する閾値である。閾値T(v)とは、助手席202に着席している乗員の音声信号におけるパワーに対する閾値である。
図8は、本実施形態に係る車速vと、閾値T(v)および閾値T(v)との例を示す図である。図8において、グラフg101は、車速vと時刻との関係を表すグラフであり、グラフg102は、閾値T(v)および閾値T(v)と時刻との関係を表すグラフである。グラフg101およびグラフg102において、横軸は時刻である。グラフg101において、縦軸は車速vである。グラフg102において、縦軸は閾値dBである。また、グラフg102に示した閾値T(v)および閾値T(v)は、ワイパー233がON状態である。
グラフg101の曲線v01のように、時刻tから時刻t21にかけて、32km/hから50km/hに車速vが加速し、時刻t21から時刻t22にかけて、50km/hから55km/hに車速vが加速している。そして、時刻t22から時刻t23にかけて、55km/hから50km/hに車速vが減速し、時刻t23以降、50km/hからさらに車速vが減速している。
図6に示したように、ワイパーがON状態の場合、運転者の発話に対する閾値T(v)は、車速vが30km/hより速く50km/hの場合に30.0dBであり、車速vが50km/h以上の場合に30.5dBである。このため、グラフg102のように、時刻t〜t21の区間の閾値T(v)は30.0dBであり、時刻t21〜t23の区間の閾値T(v)は30.5dBである。
また、図7に示したように、ワイパーがON状態の場合、乗員の発話に対する閾値T(v)は、車速vが30km/hより速く50km/hの場合に29.0dBであり、車速vが50km/h以上の場合に29.5dBである。このため、グラフg102のように、時刻t〜t21の区間の閾値T(v)は29.0dBであり、時刻t21〜t23の区間の閾値T(v)は29.5dBである。
<音声区間の検出>
次に、音声区間判定部17による音声区間の例を説明する。
図9は、本実施形態に係る運転席201に着席している運転者の音声信号におけるパワーと閾値との時間変化の例を示す図である。図10は、本実施形態に係る助手席202に着席している乗員の音声信号におけるパワーと閾値との時間変化の例を示す図である。図9および図10において、横軸は時刻、縦軸はパワーと閾値である。なお、図9および図10において、時刻t〜t23における時刻に対する時速vの変化は、図8と同じである。このため、閾値T(v)と閾値T(v)も図8と同様である。
図9に示す例では、時刻t31〜t21の区間、運転者の発話p01が閾値T(v)を超え、他の区間の発話p01が閾値T(v)より小さい。このため、音声区間判定部17は、時刻t31〜t21の区間を運転者の発話区間であると判定する。
図10に示す例では、時刻t〜t23の区間、乗員の発話p02が閾値T(v)より小さい。このため、音声区間判定部17は、時刻t〜t23において、乗員の発話区間がないと判定する。
なお、図8〜図10に示した閾値は一例であり、これに限られない。閾値記憶部16に記憶されている閾値T(v)およびT(v)が、車速vに関する関数である場合、閾値T(v)およびT(v)は、例えば図8の曲線v01に基づく曲線であってもよい。
また、上述した例では、音声区間判定部17が、音声区間判定結果を特徴量算出部18に出力する例を説明したが、これに限られない。音声区間判定部17は、音声区間判定結果を音声認識部19に出力するようにしてもよい。この場合、特徴量算出部18が音源毎に音響特徴量を算出し、音声認識部19は、音声区間判定結果に基づいて、音源毎の発話区間の音響特徴量を用いて音声認識を行うようにしてもよい。
以上のように、本実施形態の音声認識装置1は、音響信号を収音する収音部10と、収音部によって収音された音響信号から空間スペクトルを算出し、算出した空間スペクトルを用いて音源定位を行う音源定位部13と、音源定位部によって算出された空間スペクトルのパワーが、車両の状態に基づく所定の閾値を超えた区間を判定する音声区間判定部17と、音声区間判定部が判定した区間の音響信号について音声認識を行う音声認識部19と、を備える。
この構成によって、車両の状態に基づく閾値を用いて発話区間を検出することができる。これにより、本実施形態では、車両の状態に応じたノイズより大きい音声信号を抽出することができる。この結果、本実施形態の音声認識装置1は、車両の状態応じて発生するノイズの影響を低減することができる。
また、本実施形態の音声認識装置1において、車両の状態は、車両の走行状態および車両の動作状態のうち、少なくとも1つの状態である。
この構成によって、本実施形態では、車両の走行状態または動作状態のうちの少なくとも1つの状態に応じた閾値を用いて、音源の発話区間を検出することができる。本実施形態では、このように検出された発話区間の音声信号の音声認識を行うことで、車両の走行状態または動作状態のうちの少なくとも1つの状態に応じたノイズより大きい音声信号を抽出することができる。この結果、本実施形態の音声認識装置1は、車両の走行状態または動作状態のうちの少なくとも1つの状態応じて発生するノイズの影響を低減することができる。
また、本実施形態の音声認識装置1において、車両の走行状態は、車速に基づく状態であり、車両の動作状態は、パワーウィンド231の開閉状態、ドア232の開閉状態、およびワイパー233の動作状態のうち、少なくとも1つの状態である。
この構成によって、本実施形態では、車速に基づく状態、パワーウィンドの開閉状態、ドアの開閉状態、およびワイパーの動作状態のうち、少なくとも1つの状態に応じた閾値を用いて、音源の発話区間を検出することができる。本実施形態では、このように検出された発話区間の音声信号の音声認識を行うことで、車速に基づく状態、パワーウィンドの開閉状態、ドアの開閉状態、およびワイパーの動作状態のうちの少なくとも1つの状態に応じたノイズより大きい音声信号を抽出することができる。この結果、本実施形態の音声認識装置1は、車速に基づく状態、パワーウィンドの開閉状態、ドアの開閉状態、およびワイパーの動作状態のうちの少なくとも1つの状態応じて発生するノイズの影響を低減することができる。
また、本実施形態の音声認識装置1は、音源定位部13によって音源定位された結果に基づいて、運転席201に着席する運転者と、助手席202に着席する乗員の音声信号を分離する音源分離部14、を備え、音声認識部19は、音源分離部によって分離された運転者または乗員の音声信号それぞれについて、空間スペクトルのパワーが、車両の状態に基づく所定の閾値を超えた区間を判定する。
この構成によって、本実施形態では、音源分離された運転者または乗員の発話のうち、閾値以上の発話の区間の音声信号を用いて音声認識を行うことで、車両の状態応じて発生するノイズの影響を低減することができる。
また、本実施形態の音声認識装置1において、所定の閾値(T(v)またはT(v))は、車速vと、車両2の動作状態と、運転者または乗員の音源とに対応付けられている。
この構成によって、本実施形態では、車速毎かつ車両の動作状態毎かつ運転者または乗員毎の閾値を用いて、運転者または乗員の発話区間を適切に検出することができる。本実施形態では、このように検出された発話区間の音声信号の音声認識を行うことで、車両の状態に応じたノイズより大きい音声信号を抽出することができる。この結果、本実施形態の音声認識装置1は、車両の状態応じて発生するノイズの影響を低減することができる。
また、本実施形態の音声認識装置1において、所定の閾値(T(v)またはT(v))は、運転者の音源に対する所定の閾値の方が、乗員の音源に対する所定の閾値より大きい。
この構成によって、本実施形態では、運転者の音声を乗員の音声より優先して音声認識することができる。
なお、本実施形態の音声認識装置1の一部または全ての構成要素を、スマートフォン、携帯端末、携帯ゲーム機器等によって実現してもよい。
また、本実施形態では、音声認識装置1が車両2に取り付けられている例を説明したが、これに限られない。雑音成分と発話のパワーの関係が搭載される装置の状態によって変化する環境であればよく、例えば列車、飛行機、船舶、家の部屋、店舗等に音声認識装置1を適用することも可能である。
なお、本発明における音声認識装置1の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより音声区間の検出、音声認識塔を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1…音声認識装置、2…車両、10…収音部、11…音声信号取得部、12…伝達関数記憶部、13…音源定位部、14…音源分離部、15…動作情報取得部、16…閾値記憶部、17…音声区間判定部、18…特徴量算出部、19…音声認識部、20…走行装備、21…走行制御部、22…走行機構、23…走行状態検出部、30…車載用装置、31…動作制御部、32…動作機構、33…動作状態検出部、40…動作情報出力部、51…操作入力部、52…操作入力部、T(v)…運転者の発話に対する閾値、T(v)…乗員の発話に対する閾値

Claims (7)

  1. 音響信号を収音する収音部と、
    前記収音部によって収音された前記音響信号から空間スペクトルを算出し、算出した前記空間スペクトルを用いて音源定位を行う音源定位部と、
    前記音源定位部によって算出された前記空間スペクトルのパワーが、車両の状態に基づく所定の閾値を超えた区間を判定する音声区間判定部と、
    前記音声区間判定部が判定した区間の音響信号について音声認識を行う音声認識部と、
    を備える音声認識装置。
  2. 前記車両の状態は、
    前記車両の走行状態および前記車両の動作状態のうち、少なくとも1つの状態である請求項1に記載の音声認識装置。
  3. 前記車両の走行状態は、車速に基づく状態であり、
    前記車両の動作状態は、パワーウィンドの開閉状態、ドアの開閉状態、およびワイパーの動作状態のうち、少なくとも1つの状態である請求項1または請求項2に記載の音声認識装置。
  4. 前記音源定位部によって音源定位された結果に基づいて、運転席に着席する運転者と、助手席に着席する乗員の音声信号を分離する音源分離部、を備え、
    前記音声認識部は、
    前記音源分離部によって分離された前記運転者または前記乗員の音声信号それぞれについて、前記空間スペクトルのパワーが、前記車両の状態に基づく所定の閾値を超えた区間を判定する請求項1から請求項3のいずれか1項に記載の音声認識装置。
  5. 前記所定の閾値は、
    車速と、前記車両の動作状態と、前記運転者または前記乗員の音源とに対応付けられている請求項4に記載の音声認識装置。
  6. 前記所定の閾値は、
    前記運転者の音源に対する前記所定の閾値の方が、前記乗員の音源に対する前記所定の閾値より大きい請求項4または請求項5に記載の音声認識装置。
  7. 収音部が、音響信号を収音する収音手順と、
    音源定位部が、前記収音手順によって収音された前記音響信号から空間スペクトルを算出し、算出した前記空間スペクトルを用いて音源定位を行う音源定位手順と、
    音声区間判定部が、前記音源定位手順によって算出された前記空間スペクトルのパワーが、車両の状態に基づく所定の閾値を超えた区間を判定する音声区間判定手順と、
    音声認識部が、前記音声区間判定手順が判定した区間の音響信号について音声認識を行う音声認識手順と、
    を含む音声認識方法。
JP2015122843A 2015-06-18 2015-06-18 音声認識装置、および音声認識方法 Active JP6603919B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015122843A JP6603919B2 (ja) 2015-06-18 2015-06-18 音声認識装置、および音声認識方法
US15/180,218 US9697832B2 (en) 2015-06-18 2016-06-13 Speech recognition apparatus and speech recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015122843A JP6603919B2 (ja) 2015-06-18 2015-06-18 音声認識装置、および音声認識方法

Publications (2)

Publication Number Publication Date
JP2017009701A true JP2017009701A (ja) 2017-01-12
JP6603919B2 JP6603919B2 (ja) 2019-11-13

Family

ID=57588367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015122843A Active JP6603919B2 (ja) 2015-06-18 2015-06-18 音声認識装置、および音声認識方法

Country Status (2)

Country Link
US (1) US9697832B2 (ja)
JP (1) JP6603919B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021014649A1 (ja) * 2019-07-25 2021-01-28 日本電信電話株式会社 音声非音声判定装置、音声非音声判定用モデルパラメータ学習装置、音声非音声判定方法、音声非音声判定用モデルパラメータ学習方法、プログラム
JP7383761B2 (ja) 2021-06-03 2023-11-20 阿波▲羅▼智▲聯▼(北京)科技有限公司 車両に対する音声処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6603919B2 (ja) * 2015-06-18 2019-11-13 本田技研工業株式会社 音声認識装置、および音声認識方法
CN106653060B (zh) * 2017-01-11 2020-05-12 瑞声声学科技(深圳)有限公司 吹气声识别系统及采用该系统的吹气识别方法
CN113986187A (zh) * 2018-12-28 2022-01-28 阿波罗智联(北京)科技有限公司 音区幅值获取方法、装置、电子设备及存储介质
CN112216303A (zh) * 2019-07-11 2021-01-12 北京声智科技有限公司 一种语音处理方法、装置及电子设备
CN113494798B (zh) * 2020-04-02 2023-11-03 青岛海尔电冰箱有限公司 冰箱、传声单元的控制方法和存储介质
CN113494797B (zh) * 2020-04-02 2024-01-05 青岛海尔电冰箱有限公司 冰箱、传声单元的控制方法和存储介质
CN113494796B (zh) * 2020-04-02 2024-01-05 青岛海尔电冰箱有限公司 冰箱、传声单元的控制方法和存储介质
CN111640428B (zh) * 2020-05-29 2023-10-20 阿波罗智联(北京)科技有限公司 一种语音识别方法、装置、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5730913A (en) * 1980-08-01 1982-02-19 Nissan Motor Co Ltd Speech recognition response device for automobile
JP2009020423A (ja) * 2007-07-13 2009-01-29 Fujitsu Ten Ltd 音声認識装置および音声認識方法
JP2014145838A (ja) * 2013-01-28 2014-08-14 Honda Motor Co Ltd 音響処理装置及び音響処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100493172B1 (ko) * 2003-03-06 2005-06-02 삼성전자주식회사 마이크로폰 어레이 구조, 이를 이용한 일정한 지향성을갖는 빔 형성방법 및 장치와 음원방향 추정방법 및 장치
JP4478146B2 (ja) 2004-09-01 2010-06-09 日立オートモティブシステムズ株式会社 音声認識システム、音声認識方法およびそのプログラム
WO2007018293A1 (ja) * 2005-08-11 2007-02-15 Asahi Kasei Kabushiki Kaisha 音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラム
CN101512374B (zh) * 2006-11-09 2012-04-11 松下电器产业株式会社 声源位置检测装置
KR101670313B1 (ko) * 2010-01-28 2016-10-28 삼성전자주식회사 음원 분리를 위해 자동적으로 문턱치를 선택하는 신호 분리 시스템 및 방법
JP5668553B2 (ja) * 2011-03-18 2015-02-12 富士通株式会社 音声誤検出判別装置、音声誤検出判別方法、およびプログラム
JP5629249B2 (ja) * 2011-08-24 2014-11-19 本田技研工業株式会社 音源定位システム及び音源定位方法
JP5443454B2 (ja) * 2011-09-20 2014-03-19 トヨタ自動車株式会社 音源検出装置
US9378752B2 (en) * 2012-09-05 2016-06-28 Honda Motor Co., Ltd. Sound processing device, sound processing method, and sound processing program
JP6603919B2 (ja) * 2015-06-18 2019-11-13 本田技研工業株式会社 音声認識装置、および音声認識方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5730913A (en) * 1980-08-01 1982-02-19 Nissan Motor Co Ltd Speech recognition response device for automobile
JP2009020423A (ja) * 2007-07-13 2009-01-29 Fujitsu Ten Ltd 音声認識装置および音声認識方法
JP2014145838A (ja) * 2013-01-28 2014-08-14 Honda Motor Co Ltd 音響処理装置及び音響処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中臺一博 他: "自然な人・ロボット音声インタラクションに向けたロボット聴覚システムの構築", 2007年度人工知能学会全国大会(第21回)論文集, JPN6018043071, 18 June 2007 (2007-06-18), pages 1 - 4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021014649A1 (ja) * 2019-07-25 2021-01-28 日本電信電話株式会社 音声非音声判定装置、音声非音声判定用モデルパラメータ学習装置、音声非音声判定方法、音声非音声判定用モデルパラメータ学習方法、プログラム
JPWO2021014649A1 (ja) * 2019-07-25 2021-01-28
JP7383761B2 (ja) 2021-06-03 2023-11-20 阿波▲羅▼智▲聯▼(北京)科技有限公司 車両に対する音声処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム

Also Published As

Publication number Publication date
US9697832B2 (en) 2017-07-04
US20160372134A1 (en) 2016-12-22
JP6603919B2 (ja) 2019-11-13

Similar Documents

Publication Publication Date Title
JP6603919B2 (ja) 音声認識装置、および音声認識方法
US9583119B2 (en) Sound source separating device and sound source separating method
US20170140771A1 (en) Information processing apparatus, information processing method, and computer program product
US10224053B2 (en) Audio signal quality enhancement based on quantitative SNR analysis and adaptive Wiener filtering
JP6543844B2 (ja) 音源同定装置および音源同定方法
US8867755B2 (en) Sound source separation apparatus and sound source separation method
EP0911805B1 (en) Speech recognition method and speech recognition apparatus
JP3836815B2 (ja) 音声認識装置、音声認識方法、該音声認識方法をコンピュータに対して実行させるためのコンピュータ実行可能なプログラムおよび記憶媒体
JP5154363B2 (ja) 車室内音声対話装置
US8693287B2 (en) Sound direction estimation apparatus and sound direction estimation method
US9549274B2 (en) Sound processing apparatus, sound processing method, and sound processing program
CN106992002A (zh) 用于改进含噪语音识别的动态声学模型切换
JP5255467B2 (ja) 雑音抑制装置、雑音抑制方法、及び、プログラム
CN105810210B (zh) 声音信号处理装置及其方法与配备有该装置的车辆
JP3925734B2 (ja) 対象音検出方法、信号入力遅延時間検出方法及び音信号処理装置
US11521635B1 (en) Systems and methods for noise cancellation
Loh et al. Speech recognition interactive system for vehicle
KR101619257B1 (ko) 운전자 감성 제어 장치 및 그 방법
US9875755B2 (en) Voice enhancement device and voice enhancement method
Ichikawa et al. DOA estimation with local-peak-weighted CSP
JP7239365B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
KR20130125014A (ko) 하모닉 주파수 의존성을 이용한 독립벡터분석에 기반한 강한 음성 인식 방법 및 이를 이용한 음성 인식 시스템
JP2023146123A (ja) 音響処理システム、音響処理装置、音響処理方法、および、プログラム
JP2023146132A (ja) 音響処理システム、音響処理装置、音響処理方法、および、プログラム
KR20150144636A (ko) 이상음원 위치 추적 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171129

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190919

R150 Certificate of patent or registration of utility model

Ref document number: 6603919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150