JP2019174778A - 音声処理装置、音声処理方法および音声処理システム - Google Patents

音声処理装置、音声処理方法および音声処理システム Download PDF

Info

Publication number
JP2019174778A
JP2019174778A JP2018066232A JP2018066232A JP2019174778A JP 2019174778 A JP2019174778 A JP 2019174778A JP 2018066232 A JP2018066232 A JP 2018066232A JP 2018066232 A JP2018066232 A JP 2018066232A JP 2019174778 A JP2019174778 A JP 2019174778A
Authority
JP
Japan
Prior art keywords
voice
speaker
vehicle
microphone
uttered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018066232A
Other languages
English (en)
Other versions
JP7186375B2 (ja
Inventor
田中 直也
Naoya Tanaka
直也 田中
智史 山梨
Tomohito Yamanashi
智史 山梨
正成 宮本
Masanari Miyamoto
正成 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2018066232A priority Critical patent/JP7186375B2/ja
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to CN201880091245.6A priority patent/CN111886647A/zh
Priority to US16/979,714 priority patent/US11804220B2/en
Priority to PCT/JP2018/045419 priority patent/WO2019187371A1/ja
Priority to EP18913012.3A priority patent/EP3779973A4/en
Publication of JP2019174778A publication Critical patent/JP2019174778A/ja
Priority to JP2022181948A priority patent/JP7458013B2/ja
Application granted granted Critical
Publication of JP7186375B2 publication Critical patent/JP7186375B2/ja
Priority to US18/370,162 priority patent/US20240005919A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0217Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for loud-speakers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0247Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for microphones or earphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/025Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0005Dashboard
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0019Side or rear panels
    • B60R2011/0021Doors
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Abstract

【課題】車両内で発声される所定ワード(例えば、ウェイクアップワード等)の発声方向を迅速に検出し、その所定ワードの話者が所定ワードに続けて発声する音声をその話者以外の音声に対して排他的に抽出する。【解決手段】音声処理装置において、音声制御部140は、WuWの音声が検出された場合に、音声信号バッファ部142に保持される所定時間分の音声信号のそれぞれの特性に基づいて、WuWの音声信号を収音したマイクMC1〜MC6を話者位置マイクとして特定する話者位置検出部143と、音声信号バッファ部142に保持される所定時間分の音声信号と話者位置マイクに関する情報とを用いて、話者が発声した音声を出力するとともに、話者でない乗員が発声した音声を抑圧するCTC部(音声処理部の一例)144とを備える。【選択図】図3

Description

本開示は、複数のシートのそれぞれに対応して複数の異なるマイクが配置された車両に搭載される音声処理装置および音声処理システム、ならびに音声処理装置により実行される音声処理方法に関する。
例えばミニバン、ワゴン車、ワンボックスカー等、車体の前後方向に複数(例えば3列以上)の座席(シート)が配置された比較的大きな車両において、運転席に座る運転者と後部座席に座る乗員(例えば運転者の家族や友人)との間で会話をしたり、後部座席までカーオーディオの音楽を流したりして、それぞれの席に設置されたマイクとスピーカを用いて音声を乗員または車載機器の間で伝達したり入出力したりする音声技術を搭載することが検討されている。
また、車両も通信インターフェースを有するものが近年多く登場するようになった。通信インターフェースは、無線通信の機能を有し、例えば携帯電話網(セルラー網)、無線LAN(Local Area Network)等により構築され、車両内においてもネットワーク環境が整備されるようになった。運転者等はこのような通信インターフェースを介してインターネット回線上の例えばクラウドコンピューティングシステム(以下、単に「クラウド」とも称する)にアクセスして運転中に種々のサービスを受けることが可能になった。
ここで、家庭用機器等においてクラウドを用いる音声技術の1つとして自動音声認識システムの開発が加速している。この自動音声認識システムは、クラウド上のサービスを受けるためのヒューマン・マシン・インターフェースとして普及しつつある。自動音声認識システムは、人間が発声した音声をテキストデータに変換等してコンピュータ等の制御装置にその音声の内容を認識されるものである。自動音声認識システムは、人間の手指を用いるキーボード入力に代わるインターフェースであり、より人間に近い操作でコンピュータ等に指示可能である。特に、車両では運転者の手指は従来のドライバー主体の運転走行中または例えば自動運転レベル3の自動運転中のハンドル操作に取られるため、車両に対する自動音声認識の音声技術導入には必然的な動機がある。
なお、自動運転のレベルは、NHTSA(National Highway Traffic Safety Administration)によれば運転自動化なし(レベル0)、運転者支援(レベル1)、部分的運転自動化(レベル2)、条件付運転自動化(レベル3)、高度運転自動化(レベル4)、および完全自動運転化(レベル5)に分類されている。レベル3では、自動運転システムが運転を主導しつつ、必要に応じて人間による運転が要請される。自動運転システムのレベル3は近年、実用化されつつある。
自動音声認識の音声技術に関する従来技術として、発声されたオーディオデータ(音声信号)がホットワードに対応するかどうかを判定し、ホットワードに対応すると判定されたオーディオデータのホットワードオーディオフィンガープリントを生成し、このホットワードオーディオフィンガープリントが以前に記憶されたホットワードオーディオフィンガープリントと一致した時に、発声されたコンピュータデバイスへのアクセスを無効化する技術が知られる(例えば、特許文献1参照)。
なお、ホットワードは、システムまたは制御装置に対して対応する動作を実行させるための事前に設定された予約音声を指すとされる。ホットワードは、指令または命令を送信するトリガとなる所定ワード(特定の単語)であり、WuW(Wake Up Word,ウェイクアップワード)とも称される。本明細書中では、以下、この所定ワードのことを「WuW(Wake up Word)」またはウェイクアップワードとも称して説明する。
特開2017−076117号公報
しかしながら、上記特許文献1に開示の技術は、ホットワードすなわちWuWが静かな環境下で発声されることを想定して構成されている。つまり、車両等の移動体のように、常に振動や車載機器のノイズが発生する環境下での使用においては、WuWが車両内のどの方向から発声されたか否かを検出することは考慮されていない。
そのため、上記特許文献1の技術を用いても、振動やノイズが定常的に発生する車両内において、WuWに続けて車載機器の作動を指示する具体的な指示音声が発声されても、どの方向からWuWが発声されたか検出できない可能性があった。WuWの検出に基づいて車載機器の作動を迅速に行うことができない可能性があり、この点で改善の余地があった。
本開示は、上述した従来の事情に鑑みて案出され、車両内で発声される所定ワード(例えば、ウェイクアップワード等)の発声方向を迅速に検出し、その所定ワードの話者が所定ワードに続けて発声する音声をその話者以外の音声に対して排他的に抽出する音声処理装置、音声処理方法および音声処理システムを提供することを目的とする。
本開示は、複数のシートのそれぞれに対応して複数の異なるマイクが配置された車両に搭載される音声処理装置であって、前記複数の異なるマイクのそれぞれにより収音された所定時間分の音声信号を保持する保持部と、前記複数の異なるマイクのそれぞれにより収音された音声信号に基づいて、前記車両に乗車している話者が発声する所定ワードの音声の有無を検出するワード検出部と、前記所定ワードの音声が検出された場合に、前記保持部に保持される前記所定時間分の音声信号のそれぞれの特性に基づいて、前記所定ワードの音声信号を収音したマイクを話者位置マイクとして特定するマイク特定部と、前記保持部に保持される前記所定時間分の音声信号と前記話者位置マイクに関する情報とを用いて、前記話者が発声した音声を出力するとともに、前記話者でない乗員が発声した音声を抑圧する音声処理部と、を備える、音声処理装置を提供する。
また、本開示は、複数のシートのそれぞれに対応して複数の異なるマイクが配置された車両に搭載される音声処理装置における音声処理方法であって、前記複数の異なるマイクのそれぞれにより収音された所定時間分の音声信号を保持部に保持するステップと、前記複数の異なるマイクのそれぞれにより収音された音声信号に基づいて、前記車両に乗車している話者が発声する所定ワードの音声の有無を検出するステップと、前記所定ワードの音声が検出された場合に、前記保持部に保持される前記所定時間分の音声信号のそれぞれの特性に基づいて、前記所定ワードの音声信号を収音したマイクを話者位置マイクとして特定するステップと、前記保持部に保持される前記所定時間分の音声信号と前記話者位置マイクに関する情報とを用いて、前記話者が発声した音声を出力するとともに、前記話者でない乗員が発声した音声を抑圧するステップと、を有する、音声処理方法を提供する。
また、本開示は、複数のシートのそれぞれに対応して複数の異なるマイクが配置された車両に搭載される音声処理装置と、前記車両に搭載される車載機器を制御する制御装置とを含む音声処理システムであって、前記音声処理装置は、前記複数の異なるマイクのそれぞれにより収音された所定時間分の音声信号を保持部に保持し、前記複数の異なるマイクのそれぞれにより収音された音声信号に基づいて、前記車両に乗車している話者が発声する所定ワードの音声の有無を検出し、前記所定ワードの音声が検出された場合に、前記保持部に保持される前記所定時間分の音声信号のそれぞれの特性に基づいて、前記所定ワードの音声信号を収音したマイクを話者位置マイクとして特定し、前記保持部に保持される前記所定時間分の音声信号と前記話者位置マイクに関する情報とを用いて、前記話者が発声した音声を出力し、前記話者でない乗員が発声した音声を抑圧し、前記話者が発声した音声の認識結果を取得し、前記制御装置は、前記話者が発声した音声の認識結果に基づいて、前記車載機器の作動を制御する、音声処理システムを提供する。
本開示によれば、車両内で発声される所定ワード(例えば、ウェイクアップワード等)の発声方向を迅速に検出し、その所定ワードの話者が所定ワードに続けて発声する音声をその話者以外の音声に対して排他的に抽出する。この抽出により、所定ワードの検出後、その話者以外の音声が混入して出力されるのを抑圧してその話者が発声する音声を遅延なく鮮明(クリア)に出力することができる。その結果、自動音声認識等の精度や性能を向上させ、所定ワードの検出に基づいて車載機器の作動を迅速に行うことができる。
実施の形態1に係る車両の上面図 実施の形態1に係る音声処理システムの構成を説明する機能ブロック図 実施の形態1に係る音声制御部の構成を説明する処理ブロック図 実施の形態1に係る音声制御部の動作手順を示すフローチャート 音声処理装置および音声認識サーバ間での動作手順を示すシーケンス図 実施の形態1に係る第1変形例の音声制御部の動作を示す処理ブロック図 実施の形態1に係る第1変形例の音声制御部の動作手順を示すフローチャート 実施の形態1に係る第2変形例の音声制御部の動作を示す処理ブロック図 実施の形態2に係る車両の上面図 実施の形態2に係る音声処理装置のシステム構成を説明する機能ブロック図 実施の形態2に係る音声処理部の信号処理の動作を示す処理ブロック図 実施の形態2に係る音声処理部の動作手順を示すフローチャート
以下、適宜図面を参照しながら、本開示に係る、車両に搭載可能な音声処理装置、音声処理方法および音声処理システムを具体的に開示した各実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
また、実施の形態1でいう「部」または「装置」とは単にハードウェアによって実現される物理的構成に限定されず、その構成が有する機能をプログラム等のソフトウェアにより実現されるものも含む。また、1つの構成が有する機能が2つ以上の物理的構成により実現されても、または2つ以上の構成の機能が例えば1つの物理的構成によって実現されていても構わない。
また、各実施の形態の車両に搭載可能な音声処理装置、音声処理方法および音声処理システムは、車両に搭載されており、例えば複数のシートのそれぞれに対応して複数の異なるマイクが配置され、これら複数の異なるマイクのそれぞれにより収音された音声信号を適宜音声処理する。
(実施の形態1)
図1〜図8を参照して、本開示に係る車両1に搭載可能な音声処理装置100、音声処理方法および音声処理システム100Sの実施の形態1について説明する。
先ず図1を参照して、実施の形態1に係る車両1の構成について説明する。図1は、実施の形態1に係る車両1の上面図である。
図1に示すように、車両1は、道路運送車両法に基づく自動車において自動走行可能な自動車を一例に挙げている。車両1には、実施の形態1の音声処理システム100Sが搭載される。
車両1は、車両1を構成する車体2を有する。車両1は、例えばミニバン、ワゴン車、ワンボックスカー等、前後方向に複数(例えば3列以上)の座席(シート)が配置された比較的大きな車両である。また、車体2内の運転席に着座する運転者の前方には、インストルメントパネル3が配置される。なお、車体2内部には、車載機器の1つとしてナビゲーション装置35(図2参照)も搭載されており、ナビゲーション装置35は、DSP(Digital Signal Processor)を含んで構成される。
車両1の車体2内には、複数のシートのそれぞれに対応して配置される複数(例えば、実施の形態1では6本)の異なるマイクMC1〜MC6と、同様に複数のシートそれぞれに対応して配置される音声出力装置20(後述参照)の複数(例えば、実施の形態1では4つ)の車載スピーカSP1〜SP4と、この複数のマイクMC1〜MC6により入力された音声信号を処理する音声処理装置100と、車両に搭載される1つ以上の車載機器30と、が搭載される。
複数のマイクMC1〜MC6は、運転者の運転シート(1列目シート)、乗員のセカンドシート(2列目)およびサードシート(3列目シート)にそれぞれ対応して2本ずつ配置される。これにより、複数のマイクMC1〜MC6は、運転者または乗員が発する音声を車体2内の全領域で収音可能である。また、実施の形態1では、マイクMC1〜MC6は指向性マイクまたは無指向性マイクのいずれでも良い。
複数の車載スピーカSP1〜SP4のうち一対の車載スピーカSP1,SP2は、運転者の運転シートおよび助手シートに対応するドアにそれぞれ内蔵して配置される。また、残りの一対の車載スピーカSP3,SP4は、乗員のセカンドシートおよびサードシート間の車体2側壁部にそれぞれ内蔵して配置される。これにより、複数の車載スピーカSP1〜SP4は、音声処理装置100または車載機器30から出力される音声信号を車両1の内に着席している運転者または乗員に向けて出力可能である。また、実施の形態1では、車載スピーカSP1〜SP4は、マイクMC1〜MC6と同様に指向性スピーカまたは無指向性スピーカのいずれでも良い。なお、車載スピーカSP1〜SP4の少なくとも1つは車両1のインストルメントパネル3に配置されても良く、この場合には、運転者または助手シートの乗員は音声内容をより鮮明に把握可能となる。
音声処理装置100および車載機器30は、インストルメントパネル3近傍に配置される。また、音声処理装置100および車載機器30は無線通信回線を介してクラウドCLに接続される。クラウドCL上には、音声認識サーバ40が設けられる。また、実施の形態1では、複数のマイクMC1〜MC6と音声処理装置100とを含んで、音声処理システム100Sが構成されることになる。
次に図2を参照して、音声処理システム100Sのシステム構成について説明する。図2は、音声処理システム100Sの構成を説明する機能ブロック図である。
車両1には、1つ以上の音声出力装置20と、複数の車載機器30と、実施の形態1の音声処理システム100Sと、が搭載される。
音声出力装置20は、車載機器30から出力された音声信号を増幅するアンプ(増幅回路の一例)21と、この増幅された音声信号を出力する前述の複数の車載スピーカSP1〜SP4と、を含む。複数の車載スピーカSP1〜SP4は、前述したように、車両1に設置される複数のドアや車両1のインストルメントパネル3等に内蔵されて設けられる。
複数の車載機器30は、車体2内に搭載される各種機器の総称である。具体的には、複数の車載機器30は、カーオーディオ31、エアコンディショナー32、照明装置33、映像表示装置34、ナビゲーション装置35等を含んで構成される。これら車載機器30はいずれも後述する音声処理装置100の車載機器制御部120に接続される。
カーオーディオ31は、音響装置であり、ラジオ放送を受信したり、CD(Compact Disc)や電子音楽ファイルなどの音楽媒体などを再生したりする。
エアコンディショナー32は、車体2内の温度や湿度を調整して運転者または乗員の車内環境を快適にする。また、エアコンディショナー32は、乾燥した空気の送風により車体2のフロントガラスやサイドガラスの霜取りや曇り取りを行う。
照明装置33は、安全走行に必要であり、車両1の前方を照らしたり、車両1の周辺に車両1の行動を照明により報知したりする。
映像表示装置34は、画像表示部として例えば液晶パネルを含んで構成され、インストルメントパネル3に一体的に設けられる。映像表示装置34は、運転者または乗員に対し画像情報を適宜表示する。
ナビゲーション装置35は、車両1の走行時に車両1の位置や目的地までの経路をガイドする。経路のガイドは、例えば前述の映像表示装置34等を共通に用いて、地図情報や矢印情報等が映像表示装置34に適宜表示されて行われる。なお、実施の形態1では、車載機器30としてカーオーディオ31、エアコンディショナー32、照明装置33、映像表示装置34、ナビゲーション装置35を列挙したが、あくまで例示でありこれらに限定されることは意図されない。
音声出力装置20のアンプ21には、カーオーディオ31、映像表示装置34、ナビゲーション装置35等の車載機器30が接続され、これら車載機器30から音声信号が出力される。この音声信号は、最終的に音声出力装置20の車載スピーカSP1〜SP4を通じて車体2内に流される。
音声処理システム100Sは、前述したように、複数のマイクMC1〜MC6と、音声処理装置100と、を含んで構成される。音声処理装置100は、通信インターフェース110と、車載機器制御部(制御装置の一例)120と、メモリ130と、音声制御部(音声処理部の一例)140と、を含む。図2では、通信インターフェースを便宜的に「通信I/F」と記載している。なお、音声処理装置100においてその一部または全部の機能はソフトウェアで実現されており、このソフトウェアの一部または全部を例えばナビゲーション装置35のDSP上で実行されるように構成しても良い。この場合には、既存のハード資源をそのまま利用できるので製造コストを抑制することが可能となる。
通信インターフェース110は、無線通信の機能を有しており、無線通信回線を介してクラウドCLに接続され無線通信を行う。また、通信インターフェース110は、無線通信回路として携帯電話網(セルラー網)、無線LAN等を使用することが可能である。
なお、クラウドCLには音声認識サーバ40が設けられる。音声認識サーバ40は、同様に通信インターフェース41を含み、さらに演算機42とメモリ43とストレージ44とを有する。演算機42は、データ処理および所定のアルゴリズムを実行するためのCPU(Central Processing Unit)である。メモリ43は、所定のデータやアルゴリズムを一時的に記憶保持するRAM(Random Access Memory)である。ストレージ44は、大容量のデータ等を記憶するための大容量記憶装置(例えば、HDD(Hard Disk Drive)もしくはSSD(Solid State Drive))であり、磁気記憶装置、光学記憶装置等の1つ以上の記憶装置を含んで構成される。
車載機器制御部120は、例えばCPU、DSPまたはFPGA(Field Programmable Gate Array)を用いて構成され、後述する自動音声認識システムの認識結果に基づいて、各車載機器30のON/OFFを制御したり、その動作状況を音声で報知するように指示したりして車載機器30それぞれの作動を制御する。また、音声処理装置100のメモリ130は、車載機器制御部120および音声制御部140の間の所定のデータやプログラム等のやり取りを行うための一時的記憶装置として機能する。
ここで、実施の形態1では、車載された音声処理装置100とクラウド上に設けられた音声認識サーバ40とを含んで自動音声認識システムが実現される。すなわち、音声処理装置100は複数のマイクMC1〜MC6により収音された音声信号を取り込む。音声処理装置100は、音声信号を音声処理した上で、通信インターフェース110を介してクラウドCLおよび音声認識サーバ40に音声信号を送信する。この音声信号の送信により、音声認識サーバ40は、送信された音声信号を例えばコーパスに基づき音声認識してテキストデータに変換する。このテキストデータは、システムコマンドまたはデータ入力等の様々な目的や所定のサービス利用のために用いられる。
テキストデータの変換や解釈については、所定の自動音声認識アルゴリズムに従って行われる。この自動音声認識アルゴリズムは、音声認識サーバ40に実装されており、例えばディープラーニングに基づく人工知能(AI:Artificial Intelligence)により生成される。このような、音声認識および人工知能により運転者または乗員は、音声を発することでクラウドCL上の、例えば他のサーバが提供する種々のサービス、例えばスケジュール管理またはサポートデスクへの問い合わせ等を受けることが可能となる。また、運転者または乗員は、音声処理装置100の車載機器制御部120を通じて各車載機器30の操作指示、例えば音楽再生等を音声で指示することも可能となる。
また、自動音声認識システムは、装置に指示を出す前に発せされる所定ワード、実施の形態1ではその一例としてWuW(ウェイクアップワード:Wake Up Word)をトリガとして実質的に機能する。人により発せられたWuWの音声が、システムへのアクセスを許可するキーとなるので、システムが検出可能なように事前に所定ワードにより定義される。そのため、このWuWは、事前に音声処理装置100のメモリ130などに適宜記憶保持される。なお、WuWは、その一例として例えば「ハロー、マイ・コンピュータ」や「ヘイ、ビークル」等で定義付けられるが、特にこのフレーズ(語句)に限定されず種々のものを採用することができ、任意に設定可能である。
WuWを含むフレーズが検出されれば、自動音声認識システムが起動(ウェイクアップ)し、その自動認識の動作が開始されることになる。このWuWを用いたシステム起動により、自動音声認識システムは常時動作する必要はなく、必要とされるときだけ起動または機能すれば良い。これにより、システムの演算処理やネットワークの回線トラフィックなどの負担を低減することが可能となる。
実施の形態1では、このようなWuWの検出機能は音声処理装置100の音声制御部140に実装される。また、WuWの検出に関する音声信号マッチングモデルは、事前に設定され、例えば音声処理装置100のメモリ130に記憶保持されている。なお、音声信号マッチングモデルとしては、例えばパターンマッチング辞書モデルまたは音響モデル等が採用されるが、これに限定されない。種々のモデルまたはその他の音声信号マッチング技術を適宜採用することができる。
次に図3を参照して、音声制御部140の構成について説明する。図3は、音声制御部140の構成を説明する信号処理ブロック図である。
図3に示すように、音声制御部140は、WuW検出部(ワード検出部の一例)141と、音声信号バッファ部(保持部の一例)142と、話者位置検出部(マイク特定部の一例)143と、CTC(Cross Talk Canceller)部(音声処理部の一例)144と、を有する。また、音声制御部140にはA/D変換器(図示略)が設けられる。A/D変換器は、マイクMC1〜MC6の音声信号を所定のサンプリング周期で量子化してデジタル変換し、音声制御部140内部に取り込む。
WuW検出部141は、複数の異なるマイクMC1〜MC6のそれぞれにより収音された音声信号を直接取得する。また、WuW検出部141は、メモリ130に記憶保持された音声信号マッチングモデルを事前に取得しており、その音声信号マッチングモデルをその内部に保持している。WuW検出部141は、入力された音声信号に基づき、所定の音声信号マッチングモデルに対応するアルゴリズムに従って、特定の話者より発生されたWuWの音声信号の有無を検出する。WuW検出部141は、WuWの音声を検出したら、その検出情報を話者位置検出部143にトリガ信号として送信する。なお、WuW検出部141に記憶保持部を設けて、その記憶保持部に前述の音声信号マッチングモデルを保持しておいても良い。また、マッチングアルゴリズムは、例えばディープラーニングに基づく人工知能(AI:Artificial Intelligence)により生成されても良い。
音声信号バッファ部142は、例えばRAM等の記憶回路により構成され、入力されたマイクMC1〜MC6の音声信号それぞれを個別に所定時間分(例えば2〜3秒)、常時記憶保持する。音声信号バッファ部142の容量が一杯になったら、マイクMC1〜MC6の音声信号それぞれにおいて古い音声信号は上書き更新され、現時点から直前(所定期間前まで)のタイミングでの最新の音声データそれぞれが繰り返し記憶保持される。以下、このような一連の処理を「バッファリング処理」ともいう。なお、音声信号バッファ部142を音声制御部140の内部に設ける代わりに、その機能を音声処理装置100のメモリ130に共通化し、音声制御部140はこの音声処理装置100のメモリ130にバッファされた音声信号を適宜取得するように構成しても良い。この場合には、部品点数を少なくして製造コストを削減することが可能となる。
話者位置検出部143は、WuW検出部141から送信されたトリガ信号を受信すると、この受信時刻を時刻の基準に設定する。話者位置検出部143は、その受信時刻から過去所定時間分の音声信号(つまり、バッファリング処理された信号)を個別に音声信号バッファ部142からそれぞれ取得する。話者位置検出部143は、WuWの音声信号とこのバッファリング処理された各音声信号とを照会して、例えば音源方向推定アルゴリズムに従って車体2内におけるWuWの話者の空間的位置を検出する。
音源方向推定アルゴリズムでは、例えばマイクMC1〜MC6間の音声信号の時間差検出に基づいて空間的な位置検出を行う。また、時間差検出以外にも、マイクMC1〜MC6の音声信号それぞれをフーリエ変換やスペクトル分析して、その音声信号ごとの音声波形、周波数や音声レベル等をさらに分析して位置検出することも可能である。
このようにして話者位置検出部143は、WuWの音声が検出された場合に、音声信号バッファ部142に記憶保持される所定時間分の音声信号のそれぞれの特性に基づいて、WuWを発生した話者の空間的な位置検出を行う。これにより、話者位置検出部143は、その話者に最も近くに配置されたマイク(つまり、マイクMC1〜MC6のうちいずれか)、すなわちWuWの音声を収音したマイクを話者位置マイクとして特定する。話者位置検出部143は、例えば話者位置マイクの識別番号をCTC部144に送信する。
また、話者位置検出部143が話者位置マイクを特定した後は、音声信号バッファ部142はバッファリング処理を停止する。また、WuW検出部141の動作も停止する。これにより、音声制御部140の処理の負荷を低減することが可能となる。
CTC部144は、マイクMC1〜MC6の音声信号をリアルタイムにそれぞれ直接取得する。また、CTC部144は、適用フィルタ(図示略)および加算器(図示略)を有する。CTC部144は、WuWの話者が発声した音声のみを抽出可能とするため、話者位置マイクで収音された音声信号に対し適応フィルタで生成されたダミー音声信号(言い換えると、キャンセル信号)を加算器で加算することでWuWの話者以外が発声した音声をキャンセルする。これにより、CTC部144は、音声信号バッファ部142に記憶保持される所定時間分の音声信号と話者位置マイクに関する情報とを用いて、WuWの話者でない乗員が発声した音声を抑圧して、WuWの話者が発声した音声のみを可能な限り抽出して出力する。
また、適応フィルタは、話者位置マイクを含むマイクMC1〜MC6で収音された音声信号すべてを参照して、例えば学習アルゴリズムに従って各マイクMC1〜MC6間の伝達特性と等価になるまでフィルタ係数を更新しながら成長する。この適応フィルタを用いて音声信号の処理を行うことで、話者以外の音声をキャンセルするためのダミー音声信号を生成することが可能となる。なお、適応フィルタに限らず、WuWの話者以外の音声をキャンセル可能であれば種々のフィルタを採用することができる。例えば、マイクMC1〜MC6間の伝達特性を予め実測して、この実測結果を反映したフィルタを事前に設計し実装しても良い。また、CTC部144は、適用フィルタによる処理に加えて、話者位置マイク以外のマイクのボリュームを下げ、話者位置マイクから収音される音声信号のみが音声制御部140に入力されるように構成しても良い。
次に図4および図5を参照して、音声制御部140の動作、並びに音声処理装置100および音声認識サーバ40間での動作手順について説明する。図4は、音声制御部140の動作手順を示すフローチャートである。図5は、音声処理装置100および音声認識サーバ40間での動作を示すシーケンス図である。なお、図4は、図5のサブルーチンSR1の動作手順を示している。先ず図4を用いて音声制御部140の動作手順、すなわちサブルーチンSR1について説明する。
図4に示すように、サブルーチンSR1において、音声制御部140は、各マイクMC1〜6により収音された音声信号を取得して、WuW検出部141および音声信号バッファ部142にこれら音声信号を先ず入力する(S10)。WuW検出部141は、入力された各音声信号に基づき、所定の音声信号マッチングアルゴリズムに従って、WuWの音声信号の検出を音声信号ごとに並行して開始する(S11)。WuW検出部141は、入力された各音声信号のいずれかにWuWの音声信号が含まれるか否かを判定する(S12)。判定の結果、WuW検出部141がWuWの音声信号があると判定すれば、WuW検出部141の処理はステップS14に進む。その一方、WuW検出部141がWuWの信号がないと判定すれば、WuW検出部141の処理はステップS11に戻る。
WuW検出部141のステップS11およびS12の処理に並行して、音声信号バッファ部142は、入力されたマイクMC1〜MC6の音声信号それぞれを個別に所定時間分、常時記憶保持する。すなわち、音声信号バッファ部142は、マイクMC1〜MC6の音声信号それぞれに対しバッファリング処理を行う(S13)。
話者位置検出部143は、WuWの音声信号とバッファリング処理された各音声信号とを照会して、車体2内におけるWuWの話者の空間的位置を検出する。これにより、話者位置検出部143は、WuWの音声を収音したマイクを話者位置マイクとして特定する(S14)。この話者位置マイクの特定により、話者位置マイクの音声信号に混入するWuWの話者以外が発声した音声を抑圧するように、音声制御部140はCTC部144の適応フィルタのフィルタ係数を設定して機能(起動)させる(S15)。
このCTC部144の設定の際、WuW検出部141、音声信号バッファ部142および話者位置検出部143は、ステップS15以降(図5に示すメインルーチンも含む)では動作(例えばバッファリング処理等)が不要となるのでその機能を停止する(S16)。
CTC部144の適応フィルタのフィルタ係数が設定されたら、CTC部144は、話者位置マイクの音声信号を直接取得して、WuWの話者でない乗員が発声した音声を抑圧する。このとき、CTC部144は、適応フィルタを用いて音声信号のフィルタリング処理を行う(S17)。音声制御部140は、WuWを発声した話者の音声が鮮明になった音声信号を出力し、このフィルタリング処理による出力状態を維持する(S18)。
すなわち、WuWが発声されその話者位置マイクが特定された以降の音声は、CTC部144でのフィルタリング処理が常時施される。その結果、WuWの話者以外の運転者または乗員が発声した音声は打ち消され、WuWの話者が発声した音声が主な音声信号が出力され続けることになる。このような一連のステップS10〜S18が実行され、サブルーチンSR1は終了し、図5に示すメインルーチンの動作手順に戻ることになる。
図5に示すように、音声処理装置100の音声制御部140によるサブルーチンSR1が終了すると、音声処理装置100の処理はステップS100に進む。音声制御部140は、通信インターフェース110を用いて音声認識サーバ40に所定の音声認識起動コマンドを送信する(S100)。
ここで、音声認識サーバ40は、音声処理装置100の音声制御部140から音声認識起動コマンドを受信したか否かを判定する(S102)。音声認識サーバ40は、受信していないと判定すれば、音声認識サーバ40の処理はステップS101に戻り、待機モードとなる。すなわち、音声認識サーバ40は、音声認識起動コマンドが受信されるまで待機モードとされる。その一方、音声認識サーバ40は、音声認識起動コマンドを受信したと判定すれば、音声認識サーバ40の処理はステップS104に進む。なお、音声認識起動コマンドは、音声認識サーバ40に自動音声認識の実行を促すトリガとして機能する命令文である。また、WuW検出部141がWuWの音声を検出したと同時に、音声認識サーバ40に音声認識起動コマンドが送信されるように構成しても良い。
音声制御部140は、ステップS100の後、CTC部144がフィルタリング処理した音声信号を音声認識サーバ40に送信する(S103)。音声認識サーバ40は、その音声信号を受信して、前述の通り音声認識を実行する。音声認識サーバ40は、通信インターフェース41を用いて音声認識結果を音声制御部140に送信する(S104)。なお、サブルーチンSR1以降、音声制御部140により出力される音声信号は、CTC部144でのフィルタリング処理が行われており、WuWの話者が発声した音声が主な音声信号となっている。すなわち、ステップS103では、サブルーチンSR1のステップS17,S18と同様な処理が実行されている。
音声処理装置100の車載機器制御部120は、音声認識サーバ40の認識結果に基づいて、車載機器30それぞれの作動を制御する(S105)。
次に、音声制御部140は、所定の条件を満たしたか否かを検出することで、音声認識を終了するか否かを判定する(S106)。音声制御部140音声認識を終了すると判定すれば、音声制御部140の処理はステップS107に進む。その一方、音声制御部140が音声認識を終了しないと判定すれば、音声制御部140の処理はステップS103に戻る。
音声制御部140は音声認識終了コマンドを音声認識サーバ40に送信する(S107)。音声認識サーバ40は、音声制御部140から音声認識終了コマンドを受信したか否かを判定し(S108)、受信したと判定すると音声認識サーバ40の処理はステップS101に戻り再び待機モードとなる。その一方、音声認識サーバ40が受信していないと判定するとステップS104に戻る。音声認識終了コマンドを受信しない限り、音声認識サーバ40は音声認識を実行し続ける。
すなわち、これらステップS106,S107により、音声制御部140は、その制御機能の一部として、所定の条件を検出した場合に、自装置の作動モードを、WuWの話者が発声した音声を出力して話者でない乗員が発声した音声を抑圧する特定話者音声出力モード(S103)から、WuWの音声の有無を検出するWuW検出待機モード(すなわちSR1:所定ワード検出待機モードの一例)に移行する機能をさらに有することになる。
ここで、実施の形態1では、所定の条件として2つの動作手順が選択的に実行される。所定の条件に関する第1動作手順では、WuWとは異なる音声認識の終了を意味するストップワード(SW,Stop Word:終了ワードの一例)が事前に定義、設定される。ステップS106において、音声制御部140のWuW検出部141は、WuWの検出だけではなく、話者位置マイクにより収音された音声信号に基づいて、同様なアルゴリズムに従ってSWの音声の有無を検出する。音声制御部140は、SWの音声が検出されたか否かを判定することによってステップS106を実行して、自装置の作業モードをWuW検出待機モードに移行する。
また、所定の条件に関する第2動作手順では、音声制御部140は、話者が発声した音声の認識結果を取得して一定時間が経過したか否かを判定することによってステップS106を実行して、自装置の作業モードをWuW検出待機モードに移行する。
このようにステップS106では、これら第1または第2動作手順のいずれか1つの条件が満足されるかどうかが判定され、音声制御部140の処理が実行される。
以上により、実施の形態1に係る音声処理装置100は、複数の異なるマイクMC1〜MC6のそれぞれにより収音された所定時間分の音声信号を保持する音声信号バッファ部(保持部の一例)142を備える。音声処理装置100は、複数の異なるマイクMC1〜MC6のそれぞれにより収音された音声信号に基づいて、車両1に乗車している話者が発声するWuW(所定ワードの一例)の音声の有無を検出するWuW検出部(ワード検出部の一例)141を備える。音声処理装置100は、WuWの音声が検出された場合に、音声信号バッファ部142に保持される所定時間分の音声信号のそれぞれの特性に基づいて、WuWの音声信号を収音したマイク(例えば、マイクMC1〜MC6のうちいずれか)を話者位置マイク(例えばマイクMC1)として特定する話者位置検出部(マイク特定部の一例)143を備える。音声処理装置100は、音声信号バッファ部142に保持される所定時間分の音声信号と話者位置マイクに関する情報とを用いて、話者が発声した音声を出力するとともに、話者でない乗員が発声した音声を抑圧するCTC部(音声処理部の一例)144を備える。
これにより、音声処理装置100または音声処理システム100Sは、車両1内で発声されるWuWの発声方向を迅速に検出し、そのWuWの話者がWuWに続けて発声する音声をその話者以外の音声に対して排他的に抽出できる。音声処理装置100または音声処理システム100Sは、この抽出により、WuWの検出後、その話者以外の音声が混入して出力されるのを抑圧してその話者が発声する音声を遅延なく鮮明(クリア)に出力することができる。その結果、音声処理装置100または音声処理システム100Sは、自動音声認識等の精度や性能を向上させ、WuWの検出に基づいて車載機器30の作動を迅速に行うことができる。
また、音声処理装置100は、所定の条件を検出した場合に、自装置の作動モードを、話者が発声した音声を出力して話者でない乗員が発声した音声を抑圧する特定話者音声出力モード(S103)から、WuW(所定ワードの一例)の音声の有無を検出するWuW検出待機モード(SR1、所定ワード検出待機モードの一例)に移行する音声制御部140(音声処理部の一例)をさらに備える。これにより、音声処理装置100は、必要なときのみ自装置を作動させるので、無駄な処理を削減するとともに、音声認識サーバ40との間で過剰な回線トラフィックが発生するのを防止することができる。
また、音声処理装置100では、WuW検出部141は、話者位置マイクにより収音された音声信号に基づいて、WuW(所定ワードの一例)と異なるSW(終了ワードの一例)の音声の有無を検出する。音声処理装置100は、音声制御部140は、WuWと異なるSWの音声が検出された場合に、所定の条件を満たしたとして、自装置の作動モードをWuW検出待機モード(SR1、所定ワード検出待機モードの一例)に移行する。これにより、音声処理装置100は、WuWの話者自身で音声処理装置100の作動を終了させることができるので、運転者または乗員の人間側で無駄な処理や過剰な回線トラフィックを自発的に削減することができる。また、運転者または乗員は、音声処理装置100が待機状態になったことを自明的に把握することができる。
また、音声処理装置100では、音声制御部140は、話者が発声した音声の認識結果を取得して一定時間が経過した場合に、所定の条件を満たしたとして、自装置の作動モードをWuW検出待機モード(SR1、所定ワード検出待機モードの一例)に移行する。これにより、音声処理装置100は、WuWの話者自身で音声処理装置100の作動を終了させてなくても自動的に装置側で作業を終了することができる。このため、音声処理装置100では、無駄な処理や過剰な回線トラフィックの発生を自動的に抑制することができる。
(実施の形態1の第1変形例)
次に図6および図7を参照して、実施の形態1の第1変形例に係る音声制御部140の動作について説明する。図6は、第1変形例の音声制御部140の動作を示す処理ブロック図である。図7は、第1変形例の音声制御部140の動作手順を示すフローチャートである。なお、図3および図4と同一または同等部分については、図面等に同一あるいは同等符合を付してその説明を省略あるいは簡略化する。
図6に示すように、第1変形例では、音声制御部140は再生音キャンセラ145およびノイズキャンセラ(不図示)をさらに備える。再生音キャンセラ145は、複数の車載機器30のうちカーオーディオ(音楽再生装置の一例)31にも接続されており、CTC部144の出力信号とともにその出力信号も入力される。具体的には、再生音キャンセラ145には、カーオーディオ31が音声出力装置20のアンプ21に出力する音声信号と同じ信号(デジタル信号)が入力される(図2参照)。なお、ノイズキャンセラは、再生音キャンセラ145の出力信号にローパスフィルタ等のフィルタリング処理を実行してノイズを除去する。
再生音キャンセラ145も、CTC部144と同様に適用フィルタ(不図示)および加算器(不図示)を有する。再生音キャンセラ145の適応フィルタは、カーオーディオ31で再生される音楽の音声信号を参照して、その再生音楽に関するダミー音声信号を生成する。再生音キャンセラ145は、話者位置マイクで収音された音声に対し適応フィルタで生成された、再生音楽に関するダミー音声信号を加算器で加算する。これにより、再生音キャンセラ145は、車載スピーカSP1,SP2,SP3,SP4を介して車体2内に流れ、話者位置マイクに混入して収音される再生音楽の音声信号をキャンセルする。このようにして、再生音キャンセラ145は、音声制御部140の出力音声信号から、車両1に搭載されるカーオーディオ31の再生音楽(再生音の一例)が複数の異なるマイクMC1〜6により収音された再生音信号を抑圧する。
図7に示すように、再生音キャンセラ145の処理は、CTC部144のステップS17での処理の後に実行される。再生音キャンセラ145は、カーオーディオ31の再生音楽の音声信号を取得して、前述したフィルタ処理により話者位置マイクに混入して収音される再生音楽の音声信号をキャンセルする(S20)。その以降は、CTC部144および再生音キャンセラ145両方でのフィルタリング処理により、音声制御部140は、WuWを発声した話者の音声が鮮明になった音声信号を出力し、この出力状態を維持する(S18)。
以上により、実施の形態1の第1変形例に係る音声処理装置100は、音声制御部(音声処理部の一例)140の出力音声信号から、車両1に搭載されるカーオーディオ(音楽再生装置の一例)31の再生音楽(再生音の一例)が複数の異なるマイクMC1〜6により収音された再生音信号を抑圧する再生音キャンセラ145をさらに備える。これにより、再生音キャンセラ145は、車載スピーカSP1,SP2,SP3,SP4を介して車体2内に流れ、話者位置マイクに混入して収音される再生音楽の音声信号をキャンセルすることができる。このため、音声処理装置100は、WuWを発声した話者以外の音声が混入して出力されるのをより効果的に抑制して、その話者が発声する音声をより鮮明にすることができる。
(実施の形態1の第2変形例)
図8を参照して、実施の形態1の第2変形例に係る音声制御部140の動作について説明する。図8は、第2変形例の音声制御部140の動作を示す処理ブロック図である。なお、図3と同一または同等部分については、図面等に同一あるいは同等符合を付してその説明を省略あるいは簡略化する。
図8に示すように、第2変形例では、音声制御部140はビームフォーミング(BF:Beam Forming)処理部146をさらに備える。また、複数の異なるマイクMC1〜6は、それぞれ複数のマイク素子を含んで構成されるマイクアレイとされる。
ビームフォーミング処理部146は、マイクロアレイで構成される複数のマイクMC1〜6を用いて、話者位置マイクにより収音された音声信号の音源に対応する話者に、音声信号の指向性を形成する。この指向性の形成により、ビームフォーミング処理部146は、その指向軸をWuWの話者の方向に向けて車体2内におけるその話者周辺の音声やノイズの収音を抑制する。
以上により、実施の形態1の第2変形例に係る音声処理装置100は、話者位置マイクにより収音された音声信号の音源に対応する話者(すなわちWuWを発声した話者)に、音声信号の指向性を形成するビームフォーミング処理部146をさらに備える。音声処理装置100は、複数の異なるマイクMC1〜6は、それぞれ複数のマイク素子を含んで構成されるマイクアレイである。これにより、ビームフォーミング処理部146は、マイクロアレイで構成される複数のマイクMC1〜6を用いて、車体2内におけるその話者周辺の音声やノイズの収音を抑制して、その話者が発声する音声をより一層鮮明にすることができる。
(実施の形態2)
次に図9〜図12を参照して、本開示に係る車両1に搭載可能な音声処理装置200、音声処理方法および音声処理システム200Sの実施の形態2について説明する。図9は、実施の形態2に係る車両1の上面図である。図10は、音声処理装置200のシステム構成を説明する機能ブロック図である。図11は、音声制御部240の信号処理の動作を示す処理ブロック図である。図12は、音声制御部240の動作手順を示すフローチャートである。なお、実施の形態1と同一または同等部分については、図面等に同一あるいは同等符合を付してその説明を省略あるいは簡略化する。
図9および図10にそれぞれ示すように、実施の形態2では、複数のマイクMC(具体的には、マイクMC1〜MC6とWuW検出用マイクMC7)は車体2内に7本配置され、7本のうちマイクMC1〜MC6以外である第7のマイクは、WuW検出用マイクMC7とされる。特定のマイクの一例としてのWuW検出用マイクMC7は、WuWを検出するために用いられる専用のマイクであり、車両1に乗車している乗員の発する音声を均等に収音し易くするために、できるだけ車体2の略中央部分天井面に埋設される。図9では、WuW検出用マイクMC7は、マイクMC3とマイクMC4との間の中間的位置に配置されるが、配置される位置に限定されない。実施の形態2では、第7のマイク(つまり、WuW検出用マイクMC7)以外のマイクMC1〜MC6により収音された音声に基づいて、WuWの検出は行われない。
そのため、図11に示すように、音声制御部240の信号処理の動作において、WuW検出部241には複数のマイクMC1〜MC6の音声信号は入力されず、第7のマイク(WuW検出用マイクMC7)により収音された音声のみ、すなわち1チャンネル分の音声しか入力されない。その一方、音声信号バッファ部142、話者位置検出部143およびCTC部144には、上記実施の形態1と同様、マイクMC1〜MC6の6チャンネル分の音声が入力される。
WuW検出部241は、このWuW検出用マイクMC7の収音した音声信号に基づき所定のマッチングアルゴリズムに従って、車両1に乗車している人物の中から特定の話者より発生されたWuWの音声信号の有無を検出する。その他の構成については、上記実施の形態1と同様である。
すなわち、図12に示すように、実施の形態2に係るWuW検出部241は、WuW検出用マイクMC7により収音された音声信号を直接取得する(S30)。WuW検出部241は、入力されたWuW検出用マイクMC7の音声信号の検出処理を開始する(S31)。WuW検出部241は、入力された音声信号の中にWuWの音声信号が含まれるか否かを判定する(S32)。その一方、これらWuW検出部241のステップS30〜ステップS32の処理に並行して、音声信号バッファ部142は、実施の形態1と同様に、マイクMC1〜MC6により収音された音声信号をそれぞれ取得する(S33)。音声信号バッファ部142は、入力されたマイクMC1〜MC6の音声信号それぞれを個別に所定時間分、常時記憶保持する。それ以降のステップは、実施の形態1と同様である。
以上により、実施の形態2に係る音声処理装置200は、WuW検出部(ワード検出部の一例)241は、複数の異なるマイクMC(具体的には、マイクMC1〜MC6と、WuW検出用マイクMC7)のうちWuW検出用マイクMC7により収音された音声信号に基づいて、話者が発声するWuW(所定ワードの一例)の音声の有無を検出する。これにより、音声処理装置200は、WuWの音声を検出する際にWuW検出用マイクMC7により収音された音声信号の中からWuWの音声を検出すればよいので、音声制御部240のWuW検出部241が処理すべき情報量を軽減して、より迅速にWuWの話者が発声する音声をより迅速に鮮明にすることができる。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
本開示は、車両内で発声される所定ワード(例えば、ウェイクアップワード等)の発声方向を迅速に検出し、その所定ワードの話者が所定ワードに続けて発声する音声をその話者以外の音声に対して排他的に抽出することができる車両に搭載可能な音声処理装置、音声処理方法および音声処理システムとして有用である。
1 車両
2 車体
3 インストルメントパネル
20 音声出力装置
21 アンプ
30 車載機器
31 カーオーディオ
32 エアコンディショナー
33 照明装置
34 映像表示装置
35 ナビゲーション装置
40 音声認識サーバ
41 通信インターフェース
42 演算機
43 メモリ
44 ストレージ
100S 音声処理システム
100 音声処理装置
110 通信インターフェース
120 車載機器制御部
130 メモリ
140 音声制御部
141 WuW検出部
142 音声信号バッファ部
143 話者位置検出部
144 CTC部
145 再生音キャンセラ
146 ビームフォーミング処理部
200S 音声処理システム
200 音声処理装置
240 音声制御部
241 WuW検出部
SP1,SP2,SP3,SP4 車載スピーカ
MC1,MC2,MC3,MC4,MC5,MC6 マイク
MC7 WuW検出用マイク
CL クラウド

Claims (9)

  1. 複数のシートのそれぞれに対応して複数の異なるマイクが配置された車両に搭載される音声処理装置であって、
    前記複数の異なるマイクのそれぞれにより収音された所定時間分の音声信号を保持する保持部と、
    前記複数の異なるマイクのそれぞれにより収音された音声信号に基づいて、前記車両に乗車している話者が発声する所定ワードの音声の有無を検出するワード検出部と、
    前記所定ワードの音声が検出された場合に、前記保持部に保持される前記所定時間分の音声信号のそれぞれの特性に基づいて、前記所定ワードの音声信号を収音したマイクを話者位置マイクとして特定するマイク特定部と、
    前記保持部に保持される前記所定時間分の音声信号と前記話者位置マイクに関する情報とを用いて、前記話者が発声した音声を出力するとともに、前記話者でない乗員が発声した音声を抑圧する音声処理部と、を備える、
    音声処理装置。
  2. 前記音声処理部の出力音声信号から、前記車両に搭載される音楽再生装置の再生音が前記複数の異なるマイクにより収音された再生音信号を抑圧する再生音キャンセラ、をさらに備える、
    請求項1に記載の音声処理装置。
  3. 前記話者位置マイクにより収音された音声信号の音源に対応する前記話者に、音声信号の指向性を形成するビームフォーミング処理部、をさらに備え、
    前記複数の異なるマイクは、それぞれ複数のマイク素子を含んで構成されるマイクアレイである、
    請求項1または2に記載の音声処理装置。
  4. 前記ワード検出部は、
    前記複数の異なるマイクのうち特定のマイクにより収音された音声信号に基づいて、前記話者が発声する所定ワードの音声の有無を検出する、
    請求項1に記載の音声処理装置。
  5. 所定の条件を検出した場合に、自装置の作動モードを、前記話者が発声した音声を出力して前記話者でない乗員が発声した音声を抑圧する特定話者音声出力モードから、前記所定ワードの音声の有無を検出する所定ワード検出待機モードに移行する制御部、をさらに備える、
    請求項1に記載の音声処理装置。
  6. 前記ワード検出部は、
    前記話者位置マイクにより収音された音声信号に基づいて、前記所定ワードと異なる終了ワードの音声の有無を検出し、
    前記制御部は、
    前記所定ワードと異なる終了ワードの音声が検出された場合に、前記所定の条件を満たしたとして、前記自装置の作動モードを前記所定ワード検出待機モードに移行する、
    請求項5に記載の音声処理装置。
  7. 前記制御部は、
    前記話者が発声した音声の認識結果を取得して一定時間が経過した場合に、前記所定の条件を満たしたとして、前記自装置の作動モードを前記所定ワード検出待機モードに移行する、
    請求項5に記載の音声処理装置。
  8. 複数のシートのそれぞれに対応して複数の異なるマイクが配置された車両に搭載される音声処理装置における音声処理方法であって、
    前記複数の異なるマイクのそれぞれにより収音された所定時間分の音声信号を保持部に保持するステップと、
    前記複数の異なるマイクのそれぞれにより収音された音声信号に基づいて、前記車両に乗車している話者が発声する所定ワードの音声の有無を検出するステップと、
    前記所定ワードの音声が検出された場合に、前記保持部に保持される前記所定時間分の音声信号のそれぞれの特性に基づいて、前記所定ワードの音声信号を収音したマイクを話者位置マイクとして特定するステップと、
    前記保持部に保持される前記所定時間分の音声信号と前記話者位置マイクに関する情報とを用いて、前記話者が発声した音声を出力するとともに、前記話者でない乗員が発声した音声を抑圧するステップと、を有する、
    音声処理方法。
  9. 複数のシートのそれぞれに対応して複数の異なるマイクが配置された車両に搭載される音声処理装置と、前記車両に搭載される車載機器を制御する制御装置とを含む音声処理システムであって、
    前記音声処理装置は、
    前記複数の異なるマイクのそれぞれにより収音された所定時間分の音声信号を保持部に保持し、
    前記複数の異なるマイクのそれぞれにより収音された音声信号に基づいて、前記車両に乗車している話者が発声する所定ワードの音声の有無を検出し、
    前記所定ワードの音声が検出された場合に、前記保持部に保持される前記所定時間分の音声信号のそれぞれの特性に基づいて、前記所定ワードの音声信号を収音したマイクを話者位置マイクとして特定し、
    前記保持部に保持される前記所定時間分の音声信号と前記話者位置マイクに関する情報とを用いて、前記話者が発声した音声を出力し、前記話者でない乗員が発声した音声を抑圧し、
    前記話者が発声した音声の認識結果を取得し、
    前記制御装置は、
    前記話者が発声した音声の認識結果に基づいて、前記車載機器の作動を制御する、
    音声処理システム。
JP2018066232A 2018-03-29 2018-03-29 音声処理装置、音声処理方法および音声処理システム Active JP7186375B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2018066232A JP7186375B2 (ja) 2018-03-29 2018-03-29 音声処理装置、音声処理方法および音声処理システム
US16/979,714 US11804220B2 (en) 2018-03-29 2018-12-11 Voice processing device, voice processing method and voice processing system
PCT/JP2018/045419 WO2019187371A1 (ja) 2018-03-29 2018-12-11 音声処理装置、音声処理方法および音声処理システム
EP18913012.3A EP3779973A4 (en) 2018-03-29 2018-12-11 VOICE PROCESSING DEVICE, METHOD AND SYSTEM
CN201880091245.6A CN111886647A (zh) 2018-03-29 2018-12-11 语音处理装置、语音处理方法和语音处理系统
JP2022181948A JP7458013B2 (ja) 2018-03-29 2022-11-14 音声処理装置、音声処理方法および音声処理システム
US18/370,162 US20240005919A1 (en) 2018-03-29 2023-09-19 Voice processing device, voice processing method and voice processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018066232A JP7186375B2 (ja) 2018-03-29 2018-03-29 音声処理装置、音声処理方法および音声処理システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022181948A Division JP7458013B2 (ja) 2018-03-29 2022-11-14 音声処理装置、音声処理方法および音声処理システム

Publications (2)

Publication Number Publication Date
JP2019174778A true JP2019174778A (ja) 2019-10-10
JP7186375B2 JP7186375B2 (ja) 2022-12-09

Family

ID=68058722

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018066232A Active JP7186375B2 (ja) 2018-03-29 2018-03-29 音声処理装置、音声処理方法および音声処理システム
JP2022181948A Active JP7458013B2 (ja) 2018-03-29 2022-11-14 音声処理装置、音声処理方法および音声処理システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022181948A Active JP7458013B2 (ja) 2018-03-29 2022-11-14 音声処理装置、音声処理方法および音声処理システム

Country Status (5)

Country Link
US (2) US11804220B2 (ja)
EP (1) EP3779973A4 (ja)
JP (2) JP7186375B2 (ja)
CN (1) CN111886647A (ja)
WO (1) WO2019187371A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021083355A (ja) * 2019-11-27 2021-06-03 井関農機株式会社 コンバイン
US11580981B2 (en) 2020-03-27 2023-02-14 Denso Ten Limited In-vehicle speech processing apparatus
JP7458013B2 (ja) 2018-03-29 2024-03-29 パナソニックIpマネジメント株式会社 音声処理装置、音声処理方法および音声処理システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3103618B1 (fr) * 2019-11-21 2021-10-22 Psa Automobiles Sa Dispositif pour mettre en œuvre un assistant personnel virtuel dans un véhicule automobile avec contrôle par la voix d’un utilisateur, et véhicule automobile l’incorporant
CN113113005A (zh) * 2021-03-19 2021-07-13 大众问问(北京)信息科技有限公司 语音数据处理方法、装置、计算机设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6113900U (ja) * 1984-06-29 1986-01-27 フジテツク株式会社 エレベ−タの音声応答装置
JPH1152976A (ja) * 1997-07-29 1999-02-26 Nec Home Electron Ltd 音声認識装置
JP2001051694A (ja) * 1999-08-10 2001-02-23 Fujitsu Ten Ltd 音声認識装置
JP2005055667A (ja) * 2003-08-04 2005-03-03 Sony Corp 音声処理装置
JP2015513704A (ja) * 2012-03-16 2015-05-14 ニュアンス コミュニケーションズ, インコーポレイテッド ユーザ専用自動発話認識
WO2017138934A1 (en) * 2016-02-10 2017-08-17 Nuance Communications, Inc. Techniques for spatially selective wake-up word recognition and related systems and methods

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6113900A (ja) 1984-06-29 1986-01-22 Pioneer Electronic Corp トランスデユ−サ
JPH1165586A (ja) 1997-08-18 1999-03-09 Honda Motor Co Ltd 車両用音声入力装置
JP2000148185A (ja) 1998-11-13 2000-05-26 Matsushita Electric Ind Co Ltd 認識装置及び認識方法
JP3436184B2 (ja) 1999-05-13 2003-08-11 日本電気株式会社 多チャンネル入力音声認識装置
JP3454190B2 (ja) * 1999-06-09 2003-10-06 三菱電機株式会社 雑音抑圧装置および方法
JP2001075594A (ja) 1999-08-31 2001-03-23 Pioneer Electronic Corp 音声認識システム
CN100397781C (zh) * 2000-08-14 2008-06-25 清晰音频有限公司 声音增强系统
JP3910898B2 (ja) 2002-09-17 2007-04-25 株式会社東芝 指向性設定装置、指向性設定方法及び指向性設定プログラム
JP4209247B2 (ja) * 2003-05-02 2009-01-14 アルパイン株式会社 音声認識装置および方法
EP1562180B1 (en) 2004-02-06 2015-04-01 Nuance Communications, Inc. Speech dialogue system and method for controlling an electronic device
DE602005008005D1 (de) * 2005-02-23 2008-08-21 Harman Becker Automotive Sys Spracherkennungssytem in einem Kraftfahrzeug
US20110054899A1 (en) * 2007-03-07 2011-03-03 Phillips Michael S Command and control utilizing content information in a mobile voice-to-speech application
US20090055178A1 (en) 2007-08-23 2009-02-26 Coon Bradley S System and method of controlling personalized settings in a vehicle
US20090055180A1 (en) * 2007-08-23 2009-02-26 Coon Bradley S System and method for optimizing speech recognition in a vehicle
US9779114B2 (en) * 2011-10-07 2017-10-03 Henk B. Rogers Media geotagging
KR20130133629A (ko) * 2012-05-29 2013-12-09 삼성전자주식회사 전자장치에서 음성명령을 실행시키기 위한 장치 및 방법
DE112012006617B4 (de) * 2012-06-25 2023-09-28 Hyundai Motor Company Bord-Informationsvorrichtung
US9620115B2 (en) * 2013-01-03 2017-04-11 Telenav, Inc. Content delivery system with barge-in mechanism and method of operation thereof
US20200294521A1 (en) * 2013-03-13 2020-09-17 Kopin Corporation Microphone configurations for eyewear devices, systems, apparatuses, and methods
US9671864B2 (en) * 2013-03-21 2017-06-06 Chian Chiu Li System and methods for providing information
JP6198432B2 (ja) 2013-04-09 2017-09-20 小島プレス工業株式会社 音声認識制御装置
US10026414B2 (en) * 2013-09-17 2018-07-17 Nec Corporation Speech processing system, vehicle, speech processing unit, steering wheel unit, speech processing method, and speech processing program
US10134395B2 (en) * 2013-09-25 2018-11-20 Amazon Technologies, Inc. In-call virtual assistants
US9532131B2 (en) * 2014-02-21 2016-12-27 Apple Inc. System and method of improving voice quality in a wireless headset with untethered earbuds of a mobile device
EP3040984B1 (en) * 2015-01-02 2022-07-13 Harman Becker Automotive Systems GmbH Sound zone arrangment with zonewise speech suppresion
EP3826324A1 (en) * 2015-05-15 2021-05-26 Nureva Inc. System and method for embedding additional information in a sound mask noise signal
US9913065B2 (en) * 2015-07-06 2018-03-06 Bose Corporation Simulating acoustic output at a location corresponding to source position data
EP3338461B1 (en) * 2015-08-19 2020-12-16 Retune DSP ApS Microphone array signal processing system
CN107016999B (zh) 2015-10-16 2022-06-14 谷歌有限责任公司 热词识别
US9747926B2 (en) 2015-10-16 2017-08-29 Google Inc. Hotword recognition
US9928840B2 (en) 2015-10-16 2018-03-27 Google Llc Hotword recognition
KR102476600B1 (ko) * 2015-10-21 2022-12-12 삼성전자주식회사 전자 장치, 그의 음성 인식 방법 및 비일시적 컴퓨터 판독가능 기록매체
EP3420735B1 (en) * 2016-02-25 2020-06-10 Dolby Laboratories Licensing Corporation Multitalker optimised beamforming system and method
US9997173B2 (en) * 2016-03-14 2018-06-12 Apple Inc. System and method for performing automatic gain control using an accelerometer in a headset
EP3472831B8 (en) * 2016-06-15 2020-07-01 Cerence Operating Company Techniques for wake-up word recognition and related systems and methods
JP2018066232A (ja) 2016-10-21 2018-04-26 株式会社Ihi 埋込金物及びタンクの構築方法
US10210863B2 (en) * 2016-11-02 2019-02-19 Roku, Inc. Reception of audio commands
CN106378786B (zh) * 2016-11-30 2018-12-21 北京百度网讯科技有限公司 基于人工智能的机器人
US20180190282A1 (en) * 2016-12-30 2018-07-05 Qualcomm Incorporated In-vehicle voice command control
CN110326307B (zh) * 2017-03-16 2021-06-01 松下知识产权经营株式会社 声学回声抑制装置以及声学回声抑制方法
KR20180118461A (ko) * 2017-04-21 2018-10-31 엘지전자 주식회사 음성 인식 장치 및 음성 인식 방법
KR102352560B1 (ko) * 2017-06-09 2022-01-19 현대자동차주식회사 차량용 키, 차량, 및 그 제어방법
US10966023B2 (en) * 2017-08-01 2021-03-30 Signify Holding B.V. Lighting system with remote microphone
US10504516B2 (en) * 2017-09-13 2019-12-10 Federal Signal Corporation Voice control for emergency vehicle
US10674303B2 (en) * 2017-09-29 2020-06-02 Apple Inc. System and method for maintaining accuracy of voice recognition
US10665234B2 (en) * 2017-10-18 2020-05-26 Motorola Mobility Llc Detecting audio trigger phrases for a voice recognition session
CN107808670B (zh) * 2017-10-25 2021-05-14 百度在线网络技术(北京)有限公司 语音数据处理方法、装置、设备及存储介质
US10768697B2 (en) * 2017-11-02 2020-09-08 Chian Chiu Li System and method for providing information
US10805740B1 (en) * 2017-12-01 2020-10-13 Ross Snyder Hearing enhancement system and method
EP4191412A1 (en) * 2017-12-08 2023-06-07 Google LLC Signal processing coordination among digital voice assistant computing devices
US10884104B2 (en) * 2017-12-20 2021-01-05 Ecolink Intelligent Technology, Inc. Monitoring device having 360 degree sensing capabilities
WO2019136383A1 (en) * 2018-01-05 2019-07-11 Veoneer Us, Inc. Vehicle microphone activation and/or control systems
US10657981B1 (en) * 2018-01-19 2020-05-19 Amazon Technologies, Inc. Acoustic echo cancellation with loudspeaker canceling beamformer
KR102115222B1 (ko) * 2018-01-24 2020-05-27 삼성전자주식회사 사운드를 제어하는 전자 장치 및 그 동작 방법
US20190237067A1 (en) * 2018-01-31 2019-08-01 Toyota Motor Engineering & Manufacturing North America, Inc. Multi-channel voice recognition for a vehicle environment
US10885907B2 (en) * 2018-02-14 2021-01-05 Cirrus Logic, Inc. Noise reduction system and method for audio device with multiple microphones
WO2019181758A1 (ja) * 2018-03-19 2019-09-26 パナソニックIpマネジメント株式会社 会話支援装置
US10297245B1 (en) * 2018-03-22 2019-05-21 Cirrus Logic, Inc. Wind noise reduction with beamforming
JP7186375B2 (ja) 2018-03-29 2022-12-09 パナソニックIpマネジメント株式会社 音声処理装置、音声処理方法および音声処理システム
JP7023823B2 (ja) * 2018-11-16 2022-02-22 アルパイン株式会社 車載装置及び音声認識方法
CN113327608B (zh) * 2021-06-03 2022-12-09 阿波罗智联(北京)科技有限公司 针对车辆的语音处理方法、装置、电子设备和介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6113900U (ja) * 1984-06-29 1986-01-27 フジテツク株式会社 エレベ−タの音声応答装置
JPH1152976A (ja) * 1997-07-29 1999-02-26 Nec Home Electron Ltd 音声認識装置
JP2001051694A (ja) * 1999-08-10 2001-02-23 Fujitsu Ten Ltd 音声認識装置
JP2005055667A (ja) * 2003-08-04 2005-03-03 Sony Corp 音声処理装置
JP2015513704A (ja) * 2012-03-16 2015-05-14 ニュアンス コミュニケーションズ, インコーポレイテッド ユーザ専用自動発話認識
WO2017138934A1 (en) * 2016-02-10 2017-08-17 Nuance Communications, Inc. Techniques for spatially selective wake-up word recognition and related systems and methods

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7458013B2 (ja) 2018-03-29 2024-03-29 パナソニックIpマネジメント株式会社 音声処理装置、音声処理方法および音声処理システム
JP2021083355A (ja) * 2019-11-27 2021-06-03 井関農機株式会社 コンバイン
JP7151694B2 (ja) 2019-11-27 2022-10-12 井関農機株式会社 コンバイン
US11580981B2 (en) 2020-03-27 2023-02-14 Denso Ten Limited In-vehicle speech processing apparatus

Also Published As

Publication number Publication date
US20240005919A1 (en) 2024-01-04
JP7186375B2 (ja) 2022-12-09
CN111886647A (zh) 2020-11-03
US11804220B2 (en) 2023-10-31
JP7458013B2 (ja) 2024-03-29
EP3779973A1 (en) 2021-02-17
WO2019187371A1 (ja) 2019-10-03
JP2023011945A (ja) 2023-01-24
US20210043198A1 (en) 2021-02-11
EP3779973A4 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
WO2019187371A1 (ja) 音声処理装置、音声処理方法および音声処理システム
EP3678135B1 (en) Voice control in a multi-talker and multimedia environment
US8019454B2 (en) Audio processing system
US10290300B2 (en) Text rule multi-accent speech recognition with single acoustic model and automatic accent detection
CN109273006B (zh) 车载系统的语音控制方法、车载系统、车辆及存储介质
US7680287B2 (en) Directional setting apparatus, directional setting system, directional setting method and directional setting program
US20050216271A1 (en) Speech dialogue system for controlling an electronic device
JP2001075594A (ja) 音声認識システム
JP2001056693A (ja) 騒音低減装置
WO2005036530A1 (en) Speech recognizer using novel multiple microphone configurations
US11393444B2 (en) Noise suppressor for a vehicle and noise suppressing method for a vehicle
JP2010156825A (ja) 音声出力装置
JP6635394B1 (ja) 音声処理装置および音声処理方法
JP2009113659A (ja) 車両用ノイズキャンセル装置
JP2024026716A (ja) 信号処理装置及び信号処理方法
CN111613201A (zh) 车内声音管理装置及方法
JP4360308B2 (ja) 車載音響制御システム及びaiエージェント
CN110737422A (zh) 一种声音信号采集方法及装置
US11928390B2 (en) Systems and methods for providing a personalized virtual personal assistant
KR20180102914A (ko) 신경회로망 학습을 통한 노이즈 제거가 적용된 인포테인먼트 시스템 및 그 제어 방법
US20200213722A1 (en) Techniques for routing audio content to an asymmetric speaker layout within a vehicle
US20200098371A1 (en) Speech recognition device, speech recognition method, non-transitory computer-readable medium storing speech recognition program
WO2022059214A1 (ja) 車載装置及び車載システム
JP2020154527A (ja) 車載装置、車載装置の制御方法、およびプログラム
JP7336928B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221117

R150 Certificate of patent or registration of utility model

Ref document number: 7186375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150