JP2017083600A - 車載収音装置及び収音方法 - Google Patents

車載収音装置及び収音方法 Download PDF

Info

Publication number
JP2017083600A
JP2017083600A JP2015210555A JP2015210555A JP2017083600A JP 2017083600 A JP2017083600 A JP 2017083600A JP 2015210555 A JP2015210555 A JP 2015210555A JP 2015210555 A JP2015210555 A JP 2015210555A JP 2017083600 A JP2017083600 A JP 2017083600A
Authority
JP
Japan
Prior art keywords
signal
sound
mixed
microphone
mixed sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015210555A
Other languages
English (en)
Inventor
古川 博基
Hiromoto Furukawa
博基 古川
丈郎 金森
Takeo Kanamori
丈郎 金森
慎一 杠
Shinichi Yuzuriha
慎一 杠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2015210555A priority Critical patent/JP2017083600A/ja
Priority to CN201610812467.5A priority patent/CN106611602A/zh
Priority to US15/298,300 priority patent/US9953641B2/en
Priority to EP16195396.3A priority patent/EP3163573A1/en
Publication of JP2017083600A publication Critical patent/JP2017083600A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02087Noise filtering the noise being separate speech, e.g. cocktail party
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L2025/783Detection of presence or absence of voice signals based on threshold decision

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

【課題】車室内で複数の話者が同時に発話した場合であっても、収音したい特定話者の音声に他の話者の音声が混入することを防止する。
【解決手段】車室内の第1の搭乗者が着座する第1の座席位置付近に設置される第1のマイクロホンと、車室内において第2の搭乗者が着座する第2の座席位置付近に設置される第2のマイクロホンと、第2のマイクロホンによって取得した第2の信号に基づいて、前記第1のマイクロホンに混入する、前記第2の搭乗者が発する音声である混入音を推定する混入音推定部と、前記第1のマイクロホンによって取得した第1の信号から、前記混入音を除去するノイズ除去部とを備える。
【選択図】図1

Description

本開示は、車室内における収音装置及び収音方法に関するものである。
特許文献1は、マイクロホンアレイの指向特性を連続的に変化させながら話者方向を検出し、マイクロホンアレイが取得した音声データを信号処理によって話者方向毎に分離し、分離した音声データ毎に音声認識を行うことを開示する(段落[0027]、[0028])。これにより、特許文献1は、図10に示すように、運転席や助手席等にそれぞれ話者1010,1020が搭乗している場合に、マイクロホンアレイ1000の指向特性範囲1110,1120,1130を容易に変化させながら音声データを取得し、これに基づいてそれぞれの話者1010,1020,1030毎に容易に音声認識を行うことができる(段落[0044]、図8)。
特開2003−114699号公報
しかし、特許文献1に示す従来技術は更なる改善の余地がある。
本開示は、車室内で複数の話者が同時に発話した場合であっても、収音したい特定話者の音声に、他の話者の音声が混入することを防止する車載収音装置等を提供するものである。
本開示の一態様は、車室内において第1の搭乗者が着座する第1の座席位置付近に設置される第1のマイクロホンと、
前記車室内において第2の搭乗者が着座する第2の座席位置付近に設置される第2のマイクロホンと、
前記第2のマイクロホンが取得した第2の信号に基づいて、前記第1のマイクロホンに混入する、前記第2の搭乗者が発する音声である混入音を推定する、混入音推定部と、
前記第1のマイクロホンが取得した第1の信号から、前記混入音を除去する、ノイズ除去部と、を備える。
本発明によれば、車室内で複数の搭乗者が同時に発話した場合であっても、収音したい特定話者の音声のみを抽出でき、特定話者の音声認識率を向上させることができる。
図1は、本開示の実施の形態1における車載収音装置が適用された収音システムの全体構成の一例を示す図である。 本開示の実施の形態1における車載収音装置の処理の一例を示すフローチャートである。 本開示の実施の形態2における車載収音装置が適用された収音システムの全体構成の一例を示す図である。 本開示の実施の形態2における車載収音装置の変形例を示す図である。 本開示の実施の形態3における車載収音装置が適用された車載システムの全体構成の一例を示す図である。 本開示の実施の形態3の車載収音装置の処理の一例を示すフローチャートである。 本開示の実施の形態4の車載収音装置が適用された収音システムの全体構成の一例を示す図である。 発話判定部が発話区間を検出する処理を説明する図である。 本開示の実施の形態4の車載収音装置の処理の一例を示すフローチャートである。 従来技術を説明する図である。
(本開示の一態様に至る経緯)
車室内において、搭乗者が発話した音声を音声入力デバイスで収音し、収音した音声から制御コマンドを認識し、機器を制御する技術が実用化されている。音声入力デバイスとしては、一般的にマイクロホンが用いられている。この場合、マイクロホンは、オーバーヘッドコンソールと呼ばれる運転者と助手席との中間に位置する天井部分に取り付けられる。そのため、搭乗者は、ハンズフリーで音声を入力できる。オーバーヘッドコンソールにマイクロホンを設置した場合、マイクロホンは話者の口元から数10cm離れて位置することになる。そのため、マイクロホンには、話者の音声のみならず車室内のノイズが混入する可能性が高くなる。これにより、マイクロホンが収音する音声の音質が劣化し、音声認識率が低下するという課題がある。
この課題を解決するために、マイクロホンとして、指向性マイクロホンを用いることが考えられる。
しかし、指向性マイクロホンの収音範囲はある程度の指向角を有し、また、サイドローブと呼ばれる指向性方向以外の方向にも感度を有している。そのため、指向性マイクロホンは、狙った話者の音声のみを収音できる訳ではない。更に、車室内は、狭い空間であり、フロント、サイド、及びリアに音を反射しやすいガラス製の窓が多く配置されている。更に、フロントやサイドの窓は、搭乗者近傍にある。そのため、話者以外の搭乗者の音声が窓ガラスで反射され、指向性マイクロホンには様々な方向から音声が到達する。その結果、複数の話者が同時に発話した場合、収音したい特定話者の方向に指向性マイクロホンの指向性を向けたとしても、指向性マイクロホンは、特定話者以外の音声も収音してしまう。したがって、単一話者での音声認識を前提としている現状の音声認識装置において、従来の構成は特定話者の音声認識率を低下させるという課題があった。
また、上記の特許文献1は、マイクロホンアレイの指向性の方向を変更しながら、話者の方向を特定する。
しかし、上記のように、車室内では様々な方向に話者の音声が飛び交っており、マイクロホンアレイには様々な方向から音声が入力される。そのため、特許文献1では、車室内に実在する話者以外の方向にも話者が存在すると判定される可能性である。したがって、特許文献1は、車室内の特定話者の音声を正確に抽出することができない。
本開示は、これらの課題を解決するものであり、車室内の特定の話者の音声を正確に抽出することができる車載収音装置等を提供することである。
本開示の一態様による車載収音装置は、車室内において第1の搭乗者が着座する第1の座席位置付近に設置される第1のマイクロホンと、
前記車室内において第2の搭乗者が着座する第2の座席位置付近に設置される第2のマイクロホンと、
前記第2のマイクロホンが取得した第2の信号に基づいて、前記第1のマイクロホンに混入する、前記第2の搭乗者が発する音声である混入音を推定する、混入音推定部と、
前記第1のマイクロホンが取得した第1の信号から、前記混入音を除去する、ノイズ除去部と、を備える。
この構成によれば、第2のマイクロホンが取得した第2の信号に基づいて、第1のマイクロホンに混入する、第2の搭乗者が発する音声である混入音が推定される。そして、第1のマイクロホンが取得した第1の信号から、混入音が除去される。
そのため、車室内で複数の搭乗者が同時に発話した場合であっても、収音したい特定話者の音声のみを抽出でき、特定話者の音声認識率を向上させることができる。また、ハンズフリー通話においても、他の搭乗者の発話による妨害を除去して、高い音声認識率を得ることができる。
上記態様において、前記第1の座席位置付近に配置される第1のスイッチと、
前記第2の座席位置付近に配置される第2のスイッチと、
を備え、
(1)前記第1のスイッチが押された場合、
前記混入音推定部は、前記第2の信号に基づいて、前記第1のマイクロホンに混入する前記第2の搭乗者が発する音声である第1の混入音を推定し、
前記ノイズ除去部は、前記第1の信号から、前記第1の混入音を除去し、
(2)前記第2のスイッチが押された場合、
前記混入音推定部は、前記第1の信号に基づいて、前記第2のマイクロホンに混入する前記第1の搭乗者が発する音声である第2の混入音を推定し、
前記ノイズ除去部は、前記第2の信号から、前記第2の混入音を除去してもよい。
この構成によれば、第1及び第2のスイッチが設けられているので、第1の搭乗者と第2の搭乗者とのいずれが特定話者であるかを正確に決定できる。
上記態様において、前記第1及び第2の信号に発話区間が含まれているか否かを判定する発話判定部を更に備え、
(1)前記発話判定部が前記第1の信号に発話区間が含まれると判定した場合、
前記混入音推定部は、前記第2の信号に基づいて、前記第1のマイクロホンに混入する前記第2の搭乗者が発する音声である第1の混入音を推定し、
前記ノイズ除去部は、前記第1の信号から、前記第1の混入音を除去し、
(2)前記発話判定部が前記第2の信号に発話区間が含まれると判定した場合、
前記混入音推定部は、前記第1の信号に基づいて、前記第2のマイクロホンに混入する前記第1の搭乗者が発する音声である第2の混入音を推定し、
前記ノイズ除去部は、前記第2の信号から、前記第2の混入音を除去してもよい。
この構成によれば、第1の信号に発話区間が含まれている場合には、第1の搭乗者の音声が抽出され、第2の信号に発話区間が含まれている場合には、第2の搭乗者の音声が抽出される。そのため、第1及び第2の搭乗者のいずれが特定話者であるのかを自動的に決定することができる。
上記態様において、前記第1の信号及び前記第2の信号には、優先度が予め設定されており、
(3)前記発話判定部が前記第1及び第2の信号のいずれにも発話区間が含まれていると判定した場合、前記第1の信号の優先度が前記第2の信号よりも高ければ、
前記混入音推定部は、前記第1の混入音を推定し、
前記ノイズ除去部は、前記第1の信号から、前記第1の混入音を除去し、
(4)前記発話判定部が前記第1及び第2の信号のいずれにも発話区間が含まれていると判定した場合、前記第2の信号の優先度が前記第1の信号よりも高ければ、
前記混入音推定部は、前記第2の混入音を推定し、
前記ノイズ除去部は、前記第2の信号から、前記第2の混入音を除去してもよい。
この構成によれば、第1及び第2の信号のいずれにも発話区間が含まれている場合、第1の信号の優先度が第2の信号よりも高ければ、第1の搭乗者の音声が抽出され、第2の信号の優先度が第1の信号よりも高ければ、第2の搭乗者の音声が抽出される。そのため、第1及び第2の搭乗者が同時に発話した場合にどちらが特定話者であるかを決定できなくなることを防止できる。
上記態様において、前記第1及び第2のマイクロホンは、単一指向性マイクロホンであってもよい。
この構成によれば、単一指向性マイクロホンを用いた場合において、特定話者の音声を正確に抽出できる。
上記態様において、前記第1及び第2のマイクロホンは、複数のマイクロホンユニットから構成されるアレイマイクロホンであってもよい。
この構成によれば、アレイマイクロホンを用いた場合において、特定話者の音声を正確に抽出できる。
上記態様において、前記混入音推定部は、前記ノイズ除去部からの出力信号が入力信号と無相関もしくは独立となるようにフィルタ係数が補正された適応フィルタを用いて前記混入音を推定してもよい。
この構成によれば、適応フィルタを用いて混入音が推定されているので、混入音を正確に求めることができる。また、適応フィルタが用いられているので、使用するにつれて混入音の推定の正確性を増大させることができる。
上記態様において、前記発話判定部は、前記第1及び第2の信号のそれぞれについて、包絡線を算出し、前記算出した包絡線の最低レベルを検知し、前記検知した最低レベルに基づいて閾値を設定し、前記第1及び第2の信号のレベルが前記設定した閾値より大きい区間を前記発話区間と判定してもよい。
この構成によれば、包絡線の最低レベルから閾値が設定されているので、閾値を固定させた場合に比べて、シーンに応じた適切な閾値を設定できる。
(実施の形態1)
図1は、本開示の実施の形態1における車載収音装置100が適用された収音システムの全体構成の一例を示す図である。収音システムは、車載収音装置100、及び後処理装置200を備える。
車載収音装置100は、マイクロホン11,12、混入音推定部2、及びノイズ除去部3を備える。マイクロホン11(第1のマイクロホンの一例)は、車室50内において搭乗者P1(第1の搭乗者の一例)が着座する座席51(第1の座席の一例)の位置付近に設置され、主に搭乗者P1の音声を収音するためのマイクロホンである。マイクロホン12(第2のマイクロホンの一例)は、車室50内において搭乗者P2(第2の搭乗者の一例)が着座する座席52(第2の座席の一例)の位置付近に設置され、主に搭乗者P2の音声を収音するためのマイクロホンである。
図1の例では、マイクロホン11は、搭乗者P1の上側且つ車室50の天井部に配置され、マイクロホン12は、搭乗者P2の上側且つ車室50の天井部に配置されている。具体的には、マイクロホン11は天井部に設けられた搭乗者P1のサンバイザーに取り付けられ、マイクロホン12は天井部に設けられた搭乗者P2のサンバイザーに取り付けられればよい。或いは、マイクロホン11は、搭乗者P1の前方のダッシュボードに設けられ、マイクロホン12は、搭乗者P2の前方のダッシュボードに設けられてもよい。或いは、マイクロホン11,12は、それぞれ、座席51及び座席52間に設けられたセンターコンソールに設けられてもよいし、センターコンソールの上側の天井部に設けられたオーバーヘッドコンソールに設けられてもよい。いずれにせよ、マイクロホン11,12は、それぞれ、搭乗者P1,P2の音声を収音することが可能な車室50内の位置であればどのような位置に配置されてもよい。
マイクロホン11,12としては、単一指向性マイクロホン或いはアレイマイクロホンが採用される。単一指向性マイクロホンが採用される場合、マイクロホン11,12は、例えば、指向性がそれぞれ搭乗者P1,P2の頭部に向かうように配置される。アレイマイクロホンは、複数のマイクロホンユニットが近接して配列されたでアレイ状に配列されたマイクロホンであり、信号処理により指向性を任意の方向に向けることが可能なマイクロホンである。アレイマイクロホンが採用される場合、マイクロホン11,12は、事前に搭乗者P1,P2のそれぞれの方向を検知し、検知した方向に向かうように指向性の方向が決定されればよい。この処理は、例えば、図略のプロセッサやCPUにより実行されればよい。
混入音推定部2は、マイクロホン12が取得した信号S2(第2の信号の一例)に基づいて、マイクロホン11に混入する、搭乗者P2が発する音声である混入音を示す混入音信号S2’を推定する。
ここで、混入音推定部2は、適応フィルタ2aを備え、適応フィルタ2aを用いて混入音信号S2’を推定すればよい。具体的には、混入音推定部2は、ノイズ除去部3から出力される信号SO(出力信号の一例)が、適応フィルタ2aの入力と無相関もしくは独立となるように、所定の適応アルゴリズムを用いて適応フィルタ21aのフィルタ係数を補正する。信号SOは、後述するように、マイクロホン11が取得した信号S1(第1の信号の一例)から混入音信号S2’が減じられた信号である。よって、信号SOが適応フィルタ2aの入力と無相関もしくは独立となるように適応フィルタ2aのフィルタ係数が補正されると、適応フィルタ2aから出力される信号は、信号S1に含まれる、搭乗者P2が発する音声が搭乗者P1が発生した音声に混入した音である混入音を示す混入音信号S2’を示すことになる。
なお、混入音推定部2は、フィルタ係数の補正処理を定期的に実行してもよいし、マイクロホン12が一定レベル以上の信号を取得する都度、実行してもよい。ここで、所定の適応アルゴリズムとしては、LMS(The least−mean−square)アルゴリズムやICA(Independent Component Analisys)アルゴリズムが採用できる。適応フィルタとしては、LMSフィルタが採用できる。
ノイズ除去部3は、信号S1から混入音信号S2’を減じ、信号SOを生成する。ここで、混入音信号S2’は信号S1に含まれる搭乗者P2が発する音声である混入音を示す。よって、信号SOは、搭乗者P1、搭乗者P2が同時に発話した場合であっても、特定話者である搭乗者P1が発した音声を示すことになる。
図1において、混入音推定部2及びノイズ除去部3は、DSP等のプロセッサで構成されてもよいし、CPUがROMに記憶された制御プログラムを実行することで実現されてもよい。このことは、後述の実施の形態においても同じである。
後処理装置200は、例えば、音声認識装置で構成され、信号SOを用いて音声認識する。ここで、音声認識装置は、公知の音声認識手法を用いて音声認識を行えばよい。図1の例では、信号SOは搭乗者P1が発した音声を示すので、音声認識装置は、搭乗者P1が発した音声を認識する。
ここで、認識される音声としては、種々の機器を制御するための制御コマンドが該当する。制御コマンドとしては、例えば、車両5が備える機器を操作するための制御コマンドが採用できる。車両5が備える機器としては、例えば、空調機器、ナビゲーション装置、クルーズコントロール装置、テレビ、及び照明等が採用できる。例えば、音声認識装置が空調器機の温度を調整する制御コマンドを認識したとすると、空調機器の温度が、認識された制御コマンドが示す温度に設定される。
なお、後処理装置200としては、音声認識装置以外の例えば、ハンズフリー装置が採用されてもよい。ハンズフリー装置は搭乗者が携帯電話を音声で操作するための装置である。例えば、ハンズフリー装置は、信号SOをBluetooth(登録商標)等の通信方式を用いて携帯電話に送信する。
車両5は、例えば、4輪自動車で構成され、車室50を備える。図1の例では、5人乗りの乗用車が車両5として採用されているが、これは一例であり、2人乗り或いは7人乗り等の乗用車が車両5として採用されてもよい。また、車両5としては、乗用車以外のバスやトラックが採用されてもよい。
車室50は、座席51〜54を備える。座席51は、ハンドル55の後方に配置された運転席であり、運転者である搭乗者P1によって着座される。
座席52は、上面視において座席51の左側に配置された助手席であり、搭乗者P2によって着座される。座席53,54は、後部座席であり、それぞれ、座席51,52の後方に設けられている。
図2は、本開示の実施の形態1における車載収音装置100の処理の一例を示すフローチャートである。なお、図2に示すフローチャートは一定の時間間隔毎に実行されてもよいし、マイクロホン11,12が一定レベル以上の音声を収音した場合に実行されてもよい。このことは、後述する、図6、図9のフローチャートにおいても同じである。まず、マイクロホン11,12は、それぞれ、信号S1,S2を取得する(S301)。
次に、混入音推定部2は、信号S2を適応フィルタ2aを用いてフィルタリングすることで、信号S1に含まれる搭乗者P2が発する音声である混入音を示す混入音信号S2’を推定する(S302)。
次に、ノイズ除去部3は、信号S1から混入音信号S2’を減じることで信号SOを生成する。
このように、本実施の形態によれば、車室内で複数の搭乗者が同時に発話した場合であっても、収音したい特定話者の音声のみを抽出でき、特定話者の音声認識率を向上させることができる。
なお、上記の説明では、搭乗者P1が特定話者であるとして説明したが、搭乗者P2が特定話者であってもよい。この場合、マイクロホン11及びノイズ除去部3間に混入音推定部2に接続し、マイクロホン12をノイズ除去部3に接続すればよい。
(実施の形態2)
実施の形態2は、前部座席に加えて後部座席にもマイクロホンを設けたことを特徴とする。なお、本実施の形態において、実施の形態1と同じ構成要素には同一の符号を付し、説明を省略する。図3は、本開示の実施の形態2における車載収音装置100が適用された収音システムの全体構成の一例を示す図である。
図3において、図1との相違点は、後部座席である座席53,54のそれぞれにマイクロホン13,14が設けられている点、マイクロホン12,13,14のそれぞれに対応する3つの混入音推定部21,22,23が設けられている点にある。
図3の例では、搭乗者P1が特定話者とされているが、これは一例であり、搭乗者P2,P3,P4のいずれかが特定話者とされてもよい。
マイクロホン13は、例えば、座席53の上側の天井部に配置され、主に搭乗者P3の音声を収音する。マイクロホン14は、例えば、座席54の上側の天井部に配置され、主に搭乗者P4の音声を収音する。マイクロホン13,14は、実施の形態1と同様、単一指向性マイクロホンが採用されてもよいし、アレイマイクロホンが採用されてもよい。マイクロホン13,14は、それぞれ、指向性が搭乗者P3,P4の方向に向けられている。
以下、マイクロホン13が取得する信号を信号S3、マイクロホン14が取得する信号を信号S4とする。
混入音推定部21,22,23は、それぞれ、適応フィルタ21a,21b,21cを備える。混入音推定部21は、信号S2と信号SOとを用いて、マイクロホン11に混入する、搭乗者P2が発する音声である混入音を示す混入音信号S2’を推定する。ここで、混入音推定部21は、実施の形態1と同様、信号SOが適応フィルタ2aの入力と無相関もしくは独立となるように所定の適応アルゴリズムを用いてフィルタ係数が補正された適応フィルタ21aを用いて、信号S2をフィルタリングすることで、混入音信号S2’を推定する。混入音信号S2’は、信号S2を用いて推定された信号なので、主に、信号S1に混入する搭乗者P2の音声を示す。
混入音推定部22,23も、混入音推定部21と同様、それぞれ、信号S3,S4を用いて、混入音信号S3’,S4’を推定する。ここで、混入音信号S3’,S4’は、それぞれ、信号S3,S4を用いて推定された信号なので、主に信号S1に混入する搭乗者P3,P4の音声を示す。
ノイズ除去部3は、信号S1から混入音信号S2’,S3’,S4’を減じることで、信号SOを生成する。これにより、信号S1から特定話者である搭乗者P1が発した音声以外の信号がノイズとして除去された信号が信号SOとして得られる。
このように、実施の形態3では、後部座席である座席53,54のそれぞれにマイクロホン13,14を設けた場合であっても、特定話者の音声のみを抽出できる。
なお、図3において、特定話者が搭乗者P1以外の搭乗者P2,P3,P4のいずれか1の搭乗者とされた場合、その1の搭乗者以外に対応する3つのマイクロホンのそれぞれに混入音推定部21,22,23が接続されればよい。
図4は、本開示の実施の形態2における車載収音装置100の変形例を示す図である。図3では、マイクロホン11〜14は、それぞれ、上面視において対応する座席の左右方向の中央に設けられていた。これに対し、図4では、マイクロホン11〜14は、それぞれ、上面視において、車室50の左右方向の真ん中を通る中心線を挟んで左右方向に隣接して配置されている。図4の態様が採用される場合、マイクロホン11,12は、車室50の天井部に設けられた前部座席用のオーバーヘッドコンソールに設けられればよい。また、マイクロホン13,14は、車室50の天井部に設けられた後部座席用のオーバーヘッドコンソールに設けられればよい。なお、図3、図4のいずれの態様を採用する場合であっても、マイクロホン11〜14は、それぞれ、対応する搭乗者P1〜P4の頭部に向けて指向性が設定されればよい。
(実施の形態3)
実施の形態3の車載収音装置100は、特定話者を指定するためのスイッチを備えることを特徴とする。図5は、本開示の実施の形態3における車載収音装置100が適用された車載システムの全体構成の一例を示す図である。なお、本実施の形態において実施の形態1と同一の構成要素には同一の符号を付し、説明を省略する。
図5において、図1との相違点は、スイッチSW1,SW2及びセレクタ31,32が設けられている点にある。スイッチSW1,SW2は、例えば、押しボタン式のスイッチで構成され、それぞれ、座席51,52の付近に配置されている。ここでは、スイッチSW1,SW2は、例えば、車室50内の天井部に配置されている。図5の例では、スイッチSW1,SW2では、上面視において、車室50の左右方向の真ん中を通る中心線を挟んで左右方向に隣接するように、オーバーヘッドコンソールに配置されている。但し、スイッチSW1,SW2の配置位置は、これに限定されず、それぞれ、搭乗者P1,P2が操作可能な位置であれば、どのような位置に配置されてもよい。例えば、ダッシュボードやセンターコンソールや座席51,52の座部の裏側にスイッチSW1,SW2は配置されてもよい。
スイッチSW1,SW2は、それぞれ、天井面に対して陥没自在に構成され、例えば、天井面から陥没された状態でON、天井面と同一面上に位置する状態でOFFとなる。また、スイッチSW1,SW2は、例えば、同時にONにならないように排他的にONするように構成されている。スイッチSW1は、搭乗者P1が特定話者とされる場合にONされ、スイッチSW2は、搭乗者P2が特定話者とされる場合にONされる。以下、スイッチSW1、SW2が同時にONされることはないものとする。
セレクタ31は、スイッチSW1がON且つスイッチSW2がOFFの場合、信号S1を選択してノイズ除去部3に出力する。また、セレクタ31は、スイッチSW1がOFF且つスイッチSW2がONの場合、信号S2を選択して、ノイズ除去部3に出力する。
セレクタ32は、スイッチSW1がON且つスイッチSW2がOFFの場合、信号S2を選択して混入音推定部2に出力する。また、セレクタ32は、スイッチSW1がOFF且つスイッチSW2がONの場合、信号S1を選択して混入音推定部2に出力する。
なお、セレクタ31,32は、DSPで構成されてもよいし、CPUがROMに格納された制御プログラムを実行することで実現されてもよい。このことは実施の形態4も同じである。
混入音推定部2は、スイッチSW1がON且つスイッチSW2がOFFの場合、信号S2が入力され、適応フィルタ2αを用いて混入音信号S2’(第1の混入音信号の一例)を推定する。一方、混入音推定部2は、スイッチSW1がOFF且つスイッチSW2がONの場合、信号S1が入力され、適応フィルタ2αを用いて混入音信号S1’(第2の混入音信号の一例)を推定する。
ここで、適応フィルタ2αは、実施の形態1と同様、セレクタ32により信号S2が選択された場合において、信号SOが適応フィルタ2aの入力と無相関もしくは独立となるように、所定の適応アルゴリズムを用いて、補正係数が補正されたフィルタである。したがって、混入音信号S2’は信号S1に含まれる、搭乗者P2が発する音声である混入音を示す。
また、適応フィルタ2αは、実施の形態1と同様、セレクタ32により信号S1が選択された場合において、信号SOが適応フィルタ2aの入力と無相関もしくは独立となるように、所定の適応アルゴリズムを用いて、フィルタ係数が補正されたフィルタである。したがって、混入音信号S1’は信号S2に含まれる、搭乗者P1が発する音声である混入音を示す。
図6は、本開示の実施の形態3の車載収音装置100の処理の一例を示すフローチャートである。まず、マイクロホン11,12は、それぞれ、信号S1,S2を取得する(S601)。
次に、スイッチSW1がONであれば(S602でYES)、セレクタ31は信号S1を選択してノイズ除去部3に出力し、セレクタ32は信号S2を選択して混入音推定部2に出力する(S603)。
次に、混入音推定部2は、信号S2を適応フィルタ2αを用いてフィルタリングし、混入音信号S2’を推定し、ノイズ除去部3に出力する(S604)。
次に、ノイズ除去部3は、信号S1から混入音信号S2’を減じ、信号SOを生成する(S605)。
スイッチSW1がOFF且つスイッチSW2がONの場合(S602でNO且つS606でYES)、セレクタ31は信号S2を選択してノイズ除去部3に出力し、セレクタ32は信号S1を選択して混入音推定部2に出力する(S607)。
次に、混入音推定部2は、信号S1を適応フィルタ2αを用いてフィルタリングし、混入音信号S1’を推定し、ノイズ除去部3に出力する(S608)。
次に、ノイズ除去部3は、信号S2から混入音信号S1’を減じ、信号SOを生成する(S609)。
スイッチSW1がOFF且つスイッチSW2がOFFの場合(S602でNO且つS606でNO)、処理は終了される。
このように、本実施の形態では、スイッチSW1,SW2が設けられているので、搭乗者P1,P2のいずれが特定話者であるかを正確に決定できる。
なお、図6のフローチャートにおいて、スイッチSW1がOFF且つスイッチSW2がOFFの場合(S602でNO且つS606でNO)、処理が終了されていたが、本開示はこれに限定されない。例えば、スイッチSW1がOFF且つスイッチSW2がOFFの場合、セレクタ31,32は、それぞれ、搭乗者P1を特定話者と判定し、信号S1,S2を選択してもよいし、搭乗者P2を特定話者と判定し、信号S2,S1を選択してもよい。或いは、後述する実施の形態4に示されるように信号S1,S2に優先度が設定されているのであれば、セレクタ31,32は、優先度が高い方の信号S1,S2に対応する搭乗者を特定話者と判定してもよい。或いは、信号S1,S2のうちレベルの高い方の信号に対応する搭乗者を特定話者と判定してもよい。なお、優先度は事前に設定されており、例えば、記憶装置に予め記憶されている。また、優先度は搭乗者の操作により事後的に変更できるようにしてもよい。
また、図5の例では、2つのマイクロホン11,12が設けられているが、本開示はこれに限定されず、図3に示すようにマイクロホン13,14が設けられてもよい。
(実施の形態4)
実施の形態4の車載収音装置100は、発話している搭乗者を特定話者として決定することを特徴とする。図7は、本開示の実施の形態4の車載収音装置100が適用された収音システムの全体構成の一例を示す図である。なお、本実施の形態において実施の形態1と同一の構成要素には同一の符号を付し、説明を省略する。
図7において、図1との相違点は、発話判定部6及びセレクタ31,32が設けられている点にある。発話判定部6は、信号S1,S2に発話区間が含まれているか否かを判定する。図8は、発話判定部6が発話区間を検出する処理を説明する図である。図8において、縦軸はマイクロホン11,12が取得する信号(以下、「音声信号Sig1」と記述する。)のレベルを示し、横軸は時間を示す。
音声信号Sig1は、高周波で振幅が変動する波形を持つ。発話判定部6は、音声信号Sig1に対して、処理区間ΔTを設定する。なお、処理区間ΔTは、時間軸に沿って、一定の時間間隔でずらすように設定される。次に、発話判定部6は、処理区間ΔTにおいて音声信号Sig1の包絡線Sig2を求める。図8では、包絡線Sig2は音声信号Sig1の上側に設定されているが、これは一例であり、下側に設定されてもよい。
次に、発話判定部6は包絡線Sig2の最低レベルA1を検出する。次に、発話判定部6は最低レベルA1を所定倍した値を閾値Thとして設定する。ここではボトムレベルA1には1より大きい数(例えば、2,3といった数)が乗じられる。
次に、発話判定部6は、音声信号Sig1のレベルが閾値Th以上の区間を発話区間ΔT1と判定する。
なお、発話判定部6は、DSPで構成されてもよいし、CPUがROMに格納された制御プログラムを実行することで実現されてもよい。
図7に参照を戻す。発話判定部6が信号S1に発話区間が含まれると判定した場合、セレクタ31は信号S1を選択してノイズ除去部3に出力し、セレクタ32は信号S2を選択して混入音推定部2に出力する。
また、発話判定部6が信号S2に発話区間が含まれると判定した場合、セレクタ31は信号S2を選択してノイズ除去部3に出力し、セレクタ32は信号S1を選択して混入音推定部2に出力する。
更に、発話判定部6が信号S1,S2の両方に発話区間が含まれると判定した場合、信号S1の優先度が信号S2よりも高ければ、セレクタ31は信号S1を選択してノイズ除去部3に出力し、セレクタ32は信号S2を選択して混入音推定部2に出力する。
更に、発話判定部6が信号S1,S2の両方に発話区間が含まれると判定した場合、信号S2の優先度が信号S1よりも高ければ、セレクタ31は信号S2を選択してノイズ除去部3に出力し、セレクタ32は信号S1を選択して混入音推定部2に出力する。
混入音推定部2は、実施の形態3と同様、適応フィルタ2αを備える。混入音推定部2は、セレクタ32により選択された信号S2が入力され、適応フィルタ2αを用いて混入音信号S2’(第1の混入音信号の一例)を推定する。また、混入音推定部2は、セレクタ32により選択された信号S1が入力され、適応フィルタ2αを用いて混入音信号S1’(第2の混入音信号の一例)を推定する。
図9は、本開示の実施の形態4の車載収音装置100の処理の一例を示すフローチャートである。まず、マイクロホン11,12は、それぞれ、信号S1,S2を取得する(S901)。次に、発話判定部6は信号S1,S2のそれぞれから発話区間を検出する(S902)。
信号S1のみに発話区間が含まれている場合(S903でYES且つS904でNO)、セレクタ31は信号S1を選択してノイズ除去部3に出力し、セレクタ32は信号S2を選択し、混入音推定部2に出力する(S906)。
次に、混入音推定部2は、信号S2を適応フィルタ2αを用いてフィルタリングし、混入音信号S2’を推定し、ノイズ除去部3に出力する(S907)。
次に、ノイズ除去部3は、信号S1から混入音信号S2’を減じ、信号SOを生成する(S908)。
一方、信号S2のみに発話区間が含まれている場合(S903でNO且つS910でYES)、セレクタ31は信号S2を選択してノイズ除去部3に出力し、セレクタ32は信号S1を選択して混入音推定部2に出力する(S911)。
次に、混入音推定部2は、信号S1を適応フィルタ2αを用いてフィルタリングし、混入音信号S1’を推定し、ノイズ除去部3に出力する(S912)。
次に、ノイズ除去部3は、信号S2から混入音信号S1’を減じ、信号SOを生成する(S913)。
信号S1及び信号S2に発話区間が含まれている場合(S903でYES且つS904でYES)、信号S1の優先度が信号S2よりも高ければ(S905でYES)、上述のS906,S907,S908の処理が実行される。
一方、信号S2の優先度が信号S1よりも高ければ(S905でNO)、上述のS911,S912,S913の処理が実行される。
信号S1及び信号S2のいずれにも発話区間が含まれていない場合(S903でNO且つS910でNO)、処理が終了される。
このように、本実施の形態によれば、信号S1に発話区間が含まれている場合には、搭乗者P1の音声が抽出され、信号S2に発話区間が含まれている場合には、搭乗者P2の音声が抽出される。そのため、搭乗者P1,P2のいずれが特定話者であるのかを自動的に決定することができる。
また、信号S1,S2のいずれにも発話区間が含まれている場合、信号S1,S2の優先度に応じて、搭乗者P1,P2のいずれか一方の音声が抽出される。そのため、搭乗者P1,P2が同時に発話した場合にどちらが特定話者であるかを決定できなくなることを防止できる。
なお、本実施の形態では、信号S1,S2のいずれにも発話区間が含まれている場合、信号S1,S2の優先度に応じてノイズの除去対象となる信号が決定されていたが、本開示はこれに限定されない。例えば、信号S1,S2のうちレベルが高い方の信号をノイズの除去対象となる信号として決定されてもよい。この場合、発話判定部6は発話区間における信号の平均レベルを算出し、平均レベルが高い方の信号をノイズの除去対象となる信号として決定すればよい。そして、発話判定部6が信号S1のレベルが信号S2よりも高いと判定した場合、セレクタ31,32、混入音推定部2、及びノイズ除去部3は、上記の信号S1の優先度が信号S2よりも高い場合の処理と同一の処理を行えばよい。一方、発話判定部6が信号S2のレベルが信号S1よりも高いと判定した場合、セレクタ31,32、混入音推定部2、及びノイズ除去部3は、上記の信号S2の優先度が信号S1よりも高い場合の処理と同一の処理を行えばよい。
また、図7の例では、2つのマイクロホン11,12が設けられているが、本開示はこれに限定されず、図3に示すようにマイクロホン13,14が設けられてもよい。
また、実施の形態1〜4において、マイクロホン及びスイッチは座席の付近に設置されているとして説明したが、座席に設置されてもよい。この場合、マイクロホン及びスイッチは例えば、座席のヘッドレストなどに設置されればよい。また、後部座席のマイクロホン及びは例えば、前部座席の後部座席側の面に配置されてもよい。すなわち、本開示において「座席位置付近」とは座席を含む概念である。
本開示の車載収音装置は、車室内で複数の搭乗者が同時に発話した場合であっても、収音したい特定話者の音声のみを抽出できるので、車室内で音声認識を行う技術にとって有用である。
P1,P2,P3,P4 搭乗者
S1’,S2’,S3’ 混入音信号
S1,S2,S3,S4 信号
SO 信号
SW1,SW2 スイッチ
Sig2 包絡線
ΔT1 発話区間
2,21,22,23 混入音推定部
2a,21a,21b,21c,2α 適応フィルタ
3 ノイズ除去部
5 車両
6 発話判定部
11,12,13,14 マイクロホン
31,32 セレクタ
50 車室
51,52,53,54 座席
100 車載収音装置
200 後処理装置

Claims (9)

  1. 車室内において第1の搭乗者が着座する第1の座席位置付近に設置される第1のマイクロホンと、
    前記車室内において第2の搭乗者が着座する第2の座席位置付近に設置される第2のマイクロホンと、
    前記第2のマイクロホンが取得した第2の信号に基づいて、前記第1のマイクロホンに混入する、前記第2の搭乗者が発する音声である混入音を推定する、混入音推定部と、
    前記第1のマイクロホンが取得した第1の信号から、前記混入音を除去する、ノイズ除去部と、
    を備える車載収音装置。
  2. 前記第1の座席位置付近に配置される第1のスイッチと、
    前記第2の座席位置付近に配置される第2のスイッチと、
    を備え、
    (1)前記第1のスイッチが押された場合、
    前記混入音推定部は、前記第2の信号に基づいて、前記第1のマイクロホンに混入する前記第2の搭乗者が発する音声である第1の混入音を推定し、
    前記ノイズ除去部は、前記第1の信号から、前記第1の混入音を除去し、
    (2)前記第2のスイッチが押された場合、
    前記混入音推定部は、前記第1の信号に基づいて、前記第2のマイクロホンに混入する前記第1の搭乗者が発する音声である第2の混入音を推定し、
    前記ノイズ除去部は、前記第2の信号から、前記第2の混入音を除去する、
    請求項1に記載の車載収音装置。
  3. 前記第1及び第2の信号に発話区間が含まれているか否かを判定する発話判定部を更に備え、
    (1)前記発話判定部が前記第1の信号に発話区間が含まれると判定した場合、
    前記混入音推定部は、前記第2の信号に基づいて、前記第1のマイクロホンに混入する前記第2の搭乗者が発する音声である第1の混入音を推定し、
    前記ノイズ除去部は、前記第1の信号から、前記第1の混入音を除去し、
    (2)前記発話判定部が前記第2の信号に発話区間が含まれると判定した場合、
    前記混入音推定部は、前記第1の信号に基づいて、前記第2のマイクロホンに混入する前記第1の搭乗者が発する音声である第2の混入音を推定し、
    前記ノイズ除去部は、前記第2の信号から、前記第2の混入音を除去する、
    請求項1に記載の車載収音装置。
  4. 前記第1の信号及び前記第2の信号には、優先度が予め設定されており、
    (3)前記発話判定部が前記第1及び第2の信号のいずれにも発話区間が含まれていると判定した場合、前記第1の信号の優先度が前記第2の信号よりも高ければ、
    前記混入音推定部は、前記第1の混入音を推定し、
    前記ノイズ除去部は、前記第1の信号から、前記第1の混入音を除去し、
    (4)前記発話判定部が前記第1及び第2の信号のいずれにも発話区間が含まれていると判定した場合、前記第2の信号の優先度が前記第1の信号よりも高ければ、
    前記混入音推定部は、前記第2の混入音を推定し、
    前記ノイズ除去部は、前記第2の信号から、前記第2の混入音を除去する、
    請求項3に記載の車載収音装置。
  5. 前記第1及び第2のマイクロホンは、単一指向性マイクロホンである、
    請求項1〜4のいずれか1項に記載の車載収音装置。
  6. 前記第1及び第2のマイクロホンは、複数のマイクロホンユニットから構成されるアレイマイクロホンである、
    請求項1〜4のいずれか1項に記載の車載収音装置。
  7. 前記混入音推定部は、前記ノイズ除去部からの出力信号が入力信号と無相関もしくは独立となるようにフィルタ係数が補正された適応フィルタを用いて前記混入音を推定する、
    請求項1〜6のいずれか1項に記載の車載収音装置。
  8. 前記発話判定部は、前記第1及び第2の信号のそれぞれについて、包絡線を算出し、前記算出した包絡線の最低レベルを検知し、前記検知した最低レベルに基づいて閾値を設定し、前記第1及び第2の信号のレベルが前記設定した閾値より大きい区間を前記発話区間と判定する請求項3又は4に記載の車載収音装置。
  9. 車室内において第1の搭乗者が着座する第1の座席位置付近に設置される第1のマイクロホンから第1の信号を取得し、
    前記車室内において第2の搭乗者が着座する第2の座席位置付近に設置される第2のマイクロホンから第2の信号を取得し、
    前記第2の信号に基づいて、前記第1のマイクロホンに混入する、前記第2の搭乗者が発する音声である混入音を推定し、
    前記第1の信号から、前記混入音を除去する、
    収音方法。
JP2015210555A 2015-10-27 2015-10-27 車載収音装置及び収音方法 Pending JP2017083600A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015210555A JP2017083600A (ja) 2015-10-27 2015-10-27 車載収音装置及び収音方法
CN201610812467.5A CN106611602A (zh) 2015-10-27 2016-09-09 车载声音收集装置以及声音收集方法
US15/298,300 US9953641B2 (en) 2015-10-27 2016-10-20 Speech collector in car cabin
EP16195396.3A EP3163573A1 (en) 2015-10-27 2016-10-25 Speech collector in car cabin

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015210555A JP2017083600A (ja) 2015-10-27 2015-10-27 車載収音装置及び収音方法

Publications (1)

Publication Number Publication Date
JP2017083600A true JP2017083600A (ja) 2017-05-18

Family

ID=57208129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015210555A Pending JP2017083600A (ja) 2015-10-27 2015-10-27 車載収音装置及び収音方法

Country Status (4)

Country Link
US (1) US9953641B2 (ja)
EP (1) EP3163573A1 (ja)
JP (1) JP2017083600A (ja)
CN (1) CN106611602A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019080246A (ja) * 2017-10-26 2019-05-23 パナソニックIpマネジメント株式会社 指向性制御装置および指向性制御方法
WO2020027062A1 (ja) * 2018-08-02 2020-02-06 日本電信電話株式会社 集音拡声装置、その方法、およびプログラム
EP3706124A1 (en) 2019-03-06 2020-09-09 Panasonic Intellectual Property Corporation of America Signal processing device and signal processing method
JP2022120020A (ja) * 2021-06-08 2022-08-17 阿波▲羅▼智▲聯▼(北京)科技有限公司 マルチサウンドゾーン音声ウェイクアップ・認識方法及び装置、電子機器、記憶媒体、コンピュータプログラム
JP7437650B2 (ja) 2019-11-21 2024-02-26 パナソニックIpマネジメント株式会社 音響クロストーク抑圧装置および音響クロストーク抑圧方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11393461B2 (en) 2013-03-12 2022-07-19 Cerence Operating Company Methods and apparatus for detecting a voice command
EP3414759B1 (en) * 2016-02-10 2020-07-01 Cerence Operating Company Techniques for spatially selective wake-up word recognition and related systems and methods
EP3754653A1 (en) 2016-06-15 2020-12-23 Cerence Operating Company Techniques for wake-up word recognition and related systems and methods
EP3535751A4 (en) 2016-11-10 2020-05-20 Nuance Communications, Inc. METHOD FOR LANGUAGE-INDEPENDENT WAY RECOGNITION
CN110650422A (zh) * 2018-06-26 2020-01-03 深圳市智汇声科技有限公司 听力辅助方法、系统及其主机和从机
JP7020554B2 (ja) * 2018-08-02 2022-02-16 日本電信電話株式会社 会話サポートシステム、その方法、およびプログラム
US11170752B1 (en) * 2020-04-29 2021-11-09 Gulfstream Aerospace Corporation Phased array speaker and microphone system for cockpit communication

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3745517A (en) * 1970-05-11 1973-07-10 Us Navy Distance measuring device and method
US3992584A (en) * 1975-05-09 1976-11-16 Dugan Daniel W Automatic microphone mixer
US4090032A (en) * 1976-05-05 1978-05-16 Wm. A. Holmin Corporation Control system for audio amplifying system having multiple microphones
US5475731A (en) * 1994-01-07 1995-12-12 Ericsson Inc. Echo-canceling system and method using echo estimate to modify error signal
US20020071573A1 (en) 1997-09-11 2002-06-13 Finn Brian M. DVE system with customized equalization
US6505057B1 (en) 1998-01-23 2003-01-07 Digisonix Llc Integrated vehicle voice enhancement system and hands-free cellular telephone system
US7117145B1 (en) * 2000-10-19 2006-10-03 Lear Corporation Adaptive filter for speech enhancement in a noisy environment
JP2003114699A (ja) 2001-10-03 2003-04-18 Auto Network Gijutsu Kenkyusho:Kk 車載音声認識システム
US20090312660A1 (en) * 2008-06-17 2009-12-17 Biorics Nv Recognition and localisation of pathologic animal and human sounds
EP2151821B1 (en) * 2008-08-07 2011-12-14 Nuance Communications, Inc. Noise-reduction processing of speech signals
FR2946203B1 (fr) * 2009-05-28 2016-07-29 Ixmotion Procede et dispositif d'attenuation d'un bruit a bande etroite dans un habitacle d'un vehicule
US8831942B1 (en) * 2010-03-19 2014-09-09 Narus, Inc. System and method for pitch based gender identification with suspicious speaker detection
JP2014178339A (ja) 2011-06-03 2014-09-25 Nec Corp 音声処理システム、発話者の音声取得方法、音声処理装置およびその制御方法と制御プログラム
US20130282373A1 (en) * 2012-04-23 2013-10-24 Qualcomm Incorporated Systems and methods for audio signal processing
US9071892B2 (en) * 2012-05-14 2015-06-30 General Motors Llc Switching between acoustic parameters in a convertible vehicle
US20140142928A1 (en) * 2012-11-21 2014-05-22 Harman International Industries Canada Ltd. System to selectively modify audio effect parameters of vocal signals
WO2014125669A1 (ja) 2013-02-12 2014-08-21 日本電気株式会社 音声入力装置、音声処理方法、音声処理プログラム、天井部材ならびに車両
US9905243B2 (en) * 2013-05-23 2018-02-27 Nec Corporation Speech processing system, speech processing method, speech processing program, vehicle including speech processing system on board, and microphone placing method
US9431013B2 (en) * 2013-11-07 2016-08-30 Continental Automotive Systems, Inc. Co-talker nulling for automatic speech recognition systems
US9426373B2 (en) * 2013-12-04 2016-08-23 Cisco Technology, Inc. Whiteboard activity noise detection system for immersive telepresence systems
US9532131B2 (en) * 2014-02-21 2016-12-27 Apple Inc. System and method of improving voice quality in a wireless headset with untethered earbuds of a mobile device
US9706299B2 (en) * 2014-03-13 2017-07-11 GM Global Technology Operations LLC Processing of audio received at a plurality of microphones within a vehicle

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019080246A (ja) * 2017-10-26 2019-05-23 パナソニックIpマネジメント株式会社 指向性制御装置および指向性制御方法
WO2020027062A1 (ja) * 2018-08-02 2020-02-06 日本電信電話株式会社 集音拡声装置、その方法、およびプログラム
CN112544088A (zh) * 2018-08-02 2021-03-23 日本电信电话株式会社 拾音扩音装置、其方法以及程序
JPWO2020027062A1 (ja) * 2018-08-02 2021-08-02 日本電信電話株式会社 集音拡声装置、その方法、およびプログラム
CN112544088B (zh) * 2018-08-02 2022-05-24 日本电信电话株式会社 拾音扩音装置、其方法以及记录介质
JP7147849B2 (ja) 2018-08-02 2022-10-05 日本電信電話株式会社 集音拡声装置、その方法、およびプログラム
EP3706124A1 (en) 2019-03-06 2020-09-09 Panasonic Intellectual Property Corporation of America Signal processing device and signal processing method
JP2020144204A (ja) * 2019-03-06 2020-09-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 信号処理装置及び信号処理方法
CN111667845A (zh) * 2019-03-06 2020-09-15 松下电器(美国)知识产权公司 信号处理装置及信号处理方法
US11323802B2 (en) 2019-03-06 2022-05-03 Panasonic Intellectual Property Corporation Of America Signal processing device and signal processing method
JP7437650B2 (ja) 2019-11-21 2024-02-26 パナソニックIpマネジメント株式会社 音響クロストーク抑圧装置および音響クロストーク抑圧方法
JP2022120020A (ja) * 2021-06-08 2022-08-17 阿波▲羅▼智▲聯▼(北京)科技有限公司 マルチサウンドゾーン音声ウェイクアップ・認識方法及び装置、電子機器、記憶媒体、コンピュータプログラム

Also Published As

Publication number Publication date
CN106611602A (zh) 2017-05-03
EP3163573A1 (en) 2017-05-03
US20170116983A1 (en) 2017-04-27
US9953641B2 (en) 2018-04-24

Similar Documents

Publication Publication Date Title
JP2017083600A (ja) 車載収音装置及び収音方法
JP6611474B2 (ja) 集音装置、及び集音装置の制御方法
US8996383B2 (en) Motor-vehicle voice-control system and microphone-selecting method therefor
JP6198432B2 (ja) 音声認識制御装置
EP2766901B1 (en) Speech signal enhancement using visual information
CN108235187B (zh) 啸声抑制设备和啸声抑制方法
JP6635394B1 (ja) 音声処理装置および音声処理方法
US20160127827A1 (en) Systems and methods for selecting audio filtering schemes
JP2016161754A (ja) 車載装置
US20040170286A1 (en) Method for controlling an acoustic system in a vehicle
JP2016126022A (ja) 音声処理装置
WO2017056706A1 (ja) 車載音響装置
JP2017069806A (ja) スピーカアレイ装置
US10798247B2 (en) Acoustic echo suppression device and acoustic echo suppression method
US20210142802A1 (en) Vehicular apparatus, vehicle, operation method of vehicular apparatus, and storage medium
US12039965B2 (en) Audio processing system and audio processing device
JP2020134566A (ja) 音声処理システム、音声処理装置及び音声処理方法
JP5122414B2 (ja) 車室内会話補助装置
JP2019080246A (ja) 指向性制御装置および指向性制御方法
KR20170099485A (ko) 사운드 수신 장치, 그를 가지는 차량 및 그 제어 방법
JP2016082443A (ja) スピーカ配置選択装置、スピーカ配置選択方法及び音場制御システム
JP7163876B2 (ja) 車内会話支援装置
JP6206365B2 (ja) 雑音抑圧装置
JP6573657B2 (ja) 音量制御装置、音量制御方法、及び、音量制御プログラム
JP2020080510A (ja) コミュニケーションシステム