JP2020122835A - 音声処理装置および音声処理方法 - Google Patents
音声処理装置および音声処理方法 Download PDFInfo
- Publication number
- JP2020122835A JP2020122835A JP2019013446A JP2019013446A JP2020122835A JP 2020122835 A JP2020122835 A JP 2020122835A JP 2019013446 A JP2019013446 A JP 2019013446A JP 2019013446 A JP2019013446 A JP 2019013446A JP 2020122835 A JP2020122835 A JP 2020122835A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- voice
- filter
- voice signal
- crosstalk component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000012545 processing Methods 0.000 claims description 181
- 230000005236 sound signal Effects 0.000 claims description 68
- 230000006866 deterioration Effects 0.000 abstract description 7
- 230000003044 adaptive effect Effects 0.000 description 77
- 238000001514 detection method Methods 0.000 description 68
- 230000000875 corresponding effect Effects 0.000 description 53
- 238000000034 method Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 30
- 230000001629 suppression Effects 0.000 description 24
- 230000014509 gene expression Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 13
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 241000282414 Homo sapiens Species 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
- H04R3/14—Cross-over networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0264—Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/403—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02087—Noise filtering the noise being separate speech, e.g. cocktail party
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/13—Acoustic transducers and sound field adaptation in vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Otolaryngology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
Description
車室内での会話を効果的に支援するために、例えば高級車では、それぞれの乗員が座る各シートにマイクが配置されている。高級車に搭載された音声処理装置は、各マイクで収音される音声を用いて音声の指向性を形成することで、マイクと向き合う乗員である話者(本来話したい話者)が発話した音声を強調する。これにより、車室内における音声のマイクへの伝達特性が理想的な環境である場合には、聞き手(つまり聴取者)は、話者が発話した音声を聞き取り易くなる。しかし、車室内は狭空間であるので、マイクは、反射した音の影響を受け易い。また、移動する車両の車室内の僅かな環境変化により、音声の伝達特性が現実的には理想的な環境から多少なりとも変化する。このため、マイクで収音される発話の音声信号に含まれる、上述した本来話したい話者でない他の話者が発話した音声によるクロストーク成分を十分に抑圧することができず、上述した本来話したい話者の発話した音声の音質が劣化することがあった。また、音声の指向性を形成するために用いられるマイクは、高価であった。
図1は、実施の形態1に係る音声処理システム5が搭載された車両100の内部を示す平面図である。音声処理システム5は、運転席に座る運転者、中央座席、後部座席のそれぞれに座る乗員同士が円滑に会話できるように、車載のマイクで音声を収音して車載のスピーカから音声を出力する。以下の説明において、乗員には、運転者(ドライバー)も含まれてよい。
実施の形態1では、音声処理装置10は、話者状況の種別に拘わらず、発話している乗員に対応する専用のマイクで収音される音声信号に対してクロストーク抑圧処理を常に行っていた(図8参照)。実施の形態1の変形例では、音声処理装置10は、例えばシングルトーク区間が検出された場合、発話している乗員に対応する専用のマイクで収音される音声信号に対してクロストーク抑圧処理を行わない例を説明する。また、音声処理装置10は、誰も発話していない無発話区間が検出された場合、クロストーク抑圧処理を行わない(図10参照)。
実施の形態1では、音声処理部12は、シングルトーク区間が検出された場合に、その話者に対応する専用のマイクに対応付けられたフィルタ係数の更新を行った。実施の形態2では、音声処理部12は、シングルトーク区間が検出された場合に限らず、例えば2人の話者が同時に発話している場合(ダブルトーク区間)も、フィルタ更新を行う例を説明する。
10 音声処理装置
11 帯域分割部
12 音声処理部
13 話者状況検出部
14 帯域合成部
15 メモリ
20 適応フィルタ
22 可変増幅器
23 ノルム算出部
24 1/X部
25 フィルタ係数更新処理部
26 加算器
30 音声認識エンジン
mc1,mc2 マイク
Claims (9)
- n(n:2以上の整数)人の人物のそれぞれに対応して配置され、それぞれの対応する人物の発する音声信号を主に収音するn個のマイクと、
n個の前記マイクのそれぞれにより収音された音声信号を用いて、少なくとも1人の話者に対応するマイクにより収音された話者音声信号に含まれるクロストーク成分を抑圧するフィルタと、
少なくとも1人の話者が発話する時を含む所定の条件を満たす場合に、前記クロストーク成分を抑圧するための前記フィルタのパラメータを更新し、その更新結果をメモリに保持するパラメータ更新部と、
前記話者音声信号から、前記更新結果に基づいて前記フィルタにより抑圧された前記クロストーク成分を減算した音声信号をスピーカから出力する音声出力制御部と、を備える、
音声処理装置。 - n個の前記マイクのそれぞれにより収音された音声信号を用いて、実質的に1人の話者が発話しているシングルトーク区間を検出するシングルトーク検出部、を更に備え、
前記パラメータ更新部は、前記シングルトーク区間が検出された場合に、前記所定の条件を満たすとして前記話者音声信号に含まれる前記話者以外の人物の音声信号を前記クロストーク成分として、前記フィルタのパラメータを更新する、
請求項1に記載の音声処理装置。 - 前記パラメータ更新部は、前記シングルトーク区間以外の区間が検出された場合に、前記所定の条件を満たさないとして前記フィルタのパラメータを更新せず、
前記音声出力制御部は、前記話者音声信号から、前記メモリに保持されている最新の前記パラメータの更新結果に基づいて前記フィルタにより抑圧された前記クロストーク成分を減算した音声信号を出力する、
請求項2に記載の音声処理装置。 - 前記フィルタは、誰も発話していない無発話区間が検出された場合に、前記クロストーク成分を抑圧せず、
前記音声出力制御部は、n個の前記マイクのそれぞれにより収音された音声信号をそのまま出力する、
請求項2に記載の音声処理装置。 - 前記フィルタは、前記シングルトーク区間が検出された場合に、前記シングルトーク区間の話者に対応する前記話者音声信号に含まれる前記クロストーク成分を抑圧せず、
前記音声出力制御部は、前記話者に対応するマイクにより収音された音声信号をそのまま出力する、
請求項2に記載の音声処理装置。 - n人のそれぞれの人物の発話の有無を示す話者状況を判別する話者状況検出部、を更に備え、
前記パラメータ更新部は、前記少なくとも1人の話者が存在すると判別された場合に、その話者以外の人物に対応するマイクにより収音された前記話者音声信号を前記クロストーク成分として、前記フィルタのパラメータを更新し、その更新結果を前記話者に対応したパラメータとして保持する、
請求項1に記載の音声処理装置。 - 前記フィルタは、誰も発話していない無発話区間が検出された場合、前記クロストーク成分を抑圧し、
前記音声出力制御部は、n個の前記マイクのそれぞれにより収音された音声信号から、前記メモリに保持されている最新の前記パラメータの更新結果に基づいて前記フィルタにより抑圧された前記クロストーク成分を減算した音声信号を出力する、
請求項1に記載の音声処理装置。 - 前記フィルタは、前記シングルトーク区間が検出された場合、前記シングルトーク区間の話者に対応するマイクにより収音される前記話者以外の音声信号に含まれる前記クロストーク成分を抑圧し、
前記音声出力制御部は、前記話者音声信号から、前記メモリに保持されている最新の前記パラメータの更新結果に基づいて前記フィルタにより抑圧された前記クロストーク成分を減算した音声信号を出力する、
請求項2に記載の音声処理装置。 - n(n:2以上の整数)人の人物のそれぞれに対応して配置されたn個のマイクを介して、それぞれの対応する人物の発する音声信号を主に収音するステップと、
n個の前記マイクのそれぞれにより収音された音声信号を用いて、少なくとも1人の話者に対応するマイクにより収音された話者音声信号に含まれるクロストーク成分を抑圧するステップと、
少なくとも1人の話者が発話する時を含む所定の条件を満たす場合に、前記クロストーク成分を抑圧するためのフィルタのパラメータを更新し、その更新結果をメモリに保持するステップと、
前記話者音声信号から、前記更新結果に基づいて前記フィルタにより抑圧された前記クロストーク成分を減算した音声信号をスピーカから出力するステップと、を有する、
音声処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019013446A JP6635394B1 (ja) | 2019-01-29 | 2019-01-29 | 音声処理装置および音声処理方法 |
CN202010074485.4A CN111489750A (zh) | 2019-01-29 | 2020-01-22 | 声音处理设备和声音处理方法 |
US16/751,857 US11089404B2 (en) | 2019-01-29 | 2020-01-24 | Sound processing apparatus and sound processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019013446A JP6635394B1 (ja) | 2019-01-29 | 2019-01-29 | 音声処理装置および音声処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6635394B1 JP6635394B1 (ja) | 2020-01-22 |
JP2020122835A true JP2020122835A (ja) | 2020-08-13 |
Family
ID=69166685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019013446A Active JP6635394B1 (ja) | 2019-01-29 | 2019-01-29 | 音声処理装置および音声処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11089404B2 (ja) |
JP (1) | JP6635394B1 (ja) |
CN (1) | CN111489750A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022071960A (ja) * | 2020-10-29 | 2022-05-17 | 株式会社Nsd先端技術研究所 | 発言切り分けシステムとその方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7486153B2 (ja) | 2020-02-28 | 2024-05-17 | パナソニックIpマネジメント株式会社 | 音声処理装置および音声処理方法 |
US11410671B2 (en) * | 2020-02-21 | 2022-08-09 | Panasonic Intellectual Property Management Co., Ltd. | Speech processing device and speech processing meihod |
JP2022030302A (ja) * | 2020-08-06 | 2022-02-18 | アルプスアルパイン株式会社 | 能動型騒音制御システム及び車載システム |
JP2023012772A (ja) * | 2021-07-14 | 2023-01-26 | アルプスアルパイン株式会社 | 車内コミュニケーション支援システム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10257583A (ja) * | 1997-03-06 | 1998-09-25 | Asahi Chem Ind Co Ltd | 音声処理装置およびその音声処理方法 |
JP3579245B2 (ja) | 1998-03-31 | 2004-10-20 | 三洋電機株式会社 | エコーキャンセラの制御方法およびエコー除去装置 |
CA2399159A1 (en) | 2002-08-16 | 2004-02-16 | Dspfactory Ltd. | Convergence improvement for oversampled subband adaptive filters |
JP4888262B2 (ja) | 2007-07-12 | 2012-02-29 | ヤマハ株式会社 | 通話状態判定装置および該通話状態判定装置を備えたエコーキャンセラ |
US7974841B2 (en) * | 2008-02-27 | 2011-07-05 | Sony Ericsson Mobile Communications Ab | Electronic devices and methods that adapt filtering of a microphone signal responsive to recognition of a targeted speaker's voice |
JP5321372B2 (ja) | 2009-09-09 | 2013-10-23 | 沖電気工業株式会社 | エコーキャンセラ |
US10536773B2 (en) * | 2013-10-30 | 2020-01-14 | Cerence Operating Company | Methods and apparatus for selective microphone signal combining |
US9928840B2 (en) | 2015-10-16 | 2018-03-27 | Google Llc | Hotword recognition |
JP6463710B2 (ja) | 2015-10-16 | 2019-02-06 | グーグル エルエルシー | ホットワード認識 |
US9747926B2 (en) | 2015-10-16 | 2017-08-29 | Google Inc. | Hotword recognition |
JP6318376B2 (ja) | 2015-10-16 | 2018-05-09 | パナソニックIpマネジメント株式会社 | 音源分離装置および音源分離方法 |
JP6690309B2 (ja) | 2016-03-09 | 2020-04-28 | ヤマハ株式会社 | エコー低減装置、及び音声通信装置 |
US11348595B2 (en) * | 2017-01-04 | 2022-05-31 | Blackberry Limited | Voice interface and vocal entertainment system |
-
2019
- 2019-01-29 JP JP2019013446A patent/JP6635394B1/ja active Active
-
2020
- 2020-01-22 CN CN202010074485.4A patent/CN111489750A/zh active Pending
- 2020-01-24 US US16/751,857 patent/US11089404B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022071960A (ja) * | 2020-10-29 | 2022-05-17 | 株式会社Nsd先端技術研究所 | 発言切り分けシステムとその方法 |
JP7356960B2 (ja) | 2020-10-29 | 2023-10-05 | 株式会社Nsd先端技術研究所 | 発言切り分けシステムとその方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200245066A1 (en) | 2020-07-30 |
US11089404B2 (en) | 2021-08-10 |
JP6635394B1 (ja) | 2020-01-22 |
CN111489750A (zh) | 2020-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3678135B1 (en) | Voice control in a multi-talker and multimedia environment | |
JP6635394B1 (ja) | 音声処理装置および音声処理方法 | |
JP4283212B2 (ja) | 雑音除去装置、雑音除去プログラム、及び雑音除去方法 | |
CN108281156B (zh) | 语音界面和声乐娱乐系统 | |
JP5148150B2 (ja) | 音響信号処理における均等化 | |
JP4225430B2 (ja) | 音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラム | |
US5353376A (en) | System and method for improved speech acquisition for hands-free voice telecommunication in a noisy environment | |
JP5156260B2 (ja) | 雑音を除去して目的音を抽出する方法、前処理部、音声認識システムおよびプログラム | |
US9992572B2 (en) | Dereverberation system for use in a signal processing apparatus | |
EP3441969B1 (en) | Synthetic speech for in vehicle communication | |
US20120330652A1 (en) | Space-time noise reduction system for use in a vehicle and method of forming same | |
JP6545419B2 (ja) | 音響信号処理装置、音響信号処理方法、及びハンズフリー通話装置 | |
JP2012025270A (ja) | 車両用の音量制御装置および音量制御装置用のプログラム | |
US20220189450A1 (en) | Audio processing system and audio processing device | |
JP2020134566A (ja) | 音声処理システム、音声処理装置及び音声処理方法 | |
JP2004309536A (ja) | 音声処理装置 | |
CN117995211A (zh) | 语音交流补偿方法、装置、汽车、电子设备及存储介质 | |
JPH11298382A (ja) | ハンズフリー装置 | |
CA2990207A1 (en) | Voice interface and vocal entertainment system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190531 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190531 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190625 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190917 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191008 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191206 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6635394 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |