JP2021135311A - Voice processing device and voice processing method - Google Patents
Voice processing device and voice processing method Download PDFInfo
- Publication number
- JP2021135311A JP2021135311A JP2020028731A JP2020028731A JP2021135311A JP 2021135311 A JP2021135311 A JP 2021135311A JP 2020028731 A JP2020028731 A JP 2020028731A JP 2020028731 A JP2020028731 A JP 2020028731A JP 2021135311 A JP2021135311 A JP 2021135311A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- main speaker
- sound
- signal
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims description 75
- 238000003672 processing method Methods 0.000 title claims description 9
- 230000001629 suppression Effects 0.000 claims abstract description 108
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 230000005236 sound signal Effects 0.000 claims description 63
- 238000000034 method Methods 0.000 description 30
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000012880 independent component analysis Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008649 adaptation response Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本開示は、音声処理装置および音声処理方法に関する。 The present disclosure relates to a voice processing device and a voice processing method.
特許文献1には、車室内の状況として乗員の配置パターンを予め想定し、各配置パターンそれぞれに対して音の伝達特性を測定し、その測定により得られメモリ等に記憶された各伝達特性を用いて、スピーカから出力される音声信号に含まれる音響を推定して除去する音響除去装置が開示されている。この音響除去装置によれば、乗員の配置が配置パターンのいずれかを満たす限り、音響の除去または抑圧が可能である。
In
特許文献1の構成では、ドライバーの発話音声を収音することを目的としたマイクがドライバーの前に1つ配置されているだけで、ドライバーの声は高音圧で収音可能ではあるが、一方で同じ車両内の同乗者(つまり他の乗員)の声をその同じマイクで高音圧に収音することは困難な場合が想定される。これは、マイクの配置箇所がドライバーの近くに偏っているので、ドライバーからマイクまでの距離と同乗者からマイクまでの距離とが異なるためである。このため、ドライバーと同乗者とがほぼ同時に発話した時にメイン話者(例えばドライバー)の音声信号に含まれる他の話者(例えば同乗者)の音声信号をクロストーク成分として抑圧したくても、他の話者の音声信号が高音圧で収音されていなければクロストーク抑圧の効果が現れず、メイン話者の音声信号の音質が劣化する可能性があった。これは、ドライバーのマイクでは他の話者(例えば同乗者)の音声を高音圧で収音することが難しく、同乗者の音声信号をクロストーク成分として抑圧するための適応フィルタのフィルタ係数の学習が困難なためである。
In the configuration of
本開示は、上述した従来の状況に鑑みて案出され、閉空間に存在する複数の話者の状況に応じて、メイン話者の発話音声に含まれ得る他の話者の発話音声による音響的なクロストーク成分を適応的に抑圧し、メイン話者の発話音声の音質を改善する音声処理装置および音声処理方法を提供することを目的とする。 The present disclosure has been devised in view of the above-mentioned conventional situations, and depending on the situation of a plurality of speakers existing in a closed space, the sound produced by the uttered voices of other speakers that may be included in the uttered voices of the main speaker. It is an object of the present invention to provide a voice processing device and a voice processing method for adaptively suppressing a typical cross-talk component and improving the sound quality of the spoken voice of the main speaker.
本開示は、閉空間内に配置された複数のマイクと接続され、前記複数のマイクのそれぞれにより収音された音声信号に基づいて、前記閉空間内に存在するメイン話者を含む複数人のうちいずれか一人が発話しているシングルトーク状態を検出するシングルトーク検出部と、前記メイン話者のシングルトーク状態で前記複数のマイクのそれぞれにより収音された音声信号の音圧比率と、前記メイン話者以外の他人物のシングルトーク状態で前記複数のマイクのそれぞれにより収音された音声信号の音圧比率とに基づいて、前記他人物の音声信号に対して前記メイン話者の音声信号が含まれる割合を示す混合率を推定する混合率推定部と、前記混合率の推定結果に基づいて、前記メイン話者の音声信号に含まれる前記他人物の発話によるクロストーク成分の抑圧の要否を判別する決定部と、を備える、音声処理装置を提供する。 The present disclosure is based on audio signals connected to a plurality of microphones arranged in the closed space and picked up by each of the plurality of microphones, and a plurality of persons including a main speaker existing in the closed space. The sound pressure ratio of the single talk detector that detects the single talk state in which one of them is speaking, the sound pressure ratio of the sound signal picked up by each of the plurality of microphones in the single talk state of the main speaker, and the above. Based on the sound pressure ratio of the sound signals picked up by each of the plurality of microphones in the single talk state of another person other than the main speaker, the sound signal of the main speaker is compared with the sound signal of the other person. Based on the mixing ratio estimation unit that estimates the mixing ratio indicating the proportion of the mixture and the estimation result of the mixing ratio, it is necessary to suppress the crosstalk component by the speech of the other person included in the voice signal of the main speaker. Provided is a sound processing device including a determination unit for determining whether or not to use the sound.
また、本開示は、閉空間内に配置された複数のマイクと接続された音声処理装置により実行される音声処理方法であって、前記複数のマイクのそれぞれにより収音された音声信号に基づいて、前記閉空間内に存在するメイン話者を含む複数人のうちいずれか一人が発話しているシングルトーク状態を検出し、前記メイン話者のシングルトーク状態で前記複数のマイクのそれぞれにより収音された音声信号の音圧比率と、前記メイン話者以外の他人物のシングルトーク状態で前記複数のマイクのそれぞれにより収音された音声信号の音圧比率とに基づいて、前記他人物の音声信号に対して前記メイン話者の音声信号が含まれる割合を示す混合率を推定し、前記混合率の推定結果に基づいて、前記メイン話者の音声信号に含まれる前記他人物の発話によるクロストーク成分の抑圧の要否を判別する、音声処理方法を提供する。 Further, the present disclosure is a voice processing method executed by a voice processing device connected to a plurality of microphones arranged in a closed space, and is based on a sound signal picked up by each of the plurality of microphones. , A single talk state in which any one of a plurality of persons including the main speaker existing in the closed space is speaking is detected, and the sound is picked up by each of the plurality of microphones in the single talk state of the main speaker. Based on the sound pressure ratio of the voice signal, and the sound pressure ratio of the voice signal picked up by each of the plurality of microphones in the single talk state of another person other than the main speaker, the voice of the other person. A mixing ratio indicating the ratio of the voice signal of the main speaker to the signal is estimated, and based on the estimation result of the mixing ratio, a cross due to the speech of the other person included in the voice signal of the main speaker is used. Provided is a sound processing method for determining the necessity of suppressing the talk component.
本開示によれば、閉空間に存在する複数の話者の状況に応じて、メイン話者の発話音声に含まれ得る他の話者の発話音声による音響的なクロストーク成分を適応的に抑圧でき、メイン話者の発話音声の音質を改善できる。 According to the present disclosure, the acoustic cross-talk component due to the utterance voice of another speaker that may be included in the utterance voice of the main speaker is adaptively suppressed according to the situation of a plurality of speakers existing in the closed space. It is possible to improve the sound quality of the utterance voice of the main speaker.
(本開示に至る経緯)
音響クロストーク抑圧装置が利用される場面として、例えば、二人の人物が会話する状況が想定される。音響クロストーク抑圧装置は、例えば、特許第6635394号等に開示されるように、一方の人物が発話した音声に他方の人物が発話した音声がクロストーク成分として含まれる場合に、クロストーク成分を抑圧(言い換えると、減算)するための抑圧信号を生成し、その一方の人物の発話による音声信号から抑圧信号を抑圧することで、クロストーク成分が抑圧された音声信号を出力できる。二人の人物が会話する状況として、例えば、刑務所などで刑務官と犯罪者などの入所者とが向かい合って会話する状況、店舗などで店員と顧客とがテーブルを挟んで対話する状況、オフィスなどで社員と上司とが会議で話し合う状況などが挙げられるが、上述した状況に限定されなくてよい。発話の内容は、ログとして記録され、テキストに変換されて保存されてもよいし、発話の音声信号が音声認識の処理として入力されてもよい。
(Background to this disclosure)
As a scene where the acoustic crosstalk suppression device is used, for example, a situation where two people talk with each other is assumed. The acoustic cross-talk suppressor, for example, as disclosed in Japanese Patent No. 6635394, when the voice spoken by one person includes the voice spoken by the other person as the cross-talk component, the acoustic cross-talk component is used. By generating a suppression signal for suppression (in other words, subtraction) and suppressing the suppression signal from the voice signal uttered by one of the persons, it is possible to output a voice signal in which the crosstalk component is suppressed. The situation where two people talk is, for example, a situation where a prison officer and a resident such as a criminal talk face-to-face in a prison, a situation where a clerk and a customer talk across a table in a store, etc. There is a situation where an employee and a boss discuss at a meeting, but it does not have to be limited to the above-mentioned situation. The content of the utterance may be recorded as a log, converted into text and saved, or the voice signal of the utterance may be input as a voice recognition process.
以下、店舗内で店員と顧客が対話する状況を一例として示す。音響クロストーク抑圧装置は、例えば店舗内に設置されている円卓のテーブルに配置された複数のマイクのそれぞれに接続され、店員および顧客の一方がメイン話者として発話する音声を目的音とし、このメイン話者の音声に妨害音として混ざる他の話者が発話する音声を抑圧する。 Below, the situation where the clerk and the customer interact in the store is shown as an example. The acoustic crosstalk suppression device is connected to each of a plurality of microphones arranged on a round table table installed in the store, for example, and uses a voice uttered by one of the clerk and the customer as the main speaker as the target sound. Suppresses the voices spoken by other speakers that are mixed with the main speaker's voice as disturbing sounds.
図7は、店員hm1と顧客hm2の真ん中にマイクアレイmAが置かれた状況の一例を示す図である。マイクアレイmAは、複数個の無指向性マイクを収容した筐体を有し、それぞれの無指向性マイクで周囲の音声を収音する。マイクアレイmAにより収音された音声は、公知の方法(例えば、マイクアレイmAに接続されたPC(図示略)で行われるビームフォーミング処理)により、店員hm1および顧客hm2のそれぞれの方向に指向性が形成されて音声出力が可能となる。なお、マイクとしては、マイクアレイmAに限らず、1個もしくは複数個の無指向性マイクであってもよい。 FIG. 7 is a diagram showing an example of a situation in which the microphone array mA is placed in the middle of the clerk hm1 and the customer hm2. The microphone array mA has a housing that accommodates a plurality of omnidirectional microphones, and each omnidirectional microphone picks up ambient sound. The sound picked up by the microphone array mA is directional in each direction of the clerk hm1 and the customer hm2 by a known method (for example, a beamforming process performed by a PC (not shown) connected to the microphone array mA). Is formed and audio output becomes possible. The microphone is not limited to the microphone array mA, and may be one or a plurality of omnidirectional microphones.
図7では、マイクアレイmAから店員hm1までの距離とマイクアレイmAから顧客hm2までの距離とがほぼ等しく、マイクアレイmAから店員hm1へ向かう方向d1とマイクアレイmAから顧客hm2に向かう方向d2とが、マイクアレイmAが置かれたテーブルの面からほぼ同じ角度である場合、マイクアレイmAは、店員hm1の声と顧客hm2の声とを高い割合で分離して収音できる。 In FIG. 7, the distance from the microphone array mA to the clerk hm1 and the distance from the microphone array mA to the customer hm2 are almost equal, and the direction d1 from the microphone array mA to the clerk hm1 and the direction d2 from the microphone array mA to the customer hm2. However, when the microphone array mA is at substantially the same angle from the surface of the table on which the microphone array mA is placed, the microphone array mA can separate the voice of the clerk hm1 and the voice of the customer hm2 at a high ratio and collect the sound.
図8は、図7の状況において、店員hm1および顧客hm2それぞれの方向に指向性が形成されて収音された音声に対する音響クロストーク抑圧処理例を説明する図である。マイクアレイmAは、一例として4個の無指向性のマイク素子m1〜m4を有する。図示は省略するが、マイクアレイmAあるいはマイクアレイmAに接続されたPCは、マイクアレイmAにより収音された音声信号を入力し、店員hm1および顧客hm2それぞれの方向に指向性を形成して(ビームフォーミングの処理を行って)音声を出力する。4個のマイク素子m1〜m4でそれぞれ収音される、店員hm1の声V1と顧客hm2の声V2は、音圧比で5:5としている。 FIG. 8 is a diagram illustrating an example of acoustic crosstalk suppression processing for voice picked up by forming directivity in each direction of the clerk hm1 and the customer hm2 in the situation of FIG. 7. The microphone array mA has, for example, four omnidirectional microphone elements m1 to m4. Although not shown, the microphone array mA or the PC connected to the microphone array mA inputs the voice signal picked up by the microphone array mA and forms directivity in each direction of the clerk hm1 and the customer hm2 ( Output sound (performing beamforming processing). The voice V1 of the clerk hm1 and the voice V2 of the customer hm2, which are picked up by the four microphone elements m1 to m4, have a sound pressure ratio of 5: 5.
ビームフォーミングの処理によって店員hm1の方向d1に指向性が形成された場合、店員hm1の声V1と顧客hm2の声V2は、例えば音圧比で7:3となったとする。同様に、ビームフォーミングの処理によって顧客hm2の方向d2に指向性が形成された場合、店員hm1の声V1と顧客hm2の声V2は、例えば音圧比で3:7となったとする。 When directivity is formed in the direction d1 of the clerk hm1 by the beamforming process, the voice V1 of the clerk hm1 and the voice V2 of the customer hm2 are assumed to be, for example, 7: 3 in sound pressure ratio. Similarly, when directivity is formed in the direction d2 of the customer hm2 by the beamforming process, it is assumed that the voice V1 of the clerk hm1 and the voice V2 of the customer hm2 have, for example, a sound pressure ratio of 3: 7.
ビームフォーミング後の店員hm1の声V1の音声信号を主信号とし、ビームフォーミングの処理後の顧客hm2の声V2の音声信号を参照信号として、音響クロストーク抑圧処理が行われると、クロストーク抑圧後の店員hm1の声V1と顧客hm2の声V2は、例えば音圧比で9:1となる。したがって、店員hm1の声V1が相対的に強調される。同様に、ビームフォーミングの処理後の店員hm1の声V1の音声信号を参照信号とし、ビームフォーミングの処理後の顧客hm2の声V2の音声信号を主信号として、音響クロストーク抑圧処理が行われると、クロストーク抑圧後の店員hm1の声V1と顧客hm2の声V2は、例えば音圧比で1:9となる。したがって、顧客hm2の声V2が強調される。音声認識エンジンegは、音響クロストーク抑圧後の店員hm1の声V1および顧客hm2の声V2のいずれも精度良く認識可能である。 When the acoustic crosstalk suppression processing is performed using the voice signal of the voice V1 of the clerk hm1 after beamforming as the main signal and the voice signal of the voice V2 of the customer hm2 after the beamforming processing as a reference signal, after the crosstalk is suppressed. The voice V1 of the clerk hm1 and the voice V2 of the customer hm2 are, for example, 9: 1 in sound pressure ratio. Therefore, the voice V1 of the clerk hm1 is relatively emphasized. Similarly, when the acoustic crosstalk suppression processing is performed using the voice signal of the voice V1 of the clerk hm1 after the beamforming process as a reference signal and the voice signal of the customer hm2's voice V2 after the beamforming process as the main signal. The voice V1 of the clerk hm1 and the voice V2 of the customer hm2 after the cross talk is suppressed are, for example, 1: 9 in sound pressure ratio. Therefore, the voice V2 of the customer hm2 is emphasized. The voice recognition engine egg can accurately recognize both the voice V1 of the clerk hm1 and the voice V2 of the customer hm2 after suppressing the acoustic crosstalk.
図9は、店員hm1に近く顧客hm2から離れた位置にマイクアレイmAが置かれた状況の一例を示す図である。通常、マイクアレイmAは、店員hm1と顧客hm2の真ん中に置かれることよりも、むしろどちらかの方に片寄って置かれることが多い、または、物理的に店員hm1と顧客hm2との間に置かれていたとしても空間特性の影響によって、指向性特性にばらつきが生じる場合がある。前者を例に考えると、マイクアレイmAから店員hm1までの距離とマイクアレイmAから顧客hm2までの距離が大きく異なる。したがって、マイクアレイmAにおいて受音(収音)される店員hm1の音声信号の音圧と顧客hm2の音声信号の音圧とに差が生じる(図10参照)。例えば、図10に示すように、マイクアレイmAを構成するそれぞれのマイクごとに、店員hm1,顧客hm2の音声信号の音圧の比率が7:3となるように差が生じている。このため、マイクアレイmAは、図7の状況とは異なり、店員hm1の声および顧客hm2の声を高い割合で分離して収音できない。なお、マイクアレイmAは、人体あるいは衣服に装着されてもよく、この場合、マイクアレイmAが装着された方の人物の声が支配的に収音され、より一層分離して収音できない。 FIG. 9 is a diagram showing an example of a situation in which the microphone array mA is placed at a position close to the clerk hm1 and away from the customer hm2. Normally, the microphone array mA is often placed on either side rather than being placed in the middle of the clerk hm1 and the customer hm2, or physically placed between the clerk hm1 and the customer hm2. Even if it is, the directivity characteristics may vary due to the influence of the spatial characteristics. Considering the former as an example, the distance from the microphone array mA to the clerk hm1 and the distance from the microphone array mA to the customer hm2 are significantly different. Therefore, there is a difference between the sound pressure of the audio signal of the clerk hm1 and the sound pressure of the audio signal of the customer hm2 received (picked up) by the microphone array mA (see FIG. 10). For example, as shown in FIG. 10, there is a difference so that the sound pressure ratio of the audio signals of the clerk hm1 and the customer hm2 is 7: 3 for each microphone constituting the microphone array mA. Therefore, unlike the situation shown in FIG. 7, the microphone array mA cannot separate the voice of the clerk hm1 and the voice of the customer hm2 at a high rate and cannot collect the sound. The microphone array mA may be attached to a human body or clothing. In this case, the voice of the person to whom the microphone array mA is attached is predominantly picked up, and cannot be further separated and picked up.
図10は、図9の状況において、店員hm1および顧客hm2それぞれの方向に指向性が形成されて収音された音声に対する音響クロストーク抑圧処理例を説明する図である。4個のマイク素子m1〜m4でそれぞれ収音される、店員hm1の声V1と顧客hm2の声V2は、音圧比で5:5としている。 FIG. 10 is a diagram for explaining an example of acoustic crosstalk suppression processing for a sound collected by forming directivity in each direction of a clerk hm1 and a customer hm2 in the situation of FIG. The voice V1 of the clerk hm1 and the voice V2 of the customer hm2, which are picked up by the four microphone elements m1 to m4, have a sound pressure ratio of 5: 5.
ビームフォーミングの処理によって店員hm1の方向d1に指向性が形成された場合、マイクアレイmAは、店員hm1の近くに配置されるので、店員hm1の声V1を支配的に収音可能である。店員hm1の声V1と顧客hm2の声V2は、例えば音圧比で9:1となる。一方、ビームフォーミングによって顧客hm2の方向d2に指向性が形成された場合、マイクアレイmAは、顧客hm2から遠くに配置されるので、顧客hm2の声V2を十分に収音できない。店員hm1の声V1と顧客hm2の声V2は、例えば音圧比で4:6となる。 When the directivity is formed in the direction d1 of the clerk hm1 by the beamforming process, the microphone array mA is arranged near the clerk hm1, so that the voice V1 of the clerk hm1 can be predominantly picked up. The voice V1 of the clerk hm1 and the voice V2 of the customer hm2 have, for example, a sound pressure ratio of 9: 1. On the other hand, when the directivity is formed in the direction d2 of the customer hm2 by beamforming, the microphone array mA is arranged far from the customer hm2, so that the voice V2 of the customer hm2 cannot be sufficiently picked up. The voice V1 of the clerk hm1 and the voice V2 of the customer hm2 have, for example, a sound pressure ratio of 4: 6.
このような場合、ビームフォーミング後の店員hm1の声V1の音声信号を参照信号とし、ビームフォーミング後の顧客hm2の声V2の音声信号を主信号として、音響クロストーク抑圧処理が行われると、参照信号の店員hm1の声がクリアであるので、クロストーク抑圧の性能が高い。したがって、顧客hm2の声V2が相対的に十分に強調される。音声認識エンジンegは、顧客hm2の声V2を精度良く認識可能である。 In such a case, the audio signal of the voice V1 of the clerk hm1 after beamforming is used as a reference signal, and the audio signal of the voice V2 of the customer hm2 after beamforming is used as the main signal, and the acoustic crosstalk suppression process is performed. Since the voice of the signal clerk hm1 is clear, the crosstalk suppression performance is high. Therefore, the voice V2 of the customer hm2 is relatively sufficiently emphasized. The voice recognition engine egg can accurately recognize the voice V2 of the customer hm2.
一方、ビームフォーミング後の店員hm1の声V1の音声信号を主信号とし、ビームフォーミング後の顧客hm2の声V2の音声信号を参照信号として、音響クロストーク抑圧処理が行われると、店員hm1の声V1と顧客hm2の声V2の音圧比が4:6とほぼ同等であるので、音響クロストーク抑圧処理の性能が低い。この結果、妨害音である顧客hm2の声V2を抑圧するどころか、却って、顧客hm2の声V2が加算されてしまい、店員hm1の声V1が益々クリアでなくなってしまう可能性があった。 On the other hand, when the acoustic crosstalk suppression process is performed using the voice signal of the clerk hm1's voice V1 after beamforming as the main signal and the voice signal of the customer hm2's voice V2 after beamforming as the reference signal, the voice of the clerk hm1 is performed. Since the sound pressure ratio of V1 and the voice V2 of the customer hm2 is almost the same as 4: 6, the performance of the acoustic crosstalk suppression processing is low. As a result, instead of suppressing the voice V2 of the customer hm2, which is a disturbing sound, the voice V2 of the customer hm2 is added, and the voice V1 of the clerk hm1 may become more and more unclear.
そこで、以下の実施の形態では、音声処理装置の一例としての音響クロストーク抑圧装置は、参照信号によってクロストーク成分の抑圧性能が低い場合には音響クロストーク抑圧処理を行わないでそのまま出力する。実施の形態1では無指向性マイクを用いる場合を示し、実施の形態2では指向性を形成可能なマイクアレイを用いる場合を示す。 Therefore, in the following embodiment, the acoustic crosstalk suppression device as an example of the voice processing device outputs the sound as it is without performing the acoustic crosstalk suppression processing when the suppression performance of the crosstalk component is low due to the reference signal. The first embodiment shows a case where an omnidirectional microphone is used, and the second embodiment shows a case where a microphone array capable of forming directivity is used.
以下、適宜図面を参照しながら、本開示に係る音声処理装置および音声処理方法を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明および実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, embodiments in which the voice processing apparatus and the voice processing method according to the present disclosure are specifically disclosed will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.
(実施の形態1)
図1は、実施の形態1に係る音響クロストーク抑圧装置5の機能的構成例を示すブロック図である。音声処理装置の一例としての音響クロストーク抑圧装置5は、目的音に混ざる妨害音を抑圧するものであり、DSP(Digital Signal Processor)10とメモリ50とを含む構成である。音響クロストーク抑圧装置5には、2個のマイクmc1,mc2が入力機器として接続され、音声認識エンジン(図示略)が出力機器として接続される。
(Embodiment 1)
FIG. 1 is a block diagram showing a functional configuration example of the acoustic
収音装置の一例としてのマイクmc1は、1個の無指向性マイクであり、例えばメイン話者が発話する音声を主に収音可能に配置され、メイン話者が発話する音声が収音された音声信号(主信号)を取得する。同様に、収音装置の一例としてのマイクmc2は、1個の無指向性マイクであり、例えばメイン話者でない他の話者が発話する音声を主に収音可能に配置され、他の話者が発話する音声が収音された音声信号(参照信号)を取得する。なお、マイクmc1は他の話者が発話する音声を収音して参照信号を取得し、マイクmc2はメイン話者が発話する音声を収音して主信号を取得してもよい。マイクmc1,mc2は、例えば、高音質小型エレクトレットコンデンサーマイクロホン(ECM:Electret Condenser Microphone)で構成される。 The microphone mc1 as an example of the sound collecting device is one omnidirectional microphone. For example, the sound uttered by the main speaker is arranged so as to be able to collect the sound mainly, and the sound uttered by the main speaker is picked up. Acquires the voice signal (main signal). Similarly, the microphone mc2 as an example of the sound collecting device is one omnidirectional microphone, for example, the voice uttered by another speaker who is not the main speaker is arranged so as to be able to collect the sound mainly, and the other talk. Acquires a voice signal (reference signal) in which the voice spoken by a person is picked up. The microphone mc1 may pick up the voice uttered by another speaker to acquire the reference signal, and the microphone mc2 may pick up the voice uttered by the main speaker to acquire the main signal. The microphones mc1 and mc2 are composed of, for example, a high-quality sound compact electret condenser microphone (ECM).
音声認識エンジンは、音響クロストーク抑圧装置5から出力されるクロストーク抑圧後の音声信号あるいはクロストーク抑圧が行われない音声信号を基に、音声認識の処理を行い、その処理結果として音声信号の内容を示すテキストデータを生成する。なお、出力機器として、音声認識エンジンの代わりに、ネットワーク(図示略)を介して音声認識等の処理を行うクラウドサーバ、あるいは音声を出力可能なスピーカが接続されてもよい。また、マイクmc1,mc2および音声認識エンジンは、音響クロストーク抑圧装置5に内蔵されてもよい。
The voice recognition engine performs voice recognition processing based on the voice signal after crosstalk suppression or the voice signal in which crosstalk suppression is not performed, which is output from the acoustic
音響クロストーク抑圧装置5は、例えば2人の話者(メイン話者を含む複数人のそれぞれ)が会話している場合、同時に発話した2人の声の一方を目的音、他方を妨害音として、妨害音によるクロストーク成分を抑圧して目的音を明瞭(クリア)な音声に変換する。具体的に、音響クロストーク抑圧装置5は、妨害音を含む音声信号を参照信号として所定の(後述参照)の信号処理を施すことによって、音響クロストーク成分を再現した疑似クロストーク信号(抑圧信号の一例)を生成する。音響クロストーク抑圧装置5は、マイクmc1またはマイクmc2で収音された目的音の音声信号からその疑似クロストーク信号を除去(具体的には減算)することによってクロストーク抑圧後のクリアな(つまり音質が改善された)音声信号を生成する。
In the acoustic
メモリ50は、マイクmc1が店員hm1の発話による音声(つまり目的音)を収音する際、過去に顧客hm2が発話した音声(つまり妨害音)のクリアな音声信号を記憶する。同様に、メモリ50は、マイクmc1が顧客hm2の発話による音声(つまり目的音)を収音する際、過去に店員hm1が発話した音声(つまり妨害音)のクリアな音声信号を記憶する。メモリ50に記憶された音声信号は、参照信号として音響クロストークの再現(つまり、上述した疑似クロストーク信号の生成)に用いられる。
The
DSP10は、マイクmc1で収音された音声の音声信号に対して音響クロストーク抑圧処理を行うプロセッサである。DSP10は、シングルトーク検出部45、音圧比較部46、妨害音混合率推定部41、信号処理選択部42、切替部43、および抑圧ユニット20を有する。
The
シングルトーク検出部45は、マイクmc1およびマイクmc2のそれぞれにより収音された音声信号に基づいて、店員hm1および顧客hm2のうちいずれか一方が発話しているシングルトーク状態を検出する。例えば、シングルトーク検出部45は、発話があった時に、マイクmc1またはマイクmc2で収音される音声のうち、一方の音声の音圧だけが他方の音声の音圧に比べて大きかった場合、シングルトーク状態を検出したと判断する。また、シングルトーク検出部45は、マイクmc1またはマイクmc2で収音される音声の音色が同じである場合、シングルトーク状態を検出したと判断してもよい。また、マイクmc1が店員hm1の近くに配置され、マイクmc2が顧客hm2の近くに配置された場合、店員hm1が発話するシングルトーク時、マイクmc1で収音される音声の音圧が高く、マイクmc2で収音される音声の音圧が低くなると判断される。これに対し、店員hm1および顧客hm2の双方が発話するダブルトーク時、マイクmc1およびマイクmc2で収音される音声の音圧は、いずれも高くなると判断される。したがって、シングルトーク検出部45は、マイクmc1で収音される音声とマイクmc2で収音される音声の音圧差を基に、シングルトーク状態を検出する。
The single
音圧比較部46は、シングルトーク検出部45で検出された、メイン話者である店員hm1が発話するシングルトーク状態で、マイクmc1で収音される音声の音圧とマイクmc2で収音される音声の音圧とを比較する。音圧比較部46は、比較により、音圧比率(つまり、マイクmc2で収音される音声の音圧に対するマイクmc1で収音される音声の音圧の割合を示す値)を得る。同様に、音圧比較部46は、シングルトーク検出部45で検出された、他の話者である顧客hm2が発話するシングルトーク状態で、マイクmc1で収音される音声の音圧とマイクmc2で収音される音声の音圧とを比較する。音圧比較部46は、比較により、音圧比率(つまり、マイクmc1で収音される音声の音圧に対するマイクmc2で収音される音声の音圧の割合を示す値)を得る。なお、メイン話者が顧客hm2であり、他の話者が店員hm1である場合も同様である。
The sound
混合率推定部の一例としての妨害音混合率推定部41は、音圧比較部46で得られたシングルトーク時の音圧比率を基に、マイクmc1またはマイクmc2で収音されるメイン話者ではない他の話者の音声の音声信号(言い換えると、参照信号)に含まれる妨害音の混合率を推定する。ここでいう混合率は、参照信号に含まれる妨害音(言い換えると、メイン話者の主信号)の参照信号に対する割合である。具体的に、メイン話者が店員hm1である場合、混合率は、他の話者である顧客hm2が発話する音声の音声信号(参照信号)に含まれる店員hm1が発話する音声(妨害音)の、顧客hm2が発話する音声の音声信号(参照信号)に対する割合である。同様に、メイン話者が顧客hm2である場合、混合率は、他の話者である店員hm1が発話する音声の音声信号(参照信号)に含まれる顧客hm2が発話する音声(妨害音)の、店員hm1が発話する音声の音声信号(参照信号)に対する割合である。
The disturbing sound mixing
一例として、音圧比較部46は、メイン話者である店員hm1のみが発話している時にマイクmc1とマイクmc2の音圧比率を比較する。このときマイクmc1:マイクmc2=2:1であったとする。続いて、音圧比較部46は、メイン話者である顧客hm2のみが発話している時にマイクmc1とマイクmc2の音圧比率を比較する。このとき、マイクmc1:マイクmc2=1:10であったとする。これらの音圧比率を分析すると、次のことが分かる。
As an example, the sound
具体的には、店員hm1が発話した時、マイクmc2で収音される店員hm1の音声の音圧は、1/3と比較的大きい。したがって、マイクmc2が収音する音声を参照信号として使用できるか否かについて、マイクmc2が収音する音声にメイン話者(妨害音)である店員hm1の発話した目的音(主信号)が含まれる割合が高いために店員hm1の音声の混合率が大きくなる。したがって、マイクmc2が収音する音声は参照信号としては不適切である。 Specifically, when the clerk hm1 speaks, the sound pressure of the voice of the clerk hm1 picked up by the microphone mc2 is relatively large, 1/3. Therefore, regarding whether or not the voice picked up by the microphone mc2 can be used as a reference signal, the voice picked up by the microphone mc2 includes the target sound (main signal) spoken by the clerk hm1 who is the main speaker (interfering sound). Since the ratio is high, the mixing ratio of the voice of the clerk hm1 becomes large. Therefore, the sound picked up by the microphone mc2 is inappropriate as a reference signal.
一方、顧客hm2が発話した時、マイクmc1で収音される顧客hm2の音声の音圧は、1/11と小さい。したがって、マイクmc1が収音する音声を参照信号として使用できるか否かについて、マイクmc1が収音する音声にメイン話者(妨害音)である顧客hm2の発話した目的音(主信号)が含まれる割合が低いために顧客hm2の音声の混合率が小さくなる。したがって、マイクmc1が収音する音声は参照信号として適切である。 On the other hand, when the customer hm2 speaks, the sound pressure of the voice of the customer hm2 picked up by the microphone mc1 is as small as 1/11. Therefore, regarding whether or not the voice picked up by the microphone mc1 can be used as a reference signal, the voice picked up by the microphone mc1 includes the target sound (main signal) uttered by the customer hm2 who is the main speaker (interfering sound). Since the ratio is low, the mixing ratio of the voice of the customer hm2 becomes small. Therefore, the sound picked up by the microphone mc1 is suitable as a reference signal.
決定部の一例としての信号処理選択部42は、妨害音混合率推定部41によって推定された混合率を基に、切替部43に切り替えを指示する。具体的に、信号処理選択部42は、妨害音混合率推定部41により推定された混合率と閾値(図2参照)との比較に基づいて、参照信号が不適切である場合にクロストーク成分の抑圧を行わないように、切替部43に指示する。また、信号処理選択部42は、妨害音混合率推定部41により推定された混合率と閾値(図2参照)との比較に基づいて、参照信号が適切である場合にクロストーク成分の抑圧を行うように、切替部43に指示する。
The signal
切替部43は、入力されたメイン話者の音声信号を、抑圧ユニット20を介さずに音響クロストーク抑圧装置5の出力段に伝達する第1端子43aと、入力されたメイン話者の音声信号を、抑圧ユニット20を介して音響クロストーク抑圧装置5の出力段に伝達する第2端子43bとを有する。切替部43は、信号処理選択部42からの指示にしたがい、メイン話者の音声信号の入力を第1端子43aまたは第2端子43bに切り替える。切替部43は、例えば機械的、電気的あるいは磁気的な切替スイッチである。
The switching
抑圧ユニット20は、加算器22、フィルタ更新部25およびディレイ29を有する。抑圧ユニット20では、クロストーク抑圧部の一例としての加算器22は、マイクmc1で収音された音声の音声信号に、畳み込み信号生成部23より生成された擬似クロストーク信号を減算する。これにより、加算器22は、マイクmc1で収音された音声に含まれるクロストーク成分を抑圧できる。抑圧ユニット20では、加算器22は、クロストーク成分が抑圧された後の音声信号を出力する。なお、加算器22が行う処理は厳密には減算であるが、疑似クロストーク信号を減算する処理であっても、反転した疑似クロストーク信号を加算する処理であっても良く、減算としても加算としても実現できる。そのため、本明細書では、この処理は、加算器22が行う処理として記載する。
The
以後、説明を分かり易くするために、店員hm1が発話する音声を目的音(メイン話者の音声)とし、顧客hm2が発話する音声を妨害音(メイン話者でない他人物の音声)とする場合を例示する。なお、顧客hm2が発話する音声を目的音とし、店員hm1が発話する音声を妨害音とする場合も同様である。 Hereinafter, in order to make the explanation easier to understand, the voice spoken by the clerk hm1 is used as the target sound (voice of the main speaker), and the voice spoken by the customer hm2 is used as the disturbing sound (voice of another person who is not the main speaker). Is illustrated. The same applies to the case where the voice uttered by the customer hm2 is used as the target sound and the voice uttered by the clerk hm1 is used as the disturbing sound.
抑圧ユニット20が抑圧すべきクロストーク成分は、マイクmc1が収音する店員hm1の発話による音声に対し、過去に顧客hm2が発話した声がマイクmc1に到達した音声である。つまり、マイクmc1が収音するクロストーク成分は、顧客hm2が発話した声が、店員hm1に届くまでに要した時間分ずれて混合された音声である。そこで、抑圧ユニット20は、過去に顧客hm2が発話した声の音声を保持しておき、これに信号処理を施すことによって、この混合された音声を再現した疑似クロストーク信号を生成する。
The cross-talk component to be suppressed by the
フィルタ更新部25は、畳み込み信号生成部23、更新量計算部26、非線形変換部27およびノルム算出部28を有する。
The
フィルタの一例としての畳み込み信号生成部23は、参照信号から疑似クロストーク信号を生成する処理を行う適応フィルタであり、具体的には、特開2007−19595号公報等に記載されているFIR(Finite Impulse Response)フィルタを用いる。畳み込み信号生成部23は、マイクmc1に対する店員hm1と顧客hm2との間の伝達特性を再現し、参照信号を処理することにより、疑似クロストーク信号を生成する。ただし、店員hm1と顧客hm2とが対面している場所の伝達特性は定常的なものではないため、畳み込み信号生成部23の特性も随時変化させる必要がある。そこで、実施の形態1では、フィルタ更新部25によって、FIRフィルタの係数またはタップ数を制御することによって、畳み込み信号生成部23の特性が、マイクmc1に対する店員hm1と顧客hm2との間の最新の伝達特性に近づくよう変化させる。以下、適応フィルタの更新を、学習と表現することもある。
The convolution
ここで、前述したように、マイクmc1が収音する店員hm1の音声は、顧客hm2の声がマイクmc1に届く時間分遅延する。マイクmc1が店員hm1の声を収音する場合、顧客hm2の声は、店員hm1が発話する直前にメモリ50に保持されるため、参照信号には、顧客hm2の声がマイクmc1に届くまでの間の遅延が反映されていない。そのため、実施の形態1では、ディレイ29により、この時間差を吸収し、フィルタ更新部25は、マイクmc1で収音されたタイミングに合致する参照信号を得る。すなわち、マイクmc1および顧客hm2間の距離を音速で除算した時間分、参照信号をディレイ29によって遅延させることで、マイクmc1にて実際に収音されたタイミングの再生音を再現する。ディレイ29の値は、マイクmc1と顧客hm2の間の距離を実測し、それを音速で除算することによって得ることができる。
Here, as described above, the voice of the clerk hm1 picked up by the microphone mc1 is delayed by the time when the voice of the customer hm2 reaches the microphone mc1. When the microphone mc1 picks up the voice of the clerk hm1, the voice of the customer hm2 is held in the
非線形変換部27は、音響クロストーク抑圧後の信号に対して非線形変換を行う。この非線形変換は、音響クロストーク抑圧後の信号をフィルタの更新すべき方向(正か負)を指し示す情報へと変換する処理である。非線形変換部27は、非線形変換した後の信号を更新量計算部26に出力する。
The
ノルム算出部28は、過去に顧客hm2が発話した声の音声信号のノルムを算出する。顧客hm2が発話した声の音声信号のノルムとは、過去の所定時間内に顧客hm2が発話した声の音声信号の大きさの総和であり、この時間内の信号の大きさの度合いを示す値である。ノルムは、更新量計算部26にて、顧客hm2が発話した声の音声の音量の影響を正規化するために用いられる。一般に、音量が大きいほどフィルタの更新量も大きく算出されてしまうため、正規化を行わなくては、畳み込み信号生成部23の特性が大きな音声の特性に過剰に影響されてしまう。そこで、実施の形態1では、ディレイ29から出力された音声信号を、ノルム算出部28が算出したノルムを用いて正規化することで畳み込み信号生成部23の更新量を安定させている。
The
更新量計算部26は、非線形変換部27とノルム算出部28とディレイ29とから受け取る信号から、畳み込み信号生成部23のフィルタ特性の更新量(具体的には、FIRフィルタの係数またはタップ数の更新量)を計算する。具体的には、ディレイ29から受け取る、過去に顧客hm2が発話した声の音声をノルム算出部28で算出したノルムに基づき正規化する。そして、この過去に顧客hm2が発話した声の音声を正規化した結果に、非線形変換部27から得られた情報に基づき正または負の情報を付加することで更新量を決定する。実施の形態1では、更新量計算部26は、ICA(独立成分解析)アルゴリズムまたはNLMS(Normalized Least Mean Square)アルゴリズムによりフィルタ特性の更新量を計算する。
The update
更新量計算部26、非線形変換部27およびノルム算出部28の処理を随時実行していくことで、フィルタ更新部25は、畳み込み信号生成部23の特性を、店員hm1の声を収音するマイクmc1と顧客hm2との間の伝達特性に近づけることができる。なお、顧客hm2が発話する音声を目的音とし、店員hm1が発話する音声を妨害音とする場合には、フィルタ更新部25は、畳み込み信号生成部23の特性を、顧客hm2の声を収音するマイクmc1と店員hm1との間の伝達特性に近づける。
By executing the processes of the update
次に、実施の形態1に係る音響クロストーク抑圧装置5の動作を示す。
Next, the operation of the acoustic
図2は、実施の形態1に係る音響クロストーク抑圧動作手順例を示すフローチャートである。図2の説明において、この処理は、マイクmc1,mc2で収音される音声の音声信号に対し、1サンプル毎に実行される。 FIG. 2 is a flowchart showing an example of an acoustic crosstalk suppression operation procedure according to the first embodiment. In the description of FIG. 2, this process is executed for each sample with respect to the audio signal of the audio picked up by the microphones mc1 and mc2.
図2において、マイクmc1は、メイン話者である店員hm1が発話する音声を収音し、音声認識したい主信号を取得する(S1)。また、マイクmc2は、メイン話者ではない顧客hm2が発話する音声を収音し、参照信号を取得する(S2)。DSP10は、この参照信号をメモリ50に記憶する。
In FIG. 2, the microphone mc1 picks up the voice uttered by the clerk hm1 who is the main speaker, and acquires the main signal to be recognized by the voice (S1). Further, the microphone mc2 picks up the voice uttered by the customer hm2 who is not the main speaker and acquires the reference signal (S2). The
シングルトーク検出部45は、マイクmc1,mc2で収音される音声を基に、店員hm1および顧客hm2のいずれか一方が発話しているシングルトーク状態を検出する(S3)。シングルトーク状態が検出された場合、音圧比較部46は、メイン話者である店員hm1が発話するシングルトーク状態で、マイクmc1で収音される音声の音圧とマイクmc2で収音される音声の音圧とを比較して音圧比率(上述参照)を得る(S4)。同様に、音圧比較部46は、他の話者である顧客hm2が発話するシングルトーク状態で、マイクmc1で収音される音声の音圧とマイクmc2で収音される音声の音圧とを比較して音圧比率(上述参照)を得る。
The single
妨害音混合率推定部41は、音圧比較部46によって得られたシングルトーク時の音圧比率を基に、マイクmc2(またはマイクmc1)で収音される音声の音声信号(参照信号)に含まれる妨害音の混合率(上述参照)を推定する(S5)。
The disturbing sound mixing
妨害音混合率推定部41は、推定された混合率が閾値以下であるか否かを判別する(S6)。閾値は、音響クロストーク抑圧処理を行った場合に、メイン話者の音声が劣化しない(つまり妨害音が増加しない)とされる、参照信号に含まれる妨害音(言い換えると、メイン話者の音声)の割合に設定される。
The disturbing sound mixing
混合率が閾値を超える場合(S6、NO)、DSP10は、図2に示す本処理を終了する。つまり、この場合には、クロストーク成分の抑圧が行われないので、メイン話者である店員hm1の主信号(音声信号)がそのまま音響クロストーク抑圧装置5の出力段に出力される。
When the mixing ratio exceeds the threshold value (S6, NO), DSP10 ends the present process shown in FIG. That is, in this case, since the crosstalk component is not suppressed, the main signal (voice signal) of the clerk hm1 who is the main speaker is output as it is to the output stage of the acoustic
一方、混合率が閾値以下である場合(S4、YES)、フィルタ更新部25は、フィルタ更新部25に内蔵されるメモリ(図示略)に記憶されている対応するフィルタ係数を読み込み、畳み込み信号生成部23に設定する(S7)。畳み込み信号生成部23は、マイクmc2で収音され、ディレイ29で遅延された参照信号を用いて、疑似クロストーク信号に相当するクロストーク抑圧信号(抑圧信号の一例)を生成する。すなわち、畳み込み信号生成部23は、更新量計算部26で更新される最新のフィルタ係数を用いて、遅延時間分ずれた参照信号に対し畳み込み処理を行い、遅延時間分ずれた参照信号からクロストーク抑圧信号(上述参照)を生成する。
On the other hand, when the mixing ratio is equal to or less than the threshold value (S4, YES), the
加算器22は、マイクmc1で収音された音声の音声信号から、畳み込み信号生成部23により生成されたクロストーク抑圧信号を減算し、マイクmc1で収音された音声に含まれるクロストーク成分を抑圧する(S8)。
The
DSP10は、フィルタ学習期間であるか否かを判別する(S9)。フィルタ学習期間は、メイン話者である店員hm1に対し、他の話者である顧客hm2が発話している期間である。また、フィルタ学習期間でない期間は、他の話者である顧客hm2が発話していない期間である。フィルタ学習期間である場合(S9、YES)、フィルタ更新部25は、それぞれ更新量計算部26で計算されるフィルタ係数で畳み込み信号生成部23のフィルタ係数を更新し、フィルタ更新部25に内蔵されるメモリ(図示略)に記憶する(S10)。一方、フィルタ学習期間でない場合(S9、NO)、DSP10は、図2に示す本処理を終了する。
DSP10 determines whether or not it is the filter learning period (S9). The filter learning period is a period in which the customer hm2, who is another speaker, speaks to the clerk hm1 who is the main speaker. Further, the period other than the filter learning period is a period during which the customer hm2, who is another speaker, does not speak. In the case of the filter learning period (S9, YES), the
以上により、実施の形態1に係る音響クロストーク抑圧装置5は、例えば、店員hm1と顧客hm2とが対話する店舗などの閉空間内に配置された2個のマイクmc1,mc2と接続される。音響クロストーク抑圧装置5は、2個のマイクmc1,mc2のそれぞれにより収音された音声信号に基づいて、店舗内に存在する店員hm1または顧客hm2(メイン話者を含む複数人のうちいずれか一人の一例)が発話しているシングルトーク状態をシングルトーク検出部45で検出する。音響クロストーク抑圧装置5は、メイン話者である店員hm1のシングルトーク状態で2個のマイクmc1,mc2のそれぞれにより収音された音声信号の音圧比率と、他の話者である顧客hm2(メイン話者以外の他人物の一例)のシングルトーク状態で2個のマイクmc1,mc2のそれぞれにより収音された音声信号の音圧比率とに基づいて、他の話者(メイン話者以外の他人物の一例)の音声信号に対してメイン話者の音声信号が含まれる割合を示す混合率を妨害音混合率推定部41で推定する。音響クロストーク抑圧装置5は、混合率の推定結果に基づいて、メイン話者の音声信号に含まれる他の話者の発話によるクロストーク成分の抑圧の要否を信号処理選択部42で判別する。
As described above, the acoustic
これにより、音響クロストーク抑圧装置5は、店舗などの閉空間に存在する複数の話者(例えば店員hm1および顧客hm2)の状況に応じて、メイン話者(例えば店員hm1)の発話音声に含まれ得る他の話者(例えば顧客hm2)の発話音声による音響的なクロストーク成分を適応的に抑圧できる。したがって、音響クロストーク抑圧装置5は、メイン話者の発話音声の音質を改善できる。
As a result, the acoustic
また、信号処理選択部42は、混合率の推定結果が所定の閾値以下であると判定した場合に、メイン話者の音声信号に含まれる他の話者の発話によるクロストーク成分の抑圧を行うと決定する。これにより、音響クロストーク抑圧装置5は、他の話者が発話する声の音声信号を参照信号として使用する場合に、クロストーク成分を効果的に抑圧できる。
Further, when the signal
また、信号処理選択部42は、混合率の推定結果が所定の閾値より大きいと判定した場合に、メイン話者の音声信号に含まれる他の話者の発話によるクロストーク成分の抑圧を行わないと決定する。これにより、音響クロストーク抑圧装置5は、クロストーク成分を抑圧することで、却ってメイン話者の音声に混ざる他の話者の音声が増加し、メイン話者の音声がクリアでなくなることを抑制できる。また、クロストーク抑圧処理を省くことで、DSP10による処理の負荷を軽減できる。
Further, when the signal
また、音響クロストーク抑圧装置5は、メイン話者の音声信号に含まれる他の話者の発話によるクロストーク成分の抑圧信号を生成する畳み込み信号生成部23を有し、クロストーク成分を抑圧するための畳み込み信号生成部23のパラメータを更新し、その更新結果をメモリに保持するフィルタ更新部25と、畳み込み信号生成部23により生成されたクロストーク成分の抑圧信号を用いて、メイン話者の音声信号に含まれるクロストーク成分を抑圧する加算器22と、をさらに備える。これにより、音響クロストーク抑圧装置5は、店舗内の店員hm1と顧客hm2の話者状況に応じて、メイン話者(例えば店員hm1)の発話音声に含まれ得る、顧客hm2による音響的なクロストーク成分を適応的に抑圧でき、店員hm1の発話音声の音質を改善できる。したがって、店舗内の音場が変わっても、例えば店員hm1あるいは顧客hm2が席を外して立ち上がっても、音場の変化に合わせてクロストーク成分の抑圧性能を徐々に高めることができる。
Further, the acoustic
また、畳み込み信号生成部23は、メモリに保持されている最新の畳み込み信号生成部23のパラメータの更新結果を用いて、クロストーク成分の抑圧信号を生成する。これにより、音響クロストーク抑圧装置5は、同様の話者状況が継続する場合には、その話者状況に応じて既に算出された適応的なクロストーク成分を継続して求めることができるので、メイン話者の発話音声に含まれるクロストーク成分を効果的に抑圧できる。
Further, the convolution
また、音響クロストーク抑圧装置5は、入力されたメイン話者の音声信号を、加算器22を介さずに音響クロストーク抑圧装置5の出力段に伝達する第1端子43aと、入力されたメイン話者の音声信号を、加算器22を介して音響クロストーク抑圧装置5の出力段に伝達する第2端子43bとを有し、信号処理選択部42によって判別されたクロストーク成分の抑圧の要否の判別結果にしたがい、メイン話者の音声信号の入力を第1端子43aまたは第2端子43bに切り替える切替部43を備える。これにより、音響クロストーク抑圧装置5は、機械的、電気的あるいは磁気的な切替スイッチを使用して、クロストーク抑圧を行った音声信号とクロストーク抑圧を行わない音声信号とを簡単に切り替えて出力できる。
Further, the acoustic
(実施の形態2)
実施の形態2に係る音響クロストーク抑圧装置5Aでは、任意の方向に指向性を形成可能なマイクアレイを用いる場合を示す。図3は、実施の形態2に係る音響クロストーク抑圧装置5Aの機能的構成例を示すブロック図である。実施の形態2に係る音響クロストーク抑圧装置5Aにおいて、実施の形態1と同一の構成要素については同一の符号を用いることで、その説明を省略し、ここでは相違する部分だけを説明する。音響クロストーク抑圧装置5Aは、実施の形態1と比べ、マイクmc1,mc2の代わりに、マイクアレイmAを含む構成である。
(Embodiment 2)
In the acoustic
収音装置の一例としてのマイクアレイmAは、複数個(例えば16個)の無指向性のマイク素子m11,m12,…m1nおよびマイクアレイ処理部mdを有し、実施の形態1で説明した2人の話者(例えば店員hm1および顧客hm2)の方向にそれぞれ指向性を形成(ビームフォーミングの処理)が可能な指向性マイクである。指向性処理部の一例としてのマイクアレイmAは、複数個の無指向性のマイク素子を用いて所定の方向に指向性をマイクアレイ処理部mdにおいて形成することができる。なお、この指向性の形成に関する技術は、例えば特開2015−29241号公報に示されるように、公知の技術である。なお、マイクアレイ処理部mdは、DSP10に含まれるように構成されてもよい。
The microphone array mA as an example of the sound collecting device has a plurality of (for example, 16) omnidirectional microphone elements m11, m12, ... M1n and a microphone array processing unit md, and is described in the first embodiment. It is a directional microphone capable of forming directivity (beamforming processing) in each direction of a person's speaker (for example, clerk hm1 and customer hm2). The microphone array mA as an example of the directional processing unit can form the directivity in the microphone array processing unit md in a predetermined direction by using a plurality of omnidirectional microphone elements. The technique for forming this directivity is a known technique, for example, as shown in Japanese Patent Application Laid-Open No. 2015-292241. The microphone array processing unit md may be configured to be included in the
メモリ50は、マイクアレイmAが店員hm1がいる方向d1に指向性を形成して音声する収音する際、過去に顧客hm2が発話した声の音声信号を記憶する。同様に、メモリ50は、マイクアレイmAが顧客hm2がいる方向d2に指向性を形成して音声する収音する際、過去に店員hm1が発話した声の音声信号を記憶する。これらの信号は、参照信号として音響クロストークの再現(つまり、上述した疑似クロストーク信号の生成)に用いられる。
The
また、音響クロストーク抑圧装置5Aは、実施の形態1に係るシングルトーク検出部45、音圧比較部46および妨害音混合率推定部41とは異なる、シングルトーク検出部45A、音圧比較部46Aおよび妨害音混合率推定部41Aを含む構成である。
Further, the acoustic
シングルトーク検出部45Aは、マイクアレイmAが店員hm1の方向d1に第1指向性を形成した音声と、マイクアレイmAが顧客hm2の方向d1に第2指向性を形成した音声とに基づいて、実施の形態1に係るシングルトーク検出部45と同様、店員hm1および顧客hm2のいずれか一方が発話しているシングルトーク状態を検出する。
The single
音圧比較部46Aは、店員hm1のシングルトーク状態でマイクアレイmAから店員hm1(メイン話者)の方向d1に第1指向性(上述参照)を形成した後の店員hm1の音声信号の音圧を取得する。なお、音圧比較部46Aは、店員hm1のシングルトーク状態でマイクアレイmAから店員hm1の方向d1に第1指向性(上述参照)を形成する前後での店員hm1の音声信号の音圧差を取得してもよい。
The sound
また、音圧比較部46Aは、顧客hm2のシングルトーク状態でマイクアレイmAから顧客hm2の方向d2に第2指向性(上述参照)を形成した後の顧客hm2の音声信号の音圧を取得する。なお、音圧比較部46Aは、顧客hm2のシングルトーク状態でマイクアレイmAから顧客hm2の方向d2に第2指向性(上述参照)を形成する前後での顧客hm2の音声信号の音圧差を取得してもよい。
Further, the sound
混合率推定部の一例としての妨害音混合率推定部41Aは、音圧比較部46Aによって得られたシングルトーク時の音圧あるいは音圧差を基に、マイクmc1またはマイクmc2で収音される音声の音声信号(参照信号)に含まれる妨害音の混合率(上述参照)を推定する。
Interfering sound as an example of the mixing rate estimation unit The mixing
決定部の一例としての信号処理選択部42は、妨害音混合率推定部41Aによって推定された混合率を基に、切替部43に切り替えを指示する。
The signal
一例として、マイクアレイmAが店員hm1側に片寄った位置に置かれた場合、マイクアレイmAが店員hm1がいる方向d1に指向性を形成して音声を収音する際、店員hm1の声に混ざる顧客hm2の声の割合は小さい。したがって、マイクアレイmAがメイン話者である顧客hm2がいる方向d2に指向性を形成し、抑圧ユニット20がクロストーク成分の抑圧後の音声を取得する際、マイクアレイmAが収音する他の話者である店員hm1がいる方向d1に指向性を形成して収音する音声は、音響クロストーク成分の抑圧に用いられる参照信号に適する。したがって、信号処理選択部42は、クロストーク成分の抑圧を行うように、切替部43に指示する。
As an example, when the microphone array mA is placed at a position offset to the clerk hm1 side, when the microphone array mA forms a directivity in the direction d1 where the clerk hm1 is and picks up the sound, it is mixed with the voice of the clerk hm1. The ratio of voices of customer hm2 is small. Therefore, when the microphone array mA forms directivity in the direction d2 where the customer hm2 who is the main speaker is present and the
一方、マイクアレイmAが顧客hm2がいる方向d2に指向性を形成して音声を収音する際、顧客hm2の声に混ざる店員hm1の声の割合は大きい。したがって、マイクアレイmAがメイン話者である店員hm1がいる方向d1に指向性を形成し、抑圧ユニット20がクロストーク成分の抑圧後の音声を取得する際、マイクアレイmAが収音する他の話者である顧客hm2がいる方向d2に指向性を形成して収音する音声は、音響クロストーク成分の抑圧に用いられる参照信号に適さない。したがって、信号処理選択部42は、クロストーク成分の抑圧を行わないように、切替部43に指示する。
On the other hand, when the microphone array mA forms a directivity in the direction d2 where the customer hm2 is present and collects the sound, the ratio of the voice of the clerk hm1 mixed with the voice of the customer hm2 is large. Therefore, when the microphone array mA forms a directivity in the direction d1 in which the clerk hm1 who is the main speaker is present and the
切替部43は、メイン話者である店員hm1の方向に指向性を形成して収音した音声に対し、音響クロストーク抑圧を行わないとして、マイクアレイmAから入力した音声信号を第1端子43aに切り替える。一方、切替部43は、メイン話者である顧客hm2の方向に指向性を形成して収音した音声に対し、音響クロストーク抑圧を行う場合、マイクアレイmAから入力した音声信号を第2端子43bに切り替える。
The switching
図4は、実施の形態2に係る音響クロストーク抑圧動作手順例を示すフローチャートである。図4の説明において、実施の形態1と同一のステップ処理については同一の付すことで、その説明を省略する。 FIG. 4 is a flowchart showing an example of an acoustic crosstalk suppression operation procedure according to the second embodiment. In the description of FIG. 4, the same step processing as that of the first embodiment is attached, and the description thereof will be omitted.
図4において、マイクアレイmAは、店員hm1および顧客hm2がいる店舗内で発話された音声を収音する(S01)。マイクアレイmAは、収音した音声の音声信号に対し、店員hm1がいる方向d1に第1指向性を形成し、メイン話者である店員hm1の音声信号(主信号)を取得する(S1A)。同様に、マイクアレイmAは、収音した音声の音声信号に対し、顧客hm2がいる方向d2に第2指向性を形成し、他の話者である顧客hm2の音声信号(参照信号)を取得する(S2A)。ステップS3以降の処理は、実施の形態1と同様である。 In FIG. 4, the microphone array mA picks up the voice spoken in the store where the clerk hm1 and the customer hm2 are present (S01). The microphone array mA forms the first directivity in the direction d1 where the clerk hm1 is present with respect to the audio signal of the picked-up sound, and acquires the audio signal (main signal) of the clerk hm1 who is the main speaker (S1A). .. Similarly, the microphone array mA forms a second directivity in the direction d2 where the customer hm2 is present with respect to the audio signal of the picked-up voice, and acquires the audio signal (reference signal) of the customer hm2 who is another speaker. (S2A). The processing after step S3 is the same as that of the first embodiment.
以上により、音響クロストーク抑圧装置5Aは、マイクアレイmAが有する複数の無指向性のマイク素子m11〜m1nのそれぞれにより収音された音声信号に基づいて、マイクアレイmAからメイン話者、他の話者のそれぞれへの方向に異なる指向性を形成するマイクアレイ処理部md、を備える。妨害音混合率推定部41Aは、店員hm1のシングルトーク状態でマイクアレイmAからメイン話者である店員hm1の方向d1に第1指向性を形成した後の店員hm1の音声信号の音圧と、顧客hm2のシングルトーク状態でマイクアレイmAから他の話者である顧客hm2の方向d2に第2指向性を形成した後の顧客hm2の音声信号の音圧とに基づいて、混合率を推定する。
As described above, the acoustic
これにより、音響クロストーク抑圧装置5Aは、マイクアレイmAの指向性性能を加味して、音響クロストーク抑圧処理を行うか否かを決定できる。また、顧客hm2の方向d2に指向性が形成された音声を収音することで、参照信号として用いられる顧客hm2の音声に混ざる店員hm1の音声(妨害音)の割合(混合率)を下げることができる。したがって、店員hm1が発話する声の音声に対し、クロストーク成分の抑圧が行われる確率を高めることができる。
Thereby, the acoustic
(実施の形態2の変形例)
実施の形態1の変形例では、音響クロストーク抑圧装置5Bは、音源方向情報を基に、シングルトーク状態を検出する場合を示す。図5は、実施の形態2の変形例に係る音響クロストーク抑圧装置5Bの機能的構成例を示すブロック図である。音響クロストーク抑圧装置5Bにおいて、実施の形態2に係る音響クロストーク抑圧装置5Aと同一の構成要素については、同一の符号を付すことでその説明を省略し、ここでは異なる構成要素について説明する。
(Modified Example of Embodiment 2)
In the modified example of the first embodiment, the acoustic
音響クロストーク抑圧装置5Bは、実施の形態2と異なる、シングルトーク検出部45B、音圧比較部46B、妨害音混合率推定部41Bの他、メモリ53を有する。シングルトーク検出部45Bは、メモリ53に記憶された音源方向情報を入力し、シングルトーク状態を検出する。音源方向情報は、例えば全方位カメラ(図示略)により撮影された360度の方位を有する魚眼画像を構成する各画素の位置に、その位置に対応するように算出された音圧値が画素と対応付けて割り当てられて作成された音圧ヒートマップである。この音圧ヒートマップは、音響クロストーク抑圧装置5Bとは異なる外部装置(図示略)によって作成されてメモリ53に予め記憶されている。外部装置は、例えば音圧ヒートマップを生成するため、全方位カメラ付きマイクアレイを有する。全方位カメラ付きマイクアレイは、リング状に配置された複数個(例えば16個)のマイク素子を有し、複数個のマイク素子を含むマイクアレイが全方位カメラを囲むように全方位カメラと同軸に設けられた構成である。音源方向の分析は、例えば特開2020−12704号公報に開示されるように、公知の技術である。全方位カメラ付きマイクアレイは、例えば室内の天井あるいは天井近くの壁面に設置された場合、全方位カメラで撮像された画像に対し、各方向に指向性を形成して音声を収音し、各方向の音圧を音圧ヒートマップとして取得する。
The acoustic
図6は、音圧ヒートマップが重畳された全方位カメラによる撮像画像GZ1を示す図である。全方位カメラで撮像される画像中の人物が特定されると、マイクアレイは、その方向に指向性を形成し、その人物が発話する声を収音可能である。図6では、全方位カメラ付きマイクアレイは、撮像画像中、店員hm1,顧客hm2を含む範囲でビームフォーミングを行い、音圧ヒートマップを生成する。 FIG. 6 is a diagram showing an image GZ1 captured by an omnidirectional camera on which a sound pressure heat map is superimposed. When a person in an image captured by an omnidirectional camera is identified, the microphone array forms directivity in that direction and is capable of picking up the voice spoken by that person. In FIG. 6, the microphone array with an omnidirectional camera performs beamforming in a range including the store clerk hm1 and the customer hm2 in the captured image to generate a sound pressure heat map.
シングルトーク検出部45Bは、音圧ヒートマップ上で話者が発話する音声の音圧が所定値以上である箇所が1箇所である場合、シングルトーク状態を検出する。つまり、音圧ヒートマップ上で所定値以上の音圧が現れる箇所(図6では濃いドット表示)が1箇所であると、シングルトーク状態が検出されたと判断される。
The single
音圧比較部46Bは、店員hm1のシングルトーク状態時にマイクアレイ処理部mdにより店員hm1の指向性が形成された対応する音声信号の音圧比率を取得する。また、音圧比較部46Bは、顧客hm2のシングルトーク状態時にマイクアレイ処理部mdにより顧客hm2の指向性が形成された対応する音声信号との音圧比率を取得する。
The sound
妨害音混合率推定部41Bは、音源方向情報と、店員hm1のシングルトーク状態時にマイクアレイ処理部mdにより店員hm1の指向性が形成された対応する音声信号の音圧比率と、顧客hm2のシングルトーク状態時にマイクアレイ処理部mdにより顧客hm2の指向性が形成された対応する音声信号との音圧比率とに基づいて、混合率(上述参照)を推定する。
The disturbing sound mixing
なお、シングルトーク状態の検出が音源方向情報を用いて行われる場合、音源方向情報として、カメラ映像が用いられてもよい。また、カメラ映像を用いる場合、例えば全方位カメラで撮像された映像の中に口を動かしている人物が1人だけであると、シングルトーク状態が検出されたと判断される。 When the detection of the single talk state is performed using the sound source direction information, the camera image may be used as the sound source direction information. Further, when the camera image is used, for example, if there is only one person moving the mouth in the image captured by the omnidirectional camera, it is determined that the single talk state is detected.
以上により、音響クロストーク抑圧装置5Bは、マイクアレイmAが有する複数の無指向性のマイク素子m11〜m1nのそれぞれにより収音された音声信号に基づいて、マイクアレイmAからメイン話者、他の話者のそれぞれへの方向に異なる指向性を形成するマイクアレイ処理部md、を備える。シングルトーク検出部45Bは、店舗内のメイン話者である店員hm1および他の話者である顧客hm2のそれぞれへの方向を示す音源方向情報を取得し、この音源方向情報に基づいてシングルトーク状態を検出する。妨害音混合率推定部41Bは、音源方向情報と、店員hm1のシングルトーク状態時にマイクアレイ処理部mdにより店員hm1の指向性が形成された対応する音声信号の音圧比率と、顧客hm2のシングルトーク状態時にマイクアレイ処理部mdにより顧客hm2の指向性が形成された対応する音声信号との音圧比率とに基づいて、混合率を推定する。
As described above, the acoustic
これにより、音響クロストーク抑圧装置5Bは、シングルトーク検出部45Bが音源方向情報を取得するので、シングルトーク状態を速やかに検出して混合率を取得できる。また、シングルトーク状態の検出処理を軽減することができる。
As a result, in the acoustic
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the drawings, it goes without saying that the present disclosure is not limited to such examples. It is clear that a person skilled in the art can come up with various modifications, modifications, substitutions, additions, deletions, and equality within the scope of the claims. It is understood that it naturally belongs to the technical scope of the present disclosure. Further, each component in the various embodiments described above may be arbitrarily combined as long as the gist of the invention is not deviated.
例えば、上述した実施の形態1では、2個のマイク、店員hm1向けのマイクmc1と顧客hm向けのマイクmc2が設けられたが、これらのマイクの少なくとも一方は、ヘッドセットに内蔵されてもよい。これにより、参照信号に用いられる音声信号に含まれる妨害音の音圧が下がり、音響クロストークの抑圧が実行され易くなる。 For example, in the first embodiment described above, two microphones, a microphone mc1 for the clerk hm1 and a microphone mc2 for the customer hm1, are provided, but at least one of these microphones may be built in the headset. .. As a result, the sound pressure of the disturbing sound included in the audio signal used as the reference signal is lowered, and the suppression of acoustic crosstalk is easily executed.
また、上述した実施の形態1,2のいずれにおいても、妨害音混合率推定部41によって推定された混合率が閾値以下である場合、更新量計算部26は、混合率の値によってアルゴリズム(N L M S アルゴリズム、ICAアルゴリズム等)を変更して適応フィルタのパラメータを計算してもよく、パラメータをより適した値に設定可能である。
Further, in any of the above-described first and second embodiments, when the mixing ratio estimated by the parameter mixing
また、音響クロストーク抑圧装置は、ハウリングキャンセラに用いられてもよい。ハウリングキャンセラは、例えばカラオケボックス等において、自身が発する声がスピーカで再生されてマイクで収音される音を妨害音として抑圧する。また、音響クロストーク抑圧装置は、エコーキャンセラに用いられてもよい。エコーキャンセラは、車室内等において、他の話者が発話する声がスピーカから出力されてメイン話者のマイクで収音される音を妨害音として抑圧する。 Further, the acoustic crosstalk suppression device may be used for a howling canceller. In a karaoke box or the like, the howling canceller suppresses a sound in which a voice emitted by itself is reproduced by a speaker and picked up by a microphone as an interfering sound. Further, the acoustic crosstalk suppression device may be used for an echo canceller. The echo canceller suppresses the sound that the voice spoken by another speaker is output from the speaker and picked up by the microphone of the main speaker as a disturbing sound in the vehicle interior or the like.
本開示は、閉空間に存在する複数の話者の状況に応じて、メイン話者の発話音声に含まれ得る他の話者の発話音声による音響的なクロストーク成分を適応的に抑圧し、メイン話者の発話音声の音質を改善する音声処理装置および音声処理方法として有用である。 The present disclosure adaptively suppresses the acoustic cross-talk component of the speech speech of another speaker that may be included in the speech speech of the main speaker, depending on the situation of a plurality of speakers existing in the closed space. It is useful as a voice processing device and a voice processing method for improving the sound quality of the uttered voice of the main speaker.
5,5A,5B 音響クロストーク抑圧装置
22 加算器
23 畳み込み信号生成部
25 フィルタ更新部
26 更新量計算部
27 非線形変換部
28 ノルム算出部
29 ディレイ
41,41A,41B 妨害音混合率推定部
42 信号処理選択部
43 切替部
43a 第1端子
43b 第2端子
45 シングルトーク検出部
46 音圧比較部
mA マイクアレイ
mc1、mc2 マイク
5,5A, 5B Acoustic
Claims (9)
前記複数のマイクのそれぞれにより収音された音声信号に基づいて、前記閉空間内に存在するメイン話者を含む複数人のうちいずれか一人が発話しているシングルトーク状態を検出するシングルトーク検出部と、
前記メイン話者のシングルトーク状態で前記複数のマイクのそれぞれにより収音された音声信号の音圧比率と、前記メイン話者以外の他人物のシングルトーク状態で前記複数のマイクのそれぞれにより収音された音声信号の音圧比率とに基づいて、前記他人物の音声信号に対して前記メイン話者の音声信号が含まれる割合を示す混合率を推定する混合率推定部と、
前記混合率の推定結果に基づいて、前記メイン話者の音声信号に含まれる前記他人物の発話によるクロストーク成分の抑圧の要否を判別する決定部と、を備える、
音声処理装置。 Connected to multiple microphones located in a closed space,
Single talk detection that detects a single talk state in which any one of a plurality of people including the main speaker existing in the closed space is speaking based on the audio signals picked up by each of the plurality of microphones. Department and
The sound pressure ratio of the audio signal picked up by each of the plurality of microphones in the single talk state of the main speaker and the sound picked up by each of the plurality of microphones in the single talk state of another person other than the main speaker. A mixing ratio estimation unit that estimates a mixing ratio indicating the ratio of the main speaker's voice signal to the voice signal of the other person based on the sound pressure ratio of the voice signal.
Based on the estimation result of the mixing ratio, a determination unit for determining whether or not the crosstalk component is suppressed by the utterance of the other person included in the audio signal of the main speaker is provided.
Voice processing device.
請求項1に記載の音声処理装置。 When the determination unit determines that the estimation result of the mixing ratio is equal to or less than a predetermined threshold value, it determines that the crosstalk component is suppressed by the utterance of the other person included in the audio signal of the main speaker. ,
The voice processing device according to claim 1.
請求項1に記載の音声処理装置。 When the determination unit determines that the estimation result of the mixing ratio is larger than a predetermined threshold value, the determination unit determines that the crosstalk component is not suppressed by the utterance of the other person included in the audio signal of the main speaker. ,
The voice processing device according to claim 1.
前記フィルタにより生成された前記抑圧信号を用いて、前記メイン話者の音声信号に含まれる前記クロストーク成分を抑圧するクロストーク抑圧部と、をさらに備える、
請求項1に記載の音声処理装置。 It has a filter that generates a suppression signal of a crosstalk component due to the utterance of the other person included in the audio signal of the main speaker, updates the parameters of the filter for suppressing the crosstalk component, and updates the result. And the filter updater that holds
Using the suppression signal generated by the filter, a crosstalk suppression unit that suppresses the crosstalk component included in the audio signal of the main speaker is further provided.
The voice processing device according to claim 1.
前記混合率推定部は、前記メイン話者のシングルトーク状態で前記収音装置から前記メイン話者の方向に第1指向性を形成した後の前記メイン話者の音声信号の音圧と、前記他人物のシングルトーク状態で前記収音装置から前記他人物の方向に第2指向性を形成した後の前記他人物の音声信号の音圧とに基づいて、前記混合率を推定する、
請求項1に記載の音声処理装置。 Directivity that forms different directivity in the direction from the sound collecting device to the main speaker and the other person based on the sound signal picked up by the sound collecting device accommodating each of the plurality of microphones. Further equipped with a processing unit,
The mixing ratio estimation unit includes the sound pressure of the voice signal of the main speaker after forming the first directivity from the sound collecting device in the direction of the main speaker in the single talk state of the main speaker, and the sound pressure of the main speaker. The mixing ratio is estimated based on the sound pressure of the voice signal of the other person after forming the second directivity in the direction of the other person from the sound collecting device in the single talk state of the other person.
The voice processing device according to claim 1.
前記シングルトーク検出部は、前記閉空間内の前記メイン話者および前記他人物のそれぞれへの方向を示す音源方向情報を取得し、前記音源方向情報に基づいて前記シングルトーク状態を検出し、
前記混合率推定部は、前記メイン話者のシングルトーク状態時に前記指向性処理部により前記メイン話者の指向性が形成された音声信号と前記他人物のシングルトーク状態時に前記指向性処理部により前記他人物の指向性が形成された音声信号との音圧比率に基づいて、前記混合率を推定する、
請求項1に記載の音声処理装置。 Directivity that forms different directivity in the direction from the sound collecting device to the main speaker and the other person based on the sound signal picked up by the sound collecting device accommodating each of the plurality of microphones. Further equipped with a processing unit,
The single talk detection unit acquires sound source direction information indicating directions to each of the main speaker and the other person in the closed space, detects the single talk state based on the sound source direction information, and detects the single talk state.
The mixing ratio estimation unit uses the audio signal in which the directivity of the main speaker is formed by the directivity processing unit in the single talk state of the main speaker and the directivity processing unit in the single talk state of the other person. The mixing ratio is estimated based on the sound pressure ratio with the audio signal in which the directivity of the other person is formed.
The voice processing device according to claim 1.
請求項4に記載の音声処理装置。 The filter generates the suppression signal by using the latest update result of the parameter of the filter held in the memory.
The voice processing device according to claim 4.
請求項4に記載の音声処理装置。 The first terminal that transmits the input audio signal of the main speaker to the output stage of the audio processing device without passing through the cross talk suppression unit, and the input audio signal of the main speaker are crossed. It has a second terminal that transmits to the output stage of the voice processing device via the talk suppression unit, and inputs the voice signal of the main speaker based on the determination result of the necessity of suppressing the cross talk component. A switching unit for switching to the first terminal or the second terminal is further provided.
The voice processing device according to claim 4.
前記複数のマイクのそれぞれにより収音された音声信号に基づいて、前記閉空間内に存在するメイン話者を含む複数人のうちいずれか一人が発話しているシングルトーク状態を検出し、
前記メイン話者のシングルトーク状態で前記複数のマイクのそれぞれにより収音された音声信号の音圧比率と、前記メイン話者以外の他人物のシングルトーク状態で前記複数のマイクのそれぞれにより収音された音声信号の音圧比率とに基づいて、前記他人物の音声信号に対して前記メイン話者の音声信号が含まれる割合を示す混合率を推定し、
前記混合率の推定結果に基づいて、前記メイン話者の音声信号に含まれる前記他人物の発話によるクロストーク成分の抑圧の要否を判別する、
音声処理方法。 A voice processing method executed by a voice processing device connected to a plurality of microphones arranged in a closed space.
Based on the audio signals picked up by each of the plurality of microphones, a single talk state in which any one of a plurality of persons including the main speaker existing in the closed space is speaking is detected.
The sound pressure ratio of the audio signal picked up by each of the plurality of microphones in the single talk state of the main speaker and the sound picked up by each of the plurality of microphones in the single talk state of another person other than the main speaker. Based on the sound pressure ratio of the voice signal, the mixing ratio indicating the ratio of the voice signal of the main speaker to the voice signal of the other person is estimated.
Based on the estimation result of the mixing ratio, it is determined whether or not it is necessary to suppress the crosstalk component due to the utterance of the other person included in the audio signal of the main speaker.
Voice processing method.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020028731A JP2021135311A (en) | 2020-02-21 | 2020-02-21 | Voice processing device and voice processing method |
US17/179,985 US11410671B2 (en) | 2020-02-21 | 2021-02-19 | Speech processing device and speech processing meihod |
US17/851,945 US11735201B2 (en) | 2020-02-21 | 2022-06-28 | Speech processing device and speech processing method |
US18/210,702 US12039993B2 (en) | 2020-02-21 | 2023-06-16 | Speech processing device and speech processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020028731A JP2021135311A (en) | 2020-02-21 | 2020-02-21 | Voice processing device and voice processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021135311A true JP2021135311A (en) | 2021-09-13 |
Family
ID=77661054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020028731A Pending JP2021135311A (en) | 2020-02-21 | 2020-02-21 | Voice processing device and voice processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021135311A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004187283A (en) * | 2002-11-18 | 2004-07-02 | Matsushita Electric Ind Co Ltd | Microphone unit and reproducing apparatus |
JP6635394B1 (en) * | 2019-01-29 | 2020-01-22 | パナソニックIpマネジメント株式会社 | Audio processing device and audio processing method |
-
2020
- 2020-02-21 JP JP2020028731A patent/JP2021135311A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004187283A (en) * | 2002-11-18 | 2004-07-02 | Matsushita Electric Ind Co Ltd | Microphone unit and reproducing apparatus |
JP6635394B1 (en) * | 2019-01-29 | 2020-01-22 | パナソニックIpマネジメント株式会社 | Audio processing device and audio processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4378170B2 (en) | Acoustic device, system and method based on cardioid beam with desired zero point | |
JP6196320B2 (en) | Filter and method for infomed spatial filtering using multiple instantaneous arrival direction estimates | |
JP4588966B2 (en) | Method for noise reduction | |
CA2560034C (en) | System for selectively extracting components of an audio input signal | |
US11297178B2 (en) | Method, apparatus, and computer-readable media utilizing residual echo estimate information to derive secondary echo reduction parameters | |
JP5060631B1 (en) | Signal processing apparatus and signal processing method | |
JP4654777B2 (en) | Acoustic echo cancellation device | |
KR20040019362A (en) | Sound reinforcement system having an multi microphone echo suppressor as post processor | |
CN111078185A (en) | Method and equipment for recording sound | |
US11676617B2 (en) | Acoustic noise suppressing apparatus and acoustic noise suppressing method | |
US12039993B2 (en) | Speech processing device and speech processing method | |
US12119013B2 (en) | Acoustic crosstalk suppression device and acoustic crosstalk suppression method | |
JP2021135311A (en) | Voice processing device and voice processing method | |
US20220189450A1 (en) | Audio processing system and audio processing device | |
WO2021100670A1 (en) | Sound crosstalk suppression device and sound crosstalk suppression method | |
JP7493158B2 (en) | Audio processing device and audio processing method | |
JP7486153B2 (en) | Audio processing device and audio processing method | |
Adcock et al. | Practical issues in the use of a frequency‐domain delay estimator for microphone‐array applications | |
JP2022062876A (en) | Audio signal processing method and audio signal processing apparatus | |
Saremi | Spatial audio signal processing for speech telecommunication inside vehicles | |
US20240334125A1 (en) | Audio processing based on target signal-to-noise ratio | |
WO2023149254A1 (en) | Voice signal processing device, voice signal processing method, and voice signal processing program | |
WO2023065317A1 (en) | Conference terminal and echo cancellation method | |
Kellermann | Echoes and noise with seamless acoustic man-machine interfaces–the challenge persists | |
WO2024205944A1 (en) | Audio processing based on target signal-to-noise ratio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240131 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240416 |