JP6995254B2 - Sound field control device and sound field control method - Google Patents
Sound field control device and sound field control method Download PDFInfo
- Publication number
- JP6995254B2 JP6995254B2 JP2021541855A JP2021541855A JP6995254B2 JP 6995254 B2 JP6995254 B2 JP 6995254B2 JP 2021541855 A JP2021541855 A JP 2021541855A JP 2021541855 A JP2021541855 A JP 2021541855A JP 6995254 B2 JP6995254 B2 JP 6995254B2
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- sound field
- voice
- listener
- drive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 19
- 230000008921 facial expression Effects 0.000 claims description 5
- 238000012986 modification Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 210000005069 ears Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 241000269400 Sirenidae Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/02—Synthesis of acoustic waves
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2227/00—Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
- H04R2227/001—Adaptation of signal processing in PA systems in dependence of presence of noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2410/00—Microphones
- H04R2410/05—Noise reduction with a separate noise microphone
Landscapes
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
本発明は、車両内のスピーカによって生成される、車両内の特定の位置での音場を制御する音場制御装置及び音場制御方法に関する。 The present invention relates to a sound field control device and a sound field control method for controlling a sound field at a specific position in a vehicle, which is generated by a speaker in the vehicle.
従来、車両内において快適な会話環境を提供するシステムが提案されている。例えば、マイク(マイクロホン)とスピーカとを備えたハンドフリー電話システムでは、車両内のノイズを除去するノイズキャンセリング技術や、車両内のエコーを除去するエコーキャンセル技術によって快適な通話環境を実現している。また、車両内での乗員の会話をスムーズに行うために、それぞれの乗員近傍にマイク及びスピーカを配置し、一方の乗員の音声をマイクロホンから取り込み、他方の乗員近傍のスピーカから当該音声を出力する技術が提案されている。 Conventionally, a system that provides a comfortable conversation environment in a vehicle has been proposed. For example, in a hand-free telephone system equipped with a microphone (microphone) and a speaker, a comfortable call environment is realized by noise canceling technology that removes noise in the vehicle and echo canceling technology that removes echo in the vehicle. There is. In addition, in order to facilitate conversations among occupants in the vehicle, microphones and speakers are placed near each occupant, the voice of one occupant is captured from the microphone, and the voice is output from the speaker near the other occupant. Technology has been proposed.
なお、マイク及びスピーカを用いて車両内の音場を制御する技術として、例えば特許文献1及び特許文献2の技術が提案されている。特許文献1には、頭の回転に対応して音場を制御する技術が提案されている。特許文献2には、座席の位置に応じて音場を制御する技術が提案されている。
As a technique for controlling the sound field in the vehicle by using a microphone and a speaker, for example, the techniques of
以上のような従来技術では、運転者という特定の乗員からの音声のみに関して音場を適切に制御することを想定している。このため、車両内の任意の乗員からの音声に関して車両内の音場を適切に制御することができないという問題があった。 In the above-mentioned conventional technology, it is assumed that the sound field is appropriately controlled only with respect to the voice from a specific occupant called the driver. Therefore, there is a problem that the sound field in the vehicle cannot be appropriately controlled with respect to the sound from an arbitrary occupant in the vehicle.
そこで、本発明は、上記のような問題点を鑑みてなされたものであり、車両内の任意の乗員からの音声に関して車両内の音場を適切に制御することが可能な技術を提供することを目的とする。 Therefore, the present invention has been made in view of the above-mentioned problems, and provides a technique capable of appropriately controlling the sound field in the vehicle with respect to the sound from an arbitrary occupant in the vehicle. With the goal.
本発明に係る音場制御装置は、車両内の複数の乗員の撮影画像から、複数の乗員の顔情報を取得する取得部と、取得部で取得された顔情報と、車両内のマイクで受け付けた音声とに基づいて、複数の乗員の中から話者と聴者とを判定する判定制御部と、判定制御部による判定の結果に基づいて、複数の乗員の位置における音場を制御する音場制御部とを備え、音場制御部は、判定制御部による判定の結果に基づいて、話者からの音声を打ち消す音声を、スピーカから聴者に出力させる駆動を行う消音音声駆動部と、判定制御部による判定の結果に基づいて、話者からの音声を、スピーカから聴者に出力させる駆動を行う音声駆動部と、消音音声駆動部の駆動及び音声駆動部の駆動を制御する駆動制御を行う駆動制御部とを含む。 The sound field control device according to the present invention accepts the acquisition unit that acquires the face information of a plurality of occupants from the images taken by a plurality of occupants in the vehicle, the face information acquired by the acquisition unit, and the microphone in the vehicle. A sound field that controls the sound field at the positions of a plurality of occupants based on the judgment control unit that determines a speaker and a listener from among a plurality of occupants based on the sound and the result of the determination by the determination control unit. The sound field control unit includes a control unit, and the sound field control unit includes a mute sound drive unit that drives the listener to output a sound that cancels the voice from the speaker based on the result of the judgment by the judgment control unit, and a judgment control unit. Based on the result of the determination by the unit, the voice drive unit that drives the speaker to output the voice from the speaker to the listener, and the drive that controls the drive of the mute voice drive unit and the drive of the voice drive unit. Including the control unit .
本発明によれば、取得された顔情報と、マイクで受け付けた音声とに基づいて、複数の乗員の中から話者と聴者とを判定し、話者及び聴者の判定の結果に基づいて、複数の乗員の位置における音場を制御する。このような構成によれば、車両内の任意の乗員からの音声に関して車両内の音場を適切に制御することができる。 According to the present invention, a speaker and a listener are determined from a plurality of occupants based on the acquired face information and the voice received by the microphone, and based on the result of the determination of the speaker and the listener, the speaker and the listener are determined. Control the sound field at the positions of multiple occupants. According to such a configuration, the sound field in the vehicle can be appropriately controlled with respect to the voice from any occupant in the vehicle.
本発明の目的、特徴、態様及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。 The objects, features, embodiments and advantages of the present invention will be made clearer by the following detailed description and accompanying drawings.
<実施の形態1>
図1は、本発明の実施の形態1に係る音場制御装置1の構成を示すブロック図である。音場制御装置1は、例えばDMS(Driver Monitoring System)などに適用することができる。図1の音場制御装置1は、車両内のマイク(マイクロホン)51及びスピーカ52と無線または有線を介して接続されている。<
FIG. 1 is a block diagram showing a configuration of a sound
マイク51は、車両内の複数の乗員の口から発せられた音声を受け付ける。マイク51には、例えば、各乗員からの音声のみを受け付け可能な超指向性マイクなどが適用される。複数の乗員には、例えば、運転者、助手席の同乗者、及び、後部席の同乗者などが含まれる。
The
スピーカ52は、音場制御装置1の制御によって、車両内に音場を生成する。このスピーカ52には、例えば、各乗員の位置において異なる音場を生成することが可能なパラメトリックアレイスピーカなどの超指向性スピーカなどが適用される。
The
次に、音場制御装置1について説明する。以下で説明するように、音場制御装置1は、スピーカ52によって生成される、車両内の特定の位置での音場を制御することが可能となっている。
Next, the sound
図1の音場制御装置1は、取得部11と、判定制御部12と、音場制御部13とを備える。
The sound
取得部11は、車両内の複数の乗員の撮影画像から複数の乗員の顔情報を取得する。顔情報は、乗員の顔の特徴点及び状態を含む情報であり、例えば、乗員の口の位置、乗員の耳(例えば両耳)の位置、及び、口の動きに関する情報である。取得部11には、カメラなどの撮影装置で撮影された乗員の画像に認識処理が可能な装置、及び、そのインターフェースの少なくともいずれか1つが用いられる。
The
判定制御部12は、取得部11で取得された顔情報と、マイク51で受け付けた音声とに基づいて、複数の乗員の中から話者と聴者とを判定する。例えば、判定制御部12は、時系列の顔情報から乗員の口が開閉していることを認識し、かつ、マイク51で受け付けた音声の波形が母音波形または子音波形であることを認識した場合に、当該乗員を話者と判定し、それ以外の乗員を聴者と判定する。また例えば、判定制御部12は、時系列の顔情報にリップリーディング機能を用いて乗員が発話していると推定し、かつ、マイク51で一定以上の音圧を検出した場合に、当該乗員を話者と判定し、それ以外の乗員を聴者と判定する。
The
音場制御部13は、判定制御部12による判定の結果に基づいてスピーカ52を制御することにより、車両内の特定の位置での音場、ひいては複数の乗員の位置における音場を制御する。例えば、音場制御部13は、判定制御部12で判定された話者の口の位置と、判定制御部12で判定された聴者の耳の位置とに基づいて、スピーカ52から聴者の耳に対して、話者の音声、及び、話者の音声を打ち消す音声を選択的に出力する制御を行う。
The sound
<実施の形態1のまとめ>
以上のような本実施の形態1に係る音場制御装置1によれば、取得された顔情報と、マイク51で受け付けた音声とに基づいて、複数の乗員の中から話者と聴者とを判定し、話者及び聴者の判定の結果に基づいて、複数の乗員の位置における音場を制御する。このような構成によれば、例えば、車両内で音声を発した任意の乗員を話者として判定し、それ以外の乗員を聴者として判定することができるので、任意の乗員からの音声に関して、複数の乗員の位置における音場を適切に制御することができる。このことは、近年提案されているライドシェアにおいて特に有効である。<Summary of
According to the sound
<実施の形態2>
図2は、本発明の実施の形態2に係る音場制御装置1の構成を示すブロック図である。以下、本実施の形態2に係る構成要素のうち、上述の構成要素と同じまたは類似する構成要素については同じまたは類似する参照符号を付し、異なる構成要素について主に説明する。<
FIG. 2 is a block diagram showing the configuration of the sound
図2の音場制御装置1は、指向性マイク51a、スピーカアレイ52a、及び、画像認識装置53と通信可能に接続されている。指向性マイク51a及びスピーカアレイ52aは、図1のマイク51及びスピーカ52の概念に含まれる。具体的には、指向性マイク51aは、実施の形態1で説明したマイク51と同様に、車両内の複数の乗員の口から発せられた音声を受け付ける。スピーカアレイ52aは、実施の形態1で説明したスピーカ52と同様に、音場制御装置1の制御によって、車両内に音場を生成する。画像認識装置53は、車両内の複数の乗員の撮影画像に認識処理を行うことにより、複数の乗員の顔情報を生成する。
The sound
次に、音場制御装置1について説明する。図2の音場制御装置1は、顔情報取得部11aと、発話音声判定部12aと、話者聴者認識部12bと、消音音声駆動部13aと、音声駆動部13bと、駆動制御部13cと、マイク制御部14とを備える。なお、顔情報取得部11aは、図1の取得部11の概念に含まれ、発話音声判定部12a及び話者聴者認識部12bは、図1の判定制御部12の概念に含まれる。消音音声駆動部13a、音声駆動部13b及び駆動制御部13cは、図1の音場制御部13の概念に含まれる。
Next, the sound
顔情報取得部11aは、画像認識装置53で生成された顔情報を取得する。顔情報は、実施の形態1と同様に乗員の顔の特徴点及び状態を含む情報である。
The face
マイク制御部14は、指向性マイク51aが乗員の口の位置の音声を精度よく受け付けることができるように、顔情報取得部11aで取得された顔情報に基づいて、指向性マイク51aの指向性を制御する。なお、指向性マイク51aの指向性の調整ロジックは限定されるものではなく、既存の任意の調整ロジックを用いることができる。
The
発話音声判定部12aは、顔情報取得部11aで取得された顔情報と、指向性マイク51aで受け付けた音声とに基づいて、指向性マイク51aで受け付けた音声が、乗員が発した音声であるか否かを判定する。このような判定には、例えば、実施の形態1の判定制御部12で説明した判定が用いられる。
The utterance
話者聴者認識部12bは、指向性マイク51aで受け付けた音声が乗員からの音声であると発話音声判定部12aにて判定された場合に、顔情報取得部11aで取得された顔情報と、発話音声判定部12aの判定の結果とに基づいて話者と聴者とを特定する。例えば、話者聴者認識部12bは、顔情報取得部11aで顔情報が取得された複数の乗員のうち、発話音声判定部12aで音声を発した乗員と判定された話者と判定し、それ以外の乗員を聴者と判定する。この際、話者聴者認識部12bは、話者の口の位置と聴者の耳の位置も判定する。話者聴者認識部12bによる判定の結果は、駆動制御部13cを介して消音音声駆動部13a及び音声駆動部13bに出力される。
When the utterance
消音音声駆動部13aは、話者聴者認識部12bによる判定の結果に基づいて、話者からの音声を打ち消す音声を、スピーカアレイ52aから聴者に出力させる駆動を行う。具体的には、消音音声駆動部13aは、話者聴者認識部12bで判定された話者の口の位置及び聴者の耳の位置と、指向性マイク51aで受け付けた話者の音声とに基づいて、聴者の耳の位置に話者の音声を打ち消す音声が出力されるように、スピーカアレイ52aを制御する。話者の音声の打ち消しは、聴者が話者の音声を聞き取れない程度の打ち消しであればよく、完全な打ち消しでなくてもよい。
The muffling
音声駆動部13bは、話者聴者認識部12bによる判定の結果に基づいて、話者からの音声を、スピーカアレイ52aから聴者に出力させる駆動を行う。具体的には、音声駆動部13bは、話者聴者認識部12bで判定された話者の口の位置及び聴者の耳の位置と、指向性マイク51aで受け付けた話者の音声とに基づいて、聴者の耳の位置に話者の音声が出力されるように、スピーカアレイ52aを制御する。
The
駆動制御部13cは、消音音声駆動部13aの駆動及び音声駆動部13bの駆動を制御する駆動制御を行う。本実施の形態2では、駆動制御部13cは、話者がハンドフリー通話をしているか否かに基づいて駆動制御を行う。ここでいう話者は、運転者であってもよいし、運転者以外の乗員であってもよい。
The
例えば、駆動制御部13cは、話者がハンドフリー通話をしていると判定した場合に、全ての聴者に対して音声駆動部13bを駆動せずに消音音声駆動部13aを駆動する制御を行う。また例えば、駆動制御部13cは、話者がハンドフリー通話をしていないと判定した場合に、全ての聴者に対して消音音声駆動部13aを駆動せずに音声駆動部13bを駆動する制御を行う。
For example, when it is determined that the speaker is making a hands-free call, the
なお、話者がハンドフリー通話をしているか否かは、ハンドフリー通話の制御装置(図示せず)から入力されたハンドフリー通話のステータス情報に基づいて判定されてもよいし、顔情報取得部11aで取得された顔情報に基づいて判定されてもよい。
Whether or not the speaker is making a hands-free call may be determined based on the status information of the hands-free call input from the hand-free call control device (not shown), or face information acquisition. The determination may be made based on the face information acquired by the
<動作>
図3は、本実施の形態2に係る音場制御装置1の動作を示すフローチャートである。<Operation>
FIG. 3 is a flowchart showing the operation of the sound
まずステップST1にて、顔情報取得部11aは、画像認識装置53から顔情報を取得する。
First, in step ST1, the face
ステップST2にて、マイク制御部14は、顔情報取得部11aで取得された顔情報に基づいて指向性マイク51aの指向性を制御する。
In step ST2, the
ステップST3にて、発話音声判定部12aは、顔情報取得部11aで取得された顔情報と、指向性マイク51aで受け付けた音声とに基づいて、指向性マイク51aで受け付けた音声が、乗員が発した音声であるか否かを判定する。つまり、発話音声判定部12aは、乗員が発話しているか否かを判定する。乗員が発話していると判定された場合には処理がステップST4に進み、乗員が発話していないと判定された場合には処理がステップST1に戻る。
In step ST3, the utterance
ステップST4にて、話者聴者認識部12bは、顔情報取得部11aで取得された顔情報と、発話音声判定部12aの判定の結果とに基づいて話者と聴者とを判定する。
In step ST4, the speaker /
ステップST5にて、駆動制御部13cは、話者がハンドフリー通話をしているか否かを判定する。話者がハンドフリー通話をしていると判定された場合には処理がステップST6に進み、話者がハンドフリー通話をしていないと判定された場合には処理がステップST7に進む。
In step ST5, the
ステップST6にて、駆動制御部13cは消音音声駆動部13aを駆動する制御を行う。これにより、消音音声駆動部13aは、話者聴者認識部12bによる判定の結果に基づいて、話者からの音声を打ち消す音声を、スピーカアレイ52aから全ての聴者に出力させる駆動を行う。その後、処理がステップST1に戻る。
In step ST6, the
ステップST7にて、駆動制御部13cは音声駆動部13bを駆動する制御を行う。これにより、音声駆動部13bは、話者聴者認識部12bによる判定の結果に基づいて、話者からの音声を、スピーカアレイ52aから全ての聴者に出力させる駆動を行う。その後、処理がステップST1に戻る。
In step ST7, the
<実施の形態2のまとめ>
以上のような本実施の形態2に係る音場制御装置1によれば、話者が運転者であるか運転者以外の乗員であるかに関わらず、話者がハンドフリー通話をしているか否かに基づいて、消音音声駆動部13aの駆動及び音声駆動部13bの駆動を制御する駆動制御を行う。このような構成によれば、任意の乗員がハンドフリー通話を行っている場合に、他の乗員に対してその会話の秘匿を行うことができる。<Summary of
According to the sound
<変形例1>
駆動制御部13cは、ハンドフリー通話以外の動作に基づいて、消音音声駆動部13aの駆動及び音声駆動部13bの駆動を制御する駆動制御を行ってもよい。以下、その例について説明する。<
The
<変形例1A>
駆動制御部13cは、話者及び聴者からの操作に基づいて駆動制御を行ってもよい。例えば、駆動制御部13cは、話者及び聴者の両者が図示しないアイコンやキーに対して会話許諾の意思を示す操作を行った場合には、消音音声駆動部13aを駆動せずに音声駆動部13bを駆動する制御を行ってもよい。また例えば、駆動制御部13cは、話者及び聴者の両者が図示しないアイコンやキーに対して会話拒否の意思を示す操作を行った場合には、音声駆動部13bを駆動せずに消音音声駆動部13aを駆動する制御を行ってもよい。<Modification 1A>
The
なお、話者の意思と聴者の意思とが異なる場合には、会話拒否優先規則、話者優先規則などの予め定められた規則にしたがって駆動制御を行ってもよい。ここで、会話拒否優先規則とは、話者及び聴者の少なくとも一方が会話拒否の意思を示す操作を行った場合に、音声駆動部13bを駆動せずに消音音声駆動部13aを優先的に駆動する規則である。話者優先規則とは、聴者の操作よりも話者の操作を優先して消音音声駆動部13a及び音声駆動部13bの駆動制御を行う規則である。
If the intention of the speaker and the intention of the listener are different, the drive control may be performed according to a predetermined rule such as a conversation refusal priority rule or a speaker priority rule. Here, the conversation refusal priority rule means that when at least one of the speaker and the listener performs an operation indicating the intention of refusing the conversation, the muffling
なお、駆動制御部13cは、話者及び聴者からの操作による設定を記憶することにより、それ以降、当該設定に基づいて駆動制御を行ってもよい。また、話者及び聴者からの操作は、図示しないアイコンやキーに対する操作に限ったものではなく、例えば、カメラなどを用いて話者及び聴者から検出されたジェスチャー操作などであってもよい。ジェスチャー操作は、例えば、会話許諾を示すジェスチャー操作として、指でOKマークを作成するジェスチャー操作を含んでもよいし、会話拒否を示すジェスチャー操作として、手で払いのけるようなジェスチャー操作を含んでもよい。なお、ジェスチャー操作は、音場制御装置1が位置する範囲(例えば地域、国)によって適宜変更されてもよい。
The
<変形例1B>
駆動制御部13cは、顔情報取得部11aで取得された顔情報に基づいて、話者の顔の表情及び聴者の顔の表情を判定し、当該判定の結果に基づいて駆動制御を行ってもよい。例えば、駆動制御部13cは、話者及び聴者の一方の顔がウィンクをしていると判定した場合には、会話許諾の意思が示されていると判定して、消音音声駆動部13aを駆動せずに音声駆動部13bを駆動する制御を行ってもよい。また例えば、駆動制御部13cは、話者及び聴者の一方の顔がゆがんだ表情をしていると判定した場合には、会話拒否の意思が示されていると判定して、音声駆動部13bを駆動せずに消音音声駆動部13aを駆動する制御を行ってもよい。<Modification 1B>
Even if the
または、駆動制御部13cは、顔情報取得部11aで取得された顔情報に基づいて、話者の顔の向き及び聴者の顔の向きを判定し、当該判定の結果に基づいて駆動制御を行ってもよい。例えば、駆動制御部13cは、話者及び聴者の一方の顔が他方に向いていると判定した場合には、会話許諾の意思が示されていると判定して、消音音声駆動部13aを駆動せずに音声駆動部13bを駆動する制御を行ってもよい。また例えば、駆動制御部13cは、話者及び聴者の一方の顔が他方から背けていると判定した場合には、会話拒否の意思が示されていると判定して、音声駆動部13bを駆動せずに消音音声駆動部13aを駆動する制御を行ってもよい。
Alternatively, the
または、駆動制御部13cは、顔情報取得部11aで取得された顔情報に基づいて、話者の顔の動き及び聴者の顔の動きを判定し、当該判定の結果に基づいて駆動制御を行ってもよい。例えば、駆動制御部13cは、話者及び聴者の一方の顔が他方に近づいた、または、縦方向に揺れたと判定した場合には、会話許諾の意思が示されていると判定して、消音音声駆動部13aを駆動せずに音声駆動部13bを駆動する制御を行ってもよい。また例えば、駆動制御部13cは、話者及び聴者の一方の顔が他方から離れた、または、横方向に揺れたと判定した場合には、会話拒否の意思が示されていると判定して、音声駆動部13bを駆動せずに消音音声駆動部13aを駆動する制御を行ってもよい。
Alternatively, the
なお本変形例1Bにおいて、話者の意思と聴者の意思とが異なる場合には、変形例1Aと同様に会話拒否優先規則、話者優先規則などの予め定められた規則にしたがって駆動制御を行ってもよい。 In the present modification 1B, when the intention of the speaker and the intention of the listener are different, the drive control is performed according to predetermined rules such as the conversation refusal priority rule and the speaker priority rule as in the modification 1A. You may.
<変形例1C>
駆動制御部13cは、話者及び聴者からの音声の内容に基づいて駆動制御を行ってもよい。例えば、駆動制御部13cは、話者が聴者の名前を呼んだ、または、聴者が名前の呼びかけに返事したと判定した場合には、会話許諾の意思が示されていると判定して、消音音声駆動部13aを駆動せずに音声駆動部13bを駆動する制御を行ってもよい。また例えば、駆動制御部13cは、話者が聴者の名前を呼ばなかった、または、聴者が名前の呼びかけに返事しなかったと判定した場合には、会話拒否の意思が示されていると判定して、音声駆動部13bを駆動せずに消音音声駆動部13aを駆動する制御を行ってもよい。<Modification 1C>
The
なお本変形例1Cにおいて、話者の意思と聴者の意思とが異なる場合には、変形例1Aと同様に会話拒否優先規則、話者優先規則などの予め定められた規則にしたがって駆動制御を行ってもよい。 In the present modification 1C, when the intention of the speaker and the intention of the listener are different, the drive control is performed according to predetermined rules such as the conversation refusal priority rule and the speaker priority rule as in the modification 1A. You may.
<変形例2>
実施の形態2では、駆動制御部13cは、話者がハンドフリー通話をしていると判定した場合に、全ての聴者に対して一律に駆動制御を行ったが、これに限ったものではない。例えば、駆動制御部13cは、駆動制御を聴者ごとに行ってもよい。つまり、駆動制御部13cは、ある聴者に対しては音声駆動部13bを駆動する制御を行い、それと同時に、別の聴者に対しては消音音声駆動部13aを駆動する制御を行ってもよい。このような構成によれば、消音音声駆動部13aの駆動及び音声駆動部13bの駆動という、相反する駆動を同時に行うことができるので、車両内の快適な通話空間を実現することができる。<
In the second embodiment, the
<変形例3>
例えば、車両内において音楽が出力されている間に、音声駆動部13bを駆動して話者からの音声をスピーカアレイ52aから聴者に出力させる場合、音場制御装置1は、音楽のボリュームを下げる制御を行ってもよい。また、駆動制御部13cは、音声駆動部13bを駆動して話者からの音声を出力する場合に、消音音声駆動部13aを駆動してノイズキャンセル(例えば車両のエンジン音や走行に伴う騒音のキャンセル)を行ってもよい。<Modification 3>
For example, when the
<変形例4>
音声駆動部13bは、聴者の聴力及び嗜好などの特性に基づいて、スピーカアレイ52aから当該聴者に出力される音声の周波数特性を変更してもよい。例えば、聴者が低周波数の音を聞き取りにくい人である場合には、音声駆動部13bは、スピーカアレイ52aから当該聴者に出力される音声の低周波数成分を大きくしてもよい。<Modification example 4>
The
なお、聴者の特性は、当該聴者のスマートフォン及び補聴器から取得してもよいし、ユーザからの操作によって音場制御装置1に予め記憶されていてもよい。
The characteristics of the listener may be acquired from the listener's smartphone and hearing aid, or may be stored in advance in the sound
<実施の形態3>
図4は、上述した実施の形態2に係る音場制御装置1の動作を説明するための図であり、図5は、本発明の実施の形態3に係る音場制御装置1の動作を説明するための図である。なお、本実施の形態3に係る音場制御装置1のブロック構成は、実施の形態2に係る音場制御装置1のブロック構成(図2)と同じである。このため、以下、本実施の形態3に係る構成要素のうち、上述の構成要素と同じまたは類似する構成要素については同じまたは類似する参照符号を付し、異なる構成要素について主に説明する。<Embodiment 3>
FIG. 4 is a diagram for explaining the operation of the sound
まず図4を用いて実施の形態2に係る音場制御装置1の動作について説明する。指向性マイク51aで受け付ける音声Vsは、話者21から指向性マイク51aに達した音声S1と、車両の外部から指向性マイク51aに達した車外音N1とが重畳した波形を有する。このため、音声Vsは、
Vs=S1+N1 ・・・(1)
と表すことができる。First, the operation of the sound
Vs = S1 + N1 ... (1)
It can be expressed as.
消音音声駆動部13aが駆動しない場合に、聴者22が聞こえる音声h1は、話者21から聴者22の耳の位置に達した音声S2と、車両の外部から聴者22の耳の位置に達した車外音N2とが重畳した波形を有する。このため、音声h1は、
h1=S2+N2 ・・・(2)
と表すことができる。When the muffling
h1 = S2 + N2 ... (2)
It can be expressed as.
音場制御装置1は、上式(1)の音声Vsに基づいてスピーカアレイ52aから聴者22の耳の位置に出力される音声Vaを生成する。この音声Vaは、
Va=f(Vs)=f(S1+N1)≒f1(S1)+f2(N1) ・・・(3)
と表すことができる。The sound
Va = f (Vs) = f (S1 + N1) ≒ f1 (S1) + f2 (N1) ... (3)
It can be expressed as.
この音声Vaは、音声S2及び車外音N1を打ち消すので、
f1(S1)≒-S2 ・・・(4)
f2(N1)≒-N1 ・・・(5)
という関係が成り立つ。Since this voice Va cancels the voice S2 and the outside sound N1,
f1 (S1) ≈ −S2 ・ ・ ・ (4)
f2 (N1) ≒ -N1 ... (5)
The relationship holds.
このため、消音音声駆動部13aが駆動している場合に、聴者22が聞こえる音声h2は、
h2=S2+N2+Va
=S2+N2+f1(S1)+f2(N1)
={S2+f1(S1)}+{N2+f2(N1)}
≒0+(N2-N1) ・・・(6)
となる。なお、式(6)の最後の行では、式(4)及び式(5)を適用した。Therefore, when the muffling
h2 = S2 + N2 + Va
= S2 + N2 + f1 (S1) + f2 (N1)
= {S2 + f1 (S1)} + {N2 + f2 (N1)}
≒ 0 + (N2-N1) ・ ・ ・ (6)
Will be. In the last line of the equation (6), the equations (4) and (5) were applied.
車外音は乗員の位置によらずほぼ同一であると仮定すると、N2≒N1となることから、式(6)の音声h2は、
h2≒0 ・・・(7)
となる。Assuming that the sound outside the vehicle is almost the same regardless of the position of the occupant, N2 ≈ N1. Therefore, the voice h2 in the equation (6) is
h2 ≒ 0 ・ ・ ・ (7)
Will be.
このため、聴者22には、話者21からの音声S2だけでなく車外音N2も消去されることになる。しかしながら、例えば聴者22が運転者である場合には、他車両のクラクション、衝突音、急ブレーキ音や、緊急車両のサイレンなどの運転に関係する車外音が、運転者(聴者22)に聞こえることが望ましい。
Therefore, for the
そこで、本実施の形態3では、消音音声駆動部13aは、車両の外部からの音声を打ち消さずに話者からの音声を打ち消す音声を、スピーカアレイ52aから聴者に出力させる駆動を行う。これにより、条件付きまたは条件なしで、聴者22は車外音を聞くことが可能となっている。
Therefore, in the third embodiment, the muffling
以下、図5を用いて本実施の形態3に係る音場制御装置1の動作について説明する。本実施の形態3では、車外音を積極的に受け付けるためのマイク56が車両に設けられている。マイク56は、例えば、無指向性のマイクであり、指向性マイク51aよりも車外音を受け付けやすい位置に設けられる。
Hereinafter, the operation of the sound
このマイク56で受け付ける音声Vrは、話者21からマイク56に達した音声S3と、車両の外部からマイク56に達した車外音N3とが重畳した波形を有する。このため、音声Vrは、
Vr=S3+N3 ・・・(8)
と表すことができる。The voice Vr received by the
Vr = S3 + N3 ... (8)
It can be expressed as.
本実施の形態3に係る音場制御装置1は、音声Vrと音声Vsとを入力音声として扱い、その差分の音声Vmixを示す信号を生成する。この音声Vmixは、
Vmix=Vs-Vr
=S1+N1-(S3+N3) ・・・(9)
と表すことができる。The sound
Vmix = Vs-Vr
= S1 + N1- (S3 + N3) ... (9)
It can be expressed as.
通常であれば、音場制御装置1は、音声S3を含めた音響フィルタを考慮して駆動制御ひいては音場制御を行うが、説明を簡単にするためS3を無視して、S3≒0とする。また、車外音は乗員の位置によらずほぼ同一であると仮定すると、N1≒N3となる。これらから式(9)の音声Vmixは、
Vmix≒S1 ・・・(10)
と表すことができる。Normally, the sound
Vmix ≒ S1 ... (10)
It can be expressed as.
音場制御装置1が、この音声Vmixの信号を用いて消音音声駆動部13aを駆動すると、スピーカアレイ52aから聴者22の耳の位置に出力される音声Vaは、
Va=f(Vmix)≒f1(S1)≒-S2 ・・・(11)
と表すことができる。When the sound
Va = f (Vmix) ≒ f1 (S1) ≒ −S2 ・ ・ ・ (11)
It can be expressed as.
したがって、消音音声駆動部13aが駆動している場合に、聴者22が聞こえる音声h2は、
h2=S2+N2+Va≒N2 ・・・(12)
となる。Therefore, when the muffling
h2 = S2 + N2 + Va≈N2 ... (12)
Will be.
このため、聴者22には、話者21からの音声S2は聞こえないが、車外音N2を聞くことができる。
Therefore, the
<実施の形態3のまとめ>
以上のような本実施の形態3に係る音場制御装置1によれば、車外音を打ち消さずに話者21からの音声を打ち消す音声を、スピーカアレイ52aから聴者22に出力させる駆動を行う。このような構成によれば、聴者22は、他車両のクラクション、衝突音、急ブレーキ音や、緊急車両のサイレンなど、運転者の運転に関係する車外音を聞くことができる。<Summary of Embodiment 3>
According to the sound
<その他の変形例>
上述した図1の取得部11、判定制御部12、及び、音場制御部13を、以下「取得部11等」と記す。取得部11等は、図6に示す処理回路81により実現される。すなわち、処理回路81は、車両内の複数の乗員の撮影画像から、複数の乗員の顔情報を取得する取得部11と、取得部11で取得された顔情報と、車両内のマイクで受け付けた音声とに基づいて、複数の乗員の中から話者と聴者とを判定する判定制御部12と、判定制御部12による判定の結果に基づいて、複数の乗員の位置における音場を制御する音場制御部13と、を備える。処理回路81には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサが適用されてもよい。プロセッサには、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などが該当する。<Other variants>
The
処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。取得部11等の各部の機能それぞれは、処理回路を分散させた回路で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
When the
処理回路81がプロセッサである場合、取得部11等の機能は、ソフトウェア等との組み合わせにより実現される。なお、ソフトウェア等には、例えば、ソフトウェア、ファームウェア、または、ソフトウェア及びファームウェアが該当する。ソフトウェア等はプログラムとして記述され、メモリに格納される。図7に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、音場制御装置1は、処理回路81により実行されるときに、車両内の複数の乗員の撮影画像から、複数の乗員の顔情報を取得するステップと、取得された顔情報と、車両内のマイクで受け付けた音声とに基づいて、複数の乗員の中から話者と聴者とを判定するステップと、話者及び聴者の判定の結果に基づいて、複数の乗員の位置における音場を制御するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。換言すれば、このプログラムは、取得部11等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)、そのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
When the
以上、取得部11等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、取得部11等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、取得部11については専用のハードウェアとしての処理回路81、インターフェース及びレシーバなどでその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
The configuration in which each function of the
以上のように、処理回路81は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
As described above, the
また、以上で説明した音場制御装置1は、DMS(Driver Monitoring System)装置などの車両装置と、携帯電話、スマートフォン及びタブレットなどの携帯端末を含む通信端末と、車両装置及び通信端末の少なくとも1つにインストールされるアプリケーションの機能と、サーバとを適宜に組み合わせてシステムとして構築される音場制御システムにも適用することができる。この場合、以上で説明した音場制御装置1の各機能あるいは各構成要素は、前記システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。
Further, the sound
図8は、本変形例に係るサーバ91の構成を示すブロック図である。図8のサーバ91は、通信部91aと制御部91bとを備えており、車両92のDMS装置などの車両装置93と無線通信を行うことが可能となっている。
FIG. 8 is a block diagram showing the configuration of the
取得部である通信部91aは、車両装置93と無線通信を行うことにより、車両装置93で取得された車両内の複数の乗員の顔情報と車両内の音声とを受信する。
The
制御部91bは、サーバ91の図示しないプロセッサなどが、サーバ91の図示しないメモリに記憶されたプログラムを実行することにより、図1の判定制御部12及び音場制御部13と同様の機能を有している。つまり、制御部91bは、通信部91aで受信された顔情報及び音声に基づいて車両内の複数の乗員の中から話者と聴者とを判定し、その判定の結果に基づいて複数の乗員の位置における音場を制御するための制御信号を生成する。そして、通信部91aは、制御部91bで生成された制御信号を車両装置93に送信する。このように構成されたサーバ91によれば、実施の形態1で説明した音場制御装置1と同様の効果を得ることができる。
The
図9は、本変形例に係る通信端末96の構成を示すブロック図である。図9の通信端末96は、通信部91aと同様の通信部96aと、制御部91bと同様の制御部96bとを備えており、車両97の車両装置98と無線通信を行うことが可能となっている。なお、通信端末96には、例えば車両97の運転者が携帯する携帯電話、スマートフォン、及びタブレットなどの携帯端末が適用される。このように構成された通信端末96によれば、実施の形態1で説明した音場制御装置1と同様の効果を得ることができる。
FIG. 9 is a block diagram showing the configuration of the
なお、本発明は、その発明の範囲内において、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。 In the present invention, each embodiment and each modification can be freely combined, and each embodiment and each modification can be appropriately modified or omitted within the scope of the invention.
本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail, the above description is exemplary in all embodiments and the present invention is not limited thereto. It is understood that innumerable variations not illustrated can be assumed without departing from the scope of the present invention.
1 音場制御装置、11 取得部、12 判定制御部、13 音場制御部、13a 消音音声駆動部、13b 音声駆動部、13c 駆動制御部、51 マイク、52 スピーカ。 1 Sound field control device, 11 Acquisition unit, 12 Judgment control unit, 13 Sound field control unit, 13a Mute voice drive unit, 13b Voice drive unit, 13c Drive control unit, 51 Microphone, 52 Speaker.
Claims (9)
前記車両内の複数の乗員の撮影画像から、前記複数の乗員の顔情報を取得する取得部と、
前記取得部で取得された前記顔情報と、前記車両内のマイクで受け付けた音声とに基づいて、前記複数の乗員の中から話者と聴者とを判定する判定制御部と、
前記判定制御部による判定の結果に基づいて、前記複数の乗員の位置における音場を制御する音場制御部と
を備え、
前記音場制御部は、
前記判定制御部による判定の結果に基づいて、前記話者からの音声を打ち消す音声を、前記スピーカから前記聴者に出力させる駆動を行う消音音声駆動部と、
前記判定制御部による判定の結果に基づいて、前記話者からの音声を、前記スピーカから前記聴者に出力させる駆動を行う音声駆動部と、
前記消音音声駆動部の駆動及び前記音声駆動部の駆動を制御する駆動制御を行う駆動制御部と
を含む、音場制御装置。 A sound field control device that controls a sound field at a specific position in the vehicle, which is generated by a speaker in the vehicle.
An acquisition unit that acquires face information of the plurality of occupants from images taken by the plurality of occupants in the vehicle, and an acquisition unit.
A determination control unit that determines a speaker and a listener from among the plurality of occupants based on the face information acquired by the acquisition unit and the voice received by the microphone in the vehicle.
A sound field control unit that controls the sound field at the positions of the plurality of occupants based on the result of the determination by the determination control unit is provided .
The sound field control unit is
Based on the result of the determination by the determination control unit, the mute voice driving unit that drives the speaker to output the voice that cancels the voice from the speaker to the listener.
Based on the result of the determination by the determination control unit, the voice drive unit that drives the speaker to output the voice from the speaker to the listener.
A drive control unit that performs drive control for controlling the drive of the mute voice drive unit and the drive of the voice drive unit.
Including sound field control device.
前記消音音声駆動部は、
前記車両の外部からの音声を打ち消さずに前記話者からの音声を打ち消す音声を、前記スピーカから前記聴者に出力させる駆動を行う、音場制御装置。 The sound field control device according to claim 1 .
The mute voice drive unit is
A sound field control device that drives a speaker to output a sound that cancels a sound from a speaker without canceling a sound from the outside of the vehicle to the listener.
前記音声駆動部は、
前記聴者の特性に基づいて、前記スピーカから当該聴者に出力される音声の周波数特性を変更する、音場制御装置。 The sound field control device according to claim 1 .
The voice drive unit is
A sound field control device that changes the frequency characteristics of the sound output from the speaker to the listener based on the characteristics of the listener.
前記駆動制御部は、
前記取得部で取得された前記顔情報に基づいて、前記話者の顔の表情及び前記聴者の顔の表情、前記話者の顔の向き及び前記聴者の顔の向き、または、前記話者の顔の動き及び前記聴者の顔の動きを判定し、当該判定の結果に基づいて前記駆動制御を行う、音場制御装置。 The sound field control device according to claim 1 .
The drive control unit
Based on the face information acquired by the acquisition unit, the facial expression of the speaker and the facial expression of the listener, the orientation of the face of the speaker and the orientation of the face of the listener, or the orientation of the speaker's face. A sound field control device that determines the movement of the face and the movement of the listener's face, and performs the drive control based on the result of the determination.
前記駆動制御部は、
前記話者がハンドフリー通話をしているか否かに基づいて前記駆動制御を行う、音場制御装置。 The sound field control device according to claim 1 .
The drive control unit
A sound field control device that performs the drive control based on whether or not the speaker is making a hands-free call.
前記駆動制御部は、
前記話者及び前記聴者からの操作に基づいて前記駆動制御を行う、音場制御装置。 The sound field control device according to claim 1 .
The drive control unit
A sound field control device that performs the drive control based on operations from the speaker and the listener.
前記駆動制御部は、
前記話者及び前記聴者からの音声の内容に基づいて前記駆動制御を行う、音場制御装置。 The sound field control device according to claim 1 .
The drive control unit
A sound field control device that performs the drive control based on the contents of voices from the speaker and the listener.
前記駆動制御部は、前記駆動制御を前記聴者ごとに行う、音場制御装置。 The sound field control device according to claim 1 .
The drive control unit is a sound field control device that performs the drive control for each listener.
前記車両内の複数の乗員の撮影画像から、前記複数の乗員の顔情報を取得し、
取得された前記顔情報と、前記車両内のマイクで受け付けた音声とに基づいて、前記複数の乗員の中から話者と聴者とを判定し、
前記話者及び前記聴者の判定の結果に基づいて、前記複数の乗員の位置における音場を制御し、
前記複数の乗員の位置における前記音場の前記制御は、
前記判定の結果に基づいて、前記話者からの音声を打ち消す音声を前記スピーカから前記聴者に出力させる駆動と、前記判定の結果に基づいて、前記話者からの音声を前記スピーカから前記聴者に出力させる駆動と、を制御する駆動制御を含む、音場制御方法。 A sound field control method for controlling a sound field at a specific position in the vehicle, which is generated by a speaker in the vehicle.
The face information of the plurality of occupants is acquired from the images taken by the plurality of occupants in the vehicle, and the face information of the plurality of occupants is acquired.
Based on the acquired face information and the voice received by the microphone in the vehicle, the speaker and the listener are determined from the plurality of occupants.
Based on the judgment results of the speaker and the listener, the sound field at the positions of the plurality of occupants is controlled .
The control of the sound field at the positions of the plurality of occupants is
Based on the result of the determination, the drive to output the voice for canceling the voice from the speaker from the speaker to the listener, and based on the result of the determination, the voice from the speaker is transmitted from the speaker to the listener. A sound field control method including drive to output and drive control to control.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/033619 WO2021038736A1 (en) | 2019-08-28 | 2019-08-28 | Sound field control device and sound field control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021038736A1 JPWO2021038736A1 (en) | 2021-03-04 |
JP6995254B2 true JP6995254B2 (en) | 2022-01-14 |
Family
ID=74683435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021541855A Active JP6995254B2 (en) | 2019-08-28 | 2019-08-28 | Sound field control device and sound field control method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6995254B2 (en) |
DE (1) | DE112019007580B4 (en) |
WO (1) | WO2021038736A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113488043B (en) * | 2021-06-30 | 2023-03-24 | 上海商汤临港智能科技有限公司 | Passenger speaking detection method and device, electronic equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010023639A (en) | 2008-07-18 | 2010-02-04 | Kenwood Corp | In-cabin conversation assisting device |
JP2015071320A (en) | 2013-10-01 | 2015-04-16 | アルパイン株式会社 | Conversation support device, conversation support method, and conversation support program |
JP2016180971A (en) | 2015-03-24 | 2016-10-13 | 本田技研工業株式会社 | Active noise suppression system and active noise suppression system for vehicle |
JP2017193207A (en) | 2016-04-18 | 2017-10-26 | アイシン精機株式会社 | In-cabin conversation support device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11165594A (en) * | 1997-12-02 | 1999-06-22 | Calsonic Corp | On-vehicle calling voice insulation device |
JP2009253526A (en) | 2008-04-03 | 2009-10-29 | Nissan Motor Co Ltd | Sound field controller and sound field controlling method |
JP2020023639A (en) | 2018-08-08 | 2020-02-13 | 東ソー株式会社 | Composition for rigid polyurethane foam and method for producing rigid polyurethane foam |
-
2019
- 2019-08-28 WO PCT/JP2019/033619 patent/WO2021038736A1/en active Application Filing
- 2019-08-28 DE DE112019007580.2T patent/DE112019007580B4/en active Active
- 2019-08-28 JP JP2021541855A patent/JP6995254B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010023639A (en) | 2008-07-18 | 2010-02-04 | Kenwood Corp | In-cabin conversation assisting device |
JP2015071320A (en) | 2013-10-01 | 2015-04-16 | アルパイン株式会社 | Conversation support device, conversation support method, and conversation support program |
JP2016180971A (en) | 2015-03-24 | 2016-10-13 | 本田技研工業株式会社 | Active noise suppression system and active noise suppression system for vehicle |
JP2017193207A (en) | 2016-04-18 | 2017-10-26 | アイシン精機株式会社 | In-cabin conversation support device |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021038736A1 (en) | 2021-03-04 |
WO2021038736A1 (en) | 2021-03-04 |
DE112019007580T5 (en) | 2022-04-21 |
DE112019007580B4 (en) | 2023-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9743213B2 (en) | Enhanced auditory experience in shared acoustic space | |
US9978355B2 (en) | System and method for acoustic management | |
US20160127827A1 (en) | Systems and methods for selecting audio filtering schemes | |
JP4779748B2 (en) | Voice input / output device for vehicle and program for voice input / output device | |
CN107004425B (en) | Enhanced conversational communication in shared acoustic spaces | |
JP6635394B1 (en) | Audio processing device and audio processing method | |
JP7049803B2 (en) | In-vehicle device and audio output method | |
US10932042B2 (en) | Conversation assist apparatus and conversation assist method | |
JP2015071320A (en) | Conversation support device, conversation support method, and conversation support program | |
JP2007208828A (en) | Vehicular audio input controller | |
US10540985B2 (en) | In-vehicle media vocal suppression | |
KR20220016423A (en) | Vehicle and method for controlling thereof | |
US11763790B2 (en) | Active noise control apparatus for vehicles and method of controlling the same | |
WO2020027061A1 (en) | Conversation assistance system, method therefor, and program | |
JP6995254B2 (en) | Sound field control device and sound field control method | |
JP5130298B2 (en) | Hearing aid operating method and hearing aid | |
US10629181B2 (en) | Apparatus and method for privacy enhancement | |
JP7065964B2 (en) | Sound field control device and sound field control method | |
JP7474548B2 (en) | Controlling the playback of audio data | |
WO2019175960A1 (en) | Voice processing device and voice processing method | |
JP2020052145A (en) | Voice recognition device, voice recognition method and voice recognition program | |
WO2024212208A1 (en) | Speech masking method and device, system, and vehicle | |
JP7407665B2 (en) | Audio output control device and audio output control program | |
US20240282325A1 (en) | Audio processing apparatus, audio processing method, and recording medium | |
US11240653B2 (en) | Main unit, system and method for an infotainment system of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211013 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211013 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6995254 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |