WO2020016927A1 - 音場制御装置および音場制御方法 - Google Patents

音場制御装置および音場制御方法 Download PDF

Info

Publication number
WO2020016927A1
WO2020016927A1 PCT/JP2018/026704 JP2018026704W WO2020016927A1 WO 2020016927 A1 WO2020016927 A1 WO 2020016927A1 JP 2018026704 W JP2018026704 W JP 2018026704W WO 2020016927 A1 WO2020016927 A1 WO 2020016927A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound field
participant
field control
occupant
speaker
Prior art date
Application number
PCT/JP2018/026704
Other languages
English (en)
French (fr)
Inventor
禎 三橋
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2018/026704 priority Critical patent/WO2020016927A1/ja
Priority to JP2020530758A priority patent/JP7065964B2/ja
Publication of WO2020016927A1 publication Critical patent/WO2020016927A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • This invention relates to sound field control in a passenger compartment.
  • Patent Document 1 discloses a technology that detects conversation of a vehicle occupant and adjusts the volume of a speaker according to the detection result.
  • the seat of the speaker is identified by recognizing the movement of the occupant's mouth from a captured image in the vehicle interior. Then, control for lowering the volume of the audio and lowering the volume of the speaker near the speaker's seat is performed. Thereby, the utterance of the speaker can be easily heard in the entire vehicle.
  • Patent Document 1 does not consider an occupant who does not participate in a conversation, so that even an occupant who does not participate in the conversation and enjoys the audio content or the like, the volume of the audio content or the like is reduced, and the content is not listened to. There is a problem that the convenience of income is impaired.
  • the present invention has been made to solve the above problems, and has an object to control a sound field by a speaker in a vehicle cabin so that a talker can easily talk while considering non-participants of the talk. I do.
  • a sound field control device includes an occupant detection unit that detects a seating position of an occupant of a vehicle, and a participant that detects, as a participant, a speaker and a listener of a conversation performed in a vehicle cabin among the occupants.
  • the sound field is controlled by a plurality of speakers provided in the cabin based on the seating position of the participant and the seating position of the non-participant who is not a participant.
  • a sound field control unit is included in the cabin.
  • the sound field control method of the present invention detects a seating position of an occupant of a vehicle, detects a speaker and a listener of a conversation performed in the vehicle cabin from among the occupants as participants, and the conversation in the vehicle cabin is performed.
  • the sound field by a plurality of speakers provided in the vehicle interior is controlled based on the sitting position of the participant and the sitting position of the non-participant who is not the participant but the occupant.
  • the sound field in the vehicle compartment is controlled based on the sitting position of the participant in the conversation and the sitting position of the non-participant, so that the participant can easily talk while considering the non-participant.
  • the sound field in the cabin can be controlled.
  • FIG. 2 is a block diagram illustrating a configuration of a sound field control device according to the first embodiment.
  • FIG. 2 is a configuration diagram of a sound field control device according to the first embodiment.
  • 5 is a flowchart illustrating an operation of the sound field control device according to the first embodiment.
  • FIG. 9 is a block diagram illustrating a configuration of a sound field control device according to a second embodiment. 9 is a flowchart illustrating an operation of the sound field control device according to the second embodiment.
  • FIG. 13 is a block diagram illustrating a configuration of a sound field control device according to a third embodiment.
  • FIG. 14 is a block diagram illustrating a configuration of a sound field control device according to a fourth embodiment.
  • FIG. 14 is a block diagram illustrating a configuration of a speaker detection unit of the sound field control device according to the fourth embodiment.
  • FIG. 3 is a diagram illustrating a hardware configuration of a sound field control device.
  • FIG. 3 is a diagram illustrating a hardware configuration of a sound field control device. It is a block diagram showing composition of a sound field control device of Embodiment 2 by vehicles and a server.
  • FIG. 1 is a block diagram illustrating a configuration of the sound field control device 101 according to the first embodiment.
  • the sound field control device 101 includes an occupant detection unit 11, a speaker detection unit 12A, a listener detection unit 13, a participant detection unit 14, and a sound field control unit 15.
  • the sound field control device 101 is connected to the sound device 21 and is configured to use the sound device 21.
  • the audio device 21 is a device that reproduces or receives audio content such as a radio broadcast, for example, and outputs a sound of the audio content from the speaker 22.
  • the acoustic device 21 and the speaker 22 are mounted on the vehicle, and the sound field control device 101 controls the sound field in the room of the vehicle by the speaker 22.
  • the term "device mounted on a vehicle” includes not only a device that is permanently mounted but also a device that can be removed and carried into a vehicle as needed.
  • FIG. 2 shows the configuration of the vehicle.
  • a plurality of speakers 22 are installed in a vehicle whose sound field is controlled by the sound field control device 101.
  • occupants 30A, 30B, and 30C are seated in a driver's seat, a passenger seat, and a rear left seat. This shows how the speaker 22BL is installed.
  • the number and location of the speakers 22 are not limited thereto. It is sufficient that at least a plurality of speakers 22 are provided to control the sound field in the vehicle compartment.
  • the vehicle is equipped with a microphone 23, a camera 24, and an external sensor 25, which are devices for detecting participants.
  • the occupant detection unit 11 uses the camera 24 and the external sensor 25 to detect the occupant's seating position. Specifically, the occupant detection unit 11 detects a seating position of the occupant by analyzing an image captured by the camera 24 in the vehicle interior.
  • the external sensor 25 is a sensor for detecting an occupant's seating position, and is, for example, a pressure sensor installed on a seat surface or a backrest of a vehicle seat. Alternatively, the external sensor 25 is a distance sensor. Using the detection information of these sensors, the occupant detection unit 11 can grasp the occupant's seating position.
  • the speaker detection unit 12A detects the sitting position of the speaker using the microphone 23 and the camera 24. Specifically, the speaker detection unit 12A obtains the speech direction with respect to the microphone 23 from the difference in the timing at which the microphones 23 installed at two different places in the vehicle compartment detect the speech sound, and acquires the speech direction and the occupant. Is compared with the sitting position of the speaker to detect the sitting position of the speaker. Alternatively, the speaker detection unit 12A detects the movement of the mouth of the occupant from the image captured by the camera 24 in the vehicle interior, and defines the occupant whose mouth is synchronized with the speech sound acquired by the microphone 23 as the speaker. Identify.
  • the receiver detection unit 13 detects the seating position of the receiver using the microphone 23 and the camera 24. Specifically, the movement of the occupant's face is detected from the image captured by the camera 24 in the passenger compartment, and the occupant nodding in synchronization with the uttered voice acquired by the microphone 23 is identified as the receiver. As described above, the listener detection unit 13 may detect the listener based on the movement of the occupant's body. Alternatively, the receiver detector 13 acquires the sitting position of the speaker from the speaker detector 12A, and identifies the line of sight of the speaker from the image captured by the camera 24. Then, the occupant sitting in the line of sight of the speaker may be specified as the listener. At this time, when the speaker is looking at the mirror, the receiver detection unit 13 can also identify the occupant sitting ahead of the speaker's line of sight through the mirror as the listener. .
  • the participant detection unit 14 acquires information on the sitting position of the speaker from the speaker detection unit 12A, acquires information on the sitting position of the listener from the listener detection unit 13, and participates in both the speaker and the listener. Person Further, the participant detection unit 14 acquires information on the seating position of each occupant from the occupant detection unit 11, and makes occupants other than the listener non-participants. Then, the participant detection unit 14 outputs the seated position of the participant and the seated position of the non-participant to the sound field control unit 15.
  • the speaker detector 12A may detect the speaker only from the image captured by the camera 24, and the receiver detector 13 may similarly detect the listener only from the image captured by the camera 24.
  • the sound field control unit 15 acquires information on the sitting position of the participant in the conversation from the participant detection unit 14 and controls the sound field in the vehicle cabin by the speaker 22 based on the information.
  • the sound field control unit 15 reduces the sound volume in the audible range at the sitting position of the participant in the sound field without reducing the sound volume of the audible range at the sitting position of the non-participant in the sound field compared to before control. So that the sound field is controlled.
  • the volume of the content output from the speaker 22 is not reduced for non-participants, so that the listening of the content is not hindered, while the volume of the content output from the speaker 22 is reduced for the participants. Because of the small size, the voice of the conversation partner can be easily heard, and conversation can be facilitated.
  • FIG. 3 is a flowchart showing the operation of the sound field control device 101.
  • the flow in FIG. 3 is started at the same time as when, for example, the audio device 21 outputs a sound from the speaker 22.
  • the occupant detection unit 11 acquires door opening / closing information from a door sensor or the like of a vehicle not shown in FIG. 1 and determines whether the door has been opened / closed (step S101). Opening and closing a door means closing the door after it has been opened. If the door has not been opened or closed, the occupant detection unit 11 repeats step S101. If the door is opened or closed, the occupant detection unit 11 detects the seated position of the occupant (step S102).
  • the utterer detection unit 12A determines whether or not utterance is being performed in the vehicle cabin based on the detection signal of the microphone 23 (step S103).
  • the participant detection unit 14 detects the sitting position of the participant (step S104).
  • the speaker detecting unit 12A detects the sitting position of the speaker
  • the listener detecting unit 13 detects the sitting position of the listener
  • the information of the sitting position is transmitted to the participant detecting unit 14 respectively.
  • the participant detection unit 14 uses the speaker and the listener as participants in the conversation to grasp the information of the sitting position, and grasps the sitting position of the occupant who is not the participant as the sitting position of the non-participant.
  • step S105 the sound field control unit 15 performs audio output control according to the sitting position of the participant. Specifically, when no utterance is made and no participant exists, the sound field control unit 15 does not perform the sound field control. Therefore, the speaker 22 forms a default sound field in the vehicle interior. On the other hand, when the utterance is being performed, the sound field control unit 15 acquires the information of the sitting position of the participant and the information of the sitting position of the non-participant from the participant detecting unit 14, and performs the sound field control based on these. I do.
  • the sound field control unit 15 does not perform any special sound field control, so that the speakers 22FL, 22FR, 22BL, and 22BR output the content at an equal volume. Therefore, the occupants 30A, 30B, and 30C listen to the content at the same volume. On the other hand, when the occupants 30A and 30C are participants in the conversation and the occupant 30B is a non-participant, the sound field control unit 15 reduces the volume of the speakers 22FR and 22BL while maintaining the volume of the speaker 22FL.
  • the volume of the speaker 22 corresponding to the seating position of the participant is adjusted by the speaker 22 corresponding to the seating position of the non-participant. It is possible to lower the volume. Thereby, the occupant 30B not participating in the conversation can listen to the content at the same volume as before the sound field control. In addition, since the volume of the content collected by the occupants 30A and 30C participating in the conversation from the speakers 22FR and 22BL is reduced, the occupants 30A and 30C can easily hear each other's uttered voices and can have a smooth conversation.
  • the sound field control unit 15 may perform the sound field control so as to increase the volume at the sitting position of the participant without reducing the volume at the sitting position of the non-participant. Note that the volume described above is a volume in the audible range.
  • the sound field control unit 15 performs the sound field control based on the detection result of the participant.
  • the participant detection unit 14 may update the detection result of the participant based on the reaction of the occupant. Specifically, the participant detection unit 14 analyzes the expression of the occupant after the sound field control from the image captured by the camera 24, and reverses the detection result of the participant when the occupant has an unpleasant expression. And update. For example, when the sound field control device 101 detects the occupant 30B in FIG. 2 as a participant and performs sound field control, the occupant 30B is actually a non-participant, and the sound volume of the speaker 22FL is reduced, which is uncomfortable. Suppose you have a funny expression. In this case, the participant detection unit 14 updates the occupant 30B to a non-participant, and the sound field control unit 15 updates the sound field control so that the volume of the speaker 22FL increases to the default volume.
  • the sound field control device 101 includes an occupant detection unit 11 that detects a seating position of an occupant of a vehicle, and a speaker and a listener of a conversation performed in the vehicle cabin among the occupants.
  • a sound field control unit 15 for controlling a sound field by the sound field control unit 22. Therefore, according to the sound field control device 101, it is possible to control the sound field in the vehicle cabin so as to facilitate conversation without hindering the non-participant from listening to contents and the like.
  • the sound field control unit 15 controls the sound field so that the sound volume at the participant's sitting position in the sound field is reduced without lowering the sound volume at the non-participant's sitting position in the sound field compared to before the control. Control. Therefore, according to the sound field control device 101, it is possible to control the sound field in the vehicle cabin so as to facilitate conversation without hindering the non-participant from listening to contents and the like.
  • the sound field control unit 15 adjusts the volume of the speaker corresponding to the seating position of the participant to the seating position of the non-participant.
  • the sound field in the vehicle compartment can be controlled so as to facilitate conversation without hindering non-participants from listening to the content and the like.
  • the participant detection unit 14 updates the detection result of the participant based on the expression of the occupant after the sound field control by the sound field control unit 15. By updating the sound field control in accordance with the update of the detection result, if there is an error in the detection of the participant, the correction is performed.
  • FIG. 4 is a block diagram illustrating a configuration of the sound field control device 102 according to the second embodiment.
  • the sound field control device 102 includes a speaker registration unit 16 in addition to the configuration of the sound field control device 101 of the first embodiment.
  • the configuration of the sound field control device 102 other than the speaker registration unit 16 is the same as that of the sound field control device 101.
  • the sound field control apparatus 102 is characterized in that not only the speaker and the receiver of the current conversation but also the speaker and the receiver of the past conversation are recognized as participants.
  • the speaker detecting unit 12A When the speaker detecting unit 12A detects the sitting position of the speaker, it outputs the information to the participant detecting unit 14 and registers it in the speaker etc. registering unit 16 together with information on the detection time.
  • the receiver detection unit 13 detects the seating position of the listener, the information is output to the participant detection unit 14 and is also registered in the speaker registration unit 16 together with the detection time information.
  • the participant detection unit 14 sets the speaker and the receiver of the current conversation acquired from the speaker detection unit 12A and the listener detection unit 13 as the participants, and the past conversation registered in the speaker etc. registration unit 16. Speakers and receivers in conversations within a predetermined period, for example, within the past one minute, are set as participants.
  • FIG. 5 is a flowchart showing the operation of the sound field control device 102.
  • the flow in FIG. 5 is started at the same time as when, for example, the audio device 21 outputs a sound from the speaker 22.
  • Steps S201 to S204 are the same as steps S101 to S104 of the flow according to the first embodiment shown in FIG. 3, and thus description thereof is omitted.
  • the participant detection unit 14 refers to the registration information of the speaker registration unit 16 and determines whether there is another utterance within a predetermined period of time in the past, for example, within one minute in the past. Is determined (step S205).
  • step S205 If the information of the utterer and the receiver's sitting position is registered in the utterer registration unit 16 for the utterance within the past one minute, the result is Yes in step S205, and the participant detection unit 14 determines the utterance within the past one minute. Are included in the participants (step S206).
  • Step S206 is omitted if information on the sitting position of the speaker and the receiver has not been registered in the speaker registration unit 16 for the speech within the past minute.
  • Step S207 is the same as step S105 in the flow of the first embodiment shown in FIG. 3, and thus detailed description is omitted.
  • the participant detection unit 14 detects, as participants, a speaker and a listener of a conversation that has been performed in the vehicle cabin during a predetermined period in the present or the past. Therefore, even for an occupant who has stopped talking, the sound field control that facilitates talking is performed for a predetermined period of time, for example, about one minute, so that the talking can be easily restarted.
  • FIG. 6 is a block diagram illustrating a configuration of the sound field control device 103 according to the third embodiment.
  • the sound field control device 103 includes an occupant registration unit 17 in addition to the configuration of the sound field control device 102 according to the second embodiment.
  • the configuration of the sound field control device 103 other than the occupant registration unit 17 is the same as that of the sound field control device 102.
  • the sound field control device 103 is characterized in that the listener is specified based on the keyword of the occupant registered in the occupant registration unit 17 in advance.
  • the occupant registration unit 17 has registered therein keywords for individually identifying occupants. This keyword is, for example, the name or nickname of the occupant. These keywords are input in advance by the occupant using an input device such as a keyboard or a touch panel (not shown in FIG. 6), and are registered in the occupant registration unit 17.
  • the receiver detection unit 13 determines whether the keyword registered in the occupant registration unit 17 is included in the speech of the speaker detected by the microphone 23.
  • the listener detection unit 13 specifies the occupant corresponding to the keyword as the listener. Therefore, the participant detection unit 14 detects the occupant corresponding to the keyword spoken by the speaker as the participant who is the listener.
  • the participant detection unit refers to the personal information in which the occupant is associated with the keyword, and determines the occupant corresponding to the keyword spoken by the speaker as the participant who is the listener. To detect. Therefore, according to the sound field control device 103, even if the listener cannot be identified from the movement of the line of sight of the speaker, or even if the behavior of the listener is not clear, the listener can be identified from the keywords included in the uttered voice. It is possible.
  • FIG. 7 is a block diagram illustrating a configuration of the sound field control device 104 according to the fourth embodiment.
  • the sound field control device 104 has a configuration of the sound field control device 103 according to the third embodiment, and includes a speaker detection unit 12B instead of the speaker detection unit 12A.
  • the sound field control device 104 distinguishes the singing from an utterance of a conversation.
  • FIG. 8 is a block diagram showing the configuration of the speaker detection unit 12B.
  • the utterer detection unit 12B includes a pitch detection unit 121, a face recognition unit 122, and a correlation determination unit 123.
  • the utterer detection unit 12B detects the seating position of the occupant who is uttering the voice similarly to the utterer detection unit 12A, but performs the following processing on the occupant before determining the occupant as the utterer.
  • the pitch detecting section 121 acquires the voice of the occupant from the microphone 23, detects the pitch of the voice, and outputs the detected pitch to the correlation determining section 123.
  • the correlation determination unit 123 acquires the audio signal of the reproduced content from the audio device 21 and determines the correlation between the reproduced content and the pitch of the occupant's voice.
  • the pitch correlation is a frequency band correlation.
  • the face recognition unit 122 analyzes the facial expression of the occupant or the movement of the mouth from the image captured by the camera 24, and outputs the analysis result to the correlation determination unit 123.
  • the correlation determination unit 123 determines the correlation between the reproduced content and the facial expression of the speaker or the movement of the mouth.
  • the correlation determining unit 123 determines that the occupant is singing along with the reproduced content, and does not determine that the occupant is the speaker.
  • the correlation determination unit 123 functions as a singing detection unit that detects that the occupant is singing.
  • the correlation determining unit 123 determines that the occupant is not singing according to the reproduced content but uttering a conversation. Is determined to be the speaker.
  • the speaker detection unit 12B of the sound field control device 104 includes a correlation determination unit 123 that is a singing detection unit that detects that the occupant is singing, and the participant detection unit 14 determines that the singing occupant is a participant. Not detected as Therefore, according to the sound field control device 104, the occupant singing along with the content reproduced from the speaker 22 is erroneously detected as a speaker, and the sound field control for reducing the volume heard from the speaker 22 for the occupant is reduced. Can be prevented.
  • the occupant registration unit 17 (hereinafter, “the occupant detection unit 11 and the like”) is realized by the processing circuit 81 illustrated in FIG. That is, the processing circuit 81 includes the occupant detection unit 11 and the like.
  • the processing circuit 81 dedicated hardware may be applied, or a processor that executes a program stored in a memory may be applied.
  • the processor is, for example, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like.
  • the occupant detection unit 11, the speaker detection units 12A and 12B, the listener detection unit 13, and the participant detection unit 14 acquire information from the microphone 23, the camera 24, and the external sensor 25, and the occupant registration unit 17 has an input device.
  • the keyword is input from the user.
  • the sound field control unit 15 issues a sound field control instruction to the acoustic device 21. Input and output of such information is realized by an input / output interface 84 shown in FIG. That is, the sound field control devices 101 to 104 are realized by the processing circuit 81 and the input / output interface 84.
  • the processing circuit 81 When the processing circuit 81 is dedicated hardware, the processing circuit 81 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable). Gate Array) or a combination of these.
  • the function of each unit such as the occupant detection unit 11 may be realized by a plurality of processing circuits 81, or the functions of each unit may be realized by one processing circuit.
  • the processing circuit 81 When the processing circuit 81 is a processor, the functions of the occupant detection unit 11 and the like are realized by a combination of software and the like (software, firmware or software and firmware). Software and the like are described as programs and stored in a memory. As illustrated in FIG. 10, a processor 82 applied to the processing circuit 81 reads out and executes a program stored in a memory 83 to implement the function of each unit. That is, when the sound field control devices 101-104 are executed by the processing circuit 81, the sound field control devices 101-104 detect the seating position of the occupant of the vehicle and communicate with the speaker of the conversation conducted in the vehicle cabin from among the occupants.
  • software and the like are described as programs and stored in a memory.
  • a processor 82 applied to the processing circuit 81 reads out and executes a program stored in a memory 83 to implement the function of each unit. That is, when the sound field control devices 101-104 are executed by the processing circuit 81, the sound field control devices 101-104 detect the seating position of
  • the memory 83 includes, for example, non-volatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically Erasable Programmable Read Only Memory). Or volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disk) and its drive device, or any storage medium used in the future There may be.
  • non-volatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically Erasable Programmable Read Only Memory).
  • volatile semiconductor memory HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disk) and its drive device, or any storage medium used in the future There may be.
  • the configuration in which the functions of the occupant detection unit 11 and the like are realized by one of hardware and software has been described above.
  • the configuration is not limited to this, and a configuration in which a part of the occupant detection unit 11 and the like is realized by dedicated hardware and another part is realized by software and the like may be adopted.
  • the function of the occupant detection unit 11 is realized by a processing circuit as dedicated hardware, and for the rest, the processing circuit 81 as the processor 82 reads and executes a program stored in the memory 83 to execute the function. It is possible to realize the function.
  • the processing circuit can realize the above-described functions by hardware, software, or the like, or a combination thereof.
  • the speaker registration unit 16 and the occupant registration unit 17 are configured by the memory 83, they may be configured by a single memory 83 or may be configured by individual memories.
  • the sound field control devices 101 to 104 are configured as in-vehicle devices, in addition to in-vehicle devices, PNDs (Portable Navigation Devices), communication terminals (for example, mobile terminals such as mobile phones, smartphones, and tablets), and the like.
  • the function of the application to be installed, the server, and the like can be appropriately combined and applied to the system.
  • each function or each component of the sound field control devices 101 to 104 described above may be dispersedly arranged in each device constituting the system, or may be arranged intensively in any device. You may.
  • FIG. 11 illustrates an example in which the sound field control device 102 includes the vehicle V and the server S.
  • the occupant detection unit 11, the speaker detection unit 12A, the listener detection unit 13, the sound field control unit 15, the sound device 21 and the speaker 22 are arranged in the vehicle V, and the participant detection unit 14 and the speaker
  • the registration unit 16 is arranged in the server S.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)

Abstract

本発明は、会話の非参加者に配慮しつつ、参加者が会話しやすいよう車室内の音場を制御することを目的とする。本発明の音場制御装置は、車両の乗員の着座位置を検出する乗員検出部(11)と、乗員の中から車両の車室内で行われた会話の発話者と受話者を参加者として検出する参加者検出部(14)と、車室内で会話が行われると、参加者の着座位置と参加者ではない乗員である非参加者の着座位置とに基づき、車室内に設けられた複数のスピーカ(22)による音場を制御する音場制御部(15)と、を備える。

Description

音場制御装置および音場制御方法
 この発明は、車室内の音場制御に関する。
 特許文献1には、車両の乗員の会話を検出し、検出結果に応じてスピーカの音量を調整する技術が開示されている。この技術では、車室内の撮影映像から乗員の口の動きを認識することにより発話者の座席を特定する。そして、オーディオの音量を下げると共に、発話者の座席の近傍のスピーカの音量を下げる制御が行われる。これにより、車両全体において発話者の発話が聞き取りやすくなる。
特開2010-23639号公報
 しかし、特許文献1の技術は、会話に参加していない乗員を考慮しないため、会話に参加せずオーディオコンテンツ等を楽しんでいる乗員にとっても、オーディオコンテンツ等の音量が小さくなってしまい、コンテンツ聴収の利便性が損なわれてしまうという問題がある。
 本発明は、上記の問題点を解決するためになされたものであり、会話の非参加者に配慮しつつ、会話者が会話しやすいよう車室内のスピーカによる音場を制御することを目的とする。
 本発明の音場制御装置は、車両の乗員の着座位置を検出する乗員検出部と、乗員の中から車両の車室内で行われた会話の発話者と受話者を参加者として検出する参加者検出部と、車室内で会話が行われると、参加者の着座位置と参加者ではない乗員である非参加者の着座位置とに基づき、車室内に設けられた複数のスピーカによる音場を制御する音場制御部と、を備える。
 本発明の音場制御方法は、車両の乗員の着座位置を検出し、乗員の中から車両の車室内で行われた会話の発話者と受話者を参加者として検出し、車室内で会話が行われると、参加者の着座位置と参加者ではない乗員である非参加者の着座位置とに基づき、車室内に設けられた複数のスピーカによる音場を制御する。
 本発明によれば、会話の参加者の着座位置と非参加者の着座位置とに基づき車室内の音場が制御されるため、非参加者に配慮しつつ、参加者が会話をしやすいよう車室内の音場を制御することができる。本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1の音場制御装置の構成を示すブロック図である。 実施の形態1の音場制御装置の構成図である。 実施の形態1の音場制御装置の動作を示すフローチャートである。 実施の形態2の音場制御装置の構成を示すブロック図である。 実施の形態2の音場制御装置の動作を示すフローチャートである。 実施の形態3の音場制御装置の構成を示すブロック図である。 実施の形態4の音場制御装置の構成を示すブロック図である。 実施の形態4の音場制御装置の発話者検出部の構成を示すブロック図である。 音場制御装置のハードウェア構成を示す図である。 音場制御装置のハードウェア構成を示す図である。 車両とサーバによる実施の形態2の音場制御装置の構成を示すブロック図である。
 <A.実施の形態1>
 <A-1.構成>
 図1は、実施の形態1の音場制御装置101の構成を示すブロック図である。音場制御装置101は、乗員検出部11、発話者検出部12A、受話者検出部13、参加者検出部14および音場制御部15を備えている。
 音場制御装置101は、音響装置21と接続され、これを利用可能に構成されている。音響装置21は、例えばラジオ放送などのオーディオコンテンツを再生または受信する装置であり、スピーカ22からこれらのオーディオコンテンツの音声を出力する。音響装置21とスピーカ22は車両に搭載されており、音場制御装置101はスピーカ22による車両の室内の音場を制御するものである。
 なお、本明細書で「車両に搭載された装置」とは、恒常的に搭載されるもののほか、取り外し可能であり必要に応じて車両に持ち込まれて使用されるものを含む。
 図2は、車両の構成を示している。音場制御装置101が音場を制御する車両には、複数のスピーカ22が設置されている。図2では、運転席、助手席、および後部左座席に乗員30A,30B,30Cが着座しており、車両の前方右側にスピーカ22FR、前方左側にスピーカ22FL、後方右側にスピーカ22BR、後方左側にスピーカ22BLが設置されている様子を示している。しかし、スピーカ22の数と設置場所はこれに限らない。スピーカ22は、車室内の音場を制御するため少なくとも複数設置されていれば良い。また、車両にはマイクロフォン23、カメラ24および外部センサ25が搭載されており、これらは参加者を検出するための装置である。
 乗員検出部11は、乗員の着座位置を検出するために、カメラ24および外部センサ25を用いる。具体的には、乗員検出部11は、カメラ24による車室内の撮影画像を解析することにより、乗員の着座位置を検出する。
 外部センサ25は、乗員の着座位置を検出するためのセンサであり、例えば車両の座席の座面または背もたれに設置された圧力センサである。あるいは、外部センサ25は距離センサである。これらのセンサの検出情報を用いて、乗員検出部11は乗員の着座位置を把握することができる。
 発話者検出部12Aは、マイクロフォン23とカメラ24を用いて、発話者の着座位置を検出する。具体的には、発話者検出部12Aは、車室内の異なる2か所に設置されたマイクロフォン23が発話音声を検知するタイミングのずれから、マイクロフォン23に対する発話方向を取得し、当該発話方向と乗員の着座位置とを照合して、発話者の着座位置を検出する。あるいは、発話者検出部12Aは、カメラ24による車室内の撮影画像から、乗員の口の動きを検出し、マイクロフォン23で取得した発話音声に同期した口の動きをしている乗員を発話者と特定する。
 受話者検出部13は、マイクロフォン23とカメラ24を用いて、受話者の着座位置を検出する。具体的には、カメラ24による車室内の撮影画像から、乗員の顔の動きを検出し、マイクロフォン23で取得した発話音声に同期して頷いている乗員を受話者と特定する。このように、受話者検出部13は、乗員の身体の動きに基づき、受話者の検出を行っても良い。あるいは、受話者検出部13は発話者検出部12Aから発話者の着座位置を取得し、カメラ24の撮影画像から発話者の視線を識別する。そして、発話者の視線方向に着座している乗員を受話者と特定しても良い。このとき、受話者検出部13は、発話者がミラーに視線を向けている場合には、ミラー越しに発話者の視線の先に着座している乗員を受話者と特定することも可能である。
 参加者検出部14は、発話者検出部12Aから発話者の着座位置の情報を取得し、受話者検出部13から受話者の着座位置の情報を取得し、発話者と受話者の両方を参加者とする。また、参加者検出部14は乗員検出部11から各乗員の着座位置の情報を取得し、受話者以外の乗員を非参加者とする。そして、参加者検出部14は参加者の着座位置と非参加者の着座位置を音場制御部15に出力する。
 なお、上記では、参加者を検出する方法として、マイクロフォン23、カメラ24および外部センサ25を用いる方法を説明したが、必ずしもこれらの全てを用いなければならないわけではない。例えば、発話者検出部12Aはカメラ24の撮影映像のみから発話者を検出しても良いし、受話者検出部13も同様にカメラ24の撮影映像のみから受話者を検出しても良い。
 音場制御部15は、参加者検出部14から会話の参加者の着座位置の情報を取得し、これに基づきスピーカ22による車室内の音場を制御する。音場制御部15は、制御前に比べて、音場による非参加者の着座位置における可聴域の音量が小さくなることなく、音場による前記参加者の着座位置における可聴域の音量が小さくなるように、音場を制御する。この音場制御により、非参加者にとってはスピーカ22から出力されるコンテンツの音量が小さくならないため、コンテンツの聴収が妨げられない一方で、参加者にとってはスピーカ22から出力されるコンテンツの音量が小さくなるため、会話相手の音声が聞き取りやすくなり、会話がしやすくなる。
 <A-2.動作>
 図3は、音場制御装置101の動作を示すフローチャートである。図3のフローは、例えば音響装置21がスピーカ22からの音声出力を行うと同時に開始する。まず、乗員検出部11は、図1に図示しない車両のドアセンサ等から、ドアの開閉情報を取得し、ドアが開閉したか否かを判断する(ステップS101)。ドアの開閉とは、ドアが開いた後に閉じることである。ドアの開閉がなければ乗員検出部11はステップS101を繰り返す。ドアの開閉があれば、乗員検出部11は乗員の着座位置を検出する(ステップS102)。次に、発話者検出部12Aがマイクロフォン23の検出信号を基に、車室内で発話が行われているかを判断する(ステップS103)。
 ステップS103で発話がある場合、参加者検出部14は参加者の着座位置を検出する(ステップS104)。本ステップでは具体的には、発話者検出部12Aが発話者の着座位置を検出し、受話者検出部13が受話者の着座位置を検出し、それぞれ着座位置の情報を参加者検出部14に出力する。そして、参加者検出部14が発話者と受話者を会話の参加者として、その着座位置の情報を把握すると共に、参加者でない乗員の着座位置を非参加者の着座位置として把握する。
 ステップS104で参加者を検出した後、あるいはステップS103で発話がない場合、音場制御装置101の処理はステップS105に移る。ステップS105では、音場制御部15が参加者の着座位置に応じた音声出力制御を行う。具体的には、発話が行われておらず参加者が存在しない場合には、音場制御部15は音場制御を行わない。従って、スピーカ22はデフォルトの音場を車室内に形成する。一方、発話が行われている場合には、音場制御部15は参加者検出部14から参加者の着座位置の情報と非参加者の着座位置の情報を取得し、これらに基づき音場制御を行う。
 この音場制御により、車室内の音場が各着座位置に与える音量は、制御前に比べて、非参加者の着座位置においては小さくなることなく、参加者の着座位置においては小さくなる。図2の例で、会話が行われていない場合、音場制御部15は特段の音場制御を行わないため、スピーカ22FL,22FR,22BL,22BRは均等な音量でコンテンツを出力する。そのため、乗員30A,30B,30Cはそれぞれ等しい音量でコンテンツを聴収する。一方、乗員30A,30Cが会話の参加者で、乗員30Bが非参加者である場合、音場制御部15は、スピーカ22FLの音量をそのままに保ちつつ、スピーカ22FR,22BLの音量を小さくする。このように、スピーカ22が車両の各着座位置に対応して設けられている場合には、参加者の着座位置に対応するスピーカ22の音量を、非参加者の着座位置に対応するスピーカ22の音量より小さくすることが可能である。これにより、会話に参加していない乗員30Bは、音場制御前と同じ音量でコンテンツを聴収することができる。また、会話に参加している乗員30A,30Cがスピーカ22FR,22BLから徴収するコンテンツの音量は小さくなるため、乗員30A,30Cは互いの発話音声を聞き取りやすく、会話を円滑に行うことができる。
 上記では音場制御の一例を示したが、他の音場制御を行っても良い。音場制御部15は、非参加者の着座位置における音量を小さくすることなく、参加者の着座位置における音量が大きくなるように、音場制御を行えばよい。なお、上記で述べている音量とは、可聴域の音量である。
 <A-3.変形例>
 上記では、参加者の検出結果に基づき音場制御部15が音場制御を行うことについて説明した。参加者検出部14は、音場制御部15が音場制御を行った後、乗員の反応を基に参加者の検出結果を更新しても良い。具体的には、参加者検出部14は、カメラ24の撮影画像から音場制御後の乗員の表情を解析し、乗員が不快な表情をしている場合には、参加者の検出結果を逆にして更新する。例えば、音場制御装置101は、図2の乗員30Bを参加者と検出して音場制御を行ったところ、乗員30Bは実際には非参加者であり、スピーカ22FLの音量が小さくなったため不快な表情をしたとする。この場合、参加者検出部14は、乗員30Bを非参加者に更新し、音場制御部15はスピーカ22FLの音量がデフォルトの音量まで大きくなるように、音場制御を更新する。
 <A-4.効果>
 実施の形態1の音場制御装置101は、車両の乗員の着座位置を検出する乗員検出部11と、乗員の中から車両の車室内で行われた会話の発話者と受話者を参加者として検出する参加者検出部14と、車室内で会話が行われると、参加者の着座位置と参加者ではない乗員である非参加者の着座位置とに基づき、車室内に設けられた複数のスピーカ22による音場を制御する音場制御部15と、を備える。従って、音場制御装置101によれば、非参加者のコンテンツ等の聴収を妨げることなく、会話がしやすいように車室内の音場を制御することができる。
 また、音場制御部15は、制御前に比べて、音場による非参加者の着座位置における音量が小さくなることなく、音場による参加者の着座位置における音量が小さくなるように、音場を制御する。従って、音場制御装置101によれば、非参加者のコンテンツ等の聴収を妨げることなく、会話がしやすいように車室内の音場を制御することができる。
 また、複数のスピーカ22は車両の着座位置に対応して設けられている場合には、音場制御部15は、参加者の着座位置に対応するスピーカの音量を非参加者の着座位置に対応するスピーカ22の音量より小さくすることにより、非参加者のコンテンツ等の聴収を妨げることなく、会話がしやすいように車室内の音場を制御することができる。
 また、参加者検出部14は、音場制御部15による音場制御後の乗員の表情に基づき、参加者の検出結果を更新する。この検出結果の更新に応じて音場制御を更新することにより、参加者の検出に誤りがある場合には修正が行われる。
 <B.実施の形態2>
 <B-1.構成>
 図4は、実施の形態2の音場制御装置102の構成を示すブロック図である。音場制御装置102は、実施の形態1の音場制御装置101の構成に加えて発話者等登録部16を備えている。発話者等登録部16以外の音場制御装置102の構成は、音場制御装置101と同様である。音場制御装置102は、現在の会話の発話者と受話者だけでなく、過去の会話の発話者と受話者も参加者として認識することを特徴とする。
 発話者検出部12Aは発話者の着座位置を検出すると、その情報を参加者検出部14に出力する他、検出時刻の情報と共に発話者等登録部16に登録する。また、受話者検出部13は受話者の着座位置を検出すると、その情報を参加者検出部14に出力する他、検出時刻の情報と共に発話者等登録部16に登録する。参加者検出部14は、発話者検出部12Aと受話者検出部13から取得した現在の会話の発話者と受話者を参加者に設定すると共に、発話者等登録部16に登録された過去の所定期間内、例えば過去1分以内の会話における発話者と受話者を参加者に設定する。
 <B-2.動作>
 図5は、音場制御装置102の動作を示すフローチャートである。図5のフローは、例えば音響装置21がスピーカ22からの音声出力を行うと同時に開始する。ステップS201からステップS204は、図3に示す実施の形態1のフローのステップS101からステップS104と同様であるため、それらの説明を省略する。ステップS203でNoの場合、またはステップS204の後、参加者検出部14は発話者等登録部16の登録情報を参照し、過去所定期間内、例えば過去1分以内に他の発話が有るか否かを判断する(ステップS205)。過去1分以内の発話について、発話者と受話者の着座位置の情報が発話者等登録部16に登録されている場合には、ステップS205でYesとなり、参加者検出部14は過去1分以内の発話の発話者と受話者を参加者に含める(ステップS206)。
 過去1分以内の発話について、発話者と受話者の着座位置の情報が発話者等登録部16に登録されていなければ、ステップS206は省略される。
 次に、音場制御部15が参加者の着座位置に応じた音場制御を行う(ステップS207)。ステップS207は、図3に示した実施の形態1のフローのステップS105と同様であるため、詳細な説明は省略する。
 <B-3.効果>
 実施の形態2の音場制御装置102では、参加者検出部14は、現在または過去の所定期間内に車室内で行われた会話の発話者と受話者を参加者として検出する。従って、そのため、会話をやめた乗員に対しても、所定期間、例えば1分程度の間は、会話がしやすい音場制御が行われるため、会話を再開しやすくなる。
 <C.実施の形態3>
 <C-1.構成>
 図6は、実施の形態3の音場制御装置103の構成を示すブロック図である。音場制御装置103は、実施の形態2の音場制御装置102の構成に加えて乗員登録部17を備えている。乗員登録部17以外の音場制御装置103の構成は、音場制御装置102と同様である。音場制御装置103は、予め乗員登録部17に登録された乗員のキーワードを基に受話者を特定することを特徴とする。
 乗員登録部17には、乗員を個別に識別するためのキーワードが登録されている。このキーワードは、例えば乗員の氏名またはニックネームなどである。これらのキーワードは、図6に図示しないキーボードまたはタッチパネル等の入力装置を用いて乗員自身が予め入力し、乗員登録部17に登録される。
 受話者検出部13は、マイクロフォン23が検出した発話者の発話音声中に、乗員登録部17に登録されたキーワードが含まれるか否かを判断する。発話音声中にキーワードが含まれる場合、受話者検出部13は当該キーワードに対応する乗員を受話者として特定する。従って、参加者検出部14は、発話者が発話したキーワードに対応する乗員を受話者である参加者として検出する。
 <C-2.効果>
 実施の形態3の音場制御装置103では、参加者検出部は、乗員とキーワードが対応付けられた個人情報を参照し、発話者が発話したキーワードに対応する乗員を受話者である参加者として検出する。従って、音場制御装置103によれば、発話者の視線の動きから受話者を特定できない場合、または受話者の挙動が明確でない場合でも、発話音声に含まれるキーワードから受話者を特定することが可能である。
 <D.実施の形態4>
 <D-1.構成>
 図7は、実施の形態4の音場制御装置104の構成を示すブロック図である。音場制御装置104は、実施の形態3の音場制御装置103の構成において、発話者検出部12Aに代えて発話者検出部12Bを備えている。音場制御装置104は、乗員が音響装置21の再生コンテンツにあわせて歌唱している場合に、当該歌唱を会話の発話と区別することを特徴とする。
 図8は、発話者検出部12Bの構成を示すブロック図である。発話者検出部12Bは、音程検出部121、顔認識部122および相関判断部123を備えている。発話者検出部12Bは、発話者検出部12Aと同様に音声を発している乗員の着座位置を検出するが、当該乗員を発話者と決定する前に当該乗員に対して以下の処理を行う。
 音程検出部121は、マイクロフォン23から乗員の音声を取得し、当該音声の音程を検出して、相関判断部123に出力する。相関判断部123は、音響装置21から再生コンテンツの音声信号を取得し、再生コンテンツと乗員の音声の音程の相関を判断する。音程の相関とは、周波数帯域の相関である。顔認識部122は、カメラ24の撮影画像から乗員の顔の表情または口の動きを解析し、解析結果を相関判断部123に出力する。相関判断部123は、再生コンテンツと発話者の顔の表情または口の動きの相関を判断する。例えば、発話者が一定のテンポで顔を上下している場合、そのテンポが再生コンテンツのテンポと一致していれば、両者の相関は高い。また、口の動きが再生コンテンツの間奏パートで乗員の口が動いている場合、両者の相関は低い。相関判断部123は、乗員の音声の音程と顔の表情等が再生コンテンツと相関があると判断すると、当該乗員は再生コンテンツに合わせて歌唱していると判断し、発話者とは判断しない。このように、相関判断部123は乗員が歌唱していることを検出する歌唱検出部として機能する。一方、相関判断部123は、乗員の音声の音程と顔の表情等が再生コンテンツと相関がないと判断すると、当該乗員は再生コンテンツに合わせた歌唱ではなく会話の発話を行っていると判断し、発話者と判断する。
 <D-2.効果>
 音場制御装置104の発話者検出部12Bは、乗員が歌唱していることを検出する歌唱検出部である相関判断部123を備え、参加者検出部14は、歌唱している乗員を参加者として検出しない。従って、音場制御装置104によれば、スピーカ22から再生されるコンテンツに合わせて歌唱している乗員を発話者と誤検出し、当該乗員に対してスピーカ22から聞こえる音量を小さくする音場制御が行うことを、防ぐことができる。
 <E.ハードウェア構成>
 上述した音場制御装置101-104における、乗員検出部11、発話者検出部12A,12B、受話者検出部13、参加者検出部14、音場制御部15、発話者等登録部16、および乗員登録部17(以下、「乗員検出部11等」)は、図9に示す処理回路81により実現される。すなわち、処理回路81は、乗員検出部11等を備える。処理回路81には、専用のハードウェアが適用されても良いし、メモリに格納されるプログラムを実行するプロセッサが適用されても良い。プロセッサは、例えば中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。
 乗員検出部11、発話者検出部12A,12B、受話者検出部13、参加者検出部14は、マイクロフォン23、カメラ24、および外部センサ25から情報を取得し、乗員登録部17には入力装置等からキーワードが入力される。また、音場制御部15は音場の制御指示を音響装置21に行う。これらの情報の入出力は、図9に示す入出力インタフェース84により実現される。すなわち、音場制御装置101-104は、処理回路81と入出力インタフェース84により実現する。
 処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。乗員検出部11等の各部の機能それぞれは、複数の処理回路81で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
 処理回路81がプロセッサである場合、乗員検出部11等の機能は、ソフトウェア等(ソフトウェア、ファームウェアまたはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリに格納される。図10に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、音場制御装置101-104は、処理回路81により実行されるときに、車両の乗員の着座位置を検出するステップと、乗員の中から車両の車室内で行われた会話の発話者と受話者を参加者として検出するステップと、車室内で会話が行われると、参加者の着座位置と参加者ではない乗員である非参加者の着座位置とに基づき、車室内に設けられた複数のスピーカ22による音場を制御するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。換言すれば、このプログラムは、乗員検出部11等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)及びそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
 以上、乗員検出部11等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、乗員検出部11等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、乗員検出部11については専用のハードウェアとしての処理回路でその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、処理回路は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。なお、発話者等登録部16と乗員登録部17は、メモリ83から構成されるが、それらは単一のメモリ83から構成されてもよいし、それぞれが個別のメモリから構成されてもよい。
 また、上記では音場制御装置101-104は車載装置として構成される他、車載装置、PND(Portable Navigation Device)、通信端末(例えば携帯電話、スマートフォン、およびタブレットなどの携帯端末)、およびこれらにインストールされるアプリケーションの機能、並びにサーバなどを適宜に組み合わせてシステムにも適用することができる。この場合、以上で説明した音場制御装置101-104の各機能または各構成要素は、システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。図11には、音場制御装置102が車両VとサーバSにより構成される例を示している。図11の例では、乗員検出部11、発話者検出部12A,受話者検出部13、音場制御部15、音響装置21およびスピーカ22が車両Vに配置され、参加者検出部14と発話者等登録部16がサーバSに配置されている。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。この発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 11 乗員検出部、12A,12B 発話者検出部、13 受話者検出部、14 参加者検出部、15 音場制御部、16 発話者等登録部、17 乗員登録部、21 音響装置、22,22BL,22BR,22FL,22FR スピーカ、23 マイクロフォン、24 カメラ、25 外部センサ、30A,30B,30C 乗員、81 処理回路、82 プロセッサ、83 メモリ、84 入出力インタフェース、101,102,103,104 音場制御装置、121 音程検出部、122 顔認識部、123 相関判断部。

Claims (10)

  1.  車両の乗員の着座位置を検出する乗員検出部と、
     前記乗員の中から前記車両の車室内で行われた会話の発話者と受話者を参加者として検出する参加者検出部と、
     前記車室内で会話が行われると、前記参加者の着座位置と前記参加者ではない前記乗員である非参加者の着座位置とに基づき、前記車室内に設けられた複数のスピーカによる音場を制御する音場制御部と、を備える、
    音場制御装置。
  2.  前記音場制御部は、制御前に比べて、前記音場による前記非参加者の着座位置における音量が小さくなることなく、前記音場による前記参加者の着座位置における音量が小さくなるように、前記音場を制御する、
    請求項1に記載の音場制御装置。
  3.  複数の前記スピーカは前記車両の着座位置に対応して設けられており、
     前記音場制御部は、前記参加者の着座位置に対応する前記スピーカの音量を前記非参加者の着座位置に対応する前記スピーカの音量より小さくする、
    請求項1に記載の音場制御装置。
  4.  前記参加者検出部は、現在または過去の所定期間内に前記車室内で行われた会話の発話者と受話者を前記参加者として検出する、
    請求項1に記載の音場制御装置。
  5.  前記参加者検出部は、前記発話者の視線の先に着座する乗員を、前記受話者である前記参加者として検出する、
    請求項4に記載の音場制御装置。
  6.  前記参加者検出部は、前記乗員とキーワードが対応付けられた個人情報を参照し、前記発話者が発話したキーワードに対応する前記乗員を前記受話者である前記参加者として検出する、
    請求項1に記載の音場制御装置。
  7.  前記乗員が歌唱していることを検出する歌唱検出部をさらに備え、
     前記参加者検出部は、歌唱している前記乗員を前記参加者として検出しない、
    請求項1に記載の音場制御装置。
  8.  前記参加者検出部は、前記乗員の身体の動きに基づき、前記受話者である前記参加者の検出を行う、
    請求項1に記載の音場制御装置。
  9.  前記参加者検出部は、前記音場制御部による音場制御後の前記乗員の表情に基づき、前記参加者の検出結果を更新する、
    請求項1に記載の音場制御装置。
  10.  車両の乗員の着座位置を検出し、
     前記乗員の中から前記車両の車室内で行われた会話の発話者と受話者を参加者として検出し、
     前記車室内で会話が行われると、前記参加者の着座位置と前記参加者ではない前記乗員である非参加者の着座位置とに基づき、前記車室内に設けられた複数のスピーカによる音場を制御する、
    音場制御方法。
PCT/JP2018/026704 2018-07-17 2018-07-17 音場制御装置および音場制御方法 WO2020016927A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2018/026704 WO2020016927A1 (ja) 2018-07-17 2018-07-17 音場制御装置および音場制御方法
JP2020530758A JP7065964B2 (ja) 2018-07-17 2018-07-17 音場制御装置および音場制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/026704 WO2020016927A1 (ja) 2018-07-17 2018-07-17 音場制御装置および音場制御方法

Publications (1)

Publication Number Publication Date
WO2020016927A1 true WO2020016927A1 (ja) 2020-01-23

Family

ID=69165046

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/026704 WO2020016927A1 (ja) 2018-07-17 2018-07-17 音場制御装置および音場制御方法

Country Status (2)

Country Link
JP (1) JP7065964B2 (ja)
WO (1) WO2020016927A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021161377A1 (ja) * 2020-02-10 2021-08-19
WO2022196429A1 (ja) * 2021-03-15 2022-09-22 ソニーグループ株式会社 情報処理装置、情報処理方法、並びにプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156826A (ja) * 2008-12-26 2010-07-15 Fujitsu Ten Ltd 音響制御装置
JP2012025270A (ja) * 2010-07-23 2012-02-09 Denso Corp 車両用の音量制御装置および音量制御装置用のプログラム
JP2016157084A (ja) * 2015-02-26 2016-09-01 パイオニア株式会社 再生装置、再生方法、及び、プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04284790A (ja) * 1991-03-14 1992-10-09 Murata Mach Ltd テレビ電話装置
JPH0983277A (ja) * 1995-09-18 1997-03-28 Fujitsu Ten Ltd 音量調整装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156826A (ja) * 2008-12-26 2010-07-15 Fujitsu Ten Ltd 音響制御装置
JP2012025270A (ja) * 2010-07-23 2012-02-09 Denso Corp 車両用の音量制御装置および音量制御装置用のプログラム
JP2016157084A (ja) * 2015-02-26 2016-09-01 パイオニア株式会社 再生装置、再生方法、及び、プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021161377A1 (ja) * 2020-02-10 2021-08-19
JP7337965B2 (ja) 2020-02-10 2023-09-04 三菱電機株式会社 発話者推定装置
WO2022196429A1 (ja) * 2021-03-15 2022-09-22 ソニーグループ株式会社 情報処理装置、情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP7065964B2 (ja) 2022-05-12
JPWO2020016927A1 (ja) 2021-03-11

Similar Documents

Publication Publication Date Title
US20230317094A1 (en) Personalized, real-time audio processing
US20230178077A1 (en) Techniques for wake-up work recognition and related systems and methods
JP5018773B2 (ja) 音声入力システム、対話型ロボット、音声入力方法、および、音声入力プログラム
JP3910898B2 (ja) 指向性設定装置、指向性設定方法及び指向性設定プログラム
US20160127827A1 (en) Systems and methods for selecting audio filtering schemes
JP2007290691A (ja) 車両通信システム
WO2007018293A1 (ja) 音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラム
JP7049803B2 (ja) 車載装置および音声出力方法
US9544687B2 (en) Audio distortion compensation method and acoustic channel estimation method for use with same
JP6767082B2 (ja) 車内通話制御装置、車内通話システムおよび車内通話制御方法
CN111489750A (zh) 声音处理设备和声音处理方法
JP2015071320A (ja) 会話支援装置、会話支援方法及び会話支援プログラム
WO2020016927A1 (ja) 音場制御装置および音場制御方法
US10540985B2 (en) In-vehicle media vocal suppression
US11455980B2 (en) Vehicle and controlling method of vehicle
JPH1152976A (ja) 音声認識装置
JP3838159B2 (ja) 音声認識対話装置およびプログラム
WO2022181013A1 (ja) 会議システム
JP6995254B2 (ja) 音場制御装置及び音場制御方法
WO2021161377A1 (ja) 発話者推定装置および発話者推定方法
WO2022239142A1 (ja) 音声認識装置及び音声認識方法
US20230368767A1 (en) Vehicle call system based on active noise control and method therefor
JPH11109987A (ja) 音声認識装置
JP2020106779A (ja) 音響装置および音場制御方法
JP2022014313A (ja) 音声出力制御装置および音声出力制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18926611

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020530758

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18926611

Country of ref document: EP

Kind code of ref document: A1