WO2016072164A1 - 車載用音声処理装置 - Google Patents

車載用音声処理装置 Download PDF

Info

Publication number
WO2016072164A1
WO2016072164A1 PCT/JP2015/076828 JP2015076828W WO2016072164A1 WO 2016072164 A1 WO2016072164 A1 WO 2016072164A1 JP 2015076828 W JP2015076828 W JP 2015076828W WO 2016072164 A1 WO2016072164 A1 WO 2016072164A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
speaker
voice
utterance
audio
Prior art date
Application number
PCT/JP2015/076828
Other languages
English (en)
French (fr)
Inventor
工藤 真
辰昭 長船
勇樹 堀田
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to CN201580051655.4A priority Critical patent/CN106717024A/zh
Priority to EP15858001.9A priority patent/EP3217687A4/en
Priority to US15/518,394 priority patent/US20170317706A1/en
Priority to JP2016557487A priority patent/JPWO2016072164A1/ja
Publication of WO2016072164A1 publication Critical patent/WO2016072164A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3822Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving specially adapted for use in vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds

Definitions

  • the present invention relates to an in-vehicle audio processing apparatus capable of communicating between an occupant of a host vehicle and an occupant of a desired vehicle, for example.
  • the voice is transmitted not only to the partner vehicle that the speaker of the own vehicle wants to talk to but also to an unspecified number of nearby vehicles.
  • the sound volume is adjusted according to the distance from the vehicle (the sound volume is reduced as the distance increases).
  • the other vehicle in the vicinity is not necessarily the vehicle closest to the other party's vehicle that the speaker of the own vehicle wants to talk to. Therefore, there are cases where it is difficult for the occupant of the opponent vehicle to notice that he / she is talking, and there is a concern that it may be difficult to achieve smooth communication with the opponent vehicle.
  • the present invention has been made in view of the above points, and an object of the present invention is to provide a voice processing device capable of achieving smooth communication between an occupant of the own vehicle and an occupant of a desired vehicle. It is to be.
  • the vehicle-mounted speech processing apparatus of the present invention that solves the above problems includes a vehicle position acquisition unit that acquires the position of the vehicle, a voice acquisition unit that acquires the voice of the speaker of the vehicle, and the utterance of the speaker.
  • An utterance direction detection unit that detects a direction, and a transmission unit that transmits the position of the host vehicle, the voice, and the utterance direction to an unspecified number of other vehicles around the host vehicle.
  • Another vehicle-mounted speech processing device of the present invention includes a host vehicle position acquisition unit that acquires the position of the host vehicle, the position of the other vehicle transmitted from another vehicle, the voice of a speaker of the other vehicle, and the A receiving unit that receives the utterance direction of a speaker of another vehicle, and calculates a volume for outputting the sound based on the position of the own vehicle, the position of the other vehicle, and the utterance direction of the speaker of the other vehicle, In a sound field formed by a speaker array comprising speakers, the sound is processed so that the virtual sound source of the sound is formed in the direction of the position of the other vehicle, and the sound is output at the volume by the speaker array. And an audio output unit.
  • FIG. 1 is a block diagram illustrating a configuration of an in-vehicle voice processing device according to Embodiment 1.
  • FIG. FIG. 2 is a layout diagram in a vehicle of the in-vehicle voice processing device according to the first embodiment.
  • FIG. The figure which shows the data processing flow at the time of transmission of the vehicle-mounted audio processing apparatus of Example 1.
  • FIG. shows the data processing flow at the time of reception of the vehicle-mounted audio processing apparatus of Example 1.
  • FIG. 9 is a block diagram illustrating a configuration of an in-vehicle voice processing device according to a third embodiment.
  • FIG. 9 is a block diagram illustrating a configuration of an in-vehicle voice processing device according to a third embodiment.
  • FIG. 1 is a block diagram showing a configuration of an in-vehicle audio processing apparatus according to an embodiment of Example 1 of the present invention.
  • the communication system of the present invention performs wireless communication between at least two vehicles.
  • each vehicle includes a wireless communication device 10.
  • the wireless communication device 10 includes a transmission unit 11 and a reception unit 12, and information including voice data can be communicated between another vehicle equipped with the same wireless communication device and the host vehicle.
  • the transmission part 11 performs the broadcast which transmits the information of the own vehicle so that an unspecified many other vehicle around the own vehicle can receive.
  • the receiving unit 12 receives information on other vehicles transmitted from other vehicles.
  • the in-vehicle voice processing device 20 is connected to the wireless communication device 10.
  • a plurality of microphones 31 constituting a microphone array, a GPS device 32, and a gyro sensor 33 are connected to the input side of the in-vehicle audio processing device 20, and a plurality of speakers constituting a speaker array are connected to the output side. 41 is connected.
  • the in-vehicle voice processing device 20 detects the own vehicle position acquisition unit 21 that acquires the position of the own vehicle, the voice acquisition unit 22 that acquires the voice of the speaker of the own vehicle, and the utterance direction of the speaker of the own vehicle. It has a speech direction detection unit 23 and a playback voice output unit 24 that plays back and outputs a voice of a speaker of another vehicle based on information received from the other vehicle.
  • the transmission unit 11 of the wireless communication device 10 transmits information on the position of the vehicle, voice, and speech direction.
  • the own vehicle position acquisition unit 21 acquires the position and orientation of the own vehicle based on information from the GPS device 32 and information from the gyro sensor 33.
  • the position of the own vehicle is indicated by latitude and longitude, and the direction is expressed by an orientation (east, west, south, north, etc.) based on the position of the own vehicle.
  • the direction can also be expressed as a number of times, for example, with reference to the north.
  • a geomagnetic sensor may be used instead of the gyro sensor 33.
  • the voice acquisition unit 22 acquires the voice of the speaker of the own vehicle input from the microphone 31.
  • the sound acquisition unit 22 converts sound from analog data to digital data.
  • the utterance direction detection unit 23 detects the utterance direction, which is the direction in which the speaker is speaking, based on the voice input from the microphone 31.
  • the utterance direction is represented by a direction based on a signal from the gyro sensor 33, for example.
  • the reproduction audio output unit 24 calculates a volume for outputting reproduction audio in the own vehicle based on the position of the own vehicle, the position of the other vehicle, and the utterance direction of the speaker of the other vehicle, and is formed by a speaker array including a plurality of speakers.
  • the sound is processed so that the sound virtual sound source is formed in the direction of the position of the other vehicle, and the sound is output by the speaker array with the calculated volume.
  • a known technique disclosed in Patent Document 1 can be used as a method of processing the sound so that the sound virtual sound source is formed in the direction of the position of the other vehicle.
  • the reproduced voice output from the reproduced voice output unit 24 is set so that the volume is maximized when the speaker of the other vehicle is speaking in the direction of the own vehicle, and the direction of the speaker of the other vehicle is automatically set. The volume is reduced as you leave the car.
  • the reproduced audio output unit 24 changes the volume of the reproduced audio according to the degree of coincidence between the utterance direction of the other vehicle and the relative direction from the other vehicle to the own vehicle.
  • the volume V 1 of the reproduced sound is calculated by the following equation (1).
  • V in the formula (1) 0 is a voice that is uttered by a speaker in the other vehicle volume (vocalization volume), vocalization volume V 0 in the other vehicle the volume V 1 of the reproduced sound in the subject vehicle in the present embodiment It is proportional to.
  • the direction calculation term of the above equation (1) includes an utterance direction (vector d) that is a direction that a speaker of another vehicle is facing, and a relative direction (vector) from the other vehicle that is the utterance vehicle to the own vehicle that is the reception vehicle.
  • P 1 ) is a term indicating the degree of coincidence.
  • the direction calculation term employs a value obtained by dividing the inner product of the two vectors by the magnitude of the two vectors, and this term becomes 1 when the directions are completely coincident. , This term becomes zero. If this value is negative, it is set to 0. Therefore, the higher the direction of the degree of coincidence therebetween, the volume V 1 of the reproduced sound in the vehicle is increased.
  • the volume of the reproduced sound is set constant within the predetermined angle range.
  • the volume of the reproduced sound may be set to zero.
  • the distance attenuation term in the above equation (1) is a term for calculating the attenuation of the sound volume by the distance P 1 from the other vehicle as the speaking vehicle to the own vehicle as the receiving vehicle.
  • FIG. 2 is a layout diagram in a vehicle of the in-vehicle voice processing device according to the first embodiment.
  • FIG. 2 schematically shows the interior of the vehicle 201.
  • the plurality of microphones 31 and the plurality of speakers 41 are disposed in the passenger compartment of the vehicle 201.
  • four microphones 31 and four speakers 41 are arranged so as to surround the periphery of the seat of the vehicle 201.
  • the four microphones 31 acquire voice so that it can be understood in which direction the speaker of the own vehicle is talking.
  • the four speakers 41 form a sound field in the passenger compartment of the own vehicle, and the virtual sound source of the voice of the speaker acquired by the other vehicle is formed in the direction of the position of the other vehicle.
  • the reproduced voice is output so that the voice of the speaker can be heard from the direction of the other vehicle.
  • FIG. 3 is a diagram showing the configuration of the transmission / reception data format of the in-vehicle audio processing apparatus according to the first embodiment of the present invention.
  • the transmission unit 11 of the in-vehicle audio processing device 20 transmits the vehicle information as packet data.
  • the packet data has the packet format shown in FIG. 3 and includes information on a broadcast address (BC address) 301, an utterance position (own vehicle position) 302, an utterance direction 303, and audio data 304.
  • FIG. 4 is a diagram showing a data processing flow at the time of transmission of the in-vehicle voice processing device according to the embodiment of the first embodiment of the present invention.
  • step S401 the voice of the speaker of the own vehicle is detected by the microphone 31 and converted into a format that can be transmitted by the transmission unit 11.
  • step S402 processing is performed to detect the utterance direction that is the direction in which the occupant is speaking and the direction in which the occupant is speaking. In this embodiment, the speech direction is detected based on the sound detected by the microphone 31.
  • step S ⁇ b> 403 processing for transmitting information on the utterance position, utterance direction, and voice data from the transmission unit 11 is performed. In the transmission process, broadcasting is performed to transmit to an unspecified number of other vehicles existing within a predetermined range around the host vehicle.
  • FIG. 5 is a diagram showing a data processing flow at the time of reception of the in-vehicle voice processing device according to the embodiment of the first embodiment of the present invention.
  • step S501 wireless reception processing for receiving information on other vehicles broadcast from other vehicles is performed. Thereby, the other vehicle position, the utterance direction of the speaker of the other vehicle, and the voice data of the speaker of the other vehicle are acquired.
  • step S502 a direction / distance calculation process for calculating a relative utterance direction and a relative distance of the other vehicle with respect to the own vehicle is performed.
  • step S503 the reproduced voice of the speaker of the other vehicle output from the speaker 41 based on the relative utterance direction of the speaker of the other vehicle with respect to the own vehicle calculated in step S502 and the relative distance from the other vehicle.
  • the process of calculating the volume of is performed.
  • step S504 reproduction processing is performed in which the sound is processed so that the sound source of the speaker of the other vehicle is formed in the direction of the position of the other vehicle and output from the speaker 41 at the volume calculated in step S503.
  • FIG. 6 is a diagram illustrating the utterance direction of the speaker of the utterance vehicle, the direction of sound in the receiving vehicle, and the volume in the first embodiment of the present invention.
  • three vehicles having the communication system of the present embodiment are shown. All the three vehicles are stopped, and are in a position where two receiving vehicles Mr1 and Mr2 (second vehicle) cross the front and rear in front of the transmitting vehicle Mc (first vehicle). The rear receiving vehicle Mr1 is located farther from the transmitting vehicle Mc than the front receiving vehicle Mr2 (P 1 > P 2 ). . Then, the speaker 601 who is an occupant of the transmission vehicle Mc passes the transmission vehicle Mc between the rear reception vehicle Mr1 and the front reception vehicle Mr2, for example, to the occupant of the rear reception vehicle Mr1. I want to talk to the direction (d) of the receiving vehicle Mr1 on the rear side.
  • the volume of the reception vehicle Mr2 on the front side close to the transmission vehicle Mc is larger than the volume of the reception vehicle Mr1 on the rear side far from the transmission vehicle Mc.
  • the speaker of the transmitting vehicle Mc wants to talk with the passenger of the rear receiving vehicle Mr1, not the passenger of the front receiving vehicle Mr2, and smooth communication may be hindered.
  • the volume of the reproduced voice in the receiving vehicles Mr1 and Mr2 is adjusted according to the information on the utterance direction of the speaker 601 of the transmitting vehicle Mc. Accordingly, the volume of the reproduced voice in the rear receiving vehicle Mr1 in the speaking direction (d) of the speaker of the transmitting vehicle Mc is larger than that of the front receiving vehicle Mr2. Accordingly, the occupant 602 of the rear receiving vehicle Mr1 can recognize that the speaker 601 of the transmitting vehicle Mc is speaking toward him and can reply to the occupant 601 of the transmitting vehicle Mc. Realistic conversation is possible. Therefore, smooth communication as if walking people are performing is possible.
  • the occupant 603 of the front receiving vehicle Mr2 can hear the voice of the speaker 601 of the transmitting vehicle Mc from the direction of the transmitting vehicle Mc, but the volume is lower than that of the receiving vehicle Mr1 on the rear side. It can be recognized that the speaker 603 is not talking to himself / herself but to the passenger 602 of the rear receiving vehicle Mr1.
  • FIG. 7 is a block diagram showing the configuration of the in-vehicle voice processing apparatus according to the second embodiment
  • FIG. 8 is a layout diagram in the vehicle of the in-vehicle voice processing apparatus according to the second embodiment
  • FIG. It is a figure explaining the direction and volume of an occupant's utterance direction, the direction of a voice in a partner vehicle, and a volume.
  • a characteristic feature of this embodiment is that the utterance direction of the speaker is detected based on the face image of the speaker captured by the camera.
  • a camera 34 is connected to the in-vehicle audio processing device 20. And as shown in FIG. 8, the camera 34 is attached to the front of the driver's seat so that the driver
  • the in-vehicle voice processing device 20 acquires the voice of the speaker and generates voice data, detects the line of sight of the speaker based on the captured image of the camera 34, and detects the direction of speech based on the line of sight. And the process which produces
  • the in-vehicle audio processing device 20 includes a vehicle position acquisition unit 21, an audio acquisition unit 22, a speech direction detection unit 23, a reproduction audio output unit 24, and a line-of-sight detection unit 25. ing.
  • the line-of-sight detection unit 25 detects the line of sight of the speaker from the image captured by the camera 34. Then, the utterance direction of the speaker is detected based on the sight line of the speaker detected by the utterance direction detection unit 23 and the sight line detection unit 25.
  • the utterance direction is represented by a direction using a signal from the gyro sensor 33, for example.
  • the information on the utterance direction is broadcast as packet data together with the information on the vehicle position, the utterance direction, and the voice data.
  • the subsequent processing is the same as in the first embodiment.
  • the utterance direction of the speaker can be reliably detected, and the vehicle that the speaker wants to talk to can be accurately identified. Therefore, a conversation with a sense of presence between vehicles is possible, and smoother communication than before is possible.
  • FIGS. 10 and 11 are block diagrams illustrating the configuration of the in-vehicle audio processing device according to the third embodiment. What is characteristic in the present embodiment is that the wireless communication device 10 enables voice communication between a vehicle having only the transmitter 11 and a vehicle having only the receiver 12.
  • the present invention can also be applied between a vehicle having a vehicle and a vehicle having only a receiver.
  • a vehicle having a vehicle For example, an emergency vehicle such as an ambulance is equipped with only a transmitter and an ordinary vehicle with only a receiver. Audio may be transmitted.
  • an occupant of a general vehicle in the utterance direction can recognize that he / she is talking to himself / herself from the volume of the reproduced voice, and can quickly move to the road shoulder.
  • the wireless communication apparatus 10 (first communication apparatus) shown in FIG.
  • the in-vehicle voice processing device 20 connected to the wireless communication device 10 includes a host vehicle position acquisition unit 21 (first vehicle position acquisition unit), a voice acquisition unit 22, and a speech direction detection unit 23. . Therefore, the transmission vehicle having the transmission unit 11 can transmit the position of the own vehicle, the voice of the speaker of the own vehicle, and the utterance direction of the speaker of the own vehicle.
  • the wireless communication apparatus 10 (second communication apparatus) shown in FIG.
  • the in-vehicle audio processing device 20 connected to the wireless communication device 10 includes a host vehicle position acquisition unit 21 (second vehicle position acquisition unit) and a reproduction audio output unit 24. Therefore, the receiving vehicle having the receiving unit 12 receives the position of the transmitting vehicle, the voice of the speaker of the transmitting vehicle, and the speaking direction of the speaker of the transmitting vehicle, and transmits the own vehicle position, the position of the transmitting vehicle, and the transmission. Based on the utterance direction of the utterer of the vehicle, the sound volume for outputting the reproduced sound is calculated, and in the sound field formed by the speaker array composed of a plurality of speakers 41, the sound virtual sound source is formed in the direction of the position of the transmitting vehicle. Thus, the voice can be processed and output by the speaker array with the calculated volume.
  • the present invention is not limited to the above-described embodiments, and various designs can be made without departing from the spirit of the present invention described in the claims. It can be changed.
  • the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to one having all the configurations described.
  • a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment.

Abstract

自車の乗員と所望の車両の乗員との間で円滑なコミュニケーションを図ることができる音声処理装置を得ること。 本発明の通信システムでは、第1の通信装置10は、第1の車両Mcの位置と発話者601の音声と発話方向dを第1の車両Mcの周辺の不特定多数の第2の車両Mrに送信する。第2の通信装置10は、複数のスピーカ41からなるスピーカアレイにより第2の車両Mr内に形成される音場において、音声の仮想音源が第1の車両Mcの位置の方向に形成されるように音声を加工し、かかる音声を第1の車両Mcの位置と第2の車両Mrの位置と第1の車両Mcの発話者の発話方向dに基づいて算出した音量でスピーカアレイにより出力する。

Description

車載用音声処理装置
 本発明は、例えば自車の乗員と所望の車両の乗員との間でコミュニケーションを図ることができる車載用音声処理装置に関する。
 近年、リアルな音場を実現するサラウンドスピーカ(スピーカアレイ)を用いた音響システムが搭載された車両がある。特許文献1には、自車(A車)位置と自車の発話者の音声を送信し、相手車両(B車)は受信したA車の位置とB車の位置からB車にとってのA車の位置関係を計算し、A車の方向から聞こえるようにサラウンドスピーカから受信した音声を出力する技術が示されている。
 特許文献1の技術では、音声は自車の発話者が話しかけたい相手車両だけでなく、周辺の不特定多数の車両にも送信される。そして、音量は自車からの離間距離に応じて調整される(離れているほど音量を小さくする)。
特開2009-023486号公報
 しかしながら、周辺の他の車両のうち、自車の発話者が話しかけたい相手の車両が一番近くにいる車両とは限らない。したがって、相手車両の乗員は自分が話しかけられているとは気がつきにくい場合もあり、相手車両との円滑なコミュニケーションを図ることが困難な状況が発生することが懸念される。
 本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、自車の乗員と所望の車両の乗員との間で円滑なコミュニケーションを図ることができる音声処理装置を提供することである。
 上記課題を解決する本発明の車載用音声処理装置は、自車の位置を取得する自車位置取得部と、前記自車の発話者の音声を取得する音声取得部と、前記発話者の発話方向を検出する発話方向検出部と、前記自車の位置と前記音声と前記発話方向を自車周辺の不特定多数の他車に送信する送信部と、を有することを特徴としている。
 また、本発明の他の車載用音声処理装置は、自車の位置を取得する自車位置取得部と、他車から送信された前記他車の位置と該他車の発話者の音声と前記他車の発話者の発話方向を受信する受信部と、前記自車の位置と前記他車の位置と前記他車の発話者の発話方向に基づいて前記音声を出力する音量を算出し、複数のスピーカからなるスピーカアレイにより形成される音場において、前記音声の仮想音源が、前記他車の位置の方向に形成されるように音声を加工し、該音声を前記音量で前記スピーカアレイにより出力する音声出力部と、を有することを特徴としている。
 本発明によれば、車々間の円滑なコミュニケーションが可能となる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
実施例1の車載用音声処理装置の構成を示すブロック図。 実施例1の車載用音声処理装置の車両内配置図。 実施例1の車載用音声処理装置の送受信データフォーマットの構成を示す図。 実施例1の車載用音声処理装置の送信時のデータ処理フローを示す図。 実施例1の車載用音声処理装置の受信時のデータ処理フローを示す図。 実施例1の自車の乗員の発話方向と相手車両内での音声の方向と音量を説明する図。 実施例2の車載用音声処理装置の構成を示すブロック図。 実施例2の車載用音声処理装置の車両内配置図。 実施例2の自車の乗員の発話方向と相手車両内での音声の方向と音量を説明する図。 実施例3の車載用音声処理装置の構成を示すブロック図。 実施例3の車載用音声処理装置の構成を示すブロック図。
 以下、本発明を実施するための最良の形態について、図面を参照しながら実施例を挙げて説明する。
<実施例1>
 図1は、本発明の実施例1の実施形態となる車載用音声処理装置の構成を示すブロック図である。
 本発明の通信システムは、少なくとも2台以上の車両の間における無線通信を行うものであり、本実施例では各車両にそれぞれ無線通信装置10を備えている。無線通信装置10は、送信部11と受信部12を有しており、同じ無線通信装置を搭載する他車と自車との間で音声データを含む情報の通信が可能となっている。送信部11は、自車の情報を自車周辺の不特定多数の他車が受信できるように送信するブロードキャストを行う。受信部12は、他車から送信された他車の情報を受信する。
 無線通信装置10には、車載用音声処理装置20が接続されている。そして、車載用音声処理装置20の入力側には、マイクアレイを構成する複数のマイク31と、GPS装置32と、ジャイロセンサ33が接続され、出力側には、スピーカアレイを構成する複数のスピーカ41が接続されている。
 車載用音声処理装置20は、自車の位置を取得する自車位置取得部21と、自車の発話者の音声を取得する音声取得部22と、自車の発話者の発話方向を検出する発話方向検出部23と、他車から受信した情報に基づき他車の発話者の音声を再生して出力する再生音声出力部24を有している。無線通信装置10の送信部11は、自車の位置と音声と発話方向の情報を送信する。
 自車位置取得部21は、GPS装置32からの情報と、ジャイロセンサ33からの情報に基づいて、自車の位置と向きを取得する。自車の位置は、緯度と経度で示され、向きは、自車位置を基準とした方位(東西南北等)で表される。方位は、例えば北を基準に何度と表すこともできる。自車の向きを検出する方法として、ジャイロセンサ33の代わりに地磁気センサを用いてもよい。音声取得部22は、マイク31から入力した自車の発話者の音声を取得する。音声取得部22では、音声をアナログデータからデジタルデータに変換する。発話方向検出部23は、マイク31から入力した音声に基づいて発話者が向いて話している方向である発話方向を検出する。発話方向は、例えばジャイロセンサ33からの信号に基づいて方位で表される。
 再生音声出力部24は、自車の位置と他車の位置と他車の発話者の発話方向に基づき自車において再生音声を出力する音量を算出し、複数のスピーカからなるスピーカアレイにより形成される音場において、音声の仮想音源が他車の位置の方向に形成されるように音声を加工し、算出した音量で音声をスピーカアレイにより出力する処理を行う。なお、音声の仮想音源が他車の位置の方向に形成されるように音声を加工する方法は、特許文献1に示されている公知の技術を用いることができる。
 再生音声出力部24で出力される再生音声は、他車の発話者が自車の方向を向いて話している場合に音量が最も大きくなるようにされ、他車の発話者の発話方向が自車から離れるに応じて音量が小さくなるようにされる。
 再生音声出力部24は、他車の発話方向と、他車から自車への相対方向との一致度に応じて再生音声の音量を変更する。再生音声の音量Vは、以下の式(1)によって算出される。
Figure JPOXMLDOC01-appb-M000001
 上記式(1)のVは、他車で発話者により発声される音声の音量(発声音量)であり、本実施例では自車における再生音声の音量Vが他車における発声音量Vに比例することを示す。
 上記式(1)の方向計算項は、他車の発話者の向いている方向である発話方向(ベクトルd)と、発話車両である他車から受話車両である自車への相対方向(ベクトルP)の一致度を示す項である。本実施例では、方向計算項は、上記2つのベクトルの内積を2つのベクトルの大きさで割った値を採用しており、方向が完全に一致している場合には、この項は1となり、90度ずれている場合には、この項は0となる。なお、この値が負になる場合には0とする。そのため、両者の方向の一致度が高ければ高いほど、自車における再生音声の音量Vが大きくなる。本実施例では、一致度が低くなるに応じて音量を漸次小さくする場合について説明したが、90度よりも狭い所定角度範囲を設定し、かかる所定角度範囲内では再生音声の音量を一定とし、所定角度範囲から外れた場合には、再生音声の音量を0としてもよい。
 上記式(1)の距離減衰項は、発話車両である他車から受話車両である自車までの距離Pによって音量の減衰を計算する項である。本実施例では、他車から自車への距離の二乗に反比例する値となっており、距離が遠ければ遠いほど自車における再生音声の音量Vが小さくなる。
 図2は、実施例1の車載用音声処理装置の車両内配置図である。
 図2では、車両201の車室内を模式的に示している。複数のマイク31と複数のスピーカ41は、車両201の車室内に配置されている。
 本実施例では4個のマイク31と4個のスピーカ41が、車両201の座席の周囲を囲むように配置されている。4個のマイク31は、自車の発話者がどの方向を向いて話をしているのかがわかるように音声を取得する。4個のスピーカ41は、自車の車室内に音場を形成し、他車で取得された発話者の音声の仮想音源が他車の位置の方向に形成されるように、すなわち、他車の発話者の音声が他車の方向から聞こえるように再生音声を出力する。
 図3は、本発明の実施例1の実施形態となる車載用音声処理装置の送受信データフォーマットの構成を示す図である。
 車載用音声処理装置20の送信部11は、自車情報をパケットデータとして送信する。パケットデータは、図3に示すパケットフォーマットを有しており、ブロードキャストアドレス(BCアドレス)301、発話位置(自車位置)302、発話方向303、音声データ304の各情報を含む。
 図4は、本発明の実施例1の実施形態となる車載用音声処理装置の送信時のデータ処理フローを示す図である。
 ステップS401では、自車の発話者の音声をマイク31で検出し、送信部11で送信可能なフォーマットに変換する処理が行われる。そして、ステップS402では、乗員がどこを向いて話しているのか、その方向である発話方向を検出する処理が行われる。本実施例では、マイク31で検出した音声に基づいて発話方向を検出している。ステップS403では、発話位置、発話方向、音声データの情報を送信部11から送信する処理が行われる。送信処理では、自車周辺の所定範囲内に存在する不特定多数の他車に対して送信するブロードキャストが行われる。
 図5は、本発明の実施例1の実施形態となる車載用音声処理装置の受信時のデータ処理フローを示す図である。
 ステップS501では、他車からブロードキャストされた他車の情報を受信する無線受信処理が行われる。これにより、他車位置、他車の発話者の発話方向及び他車の発話者の音声データを取得する。ステップS502では、自車に対する他車の相対的な発話方向と相対距離を算出する方向・距離算出処理が行われる。そして、ステップS503では、ステップS502で算出された自車に対する他車の発話者の相対的な発話方向と他車との相対距離に基づいてスピーカ41から出力される他車の発話者の再生音声の音量を算出する処理が行われる。ステップS504では、他車の発話者の音声の音源が他車の位置の方向に形成されるように音声を加工し、ステップS503で算出された音量でスピーカ41から出力させる再生処理が行われる。
 図6は、本発明の実施例1における発話車両の発話者の発話方向と受信車両内での音声の方向と音量を説明する図である。
 図6に示す例では、本実施例の通信システムを有する3台の車両が示されている。3台の車両はいずれも停止しており、送信車両Mc(第1の車両)の前方を2台の受信車両Mr1、Mr2(第2の車両)が前後に並んで横切る位置にいる。送信車両Mcに対して後側の受信車両Mr1の方が前側の受信車両Mr2よりも離れた位置にある(P>P
。そして、送信車両Mcの乗員である発話者601は、例えば後側の受信車両Mr1の乗員に対して、送信車両Mcを後側の受信車両Mr1と前側の受信車両Mr2との間を通過させてほしいと、後側の受信車両Mr1の方向(d)に向かって話しかけている。
 従来の特許文献1の技術では、送信車両Mcに近い前側の受信車両Mr2に対する音量の方が、送信車両Mcから遠い後側の受信車両Mr1に対する音量よりも大きくなる。しかしながら、かかる状況では送信車両Mcの発話者は、前側の受信車両Mr2の乗員ではなく、後側の受信車両Mr1の乗員と話をしたいのであり、円滑なコミュニケーションが妨げられるおそれがある。
 これに対して、本実施例の通信システムによれば、送信車両Mcの発話者601の発話方向の情報に応じて受信車両Mr1、Mr2における再生音声の音量が調整される。したがって、送信車両Mcの発話者の発話方向(d)にある後側の受信車両Mr1における再生音声の音量が前側の受信車両Mr2よりも大きくなる。したがって、後側の受信車両Mr1の乗員602は、送信車両Mcの発話者601が自分に向かって話しかけていると認識でき、送信車両Mcの乗員601に向かって返事をすることが可能となり、車々間の臨場感のある会話が可能となる。したがって、あたかも歩いている人同士が行っているような円滑なコミュニケーションが可能となる。
 そして、前側の受信車両Mr2の乗員603は、送信車両Mcの方向から送信車両Mcの発話者601の音声は聞こえるが、その音量は、後側の受信車両Mr1よりも小さいので、送信車両Mcの発話者603は自分ではなく、後側の受信車両Mr1の乗員602に話しかけていると認識できる。
<実施例2>
 次に、本発明の実施例2について説明する。なお、実施例1と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。
 図7は、実施例2の車載用音声処理装置の構成を示すブロック図、図8は、実施例2の車載用音声処理装置の車両内配置図、図9は、実施例2における自車の乗員の発話方向と相手車両内での音声の方向と音量を説明する図である。
 本実施例において特徴的なことは、カメラで撮像した発話者の顔の画像に基づいて、発話者の発話方向を検知することである。図7に示すように、車載用音声処理装置20には、カメラ34が接続されている。そして、図8に示すように、カメラ34は、発話者となる運転者の顔を撮像できるように運転席の前方に取り付けられている。
 車載用音声処理装置20は、発話者の音声を取得して音声データを生成すると共に、カメラ34の撮像画像に基づいて発話者の視線を検出し、その視線に基づいて発話方向を検出する。そして、音声データと発話方向の情報と自車位置の情報を有する自車情報を生成して送信部11から送信させる処理を行う。
 車載用音声処理装置20は、図7に示すように、自車位置取得部21と、音声取得部22と、発話方向検出部23と、再生音声出力部24と、視線検出部25を有している。視線検出部25は、カメラ34で撮像した画像から発話者の視線を検出する。そして、発話方向検出部23、視線検出部25で検出した発話者の視線に基づいて発話者の発話方向を検出する。発話方向は、例えばジャイロセンサ33からの信号を用いて方位で表される。
 発話方向の情報は、自車位置、発話方向、音声データの各情報と共にパケットデータとしてブロードキャストされる。後の処理は、実施例1と同様である。
 本実施例によれば、発話者の発話方向を確実に検出することができ、発話者が話しかけたい車両を正確に特定することができる。したがって、車々間の臨場感のある会話が可能となり、従来以上に円滑なコミュニケーションが可能となる。
<実施例3>
 次に、本発明の実施例3について説明する。なお、実施例1、2と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。
 図10と図11は、実施例3の車載用音声処理装置の構成を示すブロック図である。
 本実施例において特徴的なことは、無線通信装置10が送信部11のみを有する車両と、受信部12のみを有する車両の間で音声の通信を可能としたことである。
 上述の実施例1、2では、各車両に送信部と受信部の両方が搭載されて、車々間での会話が可能となっている場合を例に説明したが、本発明は、送信部のみを有する車両と、受信部のみを有する車両の間にも適用できるものである。例えば救急車などの緊急車両に送信部のみを搭載し、一般車両に受信部のみを搭載して、緊急車両が通過するので進路上の一般車両は路肩に避けるようにという、緊急車両の発話者の音声を送信してもよい。これに対して、発話方向にある一般車両の乗員は、再生音声の音量の大きさから自分に対して話しかけていると認識でき、速やかに路肩に移動させることができる。
 図10に示す無線通信装置10(第1の通信装置)は、送信部11のみを有している。そして、無線通信装置10に接続された車載用音声処理装置20は、自車位置取得部21(第1車両位置取得部)と、音声取得部22と、発話方向検出部23を有している。したがって、送信部11を有する送信車両は、自車の位置と、自車の発話者の音声と、自車の発話者の発話方向を送信することができる。
 図11に示す無線通信装置10(第2の通信装置)は、受信部12のみを有している。そして、無線通信装置10に接続された車載用音声処理装置20は、自車位置取得部21(第2車両位置取得部)と、再生音声出力部24を有している。したがって、受信部12を有する受信車両は、送信車両の位置と、送信車両の発話者の音声と、送信車両の発話者の発話方向を受信した場合に、自車位置と送信車両の位置と送信車両の発話者の発話方向に基づいて再生音声を出力する音量を算出し、複数のスピーカ41からなるスピーカアレイにより形成される音場において、音声の仮想音源が送信車両の位置の方向に形成されるように音声を加工して、算出された音量でスピーカアレイにより出力することができる。
 以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
10 無線通信装置
11 送信部
12 受信部
20 車載用音声処理装置
21 自車位置取得部
22 音声取得部
23 発話方向検出部
24 音声出力部
25 視線検出部
31 マイク
32 GPS装置
33 ジャイロセンサ
34 カメラ
41 スピーカ
 

Claims (7)

  1.  自車の位置を取得する自車位置取得部と、
     前記自車の発話者の音声を取得する音声取得部と、
     前記発話者の発話方向を検出する発話方向検出部と、
     前記自車の位置と前記音声と前記発話方向を自車周辺の不特定多数の他車に送信する送信部と、
     を有することを特徴とする車載用音声処理装置。
  2.  前記発話方向検出部は、前記自車の車室内で且つ互いに異なる位置に配置された複数のマイクから入力した音声に基づいて前記発話方向を検出することを特徴とする請求項1に記載に記載の車載用音声処理装置。
  3.  前記発話方向検出部は、前記自車の車室内に配置されたカメラで撮像した発話者の顔の画像に基づいて前記発話方向を検出することを特徴とする請求項1に記載の車載用音声処理装置。
  4.  自車の位置を取得する自車位置取得部と、
     他車から送信された前記他車の位置と該他車の発話者の音声と前記他車の発話者の発話方向を受信する受信部と、
     前記自車の位置と前記他車の位置と前記他車の発話者の発話方向に基づいて前記音声を出力する音量を算出し、複数のスピーカからなるスピーカアレイにより形成される音場において、前記音声の仮想音源が、前記他車の位置の方向に形成されるように音声を加工し、該音声を前記音量で前記スピーカアレイにより出力する音声出力部と、
     を有することを特徴とする車載用音声処理装置。
  5.  前記音声出力部は、前記他車から前記自車への相対方向と、前記発話方向との一致度に応じて前記音量を変更することを特徴とする請求項4に記載の車載用音声処理装置。
  6.  第1の車両に搭載される第1の通信装置と、第2の車両に搭載される第2の通信装置とを有する通信システムであって、
     前記第1の通信装置は、前記第1の車両の位置を取得する第1車両位置取得部と、前記第1の車両の発話者の音声を取得する音声取得部と、前記第1の車両の発話者の発話方向を検出する発話方向検出部と、前記第1の車両の位置と前記第1の車両の発話者の音声と前記第1の車両の発話者の発話方向を前記第1の車両の周辺の不特定多数の第2の車両に送信する送信部とを有し、
     前記第2の通信装置は、前記第2の車両の位置を取得する第2車両位置取得部と、前記送信部から送信された前記第1の車両の位置と前記第1の車両の発話者の音声と前記第1の車両の発話者の発話方向を受信する受信部と、前記第1の車両の位置と前記第2の車両の位置と前記第1の車両の発話者の発話方向に基づいて前記音声を出力する音量を算出し、複数のスピーカからなるスピーカアレイにより前記第2の車両内に形成される音場において、前記音声の仮想音源が、前記第1の車両の位置の方向に形成されるように音声を加工し、該音声を前記音量で前記スピーカアレイにより出力する音声出力部と、
     を有することを特徴とする通信システム。
  7.  前記音声出力部は、前記第1の車両から前記第2の車両への相対方向と、前記発話方向との一致度に応じて前記音量を変更することを特徴とする請求項6に記載の通信システム。
     
PCT/JP2015/076828 2014-11-05 2015-09-24 車載用音声処理装置 WO2016072164A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201580051655.4A CN106717024A (zh) 2014-11-05 2015-09-24 车载用声音处理装置
EP15858001.9A EP3217687A4 (en) 2014-11-05 2015-09-24 Car onboard speech processing device
US15/518,394 US20170317706A1 (en) 2014-11-05 2015-09-24 Car Onboard Speech Processing Device
JP2016557487A JPWO2016072164A1 (ja) 2014-11-05 2015-09-24 車載用音声処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014225032 2014-11-05
JP2014-225032 2014-11-05

Publications (1)

Publication Number Publication Date
WO2016072164A1 true WO2016072164A1 (ja) 2016-05-12

Family

ID=55908893

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/076828 WO2016072164A1 (ja) 2014-11-05 2015-09-24 車載用音声処理装置

Country Status (5)

Country Link
US (1) US20170317706A1 (ja)
EP (1) EP3217687A4 (ja)
JP (1) JPWO2016072164A1 (ja)
CN (1) CN106717024A (ja)
WO (1) WO2016072164A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11304022B2 (en) 2020-03-31 2022-04-12 Honda Motor Co., Ltd. Vehicle with communication system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6760798B2 (ja) * 2016-08-24 2020-09-23 京セラ株式会社 携帯電子機器
CN107580289A (zh) * 2017-08-10 2018-01-12 西安蜂语信息科技有限公司 语音处理方法及装置
JP7115216B2 (ja) * 2018-10-24 2022-08-09 トヨタ自動車株式会社 情報処理装置および情報処理方法
CN112543295A (zh) * 2020-11-23 2021-03-23 安徽江淮汽车集团股份有限公司 基于声源定位的车载视频通话方法、系统及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026017A (ja) * 2005-07-15 2007-02-01 Nissan Motor Co Ltd 走行支援装置および走行支援方法
JP2013152524A (ja) * 2012-01-24 2013-08-08 Denso Corp 車車間通信装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007318438A (ja) * 2006-05-25 2007-12-06 Yamaha Corp 音声状況データ生成装置、音声状況可視化装置、音声状況データ編集装置、音声データ再生装置、および音声通信システム
JP2008058409A (ja) * 2006-08-29 2008-03-13 Aisin Aw Co Ltd 音声認識方法及び音声認識装置
JP5052241B2 (ja) * 2007-07-19 2012-10-17 クラリオン株式会社 車載用の音声処理装置、音声処理システム、及び音声処理方法
JP6041382B2 (ja) * 2010-07-23 2016-12-07 日本電気株式会社 音響機器および発振ユニット
US20150210214A1 (en) * 2012-08-30 2015-07-30 Volvo Truck Corporation Presentation of an audible message in a vehicle
CN103544959A (zh) * 2013-10-25 2014-01-29 华南理工大学 一种基于无线定位麦克风阵列语音增强的通话系统及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026017A (ja) * 2005-07-15 2007-02-01 Nissan Motor Co Ltd 走行支援装置および走行支援方法
JP2013152524A (ja) * 2012-01-24 2013-08-08 Denso Corp 車車間通信装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3217687A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11304022B2 (en) 2020-03-31 2022-04-12 Honda Motor Co., Ltd. Vehicle with communication system

Also Published As

Publication number Publication date
EP3217687A1 (en) 2017-09-13
JPWO2016072164A1 (ja) 2017-08-10
CN106717024A (zh) 2017-05-24
US20170317706A1 (en) 2017-11-02
EP3217687A4 (en) 2018-04-04

Similar Documents

Publication Publication Date Title
WO2016072164A1 (ja) 車載用音声処理装置
US10536791B2 (en) Vehicular sound processing system
CN106231501B (zh) 用于处理音频信号的方法和装置
JP6284331B2 (ja) 会話支援装置、会話支援方法及び会話支援プログラム
JP2005343431A (ja) 車両用情報処理システム
JP2008151766A (ja) 立体音響制御装置及び立体音響制御方法
CN109327769B (zh) 车载座椅独享声音设备
JP2007035043A (ja) 受信装置、送信装置、位置認知システム及び位置認知方法
EP3495942B1 (en) Head-mounted display and control method thereof
JP2009124540A (ja) 車両用通話装置、通話方法
US20080118074A1 (en) Stereophonic sound control apparatus and stereophonic sound control method
JP2017021745A (ja) 情報収集装置、情報収集サーバ及び情報収集システム
JP6674737B2 (ja) 位置データを有する聴取装置および聴取装置の動作方法
US20220095046A1 (en) Hybrid in-car speaker and headphone based acoustical augmented reality system
WO2019112087A1 (ko) 차량용 지향성 음향시스템
EP3618465B1 (en) Vehicle communication system and method of operating vehicle communication systems
JP2011172059A (ja) 音声出力システム
JP5052241B2 (ja) 車載用の音声処理装置、音声処理システム、及び音声処理方法
CN110010138B (zh) 头戴式显示器及其控制方法
KR20210110599A (ko) 차내 헤드폰 음향 증강 현실 시스템
US11974103B2 (en) In-car headphone acoustical augmented reality system
US11765540B2 (en) Method and apparatus for controlling sound according to seat posture in vehicle
JP2019022012A (ja) 音場制御装置及びプログラム
JP2017068197A (ja) 車載機器
JP2011160104A (ja) ハンズフリー用音声出力システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15858001

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016557487

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015858001

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015858001

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15518394

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE