WO2020195407A1 - 音響シミュレーション装置 - Google Patents

音響シミュレーション装置 Download PDF

Info

Publication number
WO2020195407A1
WO2020195407A1 PCT/JP2020/006854 JP2020006854W WO2020195407A1 WO 2020195407 A1 WO2020195407 A1 WO 2020195407A1 JP 2020006854 W JP2020006854 W JP 2020006854W WO 2020195407 A1 WO2020195407 A1 WO 2020195407A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
signal
sound
output
acoustic
Prior art date
Application number
PCT/JP2020/006854
Other languages
English (en)
French (fr)
Inventor
将士 春日井
Original Assignee
林テレンプ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 林テレンプ株式会社 filed Critical 林テレンプ株式会社
Priority to JP2021508809A priority Critical patent/JP7410127B2/ja
Publication of WO2020195407A1 publication Critical patent/WO2020195407A1/ja
Priority to US17/469,880 priority patent/US11736881B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/005Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo five- or more-channel type, e.g. virtual surround
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Definitions

  • the present invention relates to an acoustic simulation device that simulates the acoustics inside a vehicle.
  • Japanese Patent Application Laid-Open No. 9-149491 discloses a technique for three-dimensionally reproducing sound. In this technology, recording is performed in four directions by microphones installed at the vertices of the regular tetrahedron, and three-dimensional sound is output from speakers installed at the vertices of the regular tetrahedron.
  • the present invention discloses an acoustic simulation device capable of accurately simulating a three-dimensional sound in a vehicle interior.
  • the acoustic simulation device of the present invention is an acoustic simulation device that simulates the sound inside a vehicle. Assuming that there are virtual speakers at two or more Np locations of the vehicle, the virtual speakers at the Np locations reproduce the three-dimensional sound based on the sound collection signal of the stereoscopic sound at the listening position in the room.
  • a virtual reproduction signal generator that generates a reproduction signal, and Based on the virtual reproduction signal and information representing a change in acoustic characteristics when at least a part of the Np location is changed, the predicted sound predicted at the listening position is output to the virtual speaker at the Np location.
  • a virtual prediction signal generator that generates a virtual prediction signal It has an embodiment including an output signal generation unit that generates an output signal that causes a plurality of speakers to output the predicted sound based on the virtual predicted signal.
  • an acoustic simulation device capable of accurately simulating a three-dimensional sound in a vehicle interior.
  • FIG. 1 is a diagram schematically showing an example of the interior of an automobile in which an ambisonic microphone is installed, with the side surface not shown.
  • FIG. 2 is a diagram schematically showing an example of an acoustic simulation device.
  • FIG. 3 is a block diagram schematically showing an example of signal processing of an acoustic simulation device.
  • FIG. 4 is a block diagram schematically showing a configuration example of a control unit of an acoustic simulation device together with a peripheral unit.
  • the acoustic simulation device 1 is an acoustic simulation device 1 that simulates the sound of the interior SP0 of a vehicle (for example, an automobile 100), and includes a virtual reproduction signal generation unit U1 and a virtual prediction signal generation unit U2. It also includes an output signal generation unit U3.
  • the virtual reproduction signal generation unit U1 is based on the three-dimensional sound pick-up signal SG1 at the listening position 120 of the room SP0, assuming that there are virtual speakers VS0 at two or more Np locations of the vehicle (100). Then, the virtual speaker VS0 at the Np location generates the virtual reproduction signal SG3 that reproduces the stereoscopic sound.
  • the virtual prediction signal generation unit U2 is based on the virtual reproduction signal SG3 and information representing a change in acoustic characteristics when at least a part of the Np portion is changed (for example, acoustic characteristic change information IM1).
  • a virtual prediction signal SG4 for outputting the predicted sound predicted at the listening position 120 to the virtual speaker VS0 at the Np location is generated.
  • the output signal generation unit U3 generates an output signal SG6 that causes the speakers 300 at a plurality of locations to output the predicted sound based on the virtual prediction signal SG4.
  • the output signal SG6 for outputting the predicted sound that accurately reflects the change in the acoustic characteristics when at least a part of the Np portion is changed is generated. Therefore, this aspect can provide an acoustic simulation device capable of accurately simulating a three-dimensional sound in a vehicle interior.
  • a signal means a change in a physical quantity used to represent data, and is represented by, for example, digital data.
  • an A format signal or the like picked up by an ambisonic microphone can be used.
  • the virtual reproduction signal means a signal in which the original stereoscopic sound is reproduced at the listening position by the speaker if the speaker is actually located at the position of the virtual speaker at the Np position.
  • the virtual prediction signal means a signal such that the predicted sound is output to the listening position by the speaker if the speaker is actually located at the position of the virtual speaker at the Np position.
  • the virtual reproduction signal generation unit U1 converts the sound collection signal SG1 into a first encoded signal SG2 having a plurality of sound collection direction characteristics (for example, components W, X, Y, Z).
  • the first format conversion unit U11 may be provided, or the first decoding unit U12 that generates the virtual reproduction signal SG3 based on the first encode signal SG2 may be provided.
  • the output signal generation unit U3 has a second format conversion unit U31 that converts the virtual prediction signal SG4 into a second encoded signal SG5 having the plurality of sound collection direction characteristics (W, X, Y, Z).
  • the second decoding unit U32 may have a second decoding unit U32 that generates the output signal SG6 based on the second encoded signal SG5.
  • the plurality of sound collecting directional characteristics (W, X, Y, Z) of the first encoded signal SG2 are the same as the plurality of sound collecting directional characteristics (W, X, Y, Z) of the second encoded signal SG5. Therefore, the conversion process of the first format conversion unit U11 and the conversion process of the second format conversion unit U31 can be simplified. Further, the signal generation process of the first decoding unit U12 and the signal generation processing of the second decoding unit U32 can also be simplified. Therefore, this aspect can provide an acoustic simulation device that simplifies signal processing.
  • first and second are terms used to identify each component included in the plurality of similar components when there are a plurality of similar components, and mean an order. do not do.
  • Ambisonics B format signals and the like can be used as the first encoded signal and the second encoded signal.
  • the number Np of the setting locations of the virtual speaker VS0 may be larger than the number Ns of the installation locations of the speaker 300.
  • This aspect can provide an acoustic simulation device that more accurately simulates a three-dimensional sound in a vehicle interior.
  • the acoustic simulation device 1 may further include a virtual speaker setting location receiving unit U4 that receives the setting location of the virtual speaker VS0.
  • This aspect can provide an acoustic simulation device that can easily simulate a three-dimensional sound in a room according to a vehicle.
  • a composite device including the acoustic simulation device, an acoustic simulation method, a control method of the composite device, an acoustic simulation program, a control program of the composite device, a computer reading of the acoustic simulation program and the control program are recorded. It can be applied to possible media, etc.
  • the acoustic simulation device and the composite device may be composed of a plurality of dispersed parts.
  • FIG. 1 schematically illustrates the interior 110 of an automobile 100 in which the ambisonic microphone AM0 is installed, with the side surface portion omitted.
  • the lower part of FIG. 1 shows an enlarged view of the ambisonic microphone AM0, which is a general term for the ambisonic microphones AM1 and AM2.
  • FRONT, REAR, UP, and DOWN indicate front, back, top, and bottom, respectively.
  • the left-right positional relationship is based on the direction in which the vehicle 100 looks forward.
  • the Z direction indicates the front-rear direction of the automobile 100
  • the X direction indicates the vertical direction of the automobile 100.
  • the explanation of the positional relationship of each part is only an example.
  • the automobile 100 shown in FIG. 1 is a road-traveling automobile designed and equipped to be used on a road.
  • a metal body panel made of steel plate surrounds the passenger compartment SP1 and the luggage compartment SP2 to surround the vehicle body. Is forming. Vehicles to which this technology can be applied are not limited to vehicles in which the passenger compartment SP1 and luggage compartment SP2 are connected, such as station wagons, but also automobiles in which the passenger compartment SP1 and luggage compartment SP2 are separated, such as sedans. included.
  • the passenger compartment SP1 and the luggage compartment SP2 are collectively referred to as the indoor SP0.
  • interior materials for example, interior materials 111 to 116, are arranged on the interior SP0 side of the vehicle body panel of the automobile 100.
  • a floor carpet 111 facing the passenger compartment SP1 is installed on a floor panel (example of a vehicle body panel) below the passenger compartment SP1.
  • a door trim 112 facing the passenger compartment SP1 is installed on a door panel (example of a vehicle body panel) on the side of the passenger compartment SP1.
  • a pillar trim 113 facing the passenger compartment SP1 side is installed on a pillar (an example of a vehicle body panel) on the side of the passenger compartment SP1. Pillar trim is also called pillar garnish.
  • a roof trim 114 facing the passenger compartment SP1 and the luggage compartment SP2 is installed on the roof panel (example of the vehicle body panel) above the passenger compartment SP1 and the luggage compartment SP2.
  • a deck side trim 115 facing the luggage compartment SP2 is installed on a deck side panel (example of a vehicle body panel) on the side of the luggage compartment SP2.
  • An instrument panel interior material 116 facing the passenger compartment SP1 is installed on an instrument panel (example of a vehicle body panel) in front of the passenger compartment SP1.
  • a front seat 101 which collectively refers to the driver's seat and the passenger seat, and a rear seat 102 arranged behind the front seat 101 are arranged.
  • the ambisonic microphone AM1 is arranged at a position aligned with the head of the driver sitting in the driver's seat
  • the ambisonic microphone AM2 is arranged at a position aligned with the head of the occupant sitting in the rear seat 102 behind the driver's seat. ..
  • the position of the ambisonic microphone AM1 is the listening position 120 of the driver sitting in the driver's seat
  • the position of the ambisonic microphone AM2 is the listening position 120 of the occupant sitting in the rear seat 102 behind the driver's seat.
  • the ambisonic microphone AM1 may be placed in a position aligned with the head of the occupant sitting in the passenger seat, and the ambisonic microphone AM2 may be positioned in a position aligned with the head of the occupant sitting in the rear seat 102 behind the passenger seat. May be placed in.
  • the ambisonic microphone AM0 has four microphone capsules AMc oriented outward with respect to each surface of the regular tetrahedron. Each capsule AMc converts the sound propagating in the air into an electrical signal.
  • the ambisonic microphone AM0 converts the electric signal from each capsule AMc into digital individual sound collection signals M1 to M4 (see FIG. 3). As illustrated in FIG. 3, the individual sound collection signals M1 to M4 are collectively referred to as the sound collection signal SG1.
  • the sound collection signal SG1 is a digital electric signal obtained by collecting sounds from four directions, and is a sound collection signal of three-dimensional sound at the listening position 120 of the room SP0.
  • FIG. 2 schematically illustrates an acoustic simulation device 1 including a simulated automobile 200.
  • the simulated automobile 200 includes a front seat 201 corresponding to the front seat 101 of the automobile 100 and a rear seat 202 corresponding to the rear seat 102 of the automobile 100.
  • the acoustic simulation device 1 includes 16 speakers 300.
  • the 16 speakers 300 include eight speakers 300 for reproducing the three-dimensional sound at the listening position 120 of the front seat 201, and eight speakers 300 for reproducing the three-dimensional sound at the listening position 120 of the rear seat 202. Includes. For convenience of illustration, only four speakers 300 for the front seat 201 are shown, and only four speakers 300 for the rear seat 202 are shown.
  • the eight speakers 300 for the front seat 201 are diagonally above the front left, diagonally above the front right, diagonally above the rear left, diagonally above the rear right, diagonally above the front left, and forward right when viewed from the listening position 120 of the front seat 201. It is arranged diagonally below, diagonally below the rear left, and diagonally below the rear right.
  • the eight speakers 300 for the rear seat 202 are also diagonally above the front left, diagonally above the front right, diagonally above the rear left, diagonally above the rear right, diagonally below the front left, and front right when viewed from the listening position 120 of the rear seat 202. It is arranged diagonally below, diagonally below the rear left, and diagonally below the rear right.
  • the acoustic simulation device 1 further includes an image display device 210 having curved displays 211 arranged from the front to both sides with respect to the front seat 201, a vibration device 220 arranged below the seats 201 and 202, and a control unit. It has 10.
  • the image display device 210 displays a virtual traveling image of the automobile on the display 211.
  • the vibrating device 220 applies vibration in the Z direction during virtual traveling of the automobile to the seats 201 and 202.
  • the control unit 10 outputs a three-dimensional sound during virtual driving of the automobile to a plurality of speakers 300, displays an image during virtual driving of the automobile on the image display device 210, and displays the image during virtual driving of the automobile on the image display device 210.
  • Vibration in the Z direction is generated in the vibrating device 220.
  • the control unit 10 synchronizes the output of the three-dimensional sound by the speaker 300, the image display by the image display device 210, and the vibration output by the vibration device 220. By reproducing the image and vibration during driving of the vehicle at the same time as the three-dimensional sound, the user of the acoustic simulation device 1 can obtain an excellent sense of presence.
  • FIG. 3 schematically illustrates the signal processing of the acoustic simulation device 1.
  • This signal processing is independent of the individual sound collecting signals M1 to M4 obtained from the ambisonic microphones AM1 for the front seat 101 and the individual sound collecting signals M1 to M4 obtained from the ambisonic microphones AM2 for the rear seat 102. It is done.
  • the number Ns (integer) of the installation locations of the speaker 300 is eight.
  • the individual output signals S1 to SNS obtained by signal processing for the front seat 101 are output to the eight speakers 300 for the front seat 201.
  • the individual output signals S1 to SNS obtained by signal processing for the rear seat 102 are output to the eight speakers 300 for the rear seat 202.
  • the individual output signals S1 to SNS are collectively referred to as the output signal SG6.
  • the virtual reproduction signal generation unit U1 includes a first format conversion unit U11 that converts the sound collection signal SG1 into the first encode signal SG2, and a first decoding unit U12 that converts the first encode signal SG2 into the virtual reproduction signal SG3. I'm out.
  • the virtual prediction signal generation unit U2 generates a virtual prediction signal SG4 based on the virtual reproduction signal SG3 and the acoustic characteristic change information IM1.
  • the output signal generation unit U3 includes a second format conversion unit U31 that converts the virtual prediction signal SG4 into a second encode signal SG5, and a second decoding unit U32 that converts the second encode signal SG5 into an output signal SG6. ..
  • the acoustic simulation device 1 shown in FIG. 3 uses Ambisonics, and the format conversion units U11 and U31 convert the A format signal into the B format signal.
  • the virtual reproduction signal SG3 assigned to the virtual speaker VS0 at the Np location from the first encoded signal SG2 in B format is converted into the virtual prediction signal SG4 in A format by the virtual prediction signal generation unit U2, so that the stereo sound of the room SP0 is produced. It is simulated accurately.
  • the control unit 10 includes a CPU (Central Processing Unit) 11 which is a processor, a ROM (Read Only Memory) 12 which is a semiconductor memory, a RAM (Random Access Memory) 13 which is a semiconductor memory, a timer (Timer) 14, and a storage device 15. It has an input device 16, an output device 17, an I / F (interface) 18, and the like. Each unit 11 to 18 is connected to each other so that information can be input and output.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • timer Timer
  • the storage device 15 stores the operating system, the acoustic simulation program, the sound collection signal SG1, the first encoded signal SG2, the acoustic characteristic change information IM1, and the like.
  • the CPU 11 executes the operating system and the acoustic simulation program while using the RAM 13 as the work area, the CPU 11 receives the virtual reproduction signal generation unit U1, the virtual prediction signal generation unit U2, the output signal generation unit U3, and the virtual speaker setting location.
  • the computer is made to function as the control unit 10 having the unit U4. As a result, the control unit 10 controls the operation of the acoustic simulation device 1, and the acoustic simulation method is implemented.
  • the storage device 15 is a computer-readable recording medium that records an acoustic simulation program that causes the computer to function as the acoustic simulation device 1.
  • the input device 16 accepts various inputs such as the input of the setting location of the virtual speaker VS0.
  • a pointing device, a keyboard, a touch panel, or the like can be used as the input device 16.
  • the output device 17 receives various outputs such as a display of a setting location of the virtual speaker VS0.
  • a display device such as a liquid crystal display, an audio output device, a printer, or the like can be used.
  • the I / F18 is an input of a sound collection signal SG1 from the ambisonic microphone AM0, an output of an output signal SG6 to a plurality of speakers 300, an output of a video signal to the video display device 210, an output of a drive signal to the vibration device 220, etc. Communicate with peripheral devices. Since the sound collection signal SG1 by the ambisonic microphone AM0 is stored in the storage device 15, it is not necessary that the control unit 10 and the ambisonic microphone AM0 are connected when simulating the sound.
  • the signal processing of the acoustic simulation device 1 will be described in detail. As described above, since the signal processing for the front seat 101 and the signal processing for the rear seat 102 are performed independently, the signal processing for the front seat 101 will be described as an example.
  • the sound collection signal SG1 is an A format signal obtained by collecting three-dimensional sound at the listening position 120 matched to the head of the occupant sitting in the front seat 101. Since the number Nm of the capsule AMc of the ambisonic microphone AM1 is four, there are four individual sound collection signals Mi constituting the sound collection signal SG1.
  • the variable i is a variable that identifies the individual pick-up signal, and can take an integer from 1 to Nm. The number Nm is not limited to 4, and may be 5 or more.
  • the first format conversion unit U11 converts the A-format sound collection signal SG1 into the first encoded signal SG2 having a plurality of sound collection direction characteristics (components W, X, Y, Z) and stores it in the storage device 15. As long as the sound pick-up signal SG1 does not change, the process of generating the output signal SG6 from the first encoded signal SG2 may be performed.
  • the first encoded signal SG2 is a B format signal including an omnidirectional zero-order component W, a first-order component X in the front-rear direction, a first-order component Y in the left-right direction, and a first-order component Z in the up-down direction.
  • the primary component X corresponds to the X direction in FIGS. 1 and 2
  • the primary component Z corresponds to the X direction in FIGS. 1 and 2.
  • the individual sound collection signal Mi can be converted into the components W, X, Y, Z of the first encoded signal SG2 by a known conversion formula. For example, Ryuichi Nishimura, "Ambisonics", Journal of the Video Information Media Society, Video Information Media Society, August 2014, Vol. 68, No.
  • the first decoding unit U12 uses the virtual reproduction signal SG3 that reproduces the stereoscopic sound at the listening position 120 on the virtual speaker VS0 at the Np location as the first encoding signal SG2.
  • the setting points of the virtual speaker VS0 are each part of the interior 110 such as the interior materials 111 to 116 shown in FIG. Further, the virtual speaker VS0 may be set at different places in the interior materials 111 to 116, such as the virtual speaker VS0 being set at different places on the floor carpet 111.
  • the number of individual virtual reproduction signals Pj constituting the virtual reproduction signal SG3 is Np.
  • variable j is a variable that identifies the individual virtual reproduction signals P1 to PNp, and can take an integer from 1 to Np.
  • the number Np of the setting points of the virtual speaker VS0 may be 2 or more, but 4 or more is preferable from the viewpoint of accurately simulating the three-dimensional sound of the indoor SP0, and the number Np is larger than the number Nm of the individual sound collection signal Mi. Is more preferable, and more is more preferable than the number Ns of the actual installation locations of the speaker 300. It is preferable that the setting points of Np virtual speakers VS0 are not on the same plane.
  • the setting location of the virtual speaker VS0 at the Np location in the simulated automobile 200 can be changed by the virtual speaker setting location reception unit U4.
  • the virtual speaker setting location reception unit U4 displays a screen representing a simulated automobile on an output device 17, for example, a display device together with a listening position 120, and accepts an operation by an input device 16, for example, a pointing device from the screen. Accepts the setting location of the virtual speaker VS0. This makes it easy to simulate the three-dimensional sound of the indoor SP0 according to the vehicle.
  • the virtual speaker setting location reception unit U4 can accept two or more virtual speaker VS0 setting locations, more preferably four or more locations, and even more preferably Ns locations or more.
  • the components W, X, Y, Z of the first encoded signal SG2 can be converted into the individual virtual reproduction signal Pj by a conversion formula according to the vector from the setting position of each virtual speaker VS0 to the listening position 120.
  • Pj wj ⁇ W + xj ⁇ X + yj ⁇ Y + zj ⁇ Z (5)
  • the coefficients wj, xj, yj, and zj for the components W, X, Y, and Z are values corresponding to the vectors from the setting location of the virtual speaker VS0 corresponding to the variable j to the listening position 120.
  • the virtual speaker VS0 is installed at the vertices diagonally lower right, diagonally lower rear left, and diagonally lower rear right.
  • the individual virtual reproduction signals assigned to each virtual speaker VS0 are L FU , R FU , L BU , R BU , L FD , R FD , L BD , and R BD , they are shown in the above-mentioned document "Ambisonics". A conversion formula can be applied.
  • L FU W + 0.707 (X + Y + Z) (6)
  • R FU W + 0.707 (XY + Z) (7)
  • L BU W + 0.707 (-X + Y + Z) (8)
  • R BU W + 0.707 (-XY + Z) (9)
  • L FD W + 0.707 (X + YZ) (10)
  • R FD W + 0.707 (XYZ) (11)
  • L BD W + 0.707 (-X + Y-Z) (12)
  • R BD W + 0.707 (-X -Y-Z) (13)
  • the virtual prediction signal generation unit U2 generates a virtual prediction signal SG4 that outputs the predicted sound predicted at the listening position 120 to the virtual speaker VS0 at the Np location based on the virtual reproduction signal SG3 and the acoustic characteristic change information IM1.
  • the acoustic characteristic change information IM1 is information representing the change in the acoustic characteristic when at least a part of the Np portion of the automobile 100 is changed, and is obtained by, for example, a computer simulation. As shown in FIG. 3, the acoustic characteristics of each part are data representing the correspondence between the frequency f (unit: Hz) and the SPL (sound pressure level) (unit: dB), for example, for each 1/3 octave band.
  • the acoustic characteristic change information IM1 can be said to be information indicating a difference from the reference specification, and can be said to be information indicating how much the sound pressure for each frequency fluctuates from the reference specification from the direction of each part with respect to the occupant's head.
  • the virtual prediction signal generation unit U2 can perform analysis when the specifications of the interior material and the like in the automobile are changed by computer simulation, and predicts the difference between the stereoscopic sound and the reference specification.
  • the virtual prediction signal generation unit U2 has a vehicle model that represents the structure of the interior SP0, such as the positions of members such as interior materials and seats in an automobile, data representing the shapes of the members, and the like.
  • the virtual prediction signal generation unit U2 also has an actual vehicle database representing acoustic characteristics obtained when the vehicle 100 is driven under various conditions.
  • the virtual prediction signal generation unit U2 has a member database representing acoustic characteristics such as sound absorption coefficient characteristics, sound reflectance characteristics, flow resistance, loss coefficient, etc. for each member of an automobile.
  • the above-mentioned member includes a plurality of types of members applicable to the same portion, such as a plurality of types of members applicable to the floor carpet 111.
  • the virtual prediction signal generation unit U2 can obtain the acoustic characteristic change information IM1 by a computer simulation that applies a combination of data stored in the actual vehicle database and the member database according to the user's request to the vehicle model. Is.
  • the virtual prediction signal generation unit U2 acquires data representing the acoustic characteristic CH0 for a portion of the Np portion when the automobile 100 is driven under a certain condition, and changes a certain member to another type.
  • Data representing the acoustic characteristic CH1 may be acquired for the portion of the Np portion when the automobile 100 is driven, and the acoustic characteristic change information IM1 of the Np portion may be obtained from the difference between the acoustic characteristics CH0 and CH1.
  • a lot of acoustic characteristic change information IM1 is obtained by obtaining the acoustic characteristic change information when only the floor carpet 111 is changed, the acoustic characteristic change information when only the door trim 112 is changed, and the like.
  • the acoustic characteristic change information IM1 may be obtained only for the portion where the member type has changed, and the acoustic characteristic of the portion where the member type has not changed may be treated as unchanged.
  • the virtual prediction signal generation unit U2 can accept changes in the type of each member of the interior 110 such as the interior materials 111 to 116.
  • the virtual prediction signal generation unit U2 displays a screen representing a simulated automobile on an output device 17, for example, a display device, and selects a member by accepting an operation by an input device 16, for example, a pointing device from the screen. And accept changes in the type of the member.
  • the virtual prediction signal generation unit U2 shows the data showing the acoustic characteristics of the selected member before the change and the acoustic characteristics of the selected member after the change among the data stored in the actual vehicle database and the member database.
  • the acoustic characteristic change information IM1 of each part is obtained by computer simulation that applies the data to the vehicle model.
  • acoustic simulation is performed in response to various user requests.
  • the operation of selecting the floor carpet 111 by the user on the above-mentioned screen is performed by the input device 16, and the floor carpet 111 is changed from the original type (type C0) to another type (type C1). It is assumed that the operation to be performed is performed by the input device 16.
  • the virtual prediction signal generation unit U2 represents the difference between the acoustic characteristic CH0 when the floor carpet 111 is of the original type C0 and the acoustic characteristic CH1 when the floor carpet 111 is of another type C1.
  • IM1 will be required.
  • the number of individual virtual prediction signals Qj constituting the virtual prediction signal SG4 generated based on the virtual reproduction signal SG3 and the acoustic characteristic change information IM1 is also Np. That is, the variable j that can take an integer from 1 to Np is also a variable that identifies the individual virtual prediction signals Q1 to QNp.
  • the individual virtual prediction signal Qj is a signal changed from the original individual virtual reproduction signal Pj according to the acoustic characteristic change information IM1.
  • the virtual prediction signal generation unit U2 sounds only the individual virtual prediction signal Qj that outputs the prediction sound to the virtual speaker VS0 at the portion where the change of the member type is accepted from the original individual virtual reproduction signal Pj.
  • the signal may be changed according to the characteristic change information IM1.
  • the individual virtual prediction signal Qj that causes the virtual speaker VS0 in the portion where the type of the member has not changed to output the prediction sound may remain the original individual virtual reproduction signal Pj.
  • the virtual prediction signal SG4 that outputs the prediction sound to the Np virtual speakers VS0 can be said to be an A format signal corresponding to the prediction sound at the listening position 120 that matches the head of the occupant sitting in the front seat 101.
  • the second format conversion unit U31 converts the A format virtual prediction signal SG4 into the second encoded signal SG5 having a plurality of sound collection direction characteristics (components W, X, Y, Z).
  • the second encoded signal SG5 is also a B format signal including an omnidirectional zero-order component W, a first-order component X in the front-rear direction, a first-order component Y in the left-right direction, and a first-order component Z in the up-down direction.
  • the individual virtual prediction signals Q1 to QNp can be converted to the components W, X, Y, Z of the second encoded signal SG5 by a conversion formula according to the vector from the setting location of each virtual speaker VS0 to the listening position 120. ..
  • the coefficients qxj, qyj, qzj, and qwj with respect to the individual virtual prediction signal Qj are values corresponding to the vectors from the setting location of the virtual speaker VS0 corresponding to the variable j to the listening position 120.
  • the second decoding unit U32 generates an output signal SG6 that causes the speaker 300 at the Ns location to output a predicted sound based on the second encoded signal SG5.
  • the number of individual output signals Sk constituting the output signal SG6 is Ns.
  • the variable k is a variable that identifies the individual output signals S1 to SNs, and can take an integer from 1 to Ns.
  • the number Ns of the speaker 300 is preferably 4 or more from the viewpoint of accurately outputting a three-dimensional predicted sound. It is preferable that the Ns speakers 300 are not installed in the same plane.
  • the components W, X, Y, Z of the second encoded signal SG5 can be converted into the individual output signals S1 to SNS by a conversion formula according to the vector from the installation location of each speaker 300 to the listening position 120.
  • Sk wk ⁇ W + xx ⁇ X + yk ⁇ Y + zk ⁇ Z (18)
  • the coefficients wk, xk, yk, and zk for the components W, X, Y, and Z are values corresponding to the vectors from the installation location of the speaker 300 corresponding to the variable k to the listening position 120.
  • the signal processing for the front seat 101 has been described above, the signal processing for the rear seat 102 is also performed in the same manner as the signal processing described above.
  • individual virtual reproduction signals P1 to PNp that reproduce the stereoscopic sound in the virtual speaker VS0 at the Np location are generated based on the first encoded signal SG2 having the components W, X, Y, Z of the B format. Will be done.
  • the individual virtual reproduction signals P1 to PNp constituting the virtual reproduction signal SG3 are individual virtual prediction signals Q1 to QNp based on the acoustic characteristic change information IM1 representing the change in the acoustic characteristics when at least a part of the Np portion is changed. Is converted to.
  • the individual virtual prediction signals Q1 to QNp constituting the virtual prediction signal SG4 are individual output signals for outputting the predicted sound to the speaker 300 at the Ns location via the second encoded signal SG5 having the components W, X, Y, Z of the B format. It is converted into S1 to SNs.
  • the individual output signals S1 to SNs constituting the output signal SG6 output the predicted sound accurately reflecting the change in the acoustic characteristics when at least a part of the Np portion is changed to the speaker 300 at the Ns location.
  • the change in sound from the setting location corresponding to the virtual speaker VS0 at the Np location is predicted by computer simulation or the like, and the three-dimensional predicted sound is output from the speaker 300 at the Ns location.
  • the user can experience the prediction result of the computer simulation or the like as a realistic three-dimensional sound at the listening position 120. Therefore, the user can speedily develop the member based on the predicted sound or the output signal SG6 without actually manufacturing the member or rearranging the actual member of the automobile.
  • the user can repeatedly listen to the predicted sound, it becomes easy to understand small changes that are difficult to judge by sensory evaluation using an actual automobile.
  • Modification example Various modifications of the present invention can be considered.
  • two systems of signal processing, signal processing for the front seat and signal processing for the rear seat were performed.
  • the signal processing for the driver's seat and the signal processing for the passenger seat are separated. You may go to.
  • the acoustic simulation device may include a speaker 300 at the Ns location for the driver's seat and a speaker 300 at the Ns location for the passenger seat.
  • the signal processing for the seat behind the driver's seat and the signal processing for the seat behind the passenger seat may be performed separately.
  • the acoustic simulation device may perform only signal processing for the front seats or only signal processing for the rear seats.
  • the process of generating the virtual reproduction signal SG3 from the sound collection signal SG1 is not limited to the process of generating the virtual reproduction signal SG3 via the first encoded signal SG2 of the B format.
  • the process of generating the output signal SG6 from the virtual prediction signal SG4 is not limited to the process of generating the output signal SG6 via the B format second encoded signal SG5.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

仮想再現信号生成部U1は、車両(100)の2箇所以上であるNp箇所の部位にそれぞれ仮想スピーカーVS0があるとして、室内SP0の聴取位置120における立体音の収音信号SG1に基づいて、Np箇所の仮想スピーカーVS0に立体音を再現させる仮想再現信号SG3を生成する。仮想予測信号生成部U2は、仮想再現信号SG3、及び、Np箇所の部位の少なくとも一部を変更した時の音響特性の変化を表す情報(例えば音響特性変化情報IM1)に基づいて、聴取位置120において予測される予測音をNp箇所の仮想スピーカーVS0に出力させる仮想予測信号SG4を生成する。出力信号生成部U3は、仮想予測信号SG4に基づいて、複数箇所のスピーカー300に予測音を出力させる出力信号SG6を生成する。

Description

音響シミュレーション装置
 本発明は、車両の室内の音響をシミュレートする音響シミュレーション装置に関する。
 自動車の車室の音響を予測するため、車室の音響のコンピューターシミュレーションが行われている。
 また、特開平9-149491号公報には、音響を立体的に再現する技術が開示されている。この技術では、正四面体の頂点となる位置にそれぞれ設置されたマイクにより4方向の録音が行われ、正四面体の頂点となる位置にそれぞれ設置されたスピーカーから立体音が出力される。
特開平9-149491号公報
 しかし、車室の音響を立体的に予測することは、行われていない。車室の立体音をシミュレートすることができると、車室の音響を精度よく評価することができる。
 本発明は、車両の室内の立体音を精度よくシミュレートすることが可能な音響シミュレーション装置を開示するものである。
 本発明の音響シミュレーション装置は、車両の室内の音響をシミュレートする音響シミュレーション装置であって、
 前記車両の2箇所以上であるNp箇所の部位にそれぞれ仮想スピーカーがあるとして、前記室内の聴取位置における立体音の収音信号に基づいて、前記Np箇所の仮想スピーカーに前記立体音を再現させる仮想再現信号を生成する仮想再現信号生成部と、
 前記仮想再現信号、及び、前記Np箇所の部位の少なくとも一部を変更した時の音響特性の変化を表す情報に基づいて、前記聴取位置において予測される予測音を前記Np箇所の仮想スピーカーに出力させる仮想予測信号を生成する仮想予測信号生成部と、
 前記仮想予測信号に基づいて、複数箇所のスピーカーに前記予測音を出力させる出力信号を生成する出力信号生成部と、を備える、態様を有する。
 本発明によれば、車両の室内の立体音を精度よくシミュレートすることが可能な音響シミュレーション装置を提供することができる。
図1はアンビソニックマイクロフォンが設置された自動車の内装の例を側面部の図示が省略された状態で模式的に示す図。 図2は音響シミュレーション装置の例を模式的に示す図。 図3は音響シミュレーション装置の信号処理の例を模式的に示すブロック図。 図4は音響シミュレーション装置の制御部の構成例を周辺部とともに模式的に示すブロック図。
 以下、本発明の実施形態を説明する。むろん、以下の実施形態は本発明を例示するものに過ぎず、実施形態に示す特徴の全てが発明の解決手段に必須になるとは限らない。
(1)本発明に含まれる技術の概要:
 まず、図1~4に示される例を参照して本発明に含まれる技術の概要を説明する。尚、本願の図は模式的に例を示す図であり、これらの図に示される各方向の拡大率は異なることがあり、各図は整合していないことがある。むろん、本技術の各要素は、符号で示される具体例に限定されない。
 また、本願において、数値範囲「Min~Max」は、最小値Min以上、且つ、最大値Max以下を意味する。
[態様1]
 本技術の一態様に係る音響シミュレーション装置1は、車両(例えば自動車100)の室内SP0の音響をシミュレートする音響シミュレーション装置1であって、仮想再現信号生成部U1、仮想予測信号生成部U2、及び、出力信号生成部U3を備える。前記仮想再現信号生成部U1は、前記車両(100)の2箇所以上であるNp箇所の部位にそれぞれ仮想スピーカーVS0があるとして、前記室内SP0の聴取位置120における立体音の収音信号SG1に基づいて、前記Np箇所の仮想スピーカーVS0に前記立体音を再現させる仮想再現信号SG3を生成する。前記仮想予測信号生成部U2は、前記仮想再現信号SG3、及び、前記Np箇所の部位の少なくとも一部を変更した時の音響特性の変化を表す情報(例えば音響特性変化情報IM1)に基づいて、前記聴取位置120において予測される予測音を前記Np箇所の仮想スピーカーVS0に出力させる仮想予測信号SG4を生成する。前記出力信号生成部U3は、前記仮想予測信号SG4に基づいて、複数箇所のスピーカー300に前記予測音を出力させる出力信号SG6を生成する。
 上記態様1では、Np箇所の部位の少なくとも一部を変更した時の音響特性の変化が精度よく反映された予測音を出力させる出力信号SG6が生成される。従って、本態様は、車両の室内の立体音を精度よくシミュレートすることが可能な音響シミュレーション装置を提供することができる。
 ここで、信号は、データを表現するために用いられる物理量の変化を意味し、例えば、デジタルデータで表現される。
 収音信号には、アンビソニックマイクロフォンにより収音されたAフォーマット信号等を用いることができる。
 仮想再現信号は、Np箇所の仮想スピーカーの位置に実際にスピーカーがあるとすれば該スピーカーにより聴取位置に元の立体音が再現されるような信号を意味する。
 仮想予測信号は、Np箇所の仮想スピーカーの位置に実際にスピーカーがあるとすれば該スピーカーにより聴取位置に予測音が出力されるような信号を意味する。
 尚、上述した付言は、以下の態様においても適用される。
[態様2]
 図3,4に例示するように、前記仮想再現信号生成部U1は、前記収音信号SG1を複数の収音指向特性(例えば成分W,X,Y,Z)の第一エンコード信号SG2に変換する第一フォーマット変換部U11を有していてもよく、前記第一エンコード信号SG2に基づいて前記仮想再現信号SG3を生成する第一デコード部U12を有していてもよい。前記出力信号生成部U3は、前記仮想予測信号SG4を前記複数の収音指向特性(W,X,Y,Z)の第二エンコード信号SG5に変換する第二フォーマット変換部U31を有していてもよく、前記第二エンコード信号SG5に基づいて前記出力信号SG6を生成する第二デコード部U32を有していてもよい。本態様は、第一エンコード信号SG2の複数の収音指向特性(W,X,Y,Z)が第二エンコード信号SG5の複数の収音指向特性(W,X,Y,Z)と同じであるので、第一フォーマット変換部U11の変換処理、及び、第二フォーマット変換部U31の変換処理を簡素化させることができる。また、第一デコード部U12の信号生成処理、及び、第二デコード部U32の信号生成処理も簡素化させることができる。従って、本態様は、信号処理を簡素化させた音響シミュレーション装置を提供することができる。
 ここで、「第一」及び「第二」は、類似する構成要素が複数有る場合にこれら複数の構成要素に含まれる各構成要素を識別するために使用している用語であり、順序を意味しない。
 第一エンコード信号及び第二エンコード信号には、アンビソニックスのBフォーマット信号等を用いることができる。
 尚、上述した付言は、以下の態様においても適用される。
[態様3]
 前記仮想スピーカーVS0の設定箇所の数Npは、前記スピーカー300の設置箇所の数Nsよりも多くてもよい。この態様は、車両の室内の立体音をさらに精度よくシミュレートする音響シミュレーション装置を提供することができる。
[態様4]
 図3,4に例示するように、本音響シミュレーション装置1は、前記仮想スピーカーVS0の設定箇所を受け付ける仮想スピーカー設定箇所受付部U4をさらに備えていてもよい。この態様は、車両に応じた室内の立体音をシミュレートすることが容易な音響シミュレーション装置を提供することができる。
 また、本技術は、前記音響シミュレーション装置を含む複合装置、音響シミュレーション方法、前記複合装置の制御方法、音響シミュレーションプログラム、前記複合装置の制御プログラム、前記音響シミュレーションプログラムや前記制御プログラムを記録したコンピューター読み取り可能な媒体、等に適用可能である。前記音響シミュレーション装置や前記複合装置は、分散した複数の部分で構成されてもよい。
(2)音響シミュレーション装置の具体例:
 図1は、アンビソニックマイクロフォンAM0が設置された自動車100の内装110を側面部の図示が省略された状態で模式的に例示している。図1の下部には、アンビソニックマイクロフォンAM1,AM2を総称するアンビソニックマイクロフォンAM0の拡大図を示している。図1中、FRONT、REAR、UP、DOWNは、それぞれ、前、後、上、下を示す。左右の位置関係は、自動車100から前を見る方向を基準とする。また、Z方向は自動車100の前後方向を示し、X方向は自動車100の上下方向を示している。むろん、各部の位置関係の説明は、例示に過ぎない。
 図1に示す自動車100は、道路上で使用されるように設計及び装備された路上走行自動車とされ、例えば、鋼板製といった金属製の車体パネルが車室SP1及び荷室SP2を囲んで車体を形成している。本技術を適用可能な自動車は、ステーションワゴン等のように車室SP1と荷室SP2が繋がった自動車に限定されず、セダン等のように車室SP1と荷室SP2が分離している自動車も含まれる。尚、車室SP1と荷室SP2を室内SP0と総称する。
 自動車100の車体パネルには、室内SP0側において種々の内装材、例えば、内装材111~116が配置されている。車室SP1から下方にあるフロアパネル(車体パネルの例)には、車室SP1に面しているフロアカーペット111が設置されている。車室SP1から側方にあるドアパネル(車体パネルの例)には、車室SP1に面しているドアトリム112が設置されている。同じく車室SP1から側方にあるピラー(車体パネルの例)には、車室SP1側に面しているピラートリム113が設置されている。ピラートリムは、ピラーガーニッシュとも呼ばれる。車室SP1及び荷室SP2から上方にあるルーフパネル(車体パネルの例)には、車室SP1及び荷室SP2に面しているルーフトリム114が設置されている。荷室SP2から側方にあるデッキサイドパネル(車体パネルの例)には、荷室SP2に面しているデッキサイドトリム115が設置されている。車室SP1から前方にあるインストルメントパネル(車体パネルの例)には、車室SP1に面しているインストルメントパネル内装材116が設置されている。
 車室SP1には、運転席と助手席を総称する前席101、及び、前席101の背後に配置された後席102が配置されている。運転席に座る運転手の頭部に合わせた位置にアンビソニックマイクロフォンAM1が配置され、運転席の背後における後席102に座る乗員の頭部に合わせた位置にアンビソニックマイクロフォンAM2が配置されている。アンビソニックマイクロフォンAM1の位置は運転席に座る運転手の聴取位置120であり、アンビソニックマイクロフォンAM2の位置は運転席の背後における後席102に座る乗員の聴取位置120である。むろん、アンビソニックマイクロフォンAM1は助手席に座る乗員の頭部に合わせた位置に配置されてもよいし、アンビソニックマイクロフォンAM2は助手席の背後における後席102に座る乗員の頭部に合わせた位置に配置されてもよい。
 図1の下部に示すように、アンビソニックマイクロフォンAM0は、正四面体の各面に対して外向きとなる向きの4個のマイクロフォンカプセルAMcを有している。各カプセルAMcは、空気中を伝播してきた音を電気信号に変換する。アンビソニックマイクロフォンAM0は、各カプセルAMcからの電気信号をデジタルの個別収音信号M1~M4(図3参照)に変換する。図3に例示するように、個別収音信号M1~M4をまとめて収音信号SG1と呼ぶことにする。収音信号SG1は、4方向からの音を収音することにより得られるデジタルの電気信号であり、室内SP0の聴取位置120における立体音の収音信号である。
 図2は、模擬的な自動車200を含む音響シミュレーション装置1を模式的に例示している。模擬的な自動車200は、自動車100の前席101に対応する前席201、及び、自動車100の後席102に対応する後席202を備えている。音響シミュレーション装置1は、16個のスピーカー300を備えている。16個のスピーカー300は、前席201の聴取位置120に立体音を再現させるための8個のスピーカー300、及び、後席202の聴取位置120に立体音を再現させるための8個のスピーカー300を含んでいる。図示の都合上、前席201用のスピーカー300は4個しか示されておらず、後席202用のスピーカー300は4個しか示されていない。前席201用の8個のスピーカー300は、前席201の聴取位置120から見て、前方左斜め上、前方右斜め上、後方左斜め上、後方右斜め上、前方左斜め下、前方右斜め下、後方左斜め下、及び、後方右斜め下に配置されている。後席202用の8個のスピーカー300も、後席202の聴取位置120から見て、前方左斜め上、前方右斜め上、後方左斜め上、後方右斜め上、前方左斜め下、前方右斜め下、後方左斜め下、及び、後方右斜め下に配置されている。
 音響シミュレーション装置1は、さらに、前席201を基準として前方から両側方にかけて配置された曲面ディスプレイ211を有する映像表示装置210、座席201,202から下方に配置された振動装置220、及び、制御部10を備えている。映像表示装置210は、自動車の仮想的な走行時の映像をディスプレイ211に表示する。振動装置220は、自動車の仮想的な走行時のZ方向への振動を座席201,202に加える。制御部10は、自動車の仮想的な走行時の立体音を複数のスピーカー300に出力させ、自動車の仮想的な走行時の映像を映像表示装置210に表示させ、自動車の仮想的な走行時のZ方向への振動を振動装置220に生じさせる。制御部10は、スピーカー300による立体音の出力、映像表示装置210による映像表示、及び、振動装置220による振動出力を同期させる。自動車走行時の映像及び振動を立体音と同時に再生することにより、音響シミュレーション装置1の利用者は臨場感に優れた体感を得ることができる。
 図3は、音響シミュレーション装置1の信号処理を模式的に例示している。この信号処理は、前席101用のアンビソニックマイクロフォンAM1から得られる個別収音信号M1~M4、及び、後席102用のアンビソニックマイクロフォンAM2から得られる個別収音信号M1~M4に対して独立して行われる。本具体例において、スピーカー300の設置箇所の数Ns(整数)は、8個である。前席101を対象とした信号処理により得られる個別出力信号S1~SNsは、前席201用の8個のスピーカー300に出力される。後席102を対象とした信号処理により得られる個別出力信号S1~SNsは、後席202用の8個のスピーカー300に出力される。図3に例示するように、個別出力信号S1~SNsをまとめて出力信号SG6と呼ぶことにする。
 図3に示す音響シミュレーション装置1は、シミュレートされた立体音を複数のスピーカー300から出力させる出力信号SG6を収音信号SG1から生成するため、仮想再現信号生成部U1、仮想予測信号生成部U2、出力信号生成部U3、及び、仮想スピーカー設定箇所受付部U4を備えている。仮想再現信号生成部U1は、収音信号SG1を第一エンコード信号SG2に変換する第一フォーマット変換部U11、及び、第一エンコード信号SG2を仮想再現信号SG3に変換する第一デコード部U12を含んでいる。仮想予測信号生成部U2は、仮想再現信号SG3と音響特性変化情報IM1に基づいて仮想予測信号SG4を生成する。出力信号生成部U3は、仮想予測信号SG4を第二エンコード信号SG5に変換する第二フォーマット変換部U31、及び、第二エンコード信号SG5を出力信号SG6に変換する第二デコード部U32を含んでいる。図3に示す音響シミュレーション装置1はアンビソニックスを利用しており、フォーマット変換部U11,U31はAフォーマット信号をBフォーマット信号に変換する。Bフォーマットの第一エンコード信号SG2からNp箇所の仮想スピーカーVS0に割り当てられた仮想再現信号SG3を仮想予測信号生成部U2がAフォーマットの仮想予測信号SG4に変換することにより、室内SP0の立体音が精度よくシミュレートされる。
 まず、図4を参照して、音響シミュレーション装置1の制御部10の構成例を説明する。図4は、制御部10の構成を周辺部とともに模式的に例示している。
 制御部10は、プロセッサーであるCPU(Central Processing Unit)11、半導体メモリーであるROM(Read Only Memory)12、半導体メモリーであるRAM(Random Access Memory)13、タイマー(Timer)14、記憶装置15、入力装置16、出力装置17、I/F(インターフェイス)18、等を有する。各部11~18は、互いに情報を入出力可能に接続されている。記憶装置15は、オペレーティングシステム、音響シミュレーションプログラム、収音信号SG1、第一エンコード信号SG2、音響特性変化情報IM1、等を記憶している。CPU11は、RAM13をワークエリアとして使用しながらオペレーティングシステムと音響シミュレーションプログラムを実行することにより、仮想再現信号生成部U1、仮想予測信号生成部U2、出力信号生成部U3、及び、仮想スピーカー設定箇所受付部U4を有する制御部10としてコンピューターを機能させる。これにより、制御部10は音響シミュレーション装置1の動作を制御し、音響シミュレーション方法が実施される。記憶装置15は、コンピューターを音響シミュレーション装置1として機能させる音響シミュレーションプログラムを記録したコンピューター読み取り可能な記録媒体となる。
 入力装置16は、仮想スピーカーVS0の設定箇所の入力といった種々の入力を受け付ける。入力装置16には、ポインティングデバイス、キーボード、タッチパネル、等を用いることができる。出力装置17は、仮想スピーカーVS0の設定箇所の表示といった種々の出力を受け付ける。出力装置17には、液晶ディスプレイといった表示装置、音声出力装置、プリンター、等を用いることができる。I/F18は、アンビソニックマイクロフォンAM0からの収音信号SG1の入力、複数のスピーカー300に対する出力信号SG6の出力、映像表示装置210に対する映像信号の出力、振動装置220に対する駆動信号の出力、等、周辺装置に対する通信を行う。尚、アンビソニックマイクロフォンAM0による収音信号SG1は記憶装置15に記憶されるため、音響をシミュレートする時に制御部10とアンビソニックマイクロフォンAM0とが接続されている必要は無い。
 図3に戻って、音響シミュレーション装置1の信号処理を詳細に説明する。上述したように前席101を対象とした信号処理と後席102を対象とした信号処理とは独立して行われるので、前席101を対象とした信号処理を例として説明する。
 収音信号SG1は、前席101に座る乗員の頭部に合わせた聴取位置120における立体音を収音することにより得られるAフォーマット信号である。アンビソニックマイクロフォンAM1のカプセルAMcの数Nmは4個であるので、収音信号SG1を構成する個別収音信号Miは4つある。ここで、変数iは、個別収音信号を識別する変数であり、1からNmまでの整数をとり得る。尚、数Nmは、4に限定されず、5以上でもよい。第一フォーマット変換部U11は、Aフォーマットの収音信号SG1を複数の収音指向特性(成分W,X,Y,Z)の第一エンコード信号SG2に変換し、記憶装置15に記憶する。収音信号SG1が変わらない限り、第一エンコード信号SG2から出力信号SG6を生成する処理が行われてもよい。
 第一エンコード信号SG2は、無指向性の0次成分W、前後方向の1次成分X、左右方向の1次成分Y、及び、上下方向の1次成分Zを含むBフォーマット信号である。ここで、1次成分Xは図1,2におけるX方向に対応し、1次成分Zは図1,2におけるX方向に対応している。個別収音信号Miから第一エンコード信号SG2の成分W,X,Y,Zへは、公知の換算式により変換することができる。例えば、西村竜一、「アンビソニックス」、映像情報メディア学会誌、映像情報メディア学会、2014年8月、第68巻、第8号、p.616-620には、左前方の上向きのマイクロフォンカプセルによる信号LF、左後方の下向きのマイクロフォンカプセルによる信号LB、右前方の下向きのマイクロフォンカプセルによる信号RF、及び、右後方の上向きのマイクロフォンカプセルによる信号RBからBフォーマット信号の成分X,Y,Z,Wへの換算式が示されている。
  X=LF-RB+RF-LB  (1)
  Y=LF-RB-RF+LB  (2)
  Z=LF-LB+RB-RF  (3)
  W=LB-LF+RF-RB  (4)
 図1に示す4個のマイクロフォンカプセルAMcの向きが上述の向きである場合、換算式(1)~(4)に従って個別収音信号M1~M4を成分W,X,Y,Zに変換することができる。
 第一デコード部U12は、自動車100のNp箇所の部位にそれぞれ仮想スピーカーVS0があるとして、聴取位置120における立体音をNp箇所の仮想スピーカーVS0に再現させる仮想再現信号SG3を第一エンコード信号SG2に基づいて生成する。仮想スピーカーVS0の設定箇所は、図1で示した内装材111~116といった内装110の各部位である。また、フロアカーペット111における異なる箇所にそれぞれ仮想スピーカーVS0が設定される等、各内装材111~116の中で異なる箇所にそれぞれ仮想スピーカーVS0が設定されてもよい。仮想再現信号SG3を構成する個別仮想再現信号Pjの数は、Npである。ここで、変数jは、個別仮想再現信号P1~PNpを識別する変数であり、1からNpまでの整数をとり得る。仮想スピーカーVS0の設定箇所の数Npは、2以上であればよいが、室内SP0の立体音を精度よくシミュレートする点から、4以上が好ましく、個別収音信号Miの数Nmよりも多い方がより好ましく、実際のスピーカー300の設置箇所の数Nsよりも多い方がさらに好ましい。Np個の仮想スピーカーVS0の設定箇所は、同一平面に無い方が好ましい。
 模擬的な自動車200におけるNp箇所の仮想スピーカーVS0の設定箇所は、仮想スピーカー設定箇所受付部U4により変更可能である。仮想スピーカー設定箇所受付部U4は、出力装置17、例えば、表示装置に模擬的な自動車を表す画面を聴取位置120とともに表示し、画面の中から入力装置16、例えば、ポインティングデバイスによる操作を受け付けることにより仮想スピーカーVS0の設定箇所を受け付ける。これにより、車両に応じた室内SP0の立体音をシミュレートすることが容易となる。仮想スピーカー設定箇所受付部U4は、仮想スピーカーVS0の設定箇所を2箇所以上、より好ましくは4箇所以上、さらに好ましくはNs箇所以上、受け付けることが可能である。
 第一エンコード信号SG2の成分W,X,Y,Zから個別仮想再現信号Pjへは、各仮想スピーカーVS0の設定箇所から聴取位置120までのベクトルに応じた換算式により変換することができる。
  Pj=wj・W+xj・X+yj・Y+zj・Z  (5)
 ここで、成分W,X,Y,Zに対する係数wj,xj,yj,zjは、変数jに対応する仮想スピーカーVS0の設定箇所から聴取位置120までのベクトルに応じた値である。
 参考として、仮想的な立方体の中心に聴取位置120があり、この聴取位置120から見て、前方左斜め上、前方右斜め上、後方左斜め上、後方右斜め上、前方左斜め下、前方右斜め下、後方左斜め下、及び、後方右斜め下の頂点にそれぞれ仮想スピーカーVS0が設置されていると仮定する。各仮想スピーカーVS0に割り当てる個別仮想再現信号をLFU,RFU,LBU,RBU,LFD,RFD,LBD,RBDとすると、上述した文献である「アンビソニックス」に示された換算式を適用することができる。
  LFU=W+0.707(X+Y+Z)   (6)
  RFU=W+0.707(X-Y+Z)   (7)
  LBU=W+0.707(-X+Y+Z)  (8)
  RBU=W+0.707(-X-Y+Z)  (9)
  LFD=W+0.707(X+Y-Z)   (10)
  RFD=W+0.707(X-Y-Z)   (11)
  LBD=W+0.707(-X+Y-Z)  (12)
  RBD=W+0.707(-X-Y-Z)  (13)
 仮想予測信号生成部U2は、聴取位置120において予測される予測音をNp箇所の仮想スピーカーVS0に出力させる仮想予測信号SG4を仮想再現信号SG3と音響特性変化情報IM1に基づいて生成する。音響特性変化情報IM1は、自動車100のNp箇所の部位の少なくとも一部を変更した時の音響特性の変化を表す情報であり、例えば、コンピューターシミュレーションにより得られる。各部位の音響特性は、図3に示すように、周波数f(単位:Hz)とSPL(音圧レベル)(単位:dB)との対応関係を表すデータ、例えば、1/3オクターブバンド毎の周波数帯域に対するSPLを示すデータにより表される。音響特性変化情報IM1は、基準仕様との差を表す情報といえ、乗員の頭部に対して各部位の方向から周波数毎の音圧が基準仕様からどれだけ上下したかを表す情報といえる。
 仮想予測信号生成部U2は、自動車における内装材等の諸元を変更した時の解析をコンピューターシミュレーションにより行うことが可能であり、立体音について基準仕様との差を予測する。
 仮想予測信号生成部U2は、自動車における内装材や座席といった部材のそれぞれの位置、部材のそれぞれの形状を表すデータ、等といった室内SP0の構造を表す車両モデルを有している。また、仮想予測信号生成部U2は、様々な条件で自動車100を走行させた時に得られる音響特性を表す実車データベースも有している。さらに、仮想予測信号生成部U2は、自動車の部材毎に音の吸音率の特性、音の反射率の特性、流れ抵抗、損失係数、等といった音響に関する特性を表す部材データベースを有している。ここで、前述の部材は、フロアカーペット111に適用可能な複数の種類の部材といった、同じ部位に適用可能な複数の種類の部材を含む。仮想予測信号生成部U2は、実車データベースと部材データベースに格納されているデータのうち利用者の希望に応じた組合せのデータを車両モデルに適用するコンピューターシミュレーションにより音響特性変化情報IM1を求めることが可能である。
 また、簡単な例として、仮想予測信号生成部U2は、或る条件で自動車100を走行させた時にNp箇所の部位について音響特性CH0を表すデータを取得し、或る部材を別の種類に変えた自動車100を走行させた時にNp箇所の部位について音響特性CH1を表すデータを取得し、音響特性CH0,CH1の差からNp箇所の音響特性変化情報IM1を求めてもよい。フロアカーペット111のみ種類を変えた場合の音響特性変化情報、ドアトリム112のみ種類を変えた場合の音響特性変化情報、等を求めることにより、多くの音響特性変化情報IM1が求められる。より簡単な例としては、部材の種類が変わった部位のみ音響特性変化情報IM1を求め、部材の種類が変わっていない部位の音響特性は変化しないとして扱ってもよい。
 仮想予測信号生成部U2は、内装材111~116といった内装110の各部材の種類の変更を受け付け可能である。仮想予測信号生成部U2は、出力装置17、例えば、表示装置に模擬的な自動車を表す画面を表示し、画面の中から入力装置16、例えば、ポインティングデバイスによる操作を受け付けることにより部材の選択、及び、当該部材の種類の変更を受け付ける。仮想予測信号生成部U2は、実車データベースと部材データベースに格納されているデータの内、選択された部材の変更前の音響特性を示すデータ、及び、選択された部材の変更後の音響特性を示すデータを車両モデルに適用するコンピューターシミュレーションにより各部位の音響特性変化情報IM1を求める。これにより、利用者の多様な要望に応じた音響のシミュレーションが行われる。
 例えば、上述した画面で利用者がフロアカーペット111を選択する操作を入力装置16により行い、フロアカーペット111を元の種類(種類C0とする。)から別の種類(種類C1とする。)に変更する操作を入力装置16により行ったものとする。この場合、仮想予測信号生成部U2は、フロアカーペット111が元の種類C0である場合の音響特性CH0と別の種類C1である場合の音響特性CH1との差を各部位について表す音響特性変化情報IM1を求めることになる。
 仮想再現信号SG3と音響特性変化情報IM1に基づいて生成される仮想予測信号SG4を構成する個別仮想予測信号Qjの数も、Npである。すなわち、1からNpまでの整数をとり得る変数jは、個別仮想予測信号Q1~QNpを識別する変数でもある。個別仮想予測信号Qjは、元の個別仮想再現信号Pjから音響特性変化情報IM1に応じて変化した信号となる。簡単な例として、仮想予測信号生成部U2は、部材の種類の変更が受け付けられた部位にある仮想スピーカーVS0に予測音を出力させる個別仮想予測信号Qjのみ、元の個別仮想再現信号Pjから音響特性変化情報IM1に応じて変化させた信号にしてもよい。この場合、部材の種類が変わっていない部位にある仮想スピーカーVS0に予測音を出力させる個別仮想予測信号Qjは、元の個別仮想再現信号Pjのままでもよい。
 Np個の仮想スピーカーVS0に予測音を出力させる仮想予測信号SG4は、前席101に座る乗員の頭部に合わせた聴取位置120における予測音に対応するAフォーマット信号といえる。第二フォーマット変換部U31は、Aフォーマットの仮想予測信号SG4を複数の収音指向特性(成分W,X,Y,Z)の第二エンコード信号SG5に変換する。
 第二エンコード信号SG5も、無指向性の0次成分W、前後方向の1次成分X、左右方向の1次成分Y、及び、上下方向の1次成分Zを含むBフォーマット信号である。個別仮想予測信号Q1~QNpから第二エンコード信号SG5の成分W,X,Y,Zへは、各仮想スピーカーVS0の設定箇所から聴取位置120までのベクトルに応じた換算式により変換することができる。
Figure JPOXMLDOC01-appb-M000001
 ここで、個別仮想予測信号Qjに対する係数qxj,qyj,qzj,qwjは、変数jに対応する仮想スピーカーVS0の設定箇所から聴取位置120までのベクトルに応じた値である。
 第二デコード部U32は、Ns箇所のスピーカー300に予測音を出力させる出力信号SG6を第二エンコード信号SG5に基づいて生成する。出力信号SG6を構成する個別出力信号Skの数は、Nsである。ここで、変数kは、個別出力信号S1~SNsを識別する変数であり、1からNsまでの整数をとり得る。スピーカー300の数Nsは、立体的な予測音を精度よく出力する点から、4以上が好ましい。Ns個のスピーカー300の設置箇所は、同一平面に無い方が好ましい。
 第二エンコード信号SG5の成分W,X,Y,Zから個別出力信号S1~SNsへは、各スピーカー300の設置箇所から聴取位置120までのベクトルに応じた換算式により変換することができる。
  Sk=wk・W+xk・X+yk・Y+zk・Z  (18)
 ここで、成分W,X,Y,Zに対する係数wk,xk,yk,zkは、変数kに対応するスピーカー300の設置箇所から聴取位置120までのベクトルに応じた値である。
 参考として、仮想的な立方体の中心に聴取位置120があり、この聴取位置120から見て、前方左斜め上、前方右斜め上、後方左斜め上、後方右斜め上、前方左斜め下、前方右斜め下、後方左斜め下、及び、後方右斜め下の頂点にそれぞれスピーカー300が設置されていると仮定する。各スピーカー300に割り当てる個別出力信号をLFU,RFU,LBU,RBU,LFD,RFD,LBD,RBDとすると、上述した文献である「アンビソニックス」に示された換算式を適用することができる。
  LFU=W+0.707(X+Y+Z)   (19)
  RFU=W+0.707(X-Y+Z)   (20)
  LBU=W+0.707(-X+Y+Z)  (21)
  RBU=W+0.707(-X-Y+Z)  (22)
  LFD=W+0.707(X+Y-Z)   (23)
  RFD=W+0.707(X-Y-Z)   (24)
  LBD=W+0.707(-X+Y-Z)  (25)
  RBD=W+0.707(-X-Y-Z)  (26)
 以上、前席101を対象とした信号処理を説明したが、後席102を対象とした信号処理も上述した信号処理と同様に行われる。
 上述した具体例では、まず、Bフォーマットの成分W,X,Y,Zを有する第一エンコード信号SG2に基づいてNp箇所の仮想スピーカーVS0に立体音を再現させる個別仮想再現信号P1~PNpが生成される。仮想再現信号SG3を構成する個別仮想再現信号P1~PNpは、Np箇所の部位の少なくとも一部を変更した時の音響特性の変化を表す音響特性変化情報IM1に基づいて個別仮想予測信号Q1~QNpに変換される。仮想予測信号SG4を構成する個別仮想予測信号Q1~QNpは、Bフォーマットの成分W,X,Y,Zを有する第二エンコード信号SG5を経てNs箇所のスピーカー300に予測音を出力させる個別出力信号S1~SNsに変換される。出力信号SG6を構成する個別出力信号S1~SNsは、Np箇所の部位の少なくとも一部を変更した時の音響特性の変化が精度よく反映された予測音をNs箇所のスピーカー300に出力させる。
 以上により、Np箇所の仮想スピーカーVS0に対応する設定箇所からの音の変化がコンピューターシミュレーション等により予測され、Ns箇所のスピーカー300から立体的な予測音が出力される。これにより、利用者は、聴取位置120においてコンピューターシミュレーション等の予測結果を臨場感のある立体音として体感することができる。このため、利用者は、部材を実際に作製したり実際の自動車の部材を組み換えたりしなくても、予測音又は出力信号SG6に基づいて部材をスピーディーに開発することができる。また、利用者は予測音を繰り返し聴くことができるので、実際の自動車を用いた官能評価では判断し難い小さな変化が分かり易くなる。
(3)変形例:
 本発明は、種々の変形例が考えられる。
 上述した具体例では前席用の信号処理と後席用の信号処理の2系統の信号処理を行ったが、例えば、前席について運転席用の信号処理と助手席用の信号処理とを別々に行ってもよい。この場合、音響シミュレーション装置は、運転席用のNs箇所のスピーカー300と助手席用のNs箇所のスピーカー300とを備えていてもよい。後席についても、運転席後方の席のための信号処理と助手席後方の席のための信号処理とを別々に行ってもよい。むろん、音響シミュレーション装置は、前席用の信号処理のみ行ってもよいし、後席用の信号処理のみ行ってもよい。
 収音信号SG1から仮想再現信号SG3を生成する処理は、Bフォーマットの第一エンコード信号SG2を介する処理に限定されない。例えば、個別収音信号M1~M4から個別仮想再現信号P1~PNpへの換算式を用いて収音信号SG1から仮想再現信号SG3を直接生成することも可能である。
 仮想予測信号SG4から出力信号SG6を生成する処理は、Bフォーマットの第二エンコード信号SG5を介する処理に限定されない。例えば、個別仮想予測信号Q1~QNpから個別出力信号S1~SNsへの換算式を用いて仮想予測信号SG4から出力信号SG6を直接生成することも可能である。
(4)結び:
 以上説明したように、本発明によると、種々の態様により、車両の室内の立体音を精度よくシミュレートすることが可能な音響シミュレーション装置等の技術を提供することができる。むろん、独立請求項に係る構成要件のみからなる技術でも、上述した基本的な作用、効果が得られる。
 また、上述した例の中で開示した各構成を相互に置換したり組み合わせを変更したりした構成、公知技術及び上述した例の中で開示した各構成を相互に置換したり組み合わせを変更したりした構成、等も実施可能である。本発明は、これらの構成等も含まれる。

Claims (4)

  1.  車両の室内の音響をシミュレートする音響シミュレーション装置であって、
     前記車両の2箇所以上であるNp箇所の部位にそれぞれ仮想スピーカーがあるとして、前記室内の聴取位置における立体音の収音信号に基づいて、前記Np箇所の仮想スピーカーに前記立体音を再現させる仮想再現信号を生成する仮想再現信号生成部と、
     前記仮想再現信号、及び、前記Np箇所の部位の少なくとも一部を変更した時の音響特性の変化を表す情報に基づいて、前記聴取位置において予測される予測音を前記Np箇所の仮想スピーカーに出力させる仮想予測信号を生成する仮想予測信号生成部と、
     前記仮想予測信号に基づいて、複数箇所のスピーカーに前記予測音を出力させる出力信号を生成する出力信号生成部と、を備える音響シミュレーション装置。
  2.  前記仮想再現信号生成部は、
      前記収音信号を複数の収音指向特性の第一エンコード信号に変換する第一フォーマット変換部と、
      前記第一エンコード信号に基づいて前記仮想再現信号を生成する第一デコード部と、を有し、
     前記出力信号生成部は、
      前記仮想予測信号を前記複数の収音指向特性の第二エンコード信号に変換する第二フォーマット変換部と、
      前記第二エンコード信号に基づいて前記出力信号を生成する第二デコード部と、を有する、請求項1に記載の音響シミュレーション装置。
  3.  前記仮想スピーカーの設定箇所の数Npは、前記スピーカーの設置箇所の数よりも多い、請求項1又は請求項2に記載の音響シミュレーション装置。
  4.  前記仮想スピーカーの設定箇所を受け付ける仮想スピーカー設定箇所受付部をさらに備える、請求項1~請求項3のいずれか一項に記載の音響シミュレーション装置。
PCT/JP2020/006854 2019-03-25 2020-02-20 音響シミュレーション装置 WO2020195407A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021508809A JP7410127B2 (ja) 2019-03-25 2020-02-20 音響シミュレーション装置
US17/469,880 US11736881B2 (en) 2019-03-25 2021-09-09 Acoustic simulation apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019056484 2019-03-25
JP2019-056484 2019-03-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/469,880 Continuation US11736881B2 (en) 2019-03-25 2021-09-09 Acoustic simulation apparatus

Publications (1)

Publication Number Publication Date
WO2020195407A1 true WO2020195407A1 (ja) 2020-10-01

Family

ID=72610468

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/006854 WO2020195407A1 (ja) 2019-03-25 2020-02-20 音響シミュレーション装置

Country Status (3)

Country Link
US (1) US11736881B2 (ja)
JP (1) JP7410127B2 (ja)
WO (1) WO2020195407A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090042A1 (ja) * 2021-11-18 2023-05-25 林テレンプ株式会社 音響シミュレーション装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1138979A (ja) * 1997-07-15 1999-02-12 Kenwood Corp 音場シミュレーション装置
JP2016220032A (ja) * 2015-05-20 2016-12-22 アルパイン株式会社 音場再現システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09149491A (ja) 1995-11-24 1997-06-06 Nobuaki Mori 立体音響録音再生構造
DE102016103331A1 (de) * 2016-02-25 2017-08-31 Visteon Global Technologies, Inc. Vorrichtung und Verfahren zur Wiedergabe von Audiosignalen in einem Kraftfahrzeug
US9497561B1 (en) * 2016-05-27 2016-11-15 Mass Fidelity Inc. Wave field synthesis by synthesizing spatial transfer function over listening region

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1138979A (ja) * 1997-07-15 1999-02-12 Kenwood Corp 音場シミュレーション装置
JP2016220032A (ja) * 2015-05-20 2016-12-22 アルパイン株式会社 音場再現システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090042A1 (ja) * 2021-11-18 2023-05-25 林テレンプ株式会社 音響シミュレーション装置

Also Published As

Publication number Publication date
US11736881B2 (en) 2023-08-22
JPWO2020195407A1 (ja) 2020-10-01
JP7410127B2 (ja) 2024-01-09
US20210409889A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
JP5172665B2 (ja) 筐体内の音場の録音、合成、及び再現
Cheer Active control of the acoustic environment in an automobile cabin
JP5590951B2 (ja) 音場制御装置および音場制御方法
JPH02500714A (ja) 拡張音像ラウドスピーカシステム
US11631304B2 (en) Apparatus for generating virtual effect for electric vehicle
US11265669B2 (en) Electronic device, method and computer program
WO2020195407A1 (ja) 音響シミュレーション装置
US20220194410A1 (en) Method of generating virtual effect for electric vehicle
CN107743713B (zh) 处理用于在汽车中再现的立体声信号以通过前置扬声器实现单独的三维声音的装置和方法
Genuit et al. A virtual car: Prediction of sound and vibration in an interactive simulation environment
WO2023090042A1 (ja) 音響シミュレーション装置
JP2001025099A (ja) 音響再生装置
CN108401210A (zh) 用于立体展示车辆中的虚拟噪声源的方法和装置
JPH11318000A (ja) 車室内の音像定位装置
Sottek et al. Tools and methods for product sound design of vehicles
Dupré et al. Spatial integration of dynamic auditory feedback in electric vehicle interior
US10536795B2 (en) Vehicle audio system with reverberant content presentation
US20230186781A1 (en) Virtual driving simulation device and method for improving sensation of immersion therefor
EP1838135A1 (en) Method for simulating the sound of a vehicle and device therefore
JP2024043473A (ja) 音響装置、制御方法
Malbos et al. Virtual reality experience for the optimization of a car audio system
Philippen Active Sound Design in an NVH Simulator-HiL and SiL Approach
WO2021199382A1 (ja) 再生装置、その方法、およびプログラム
Alkmim et al. CAR CABIN EFFECT FOR ACTIVE SOUND DESIGN
CN117082434A (zh) 车内全景声与双耳直达声的混合渲染方法、系统及车辆

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20777934

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021508809

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20777934

Country of ref document: EP

Kind code of ref document: A1