WO2020111284A1 - 차량 및 그의 동작 방법 - Google Patents

차량 및 그의 동작 방법 Download PDF

Info

Publication number
WO2020111284A1
WO2020111284A1 PCT/KR2018/014620 KR2018014620W WO2020111284A1 WO 2020111284 A1 WO2020111284 A1 WO 2020111284A1 KR 2018014620 W KR2018014620 W KR 2018014620W WO 2020111284 A1 WO2020111284 A1 WO 2020111284A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
signal
boarding
filter set
sound
Prior art date
Application number
PCT/KR2018/014620
Other languages
English (en)
French (fr)
Inventor
김기현
이규호
이병기
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to EP18941279.4A priority Critical patent/EP3890359A4/en
Priority to PCT/KR2018/014620 priority patent/WO2020111284A1/ko
Priority to US17/054,963 priority patent/US11381915B2/en
Priority to KR1020207030823A priority patent/KR20210084345A/ko
Publication of WO2020111284A1 publication Critical patent/WO2020111284A1/ko
Priority to US17/830,134 priority patent/US11689853B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • G10K15/10Arrangements for producing a reverberation or echo sound using time-delay networks comprising electromechanical or electro-acoustic devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/025Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17813Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the acoustic paths, e.g. estimating, calibrating or testing of transfer functions or cross-terms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Definitions

  • the present invention relates to a vehicle, and more particularly, to a vehicle for building a personalized sound field.
  • the sound control method is a sound field reproduction method, an active noise control method that reduces the sound volume of a space using a number of active sound sources, a method of changing the spacing between sound sources arranged in a specific shape, and a time delay and magnitude change between each sound source. And a method of increasing acoustic power radiated at a specific angle.
  • An object of the present invention is to provide an optimized sound field to the occupants in consideration of the number of occupants inside the vehicle and the seating position of the occupants.
  • An object of the present invention is to provide an optimized sound field by determining a vehicle's boarding condition by using an acoustic signal input to a microphone.
  • An object of the present invention is to provide a sound field optimized for the occupants by more accurately grasping the inside of the vehicle.
  • the vehicle according to an embodiment of the present invention may acquire a filter set value matching characteristics of the sound signal input to the microphone, and control the sound output of a plurality of speakers disposed in the vehicle according to the obtained filter set value. have.
  • the vehicle compares the first boarding information obtained with the camera and the second boarding information obtained through the camera based on the sound signal input to the microphone, and the first boarding information and the second boarding information do not match. If not, the filter set value may be adjusted based on the second boarding information.
  • the coefficient of the adaptive filter may be adjusted according to the degree of opening of the window and the speed of the vehicle to minimize performance degradation of the engine noise reduction function.
  • the engine noise reduction function when the size of the noise input to the microphone exceeds a threshold level, the engine noise reduction function is turned off to prevent the output of an abnormal signal due to the divergence of the adaptive filter in advance.
  • FIG. 1 is a block diagram illustrating the configuration of a vehicle according to an embodiment of the present invention.
  • FIG. 2 is a view for explaining an example of arrangement of a plurality of speakers disposed in a vehicle according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a method of operating a vehicle according to an embodiment of the present invention.
  • FIG. 4 is a view briefly showing a vehicle interior space as a cabin according to an embodiment of the present invention.
  • 5 and 6 are diagrams illustrating a process of acquiring learning variables necessary for learning a relationship between boarding items and virtual sound items according to an embodiment of the present invention.
  • FIG. 7 is a view for explaining the configuration of a sound field table according to an embodiment of the present invention.
  • FIG. 8 illustrates a configuration for determining a filter set value suitable for a detected boarding situation according to an embodiment of the present invention.
  • FIG. 9 is an example of implementing a sound field using only the sound field mode according to the prior art
  • FIG. 10 shows an example of implementing the sound field in consideration of the sound field mode and the boarding situation according to an embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating a method of operating a vehicle according to another embodiment of the present invention.
  • FIG. 1 is a block diagram illustrating the configuration of a vehicle according to an embodiment of the present invention.
  • the vehicle 100 includes a sensing unit 110, a wireless communication unit 120, a microphone 130, a camera 140, a memory 150, an audio output unit 170 and a processor 190. It can contain.
  • the sensing unit 110 may sense the state information of the vehicle.
  • the sensing unit 110 may include a pressure sensor.
  • the measured value of the pressure sensor can be used to determine whether or not the occupant has boarded each seat.
  • the wireless communication unit 120 may include one or more modules that enable wireless communication between the vehicle 100 and the wireless communication system, between the vehicle 100 and another vehicle 100, or between the vehicle 100 and an external server. Can be.
  • the wireless communication unit 120 may include one or more modules connecting the vehicle 100 to one or more networks.
  • the microphone 130 may receive noise from inside or outside the vehicle.
  • the microphone 130 may be composed of a plurality.
  • the microphone 130 may be disposed around the driver's seat of the vehicle.
  • the memory 150 may store a sound field table that correlates between a sound field mode, characteristics of a virtual sound signal, characteristics of an occupant signal, number of occupants, seat positions of each occupant, and filter set values.
  • the sound field table may be generated by the vehicle 100 itself, or may be received from an external server.
  • the audio output unit 170 may output an audio signal.
  • the audio output unit 170 may output an audio signal generated in the vehicle itself or an audio signal received from an external device wired or wirelessly connected to the vehicle 100.
  • the sound output unit 170 may include one or more speakers. An example in which the sound output unit 170 includes a plurality of speakers will be described with reference to FIG. 2.
  • the processor 190 may control the overall operation of the vehicle.
  • the processor 190 may be implemented in the form of a chip.
  • processor 190 The detailed functions of the processor 190 will be described later in detail.
  • FIG. 2 is a view for explaining an example of arrangement of a plurality of speakers disposed in a vehicle according to an embodiment of the present invention.
  • the sound output unit 170 may include a plurality of speakers (171 to 179).
  • the first speaker 171 disposed in front of the driver's seat A of the vehicle 100 and the second speaker 172 disposed in front of the auxiliary seat B may be a tweeter speaker.
  • the tweeter speaker is a small speaker that outputs high-frequency sound.
  • a third speaker 173 is disposed between the front of the driver's seat A and the auxiliary seat B, the fourth speaker 174 is arranged behind the first rear seat C, and the rear of the second rear seat D
  • a fifth speaker 175 may be disposed in the.
  • the third speaker 173, the fourth speaker 174 and the fifth speaker 175 may be woofer speakers.
  • the woofer speaker is a speaker that outputs the sound of the low range.
  • a ninth speaker 179 may be disposed on the door of the car.
  • FIG. 3 is a flowchart illustrating a method of operating a vehicle according to an embodiment of the present invention.
  • the processor 190 acquires the size of the space inside the vehicle (S301).
  • the processor 190 may use the specification information of the vehicle 100 to reduce the interior space of the vehicle 100 to obtain the size of the reduced vehicle interior.
  • the interior space of the vehicle may be represented by a cabin having a rectangular shape.
  • the processor 190 may obtain the size of the interior space of the vehicle using a known simulation technique.
  • the size of the space inside the vehicle may include the width of the cabin and the length of the cabin when viewed from the top.
  • FIG. 4 is a view briefly showing a vehicle interior space as a cabin according to an embodiment of the present invention.
  • the interior space of the vehicle may be simplified to the cabin 400.
  • the processor 190 may set a cabin width and a cabin length.
  • the processor 190 may set reflectivity of each corner (corresponding to the wall surface of the vehicle) constituting the cabin 400.
  • the reflectance is a ratio at which the sound source hits the wall boundary and is reflected.
  • the reflectance of the sound source may be referred to as an impedance boundary condition, and the reflectance of each corner may be set through a known finite difference time domain (FDTD) simulation technique.
  • FDTD finite difference time domain
  • FIG. 3 will be described.
  • the processor 190 learns a correspondence between boarding items and virtual sound items based on the size of the space inside the vehicle (S303).
  • Boarding items may include the number of occupants, the seating position of the boarding, the legroom length per seat, and the angle of the backrest.
  • the virtual sound items are reflected by the reference signal output from the speaker, and when input to the microphone 130, the second virtual sound signal obtained by removing the first virtual sound signal from the characteristics and reference signals of the first virtual sound signal input It can include the characteristics of.
  • the characteristics of the first and second virtual sound signals include a first early decay time (EDT), a first reverberation time (RT30), and a second reverberation time (RT60) of the virtual sound signal. can do.
  • EDT early decay time
  • RT30 first reverberation time
  • RT60 second reverberation time
  • the initial attenuation time may be a time when the magnitude of the virtual sound signal falls from 0dB to -10dB.
  • the first reverberation time may be a time when the magnitude of the virtual sound signal falls from -5dB to -35dB.
  • the second reverberation time may be a time when the magnitude of the virtual sound signal falls from -5dB to -65dB.
  • the processor 190 may collect virtual sound items corresponding to the changed boarding items.
  • 5 and 6 are diagrams illustrating a process of acquiring learning variables necessary for learning a relationship between boarding items and virtual sound items according to an embodiment of the present invention.
  • Learning variables may be characteristics of the boarding items and the first and second virtual sound signals.
  • boarding items may include a legroom length for each of the plurality of seats and a backrest angle for each of the plurality of seats.
  • the signal input to the microphone 130 is the reference signal 510.
  • the reference signal 510 may be expressed as an impulse response.
  • the first virtual sound signal 520 input to the microphone 130 may be changed compared to the reference signal 510.
  • the processor 190 may extract characteristics of the first virtual sound signal 520.
  • the characteristics of the first virtual acoustic signal 520 may include an initial attenuation time, a first reverberation time, and a second reverberation time.
  • the second virtual sound signal 530 may be a signal obtained by removing the first virtual sound signal 520 from the reference signal 510.
  • the processor 190 may extract initial decay time, first reverberation time, and second reverberation time, which are characteristics of the second virtual sound signal 530.
  • the processor 190 may extract characteristics of the changed virtual acoustic signal and characteristics of the occupant signal from which the changed virtual acoustic signal is removed from the reference signal, compared to the reference signal 510 for each of the plurality of riding situations.
  • the changed virtual sound signal may be the second virtual sound signal described above.
  • the processor 190 may determine a relationship between the characteristics of the changed virtual sound signal, the characteristics of the occupant signal from which the changed virtual sound signal is removed from the reference signal, and the corresponding boarding situations.
  • the boarding items may include one or more of the number of occupants, the seating position of the occupants, the legroom length for each seat, and the backrest angle.
  • the processor 190 may determine a correspondence relationship using a known classification algorithm.
  • the processor 190 may group characteristics of a virtual sound signal corresponding to a boarding situation and characteristics of a passenger signal.
  • a K-nearest neighbor algorithm may be used, but this is only an example.
  • the processor 190 may generate a sound field table, which will be described later, based on the determined correspondence.
  • the sound field table may be a table indicating a corresponding relationship between the boarding situation, the characteristics of the changed virtual sound signal, and the characteristics of the occupant signal.
  • the sound field table may further include a filter setting value corresponding to the boarding situation. This will be described later.
  • Processor 190 is the learning result Based on , Sound field Create a table (S305).
  • the generated sound field table may be stored in the memory 150.
  • the processor 190 may generate a sound field table indicating a boarding situation, characteristics of the changed virtual sound signal, and a corresponding relationship between occupant signals based on the learning result.
  • the sound field table may be generated by an external server and transmitted to the vehicle 100.
  • the external server may learn the correspondence between the boarding items and the virtual sound items, and generate a sound field table based on the learning result, and may transmit the generated sound field table to the vehicle 100.
  • FIG. 7 is a view for explaining the configuration of a sound field table according to an embodiment of the present invention.
  • a sound field table 700 stored in the memory 150 is illustrated.
  • the sound field table 700 includes an option item 710, a first initial decay time item 720, a first reverberation time item 730, a second reverberation time item 740, a second initial decay time item 750, It may include a third reverberation time item 760, a fourth reverberation time item 770, an occupant number item 780, an occupant seat position item 790, and a filter set value item 795.
  • the option item 710 is an item for selecting a sound field mode.
  • the sound field mode when the sound field mode is the A mode, it may be a mode that outputs sound of the same state to the front seats and the rear seats.
  • the sound field mode When the sound field mode is the B mode, it may be a mode in which the characteristics of the sound output to the front seats and the characteristics of the sound output to the rear seats are independently and differently. That is, when the sound field mode is the B mode, it may be a mode in which independent sounds are output to each of the front seats and the rear seats.
  • the first initial attenuation time item 720 may be an item representing an initial attenuation time extracted from the first virtual sound signal, illustrated in FIG. 5.
  • the first reverberation time item 730 and the second reverberation time item 740 may be items indicating reverberation times extracted from the first virtual sound signal illustrated in FIG. 5.
  • the second initial decay time item 750 may be an item representing an initial decay time extracted from the second virtual sound signal, illustrated in FIG. 5.
  • the second virtual acoustic signal may be the same signal as the occupant signal described above or the changed virtual acoustic signal.
  • the third reverberation time item 760 and the fourth reverberation time item 770 may be items indicating reverberation times extracted from the second virtual sound signal.
  • Each of the time items 770 may be represented by a numerical range.
  • the numerical range can be identified with specific conditions, as shown in FIG. 7.
  • condition 1 may range from 0.1 ms to 0.15 ms.
  • the occupant number item 780 may indicate the number of people who have boarded the cabin.
  • the occupant seat position item 790 may be an item indicating which seat is located by one or more occupants in the cabin.
  • CASE 1 may be the case where 4 people are in the cabin, 1 is in the driver's seat, and 3 are in the rear seats.
  • the filter set value item 795 may be an item indicating a combination of setting values of a filter included in each of the plurality of speakers 171 to 179 described in FIG. 2.
  • the setting value of the filter may include one or more of the amplitude of the sound signal output from each of the plurality of filters and the frequency band of the sound signal.
  • the processor 190 may preset the filter set value according to the boarding situation including the number of occupants and the occupant seating position, and include the filter set value in the sound field table 700.
  • FIG. 3 will be described.
  • the processor 190 detects an acoustic signal through the microphone 130 (S307), and stores Sound field Using the table, a set of boarding items and filters matching the detected acoustic signal is determined (S309).
  • the processor 190 may extract characteristics of an acoustic signal input through the microphone 130 and characteristics of an occupant signal by removing a reference signal from the acoustic signal.
  • the processor 190 may determine boarding items corresponding to characteristics of the extracted acoustic signal and characteristics of the occupant signal, and obtain a filter set value corresponding to the determined boarding items from the sound field table.
  • the processor 190 controls the operation of the sound output unit 170 to output a sound matching the determined filter set value (S311).
  • the processor 190 may control the operation of the plurality of speakers 171 to 179 to determine a filter set value according to the sound signal input to the microphone 130 and output sound with the determined filter set value. .
  • FIG. 8 illustrates a configuration for determining a filter set value suitable for a detected boarding situation according to an embodiment of the present invention.
  • the sound field mode is set to the B mode to output independent sound to the front seats and rear seats.
  • the sound field mode may be set according to a user's selection.
  • the processor 190 may receive an acoustic signal through the microphone 130.
  • the processor 190 may extract initial decay times and first and second reverberation times of the received acoustic signals.
  • the processor 190 may obtain an occupant signal by removing the acoustic signal received from the pre-stored reference signal.
  • the processor 190 may extract the initial decay time and the first and second reverberation times of the acquired occupant signal.
  • the processor 190 uses the sound field table stored in the memory 150 to match the initial attenuation time of the extracted acoustic signal, the first and second reverberation times, and the initial attenuation time of the occupant signals and the first and second reverberation times. You can search for the situation.
  • the boarding situation may include the number of occupants and the seating position of the occupants.
  • the processor 190 may determine a filter set value of 12.
  • the processor 190 may determine a filter set value suitable for a current boarding situation through an acoustic signal input to the microphone 130 and, with the determined filter set value, to form sound fields, a plurality of speakers 171 to 179) can be controlled.
  • a personalized sound field suitable for a boarding situation can be implemented, so that user satisfaction can be improved.
  • FIG. 9 is an example of implementing a sound field using only the sound field mode according to the prior art
  • FIG. 10 shows an example of implementing the sound field in consideration of the sound field mode and the boarding situation according to an embodiment of the present invention.
  • the boarding situation is the same as in FIG. That is, the boarding situation is a situation where 4 passengers are occupied, 1 in the driver's seat, and 3 in the rear seats.
  • the sound field mode is selected as the B mode according to a user's selection
  • a plurality of speakers 174 to 179 to implement the first sound field 910 and the second sound field 930 are implemented.
  • the filter coefficients of are set.
  • the first sound field 910 does not have a passenger in the passenger seat, as the filter coefficients considering the passenger seat are applied, the passenger in the driver seat cannot hear the optimized sound.
  • the sound field mode is set to the B mode according to the user's selection
  • the third sound field 920 optimized for the driver who boards the driver's seat as the number of occupants and the seat position of the occupants are considered to provide this, filter coefficients of the plurality of speakers 174 to 179 can be set.
  • FIG. 11 is a flowchart illustrating a method of operating a vehicle according to another embodiment of the present invention.
  • FIG. 11 shows that the determined first boarding information and the second boarding information determined based on the image captured through the camera 140 do not match based on the sound signal input through the microphone 130, This is an embodiment of changing a first filter set value matching the first boarding information to a second filter set value matching the second boarding information.
  • the processor 190 obtains a first filter set value matching the first boarding information obtained based on the acoustic signal input to the microphone 130 (S1101).
  • the process of obtaining a first filter set value matching the first boarding information may be used in the embodiment of FIG. 3.
  • the processor 190 acquires the second boarding information through the camera 140 (S1103).
  • the processor 190 may determine the number of occupants and the seating position of the occupant using the image captured through the camera 140.
  • the camera 140 may be an RGB camera or an IR (infrared) camera.
  • the processor 190 may recognize a passenger's face from an image captured through the camera 140 and determine the number of recognized faces as the number of passengers.
  • the processor 190 may determine the position of the occupant's seat by determining in which region the face recognized in the captured image is located.
  • the processor 190 may obtain second boarding information including the number of occupants and the seating position of each occupant from the captured image.
  • the processor 190 determines whether the first boarding information and the second boarding information match (S1105 ).
  • the processor 190 controls the output of the plurality of speakers 171 to 179 based on the first filter set value (S1107).
  • the processor 190 may determine that the first boarding information is correctly recognized.
  • the processor 190 obtains a second filter set value matching the second boarding information, and changes the first filter set value to the second filter set value (S1109).
  • the processor 190 may correct the filter set value based on the second boarding information.
  • the processor 190 may obtain a second filter set value matching the second boarding information using the sound field table.
  • Processor 190 based on the changed second filter set value, a plurality of speakers (171 to 179) The output is controlled (S1111).
  • the boarding information in the vehicle can be more accurately grasped, so that a more optimized sound field can be provided to the occupants.
  • the above-described present invention can be embodied as computer readable codes on a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include a hard disk drive (HDD), solid state disk (SSD), silicon disk drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. There is this. Also, the computer may include the processor.

Abstract

본 발명의 일 실시 예에 따른 차량은 마이크로폰과 복수의 스피커들과 탑승 항목들, 가상 음향 항목들 및 필터 세트 값들 간의 대응 관계들을 포함하는 음장 테이블을 저장하는 메모리 및 상기 마이크로폰을 통해 음향 신호를 수신하고, 상기 음장 테이블을 이용하여, 수신된 음향 신호의 특성들에 매칭되는 제1 필터 세트 값을 결정하고, 결정된 제1 필터 세트 값에 따라 음향을 출력하도록, 상기 복수의 스피커들의 출력을 제어하는 프로세서를 포함할 수 있다.

Description

차량 및 그의 동작 방법
본 발명은 차량에 관한 것으로, 보다 상세하게는, 개인화된 음장을 구축하기 위한 차량에 관한 것이다.
모바일 단말, PMP, MP3 플레이어 등의 휴대형 기기를 블루투스나 AUX와 같은 유무선 연결수단을 통해 스피커로 출력하는 등, 차량에 구비된 AVN시스템의 발전과 더불어 차량 내 사운드에 대한 관심이 증대하고 있다.
음향 제어는 음장 재현 방식, 다수의 능동 음원을 사용하여 공간의 소리 크기를 감소시키는 능동 소음 제어 방식, 특정 형상으로 배열한 음원 사이의 간격을 변화시키는 방식, 각 음원 간의 시간 지연과 크기를 변화시켜 특정 각도로 방사되는 음향 파워를 증대시키는 방식 등이 있다.
특히, 차량 내 스피커를 통해 출력되는 음향을 차량 내 위치(탑승자의 탑승 위치)에 따라 조절하기 위한 연구가 활발하다.
이와 관련된 선행특허로는 미국등록특허 US 9,591,420이 있다. 미국등록특허 US 9,591,420는 차량 내부의 스피커들을 통해, 개인화된 음장을 구현하는 예를 보여준다.
그러나, 미국등록특허 US 9,591,420의 경우, 차량 내부에 탑승자 수 및 탑승자의 좌석 위치를 고려함이 없이, 개인 음장을 구현하는데 그치고 있다.
즉, 미국등록특허 US 9,591,420는 차량 내부의 탑승 상황을 고려함이 없이, 일관된 개인 음장을 제공하여, 탑승자의 청각적 불만을 일으킬 수 있는 문제가 있다.
본 발명은 차량 내부의 탑승자 수 및 탑승자의 좌석 위치를 고려하여, 탑승자들에게 최적화된 음장을 제공할 수 있는 것을 목적으로 한다.
본 발명은 마이크로폰에 입력된 음향 신호를 이용하여, 차량의 탑승 상황을 판단하고, 그에 따른 최적화된 음장을 제공하는 것으로 목적으로 한다.
본 발명은 차량 내부의 탑승 상황을 보다 정확히 파악하여, 탑승자들에게 최적화된 음장을 제공하는 것을 목적으로 한다.
본 발명의 일 실시 예에 따른 차량은 마이크로폰에 입력된 음향 신호의 특성들에 매칭되는 필터 세트 값을 획득하고, 획득된 필터 세트 값에 따라 차량에 배치된 복수의 스피커들의 음향 출력을 제어할 수 있다.
본 발명의 실시 예에 따른 차량은 마이크로폰에 입력된 음향 신호에 기초하여, 얻어진 제1 탑승 정보와, 카메라를 통해 얻어진 제2 탑승 정보를 비교하고, 제1 탑승 정보와 제2 탑승 정보가 일치하지 않는 경우, 제2 탑승 정보에 기반하여, 필터 세트 값을 조정할 수 있다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
본 발명의 실시 예에 따르면, 창문의 개방 정도 및 차량 속도에 따라 적응 필터의 계수를 조절하여, 엔진 소음 제거 기능의 성능 저하를 최소화시킬 수 있다.
또한, 본 발명의 실시 예에 따르면, 마이크로폰에 입력된 소음의 크기가 임계 크기를 초과하는 경우, 엔진 소음 제거 기능을 오프시켜, 적응 필터의 발산에 따른 이상 신호의 출력을 사전에 방지할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 차량의 구성을 설명하기 위한 블록도이다.
도 2는 본 발명의 일 실시 예에 따라 차량 내 배치된 복수의 스피커들의 배치 예를 설명하는 도면이다.
도 3은 본 발명의 일 실시 예에 따른 차량의 동작 방법을 설명하는 흐름도이다.
도 4는 본 발명의 실시 예에 따라 차량 내부 공간을 캐빈으로 간략하게 표시한 도면이다.
도 5 및 도 6은 본 발명의 실시 예에 따라 탑승 항목들과 가상 음향 항목들 간의 관계를 학습하기 위해 필요한 학습 변수들을 획득하는 과정을 설명하는 도면이다.
도 7은 본 발명의 일 실시 예에 따른 음장 테이블의 구성을 설명하는 도면이다.
도 8은 본 발명의 일 실시 예에 따라 탐지된 탑승 상황에 맞는 필터 세트 값을 결정하는 구성을 설명한다.
도 9는 종래 기술에 따라, 음장 모드만을 이용하여, 음장을 구현하는 예이고, 도 10은 본 발명의 실시 예에 따라 음장 모드 및 탑승 상황을 고려하여, 음장을 구현하는 예를 보여준다.
도 11은 본 발명의 또 다른 실시 예에 따른 차량의 동작 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명의 일 실시 예에 따른 차량의 구성을 설명하기 위한 블록도이다.
도 1을 참조하면, 차량(100)은 센싱부(110), 무선 통신부(120), 마이크로폰(130), 카메라(140), 메모리(150), 음향 출력부(170) 및 프로세서(190)를 포함할 수 있다.
센싱부(110)는 차량의 상태 정보를 센싱할 수 있다.
센싱부(110)는 압력 센서를 포함할 수 있다.
차량(200) 내부의 각 좌석들에 배치될 수 있다. 압력 센서의 측정 값은 각 좌석에 탑승자가 탑승했는지 여부를 판단하는데 사용될 수 있다.
무선 통신부(120)는 차량(100)과 무선 통신 시스템 사이, 차량(100)과 다른 차량(100) 사이, 또는 차량(100)과 외부 서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
또한, 무선 통신부(120)는, 차량(100)을 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
마이크로폰(130)은 차량 내부 또는 외부로부터 소음을 수신할 수 있다.
마이크로폰(130)은 복수 개로 구성될 수 있다. 마이크로폰(130)은 차량의 운전석 주위에 배치될 수 있다.
메모리(150)는 음장 모드, 가상 음향 신호의 특성들, 탑승자 신호의 특성들, 탑승자 수, 각 탑승자의 좌석 위치, 필터 세트 값 간을 대응시킨 음장 테이블을 저장할 수 있다.
음장 테이블은 차량(100) 자체적으로, 생성되거나, 외부 서버로부터 수신될 수 있다.
음향 출력부(170)는 오디오 신호를 출력할 수 있다. 음향 출력부(170)는 차량 자체 내에서 생성된 오디오 신호 또는 차량(100)과 유선 또는 무선으로 연결된 외부 기기로부터 수신된 오디오 신호를 출력할 수 있다.
음향 출력부(170)는 하나 이상의 스피커들을 포함할 수 있다. 음향 출력부(170)가 복수의 스피커들을 포함하는 예에 대해서는 도 2를 참조하여 설명한다.
프로세서(190)는 차량의 전반적인 동작을 제어할 수 있다. 프로세서(190)는 칩 형태로 구현될 수 있다.
프로세서(190)의 상세 기능에 대해서는 자세히 후술한다.
도 2는 본 발명의 일 실시 예에 따라 차량 내 배치된 복수의 스피커들의 배치 예를 설명하는 도면이다.
도 2를 참조하면, 음향 출력부(170)는 복수의 스피커들(171 내지 179)을 포함할 수 있다.
차량(100)의 운전석(A) 전방에 배치된 제1 스피커(171) 및 보조석(B)의 전방 배치된 제2 스피커(172)는 트위터(tweeter) 스피커일 수 있다. 트위커 스피커는 고음역대의 음향을 출력하는 소형 스피커이다.
운전석(A) 및 보조석(B)의 전방 사이에는 제3 스피커(173)가 배치되고, 제1 뒷좌석(C)의 후방에는 제4 스피커(174)가 배치되고, 제2 뒷좌석(D)의 후방에는 제5 스피커(175)가 배치될 수 있다.
제3 스피커(173), 제4 스피커(174) 및 제5 스피커(175)는 우퍼 스피커일 수 있다. 우퍼 스피커는 저음역대의 음향을 출력하는 스피커이다.
운전석(A)의 차문에는 제6 스피커(176), 보조석(B)의 차문에는 제7 스피커(177), 제1 뒷좌석(C)의 차문에는 제8 스피커(178), 제2 뒷좌석(D)의 차문에는 제9 스피커(179)가 배치될 수 있다.
도 3은 본 발명의 일 실시 예에 따른 차량의 동작 방법을 설명하는 흐름도이다.
도 3을 참조하면, 프로세서(190)는 차량 내부 공간의 크기를 획득한다(S301).
프로세서(190)는 차량(100)의 스펙 정보를 이용하여, 차량(100)의 내부 공간을 축소화시켜, 축소화된 차량 내부의 크기를 획득할 수 있다.
차량 내부 공간은 직사각형의 형상을 갖는 캐빈으로 표현될 수 있다.
프로세서(190)는 공지된 시뮬레이션 기법을 이용하여, 차량 내부 공간의 크기를 얻을 수 있다. 차량 내부 공간의 크기는 탑에서 바라보았을 때, 캐빈의 폭 및 캐빈의 길이를 포함할 수 있다.
이에 대해서는 도 4를 참조하여 설명한다.
도 4는 본 발명의 실시 예에 따라 차량 내부 공간을 캐빈으로 간략하게 표시한 도면이다.
도 4를 참조하면, 차량 내부 공간은 캐빈(400)으로 간략화될 수 있다. 프로세서(190)는 캐빈(400)의 획득 후, 캐빈 폭 및 캐빈 길이를 설정할 수 있다.
한편, 프로세서(190)는 캐빈(400)을 구성하는 각 모서리(차량의 벽면에 대응)의 반사율을 설정할 수 있다. 여기서, 반사율이란, 음원이 벽면 경계에 맞고, 반사되는 비율이다.
음원의 반사율은 임피던스 경계 조건이라 명명될 수 있으며, 공지된FDTD(finite Difference Time Domain) 시뮬레이션 기법을 통해 각 모서리의 반사율이 설정될 수 있다.
다시, 도 3을 설명한다.
프로세서(190)는 차량 내부 공간의 크기를 기초로, 탑승 항목들 및 가상 음향 항목들 간의 대응 관계를 학습한다(S303).
탑승 항목들은 탑승자 수, 탑승 좌석 위치, 좌석별 레그룸 길이, 등받이 각도를 포함할 수 있다.
가상 음향 항목들은 스피커에서 출력된 기준 신호가 반사되어, 마이크로폰(130)에 입력될 시, 입력된 제1 가상 음향 신호의 특성들 및 기준 신호에서, 제1 가상 음향 신호를 제거한 제2 가상 음향 신호의 특성들을 포함할 수 있다.
제1,2 가상 음향 신호의 특성들은 가상 음향 신호의 제1 초기 감쇠 시간(EDT, Early Decay Time), 제1 잔향 시간(Reverberation Time, RT30), 제2 잔향 시간(Reverberation Time, RT60)을 포함할 수 있다.
초기 감쇠 시간은 가상 음향 신호의 크기가 0dB에서 -10dB로 떨어지는 시간일 수 있다.
제1 잔향 시간은 가상 음향 신호의 크기가 -5dB에서 -35dB로 떨어지는 시간일 수 있다.
제2 잔향 시간은 가상 음향 신호의 크기가 -5dB에서 -65dB로 떨어지는 시간일 수 있다.
프로세서(190)는 탑승 항목들을 변경시켜가면서, 변경된 탑승 항목들에 대응하는 가상 음향 항목들을 수집할 수 있다.
탑승 항목들과 가상 음향 항목들 간의 관계를 학습하는 과정에 대해 설명한다.
도 5 및 도 6은 본 발명의 실시 예에 따라 탑승 항목들과 가상 음향 항목들 간의 관계를 학습하기 위해 필요한 학습 변수들을 획득하는 과정을 설명하는 도면이다.
학습 변수들은 탑승 항목들 및 제1,2 가상 음향 신호의 특성들일 수 있다.
도 5를 참조하면, 탑승 항목들은 복수의 좌석들 각각에 대한 레그룸 길이, 복수의 좌석들 각각에 대한 등받이 각도를 포함할 수 있다.
캐빈(400)의 내부에 탑승자가 없고, 레그룸 길이 및 등받이 각도가 디폴트 값으로 설정되어 있는 경우, 마이크로폰(130)에 입력된 신호를 기준 신호(510)라 가정한다.
기준 신호(510)는 임펄스 응답으로 표현될 수 있다.
만약, 캐빈(400)의 내부 운전석에 탑승자(501)가 탑승한 것으로 가정한 경우, 마이크로폰(130)에 입력된 제1 가상 음향 신호(520)는 기준 신호(510)에 비해 변경될 수 있다.
프로세서(190)는 제1 가상 음향 신호(520)의 특성들을 추출할 수 있다. 제1 가상 음향 신호(520)의 특성들은 초기 감쇠 시간, 제1 잔향 시간 및 제2 잔향 시간을 포함할 수 있다.
제2 가상 음향 신호(530)는 기준 신호(510)에서 제1 가상 음향 신호(520)를 제거한 신호일 수 있다.
프로세서(190)는 제2 가상 음향 신호(530)의 특성들인 초기 감쇠 시간, 제1 잔향 시간 및 제2 잔향 시간을 추출할 수 있다.
도 6을 참조하면, 다양한 탑승 상황에 대한 예가 도시되어 있다.
프로세서(190)는 복수의 탑승 상황들 각각에 대해, 기준 신호(510)에 비해, 변화된 가상 음향 신호의 특성들 및 기준 신호에서 변화된 가상 음향 신호를 제거한 탑승자 신호의 특성들을 추출할 수 있다.
변화된 가상 음향 신호는 위에서 설명된 제2 가상 음향 신호일 수 있다.
프로세서(190)는 변화된 가상 음향 신호의 특성들, 기준 신호에서 변화된 가상 음향 신호를 제거한 탑승자 신호의 특성들 및 이에 대응하는 탑승 상황들간의 대응 관계를 결정할 수 있다.
여기서, 탑승 항목들은 탑승자 수, 탑승자의 좌석 위치, 각 좌석별 레그룸 길이, 등받이 각도 중 하나 이상을 포함할 수 있다.
프로세서(190)는 공지된 분류 알고리즘을 사용하여, 대응 관계를 결정할 수 있다.
프로세서(190)는 탑승 상황에 대응하는 가상 음향 신호의 특성들 및 탑승자 신호의 특성들을 그룹핑할 수 있다.
이러한, 그룹핑의 과정에서 최근접 이웃(K-nearest neighbor) 알고리즘이 사용될 수 있으나, 이는 예시에 불과하다.
프로세서(190)는 결정된 대응 관계를 기초로, 후술할 음장 테이블을 생성할 수 있다.
음장 테이블은 탑승 상황, 변화된 가상 음향 신호의 특성들 및 탑승자 신호의 특성들의 대응 관계를 나타내는 테이블일 수 있다.
음장 테이블은 탑승 상황에 대응하는 필터 세팅 값을 더 포함할 수 있다. 이에 대해서는 후술한다.
다시 도 3을 설명한다.
프로세서(190)는 학습 결과에 기반하여 , 음장 테이블을 생성한다(S305).
생성된 음장 테이블은 메모리(150)에 저장될 수 있다.
프로세서(190)는 학습 결과에 기반하여, 탑승 상황, 변화된 가상 음향 신호의 특성들 및 탑승자 신호들의 대응 관계를 나타내는 음장 테이블을 생성할 수 있다.
음장 테이블은 외부 서버에서 생성되어, 차량(100)에 전송될 수 있다.
외부 서버는 탑승 항목들 및 가상 음향 항목들 간의 대응 관계를 학습하고, 학습 결과에 기초하여, 음장 테이블을 생성할 수 있고, 생성된 음장 테이블을 차량(100)에 전송할 수도 있다.
음장 테이블의 예에 대해서는 도 7을 참조하여, 설명한다.
도 7은 본 발명의 일 실시 예에 따른 음장 테이블의 구성을 설명하는 도면이다.
도 7을 참조하면, 메모리(150)에 저장된 음장 테이블(700)이 도시되어 있다.
음장 테이블(700)은 옵션 항목(710), 제1 초기 감쇠 시간 항목(720), 제1 잔향 시간 항목(730), 제2 잔향 시간 항목(740), 제2 초기 감쇠 시간 항목(750), 제3 잔향 시간 항목(760), 제4 잔향 시간 항목(770), 탑승자 수 항목(780), 탑승자 좌석 위치 항목(790) 및 필터 세트 값 항목(795)를 포함할 수 있다.
옵션 항목(710)은 음장 모드를 선택하기 위한 항목이다. 예를 들어, 음장 모드가 A 모드인 경우, 전방 좌석들 및 후방 좌석들에 동일한 상태의 음향을 출력하는 모드일 수 있다.
음장 모드가 B 모드인 경우, 전방 좌석들을 향해 출력하는 음향의 특성과 후방 좌석들을 향해 출력하는 음향의 특성을 독립적으로, 다르게 하는 모드일 수 있다. 즉, 음장 모드가 B 모드인 경우, 전방 좌석들 및 후방 좌석들 각각에 독립적인 음향이 출력되도록 하는 모드일 수 있다.
제1 초기 감쇠 시간 항목(720)은 도 5에서 설명된, 제1 가상 음향 신호에서 추출된 초기 감쇠 시간을 나타내는 항목일 수 있다.
제1 잔향 시간 항목(730) 및 제2 잔향 시간 항목(740)은 도 5에서 설명된 제1 가상 음향 신호에서 추출된 잔향 시간들을 나타내는 항목일 수 있다.
제2 초기 감쇠 시간 항목(750)은 도 5에서 설명된, 제2 가상 음향 신호에서 추출된 초기 감쇠 시간을 나타내는 항목일 수 있다.
제2 가상 음향 신호는 위에서 설명된 탑승자 신호 또는 변화된 가상 음향 신호와 동일한 신호일 수 있다.
제3 잔향 시간 항목(760) 및 제4 잔향 시간 항목(770)은 제2 가상 음향 신호로부터 추출된 잔향 시간들을 나타내는 항목일 수 있다.
제1 초기 감쇠 시간 항목(720), 제1 잔향 시간 항목(730), 제2 잔향 시간 항목(740), 제2 초기 감쇠 시간 항목(750), 제3 잔향 시간 항목(760), 제4 잔향 시간 항목(770) 각각은 수치 범위로 표현될 수 있다.
수치 범위는 도 7에서 도시된 바와 같이, 특정 조건으로 식별될 수 있다.
예를 들어, condition 1은 0.1ms ~0.15ms의 범위를 가질 수 있다.
탑승자 수 항목(780)은 캐빈 내에 탑승한 사람의 수를 나타낼 수 있다.
탑승자 좌석 위치 항목(790)은 캐빈 내에 탑승한 하나 이상의 탑승자들이, 어느 좌석에 위치했는지를 나타내는 항목일 수 있다.
예를 들어, CASE 1은 캐빈 내에 4명이 탑승하고, 1명은 운전석에, 3명은 후방 좌석들에 앉아 있는 경우일 수 있다.
필터 세트 값 항목(795)은 도 2에서 설명된 복수의 스피커들(171 내지 179) 각각에 포함된 필터의 셋팅 값들의 조합을 나타내는 항목일 수 있다.
필터의 셋팅 값은 복수의 필터들 각각에서 출력되는 음향 신호의 크기, 음향 신호의 주파수 대역 중 하나 이상을 포함할 수 있다.
프로세서(190)는 탑승자 수 및 탑승자 좌석 위치를 포함하는 탑승 상황에 따라 필터 세트 값을 미리 설정하여, 음장 테이블(700)에 포함시킬 수 있다.
다시, 도 3을 설명한다.
프로세서(190)는 마이크로폰(130)을 통해 음향 신호를 감지하고(S307), 저장된 음장 테이블을 이용하여, 감지된 음향 신호에 매칭되는 탑승 항목들 및 필터 세트를 결정한다(S309).
프로세서(190)는 마이크로폰(130)을 통해 입력된 음향 신호의 특성들 및 음향 신호에서 기준 신호를 제거한 탑승자 신호의 특성들을 추출할 수 있다.
프로세서(190)는 추출된 음향 신호의 특성들 및 탑승자 신호의 특성들에 대응하는 탑승 항목들을 결정하고, 결정된 탑승 항목들에 대응하는 필터 세트 값을 음장 테이블로부터 획득할 수 있다.
프로세서(190)는 결정된 필터 세트 값에 매칭되는 음향을 출력하도록, 음향 출력부(170)의 동작을 제어한다(S311).
프로세서(190)는 마이크로폰(130)에 입력된 음향 신호에 따른 필터 세트 값을 결정하고, 결정된 필터 세트 값으로, 음향을 출력하도록, 복수의 스피커들(171 내지 179)의 동작을 제어할 수 있다.
탑승 상황에 따라 수신된 음향 신호에 기초하여, 필터 세트 값을 결정하는 실제 예를 도 8을 참조하여, 설명한다.
도 8은 본 발명의 일 실시 예에 따라 탐지된 탑승 상황에 맞는 필터 세트 값을 결정하는 구성을 설명한다.
도 8에서, 음장 모드는 전방 좌석들 및 후방 좌석들에 독립적은 음향을 출력하도록 하는 B 모드로 설정되어 있음을 가정한다. 음장 모드는 사용자의 선택에 따라 설정될 수 있다.
프로세서(190)는 마이크로폰(130)을 통해 음향 신호를 수신할 수 있다.
프로세서(190)는 수신된 음향 신호의 초기 감쇠 시간 및 제1,2 잔향 시간을 추출할 수 있다.
그 후, 프로세서(190)는 미리 저장된 기준 신호로부터 수신된 음향 신호를 제거한, 탑승자 신호를 획득할 수 있다.
프로세서(190)는 획득된 탑승자 신호의 초기 감쇠 시간 및 제1,2 잔향 시간을 추출할 수 있다.
프로세서(190)는 메모리(150)에 저장된 음장 테이블을 이용하여, 추출된 음향 신호의 초기 감쇠 시간, 제1,2 잔향 시간 및 탑승자 신호의 초기 감쇠 시간, 제1,2 잔향 시간에 매칭되는 탑승 상황을 검색할 수 있다. 여기서, 탑승 상황은 탑승자 수 및 탑승자 좌석 위치를 포함할 수 있다.
프로세서(190)는 탑승자 수가 4명이고, 탑승자 좌석 위치가 CASE 1에 해당되는 경우, 필터 세트 값을 12로 결정할 수 있다.
즉, 프로세서(190)는 마이크로폰(130)에 입력된 음향 신호를 통해, 현재 탑승 상황에 맞는 필터 세트 값을 결정할 수 있고, 결정된 필터 세트 값으로, 음장들을 형성하도록, 복수의 스피커들(171 내지 179)을 제어할 수 있다.
이에 따라, 탑승 상황에 맞는 개인화된 음장이 구현될 수 있어, 사용자의 만족도가 향상될 수 있다.
도 9는 종래 기술에 따라, 음장 모드만을 이용하여, 음장을 구현하는 예이고, 도 10은 본 발명의 실시 예에 따라 음장 모드 및 탑승 상황을 고려하여, 음장을 구현하는 예를 보여준다.
도 9 및 도 10에서는 도 8과 같은 탑승 상황임을 가정한다. 즉, 탑승 상황은 탑승자가 4명이고, 운전석에 1명, 후방 좌석들에 3명이 탑승하고 있는 상황이다.
또한, 도 9 및 도 10에서는 도 7에서 설명한 음장 모드가 B 모드에 있음을 가정한다.
도 9를 참조하면, 종래의 경우, 사용자의 선택에 따라 음장 모드가 B 모드로 선정되면, 제1 음장(910) 및 제2 음장(930)이 구현되도록, 복수의 스피커들(174 내지 179)의 필터 계수들이 설정되었다.
제1 음장(910)은 보조석에 탑승자가 없음에도 불구하고, 보조석을 고려한 필터 계수들이 적용됨에 따라, 운전석에 탑승한 탑승자는 최적화된 음향을 들을 수 없게 된다.
도 10을 참조하면, 사용자의 선택에 따라 음장 모드가 B 모드로 설정되었음에도 불구하고, 탑승자의 수 및 탑승자의 좌석 위치가 고려됨에 따라, 운전석에 탑승한, 운전자에게 최적화된 제3 음장(920)이 제공되도록, 복수의 스피커들(174 내지 179)의 필터 계수들이 설정될 수 있다.
이에 따라, 사용자가 음장 모드만 설정해 놓더라도, 탑승 상황에 맞는, 최적화된 음장들이 구현될 수 있다. 이로 인해, 차량의 탑승자들은 개인화된 음장을 체감할 수 있어, 청각적 만족도가 향상될 수 있다.
도 11은 본 발명의 또 다른 실시 예에 따른 차량의 동작 방법을 설명하기 위한 흐름도이다.
특히, 도 11은 마이크로폰(130)을 통해 입력된 음향 신호에 기초하여, 결정된 제1 탑승 정보와, 카메라(140)를 통해 촬영된 영상에 기초하여, 결정된 제2탑승 정보가 일치하지 않는 경우, 제1 탑승 정보에 매칭되는 제1 필터 세트 값을 제2 탑승 정보에 매칭되는 제2 필터 세트 값으로 변경하는 실시 예이다.
도 11을 참조하면, 프로세서(190)는 마이크로폰(130)에 입력된 음향 신호에 기초하여 획득된 제1 탑승 정보에 매칭되는 제1 필터 세트 값을 획득한다(S1101).
제1 탑승 정보에 매칭되는 제1 필터 세트 값을 획득하는 과정은 도 3의 실시 예가 이용될 수 있다.
프로세서(190)는 카메라(140)를 통해 제2 탑승 정보를 획득한다(S1103).
프로세서(190)는 카메라(140)를 통해 촬영된 영상을 이용하여, 탑승자 수 및 탑승자의 좌석 위치를 결정할 수 있다. 이를 위해, 카메라(140)는 RGB 카메라 또는 IR(적외선) 카메라가 사용될 수 있다.
프로세서(190)는 카메라(140)를 통해 촬영된 영상으로부터 탑승자의 얼굴을 인식하고, 인식된 얼굴의 개수를 탑승자의 수로 결정할 수 있다.
또한, 프로세서(190)는 촬영된 영상에서 인식된 얼굴이 어느 영역에 위치하는지를 판단하여, 탑승자의 좌석 위치를 결정할 수 있다.
결과적으로, 프로세서(190)는 촬영된 영상으로부터 탑승자의 수 및 각 탑승자의 좌석 위치를 포함하는 제2 탑승 정보를 획득할 수 있다.
프로세서(190)는 제1 탑승 정보와 제2 탑승 정보가 일치하는지를 판단한다(S1105).
프로세서(190)는 제1 탑승 정보와 제2 탑승 정보가 일치하는 경우, 제1 필터 세트 값에 기초하여, 복수의 스피커들(171 내지 179)의 출력을 제어한다(S1107).
프로세서(190)는 제1 탑승 정보와 제2 탑승 정보가 일치하는 경우, 제1 탑승 정보가 정확하게 인식된 것으로 판단할 수 있다.
프로세서(190)는 제1 탑승 정보와 제2 탑승 정보가 일치하지 않는 경우, 제2 탑승 정보에 매칭되는 제2 필터 세트 값을 획득하고, 제1 필터 세트 값을 제2 필터 세트 값으로 변경한다(S1109).
프로세서(190)는 제1 탑승 정보와 제2 탑승 정보가 일치하지 않는 경우, 제2 탑승 정보를 기준으로, 필터 세트 값을 보정할 수 있다.
이는, 마이크로폰(130)에 입력된 음향 신호에 잡음이 포함되어, 정확한 탑승 정보가 추출될 수 없는 상황이 발생할 수 있기 때문이다.
프로세서(190)는 제1 탑승 정보와 제2 탑승 정보가 일치하지 않은 경우, 음장 테이블을 이용하여, 제2 탑승 정보에 매칭되는 제2 필터 세트 값을 획득할 수 있다.
프로세서(190)는 변경된 제2 필터 세트 값에 기초하여, 복수의 스피커들(171 내지 179)의 출력을 제어한다(S1111).
이와 같이, 도 11의 실시 예에 따르면, 차량 내의 탑승 정보가 더 정확히 파악될 수 있어, 탑승자들에게 보다 최적화된 음장이 제공될 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 상기 프로세서를 포함할 수도 있다.
따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고, 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (15)

  1. 차량에 있어서,
    마이크로폰;
    복수의 스피커들;
    탑승 항목들, 가상 음향 항목들 및 필터 세트 값들 간의 대응 관계들을 포함하는 음장 테이블을 저장하는 메모리; 및
    상기 마이크로폰을 통해 음향 신호를 수신하고, 상기 음장 테이블을 이용하여, 수신된 음향 신호의 특성들에 매칭되는 제1 필터 세트 값을 결정하고, 결정된 제1 필터 세트 값에 따라 음향을 출력하도록, 상기 복수의 스피커들의 출력을 제어하는 프로세서를 포함하는
    차량.
  2. 제1항에 있어서,
    상기 프로세서는
    상기 음향 신호의 특성들 및 기준 신호에서 상기 음향 신호를 제거한 탑승자 신호의 특성들을 추출하고,
    상기 음향 신호의 특성들 및 상기 탑승자 신호의 특성들에 매칭되는 탑승 항목들을 결정하고,
    상기 음장 테이블을 이용하여, 결정된 탑승 항목들에 매칭되는 상기 제1필터 세트 값을 결정하는
    차량.
  3. 제1항에 있어서,
    상기 탑승 항목들은 탑승자 수 및 각 탑승자의 좌석 위치를 포함하고,
    상기 가상 음향 항목들은 가상 음향 신호 및 기준 신호에서 상기 가상 음향 신호가 제거된 탑승자 신호 각각의 초기 감쇠 시간, 제1 잔향 시간 및 제2 잔향 시간을 포함하는
    차량.
  4. 제2항에 있어서,
    카메라를 더 포함하고,
    상기 프로세서는
    상기 카메라를 통해 촬영된 영상으로부터 상기 탑승자 수 및 상기 각 탑승자의 좌석 위치를 포함하는 제2 탑승 정보를 획득하고,
    상기 음향 신호의 특성들 및 상기 탑승자 신호의 특성들에 매칭되는 탑승 항목들을 포함하는 제1 탑승 정보와 상기 제2 탑승 정보를 비교하고,
    상기 제1 탑승 정보와 상기 제2 탑승 정보가 다를 경우, 상기 음장 테이블을 이용하여, 상기 제2 탑승 정보에 매칭되는 제2 필터 세트 값을 결정하는
    차량.
  5. 제4항에 있어서,
    상기 프로세서는
    상기 제1 탑승 정보와 상기 제2 탑승 정보가 다를 경우, 상기 음장 테이블을 이용하여, 상기 제1 필터 세트 값을 상기 제2 필터 세트 값으로 변경하는
    차량.
  6. 제5항에 있어서,
    상기 프로세서는
    변경된 제2 필터 세트 값에 따른 음향을 출력하도록 상기 복수의 스피커들의 출력을 제어하는
    차량.
  7. 제1항에 있어서,
    상기 제1 필터 세트 값은
    상기 복수의 스피커들 각각에 포함된 복수의 필터들 각각의 셋팅 값들의 조합을 나타내는 값이고,
    각 필터의 셋팅 값은 음향 신호의 크기, 음향 신호의 주파수 대역 중 하나 이상을 포함하는
    차량.
  8. 차량의 동작 방법에 있어서,
    마이크로폰을 통해 음향 신호를 수신하는 단계;
    메모리에 저장된 탑승 항목들, 가상 음향 항목들 및 필터 세트 값들 간의 대응 관계를 포함하는 음장 테이블을 이용하여, 수신된 음향 신호의 특성들에 매칭되는 제1 필터 세트 값을 결정하는 단계; 및
    결정된 제1 필터 세트 값에 따라 음향을 출력하도록, 상기 복수의 스피커들의 출력을 제어하는 단계를 포함하는
    차량의 동작 방법.
  9. 제8항에 있어서,
    상기 제1 필터 세트 값을 결정하는 단계는
    상기 음향 신호의 특성들 및 기준 신호에서 상기 음향 신호를 제거한 탑승자 신호의 특성들을 추출하는 단계와
    상기 음향 신호의 특성들 및 상기 탑승자 신호의 특성들에 매칭되는 탑승 항목들을 결정하는 단계와
    상기 음장 테이블을 이용하여, 결정된 탑승 항목들에 매칭되는 상기 제1필터 세트 값을 결정하는 단계를 포함하는
    차량의 동작 방법.
  10. 제8항에 있어서,
    상기 탑승 항목들은 탑승자 수 및 각 탑승자의 좌석 위치를 포함하고,
    상기 가상 음향 항목들은 가상 음향 신호 및 기준 신호에서 상기 가상 음향 신호가 제거된 탑승자 신호 각각의 초기 감쇠 시간, 제1 잔향 시간 및 제2 잔향 시간을 포함하는
    차량.
  11. 제9항에 있어서,
    카메라를 더 포함하고,
    상기 프로세서는
    상기 카메라를 통해 촬영된 영상으로부터 상기 탑승자 수 및 상기 각 탑승자의 좌석 위치를 포함하는 제2 탑승 정보를 획득하고,
    상기 음향 신호의 특성들 및 상기 탑승자 신호의 특성들에 매칭되는 탑승 항목들을 포함하는 제1 탑승 정보와 상기 제2 탑승 정보를 비교하고,
    상기 제1 탑승 정보와 상기 제2 탑승 정보가 다를 경우, 상기 음장 테이블을 이용하여, 상기 제2 탑승 정보에 매칭되는 제2 필터 세트 값을 결정하는
    차량.
  12. 제11항에 있어서,
    상기 프로세서는
    상기 제1 탑승 정보와 상기 제2 탑승 정보가 다를 경우, 상기 음장 테이블을 이용하여, 상기 제1 필터 세트 값을 상기 제2 필터 세트 값으로 변경하는
    차량.
  13. 제12항에 있어서,
    상기 프로세서는
    변경된 제2 필터 세트 값에 따른 음향을 출력하도록 상기 복수의 스피커들의 출력을 제어하는
    차량.
  14. 제8항에 있어서,
    상기 제1 필터 세트 값은
    상기 복수의 스피커들 각각에 포함된 복수의 필터들 각각의 셋팅 값들의 조합을 나타내는 값이고,
    각 필터의 셋팅 값은 음향 신호의 크기, 음향 신호의 주파수 대역 중 하나 이상을 포함하는
    차량.
  15. 차량의 동작 방법을 수행하는 프로그램이 기록된 컴퓨터가 읽을 수 있는 기록 매체에 있어서,
    상기 차량의 동작 방법은
    마이크로폰을 통해 음향 신호를 수신하는 단계;
    메모리에 저장된 탑승 항목들, 가상 음향 항목들 및 필터 세트 값들 간의 대응 관계를 포함하는 음장 테이블을 이용하여, 수신된 음향 신호의 특성들에 매칭되는 제1 필터 세트 값을 결정하는 단계; 및
    결정된 제1 필터 세트 값에 따라 음향을 출력하도록, 상기 복수의 스피커들의 출력을 제어하는 단계를 포함하는
    컴퓨터로 읽을 수 있는 기록 매체.
PCT/KR2018/014620 2018-11-26 2018-11-26 차량 및 그의 동작 방법 WO2020111284A1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP18941279.4A EP3890359A4 (en) 2018-11-26 2018-11-26 VEHICLE AND ASSOCIATED OPERATING METHOD
PCT/KR2018/014620 WO2020111284A1 (ko) 2018-11-26 2018-11-26 차량 및 그의 동작 방법
US17/054,963 US11381915B2 (en) 2018-11-26 2018-11-26 Vehicle and operation method thereof
KR1020207030823A KR20210084345A (ko) 2018-11-26 2018-11-26 차량 및 그의 동작 방법
US17/830,134 US11689853B2 (en) 2018-11-26 2022-06-01 Vehicle and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/014620 WO2020111284A1 (ko) 2018-11-26 2018-11-26 차량 및 그의 동작 방법

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/054,963 A-371-Of-International US11381915B2 (en) 2018-11-26 2018-11-26 Vehicle and operation method thereof
US17/830,134 Continuation US11689853B2 (en) 2018-11-26 2022-06-01 Vehicle and operation method thereof

Publications (1)

Publication Number Publication Date
WO2020111284A1 true WO2020111284A1 (ko) 2020-06-04

Family

ID=70853049

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/014620 WO2020111284A1 (ko) 2018-11-26 2018-11-26 차량 및 그의 동작 방법

Country Status (4)

Country Link
US (2) US11381915B2 (ko)
EP (1) EP3890359A4 (ko)
KR (1) KR20210084345A (ko)
WO (1) WO2020111284A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100208900A1 (en) * 2007-07-05 2010-08-19 Frederic Amadu Method for the sound processing of a stereophonic signal inside a motor vehicle and motor vehicle implementing said method
JP2011148473A (ja) * 2010-01-25 2011-08-04 Fujitsu Ten Ltd 車載用音響装置及び、車載用音響装置の音量調整方法
US20140348354A1 (en) * 2013-05-24 2014-11-27 Harman Becker Automotive Systems Gmbh Generation of individual sound zones within a listening room
US20160071508A1 (en) * 2014-09-10 2016-03-10 Harman Becker Automotive Systems Gmbh Adaptive noise control system with improved robustness
US20160174010A1 (en) * 2014-12-12 2016-06-16 Qualcomm Incorporated Enhanced auditory experience in shared acoustic space

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3618566B2 (ja) * 1999-01-07 2005-02-09 矢崎総業株式会社 乗員検知装置
SE518116C2 (sv) * 1999-11-30 2002-08-27 A2 Acoustics Ab Anordning för aktiv ljudkontroll i ett utrymme
JP4330302B2 (ja) * 2001-09-27 2009-09-16 日産自動車株式会社 音声入出力装置
EP1482763A3 (en) * 2003-05-26 2008-08-13 Matsushita Electric Industrial Co., Ltd. Sound field measurement device
KR20050047634A (ko) * 2003-11-18 2005-05-23 현대자동차주식회사 스피커 각도조절을 통한 사운드 품질향상 방법
US8116465B2 (en) * 2004-04-28 2012-02-14 Sony Corporation Measuring apparatus and method, and recording medium
JP2005341384A (ja) * 2004-05-28 2005-12-08 Sony Corp 音場補正装置、音場補正方法
WO2006095876A1 (ja) * 2005-03-11 2006-09-14 Yamaha Corporation エンジン音加工装置
JP4174062B2 (ja) * 2006-03-27 2008-10-29 本田技研工業株式会社 車両用効果音発生装置
JP4839924B2 (ja) * 2006-03-29 2011-12-21 ソニー株式会社 車載用電子機器、車内空間の音場最適化補正方法及び車内空間の音場最適化補正システム
US8036767B2 (en) * 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
JP5014111B2 (ja) * 2007-12-27 2012-08-29 アルパイン株式会社 モード分解フィルタ生成装置およびモード分解フィルタの生成方法
US8396226B2 (en) * 2008-06-30 2013-03-12 Costellation Productions, Inc. Methods and systems for improved acoustic environment characterization
JP5092974B2 (ja) * 2008-07-30 2012-12-05 富士通株式会社 伝達特性推定装置、雑音抑圧装置、伝達特性推定方法及びコンピュータプログラム
WO2012003894A1 (en) * 2010-07-09 2012-01-12 Bang & Olufsen A/S Adaptive sound field control
WO2012097151A1 (en) * 2011-01-12 2012-07-19 Personics Holdings, Inc. Sound level doseage system for vehicles
US9674609B2 (en) * 2013-08-19 2017-06-06 Yamaha Corporation Speaker device and audio signal processing method
EP3349485A1 (en) * 2014-11-19 2018-07-18 Harman Becker Automotive Systems GmbH Sound system for establishing a sound zone using multiple-error least-mean-square (melms) adaptation
US9640169B2 (en) * 2015-06-25 2017-05-02 Bose Corporation Arraying speakers for a uniform driver field
JP6371328B2 (ja) * 2016-05-11 2018-08-08 本田技研工業株式会社 能動型効果音発生装置
KR102166703B1 (ko) * 2018-10-17 2020-10-20 주식회사 에스큐그리고 차량용 독립 음장 형성 장치 및 차량용 독립 음장 형성 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100208900A1 (en) * 2007-07-05 2010-08-19 Frederic Amadu Method for the sound processing of a stereophonic signal inside a motor vehicle and motor vehicle implementing said method
JP2011148473A (ja) * 2010-01-25 2011-08-04 Fujitsu Ten Ltd 車載用音響装置及び、車載用音響装置の音量調整方法
US20140348354A1 (en) * 2013-05-24 2014-11-27 Harman Becker Automotive Systems Gmbh Generation of individual sound zones within a listening room
US9591420B2 (en) 2013-05-24 2017-03-07 Harman Becker Automotive Systems Gmbh Generation of individual sound zones within a listening room
US20160071508A1 (en) * 2014-09-10 2016-03-10 Harman Becker Automotive Systems Gmbh Adaptive noise control system with improved robustness
US20160174010A1 (en) * 2014-12-12 2016-06-16 Qualcomm Incorporated Enhanced auditory experience in shared acoustic space

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3890359A4

Also Published As

Publication number Publication date
EP3890359A4 (en) 2022-07-06
KR20210084345A (ko) 2021-07-07
US20210219056A1 (en) 2021-07-15
US11381915B2 (en) 2022-07-05
EP3890359A1 (en) 2021-10-06
US20220295185A1 (en) 2022-09-15
US11689853B2 (en) 2023-06-27

Similar Documents

Publication Publication Date Title
US6965787B2 (en) Hands-free device
WO2021003955A1 (zh) 耳机播放状态的控制方法、装置、移动终端及存储介质
WO2020166944A1 (en) Sound outputting device including plurality of microphones and method for processing sound signal using plurality of microphones
WO2013187666A1 (ko) 서비스 제공 장치와 사용자 프로파일 서버를 포함하는 서비스 제공 시스템 및 서비스 제공 장치의 서비스 제공 방법
WO2019112240A1 (en) Electronic apparatus and control method thereof
WO2019156339A1 (ko) 오디오 신호의 주파수의 변화에 따른 위상 변화율에 기반하여 노이즈가 감쇠된 오디오 신호를 생성하는 장치 및 방법
WO2012057589A2 (ko) 멀티 빔 음향시스템
WO2016154868A1 (zh) 一种飞行系统、飞行器、声音装置及声音处理方法
WO2013162329A1 (en) Apparatus and method for outputting audio
WO2017188648A1 (ko) 이어셋 및 그 제어 방법
WO2019156338A1 (ko) 노이즈가 정제된 음성 신호를 획득하는 방법 및 이를 수행하는 전자 장치
WO2018038381A1 (ko) 외부 기기를 제어하는 휴대 기기 및 이의 오디오 신호 처리 방법
WO2017188685A1 (ko) 차량 내 음향 공간 보정 시스템
KR20150018727A (ko) 청각 기기의 저전력 운용 방법 및 장치
WO2017018552A1 (ko) 이어셋 및 그 제어 방법
WO2013085278A1 (ko) 선택적 주의 집중 모델을 이용한 모니터링 장치 및 그 모니터링 방법
WO2020105947A1 (ko) 차량의 음향 개선 장치
WO2019066293A1 (ko) 외부 마이크로폰의 그라운드 단자와 전기적으로 연결될 수 있는 커넥터에 포함된 지정된 핀이 회로 기판의 지정된 그라운드와 전기적으로 연결된 회로 구조를 갖는 전자 장치
WO2019066541A1 (en) INPUT DEVICE, ELECTRONIC DEVICE, SYSTEM COMPRISING THE SAME, AND CORRESPONDING CONTROL METHOD
WO2020189837A1 (ko) 웨어러블 디바이스를 동작하기 위한 장치 및 방법
WO2020111284A1 (ko) 차량 및 그의 동작 방법
WO2020032363A1 (ko) 외부 전자 장치와의 거리에 기반하여 스피커의 출력 세기를 조정하기 위한 방법 및 전자 장치
WO2021020686A1 (ko) 헤드셋 전자 장치 및 그와 연결되는 전자 장치
WO2020262835A1 (ko) 전자 장치 및 이를 이용한 오디오 신호를 처리하기 위한 음향 장치를 결정하는 방법
DK1479265T3 (da) Stemmeregistrerings- og skelneapparat

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18941279

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018941279

Country of ref document: EP

Effective date: 20210628