EP4082226A1 - Audio method and system for a seat headrest - Google Patents

Audio method and system for a seat headrest

Info

Publication number
EP4082226A1
EP4082226A1 EP20829947.9A EP20829947A EP4082226A1 EP 4082226 A1 EP4082226 A1 EP 4082226A1 EP 20829947 A EP20829947 A EP 20829947A EP 4082226 A1 EP4082226 A1 EP 4082226A1
Authority
EP
European Patent Office
Prior art keywords
user
ear
audio
calibration
headrest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP20829947.9A
Other languages
German (de)
French (fr)
Inventor
Jean Francois RONDEAU
Christophe Mattei
Nicolas PIGNIER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Europe SAS
Original Assignee
Faurecia Clarion Electronics Europe SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faurecia Clarion Electronics Europe SAS filed Critical Faurecia Clarion Electronics Europe SAS
Publication of EP4082226A1 publication Critical patent/EP4082226A1/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17823Reference signals, e.g. ambient acoustic environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17857Geometric disposition, e.g. placement of microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17873General system configurations using a reference signal without an error signal, e.g. pure feedforward
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/128Vehicles
    • G10K2210/1282Automobiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • H04R5/023Spatial or constructional arrangements of loudspeakers in a chair, pillow

Definitions

  • TITLE Seat headrest audio system and method
  • the present invention relates to an audio processing method for a seat headrest audio system, and an associated seat headrest audio system, the audio processing for the purpose of improving the sound quality in the system. seat headrest audio.
  • the present invention also relates to a passenger transport vehicle, in particular a motor vehicle, comprising one or more seats, at least one seat being equipped with a headrest and such an audio system.
  • the invention lies in the field of audio systems for vehicles, and in particular for passenger transport vehicles.
  • Audio systems for vehicles generally include one or more loudspeakers, adapted to emit sound signals, from a source, for example a car radio, in the passenger compartment of the vehicle.
  • a source for example a car radio
  • an important issue is to improve the quality of listening to sound signals for vehicle users.
  • audio systems which integrate one or more loudspeakers) in the seat headrest, for each or for a part of the seats of a vehicle, in order to improve the audio experience of the vehicle.
  • a user installed in a seat equipped with such a headrest.
  • noise reduction systems are known, and in particular active noise reduction or active noise control systems.
  • Active noise reduction or active noise control consists in applying filtering, in an electronic transmission chain connected to the loudspeaker, this filtering having the aim of canceling a picked up noise, so as to emit a denoised sound to the loudspeaker. a predetermined position (or area).
  • the object of the invention is to provide a system for improving headrest audio systems regardless of the user's head position.
  • the invention provides, according to one aspect, an audio processing method for a seat headrest audio system, the audio system comprising at least two loudspeakers positioned on either side of the seat. -head, and an audio processing module adapted to apply at least one audio processing operation.
  • This process comprises steps of:
  • the audio processing method for a headrest audio system makes it possible to optimize the audio processing operation according to the calculated positions of the user's ears in a predetermined spatial frame of reference.
  • the audio processing method for a headrest audio system according to the invention may also have one or more of the characteristics below, taken independently or in any technically conceivable combination.
  • the processing of the acquired images comprises an extraction, from at least one acquired image, of markers associated with the morphological characteristics of the user, and a determination, in said three-dimensional spatial frame of reference, of a spatial position associated with each marker extracted.
  • the method further comprises generating a representative three-dimensional model of the user's head based on said extracted markers, and determining the spatial positions of each user's ear in said spatial frame of reference from said three-dimensional model.
  • the extracted markers comprise only an ear marker relating to an ear of the user among the left ear and the right ear, the method comprising a calculation. spatial position of the user's other ear as a function of the three-dimensional model representative of the user's head generated.
  • the method further comprises a preliminary step of determining calibration information in connection with said audio processing operation for each point of a plurality of points of a calibration grid, each point of the calibration grid being associated with a index and corresponding to a calibration position for the right ear and a calibration position for the left ear, and a recording of said calibration information in association with a calibration index associated with the calibration point.
  • the determination of calibration information as a function of the determined spatial positions of the user's right and left ears comprises a neighborhood search to select a point of the calibration grid corresponding to a calibration position of the right ear and a calibration position of the left ear which are closest, by a predetermined distance, respectively to the determined spatial position of the user's right ear and to the determined spatial position of the user's left ear.
  • the audio processing operation is active noise reduction or active noise control and / or sound spatialization and / or sound equalization.
  • the invention relates to a seat headrest audio system comprising at least two speakers positioned on either side of the headrest, and an audio processing module suitable for applying to the headrest. minus an audio processing operation.
  • the system comprises an image acquisition device, an image processing device and a device for determining calibration information, and:
  • the image acquisition device is configured to acquire images of the head of a user of said audio system
  • the image processing device is configured to perform processing of the acquired images to determine, in a predetermined three-dimensional spatial frame of reference, a spatial position of each ear, respectively right ear and left ear, of the user,
  • the device for determining calibration information is configured to, as a function of said determined spatial positions of the user's ears, and on the basis of calibration information previously recorded in connection with an audio processing operation, to determine information of calibration making it possible to adapt said audio processing operation to the determined spatial positions of the user's ears.
  • the headrest audio system according to the invention is suitable for implementing all of the characteristics of the audio processing method as briefly described above.
  • the seat headrest audio system further comprises at least one microphone, preferably at least two microphones.
  • the invention relates to a passenger transport vehicle comprising one or more seats, at least one seat being equipped with a headrest comprising a headrest audio system, said audio support system. head being configured to implement an audio processing method as briefly described above.
  • Figure 1 is a schematic example of a headrest audio system according to one embodiment of the invention.
  • Figure 2 schematically illustrates a movement of the head of a user in a predetermined frame of reference
  • FIG 3 is a schematic view of an audio system according to the invention.
  • FIG 4 is a flowchart of the main steps of an audio processing method in one embodiment of the invention.
  • FIG. 5 is a flowchart of the main steps of a preliminary phase of calculating calibration information according to one embodiment.
  • Figure 1 is schematically illustrated a vehicle 2 for transporting passengers, for example a motor vehicle.
  • the vehicle 2 comprises a passenger compartment 4 in which are placed a plurality of seats, not shown, and at least one seat comprises a headrest 6, coupled to a seat back, generally intended to support the head of the user seated in the seat. .
  • the vehicle 2 has several seats, the back of which is provided with a headrest.
  • a motor vehicle 2 has a front row of seats, a row of rear seats, and the two front seats are both fitted with a headrest 6.
  • the motor vehicle can also have one or more rows of intermediate seats. , located between the front row of seats and the rear row of seats.
  • a headrest 6 comprises a central body 8, for example of concave shape, forming a bearing zone 10 for the head 12 of a user 14.
  • the headrest 6 has two side flaps 16L, 16R, positioned on either side of the central body 8.
  • the side flaps 16L, 16R are fixed.
  • the side flaps 16L, 16R are articulated relative to the central body 8, for example movable in rotation relative to an axis.
  • the headrest 4 is provided with an audio system 20 for a seat headrest, comprising in particular a number N of speakers 22, integrated in a housing of the headrest.
  • the loudspeakers are housed on either side of a central axis A of the body 18 of the headrest, for example in the side flaps 16R, 16L when such side flaps are present.
  • the audio system includes 2 speakers, which are distinguished and denoted respectively 22L, 22R.
  • the audio system 20 comprises P microphones 24, each microphone being housed in a corresponding housing of the headrest.
  • the audio system 20 has two microphones 24R, 24L, placed on either side of the headrest.
  • These microphones 24L, 24R are particularly suitable for picking up the pressure level of the sound signals.
  • the audio system 20 further comprises an audio processing module 30, connected to the N loudspeakers and to the P microphones via a link 32, preferably a wired link.
  • the audio processing module 30 receives sound signals from a source 34, for example a car radio, and implements various audio processing of the received sound signal.
  • the headrest audio system 20 comprises an audio processing improvement system 36, implementing a determination of the position of the user's ears to improve the sound reproduction of the audio system 20 for support.
  • - seat head is also installed.
  • the improvement in sound reproduction is achieved by an audio processing operation calibrated according to the positions of the user's ears determined.
  • the audio processing operation is noise reduction, in particular active noise reduction, or sound spatialization, or cross-talk reduction between seats, sound equalization, or any sound operation allowing '' improve the quality of listening to music.
  • multiple audio processing operations are implemented.
  • the audio system 20 includes an image acquisition device 38 associated with the headrest 6.
  • the image acquisition device 38 is for example an optical camera, suitable for capturing images in a given range of the electromagnetic spectrum, for example in the visible spectrum, the infrared spectrum or the near infrared spectrum.
  • the image acquisition device 38 is a radar device.
  • the image acquisition device 38 is adapted to capture two-dimensional images.
  • the image acquisition device 38 is adapted to capture three-dimensional images.
  • the image acquisition device 38 is positioned in the passenger compartment 4 of the vehicle, in a spatial position chosen so that the headrest 6 is in the shooting field 40 of the image acquisition device 38 .
  • the image acquisition device 38 is placed on or integrated into a housing of an element (not shown) of the passenger compartment 4, located in front of the seat on which the headrest 6.
  • the image acquisition device 38 is mounted in a fixed position, and its field of view is also fixed.
  • the image acquisition device 38 is mounted in a movable position, for example on a movable part of the passenger compartment 4 of the vehicle, seat or dashboard, the movement of which is known to a control computer. edge of the vehicle.
  • the mounting position of the image acquisition device 38 is chosen so that the movements of the head 12 of the user 14, in translation and / or in rotation relative to the centered position shown in FIG. 1 remains in the field of view 40 of the image acquisition device 38.
  • Such a displacement of the head 12 of the user 14 is schematically illustrated in FIG. 2 .
  • a rotational and / or translational movement of the head 12 of the user 14 notably modifies the distances between each ear 26R, 26L of the user 14 and the loudspeaker 22R, 22L corresponding, and consequently the transfer functions, represented by the arrows F'i, F ' 2 , F' 3 and F ' 4 in figure 2, are modified with respect to the transfer functions corresponding to the centered position, represented by arrows Fi, F 2 , F 3 and F 4 in Figure 1.
  • a three-dimensional (3D) spatial frame of reference with center O and axes (X, Y, Z), orthogonal in pairs, is associated with the image acquisition device 38.
  • This 3D frame of reference is, in one embodiment , chosen as the spatial reference frame of reference in the audio processing method implemented by the audio system 20 of the headrest 4.
  • the system 36 further comprises an image processing device 42, connected to the image acquisition device 38, for example by a wired link, and configured to determine the position of each ear 26R, 26L of the user in the 3D reference frame of reference, from images acquired by the image acquisition device 38.
  • an image processing device 42 connected to the image acquisition device 38, for example by a wired link, and configured to determine the position of each ear 26R, 26L of the user in the 3D reference frame of reference, from images acquired by the image acquisition device 38.
  • the image processing device 42 is integrated into the image acquisition device 38.
  • the image processing device 42 is connected to a device 44 for determining calibration information as a function of the positions of each ear 26R, 26L of the user, intended to adapt an audio processing operation of the audio system 20 for support. head, to optimize the sound reproduction of this audio system.
  • the device 44 is a signal processing processor, for example a DSP (for “digital signal processor”) integrated into the audio processing module 30.
  • a DSP for “digital signal processor”
  • FIG. 3 is a schematic representation of an audio system for a seat headrest, in which the image processing device 42 and the device 44 for determining calibration information are detailed more particularly.
  • the image processing device 42 comprises a processor 46, for example a processor of GPU (for “Graphics Processing Unit”) type, specialized in image processing, and an electronic memory unit 48, for example an electronic memory. , of RAM or DRAM type for example.
  • a processor 46 for example a processor of GPU (for “Graphics Processing Unit”) type, specialized in image processing, and an electronic memory unit 48, for example an electronic memory. , of RAM or DRAM type for example.
  • the processor 46 is suitable for implementing, when the image processing device 42 is powered on, an image acquisition module 50, a module 52 for extracting markers representative of morphological characteristics of the head of a user, a module 54 for generating a 3D model representative of the user's head and a module 56 for calculating the position of each user's ear in a 3D reference frame of reference.
  • These modules 50, 52, 54 and 56 are for example in the form of software.
  • Each of these software is suitable for being recorded on a non-volatile medium, readable by a computer, such as for example an optical disc or card, a magneto-optical disc or card, a ROM memory, RAM, any type of non-memory. volatile (EPROM, EEPROM, FLASH, NVRAM).
  • these modules 50, 52, 54 and 56 are each made in the form of a programmable logic component, such as an FPGA or an integrated circuit.
  • Spatial coordinates in the 3D frame of reference, for each of the user's ears, are transmitted to the device 44 for determining calibration information.
  • This device 44 is a programmable device comprising a processor 58 and an electronic memory unit 60, for example an electronic memory, of RAM or DRAM type for example.
  • the processor 58 is a DSP, adapted to implement a module 62 configured to determine a calibration index of a calibration grid from the spatial coordinates of the ears received from the image processing device 42 and a module 64 for extracting calibration information (s) 68 associated with the calibration index from a prior recording.
  • modules 62, 64 are for example in the form of software.
  • Each of these software is suitable for being recorded on a non-volatile medium, readable by a computer, such as for example an optical disc or card, a magneto-optical disc or card, a ROM memory, RAM, any type of non-memory. volatile (EPROM, EEPROM, FLASH, NVRAM).
  • these modules 62, 64 are each made in the form of a programmable logic component, such as an FPGA or an integrated circuit.
  • the calibration information 68 is supplied to the audio processing module 30.
  • the audio processing module 30 implements an audio processing operation using the calibration information 68.
  • the audio processing module 30 also implements other known audio filtering, which is not described in detail here, as well as digital-to-analog conversion and amplification, to provide a processed sound signal to the speakers 22L, 22R .
  • FIG. 4 is a flowchart of the main steps of an audio processing method for a seat headrest audio system according to one embodiment of the invention, implemented in a processing system as described above .
  • This method comprises a step 70 of acquiring images by the image acquisition device.
  • the images are acquired with a given acquisition frequency (in English "frame rate"), and are stored successively under digital images.
  • a digital image in a known manner is formed of one or more matrix (s) of digital samples, also called pixels, having an associated value.
  • the image acquisition device is adapted to acquire two-dimensional images, therefore each digital image acquired is formed from one or more two-dimensional (2D) matrix (s).
  • the images acquired, in the field of view of the image acquisition device are images in which at least one part of a user's head appears when the user is in the seat to which the headrest is attached.
  • the morphological characteristics include the torso and shoulders as well.
  • the morphological characteristics include in particular: eyes, mouth, nose, ears, chin, but can also contain the upper part of the body.
  • Each morphological characteristic is for example detected in the image by segmentation and represented by a set of pixels of an acquired image.
  • a marker is associated with each morphological characteristic, and a position of the marker in the 3D frame of reference associated with the image acquisition device.
  • the method described in the article “Monocular vision measurement System for the position and orientation of remote object”, by Tao Zhou et al, published in “International Symposium on Photo electronic Detection and Imaging”, vol. 6623, is used for calculating the spatial positions of the markers in the 3D frame of reference associated with the image acquisition device.
  • the method then comprises a generation 74 of a three-dimensional (3D) model representative of the user's head as a function of said extracted markers, by matching the markers of morphological characteristics extracted in step 72 on a standard 3D model of human head.
  • a previously trained neural network is used in step 74.
  • any other method of matching the markers of morphological characteristics extracted in step 72 on a standard 3D model of a human head can be used.
  • a 3D model of the head of the complete user is obtained, which makes it possible in particular to calculate the position of the markers of morphological characteristics not detected in step 72.
  • the position of the markers of morphological characteristics not detected in step 72.
  • the user is turned in profile, alone part of its morphological characteristics can be detected on an acquired 2D image, but it is possible to determine by calculation, from the 3D model, the position of the missing characteristics.
  • the position of each of the user's two ears ie the position of his right ear and the position of his left ear, in the 3D frame of reference, is calculated in the following step 76 for determining the spatial positions of the ears from the representative 3D model of the user's head.
  • the position of the user's two ears is obtained in all cases.
  • the position of an ear, right or left, not visible on an acquired image is determined by calculation, using the 3D module representative of the user's head.
  • step 76 the position of each ear, represented by a triplet of spatial coordinates in the 3D frame of reference: (x, y, z) R and (x, y, z) L.
  • the method then comprises a step 78 of determining an index associated with a point of a predefined calibration grid, called the calibration index, as a function of the coordinates (x, y, z) R and (x, y, z) L.
  • the determination of an index consists in applying a neighborhood search to select points corresponding to calibration positions of the ears, previously recorded, of coordinates (x k , y k , z k ) R (position ear calibration) and (x m , y m , z m ) L (left ear calibration position), which are closest to the coordinate points (x, y, z) R (position of the user's right ear, determined in step 76) and (x, y, z) i_ (position of the user's left ear, determined in step 76).
  • the proximity being evaluated by a predetermined distance, for example the Euclidean distance.
  • a 2D calibration grid is used, and the operation of determining a calibration index associated with a point of a calibration grid is implemented in a similar manner for coordinates (X, Y) R and (x, y) i_ of each ear and coordinates (ck, gk) and (Xm, y m ) of calibration positions.
  • the calibration index is used in the next extraction step 80 to extract calibration information associated with an audio processing operation, from calibration information previously stored in a memory of the computing device 44.
  • calibration information is understood to mean a set of digital filters determined beforehand by measurements, this set of digital filters making it possible to correct or calibrate the audio processing operation in order to improve, as a function of the distance and / or of the acoustic field. between the ear and the loudspeaker, the reproduction of sound by the loudspeakers when the two ears are not in front of the loudspeakers or are not at an equal distance on each side of the head restraint.
  • the audio processing operation is active noise reduction, and includes the application of FxLMS (filtered least mean squared) adaptive filters.
  • FxLMS filtered least mean squared
  • the calibration information comprises, in this embodiment, for each of the ears, a primary transfer function and a secondary transfer function.
  • the primary transfer function IR p (resp IR p R ) is the transfer function between the microphone 24L (resp. 24R) and the ear 26L (resp. 26R), when the acoustic field is formed by the sound signal to be processed .
  • the secondary transfer function IR R (IR R ) is the transfer function between the microphone 24L (resp. 24R) and the ear 26L (resp. 26R), when the acoustic field is formed by the sound signal emitted from the top -speaker 22L (resp. 22R) corresponding.
  • the cross transfer functions, primary and secondary, between right microphone 24R (respectively right speaker 22R) and left ear 26L, and left microphone 24L (respectively left speaker 22L) and right ear 26R are also used. .
  • the calibration information extracted in step 80 comprises 4 transfer functions, previously measured and recorded.
  • the method ends with the application 82 of the audio processing operation, for example the application of the active noise reduction, adapted by using the calibration information obtained in step 80.
  • the operation of Audio processing is optimized based on the calculated positions of the user's ears, which improves the quality of the sound perceived by the user.
  • the audio processing method according to the invention has been described above in the case where the audio processing operation is active noise reduction.
  • the audio processing operation is an improvement in the quality of audio perception, and includes the application of spatialization filters such as binauralization filters. Thanks to the positions of the two ears detected, the spatialization filters are well chosen as a function of these positions.
  • the preliminary phase includes a step 90 for defining a calibration grid comprising a plurality of points, each point being identified by a calibration index.
  • the calibration grid several spatial positions of the seat to which the headrest is attached are considered, when the seat is movable in translation, along one or more axes, which is for example the case in a motor vehicle.
  • the seat is fixed in a given spatial position.
  • step 92 For each point of the calibration grid, spatial coordinates representative of the calibration position of each ear of the test manikin, in the frame of reference of the image acquisition device, are measured and recorded in step 92, in association with the corresponding calibration index.
  • the information or the calibration information for example the primary and secondary transfer functions for each of the ears in the case of active noise reduction, are calculated in the calculation step 94. calibration information.
  • a transfer function for example, the measurement of a transfer function, primary or secondary, in a test environment, using a test dummy, is well known to those skilled in the art.
  • a test sound signal for example pink noise, is used, for example, to calculate these transfer functions for each ear of the test manikin.
  • the calibration information is recorded in the RAM memory of the processor of the processing module used. Steps 92 to 96 are repeated for all the points of the grid, which makes it possible to obtain a database of calibration information, associated with the calibration grid, for the chosen audio processing operation.
  • the invention has been described above for a seat headrest audio system. It is clear that the invention applies in the same way to each seat headrest audio system, an image acquisition device being installed for each seat headrest audio system.
  • the use of a mapping of the spatial positions of markers representative of the user's morphological characteristics with a three-dimensional model representative of the user's head makes it possible to obtain the spatial coordinates of the user's ears in all cases, including when the ears are not detected on the images acquired by the image acquisition device.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Stereophonic System (AREA)
  • Chair Legs, Seat Parts, And Backrests (AREA)

Abstract

The invention relates to an audio processing method for an audio system for a seat headrest, the audio system comprising at least two loudspeakers positioned on either side of the headrest, and an audio processing module designed to apply at least one audio processing operation. The method comprises steps of: - acquiring (70) images of the head of a user of said audio system using an image acquisition device, - processing (72, 74) the acquired images in order to determine (76), within a predetermined three-dimensional spatial reference frame, a spatial position of each ear, respectively the right ear and the left ear, of the user, and, - on the basis of said determined spatial positions of the ears of the user, and based on calibration information recorded beforehand in conjunction with an audio processing operation, determining (80) calibration information for adapting said audio processing operation to the determined spatial positions of the ears of the user. The invention also relates to an associated audio system for a seat headrest.

Description

TITRE : Procédé et système audio d’appui-tête de siège TITLE: Seat headrest audio system and method
La présente invention concerne un procédé de traitement audio pour un système audio d’appui-tête de siège, et un système audio d’appui-tête de siège associé, le traitement audio ayant pour objectif d’améliorer la qualité du son dans le système audio d’appui-tête de siège. The present invention relates to an audio processing method for a seat headrest audio system, and an associated seat headrest audio system, the audio processing for the purpose of improving the sound quality in the system. seat headrest audio.
La présente invention concerne également un véhicule de transport de passagers, notamment un véhicule automobile, comprenant un ou plusieurs sièges, au moins un siège étant équipé d’un appui-tête et d’un tel système audio. The present invention also relates to a passenger transport vehicle, in particular a motor vehicle, comprising one or more seats, at least one seat being equipped with a headrest and such an audio system.
L’invention se situe dans le domaine des systèmes audio pour véhicules, et en particulier pour véhicules de transport de passagers. The invention lies in the field of audio systems for vehicles, and in particular for passenger transport vehicles.
Les systèmes audio pour véhicules comprennent en général un ou plusieurs haut- parleurs, adaptés à émettre des signaux sonores, provenant d’une source, par exemple un autoradio, dans l’habitacle du véhicule. Dans le domaine des systèmes audio pour véhicules, une problématique important est d’améliorer la qualité d’écoute des signaux sonores pour les utilisateurs du véhicule. Audio systems for vehicles generally include one or more loudspeakers, adapted to emit sound signals, from a source, for example a car radio, in the passenger compartment of the vehicle. In the field of vehicle audio systems, an important issue is to improve the quality of listening to sound signals for vehicle users.
A cet effet, on connaît des systèmes audio qui intègrent un ou plusieurs haut- parleurs) dans l’appui-tête de siège, pour chaque ou pour une partie des sièges d’un véhicule, afin d’améliorer l’expérience audio d’un utilisateur installé dans un siège équipé d’un tel appui-tête. To this end, audio systems are known which integrate one or more loudspeakers) in the seat headrest, for each or for a part of the seats of a vehicle, in order to improve the audio experience of the vehicle. a user installed in a seat equipped with such a headrest.
Afin d’améliorer encore plus la restitution sonore, on envisage l’application de diverses opérations de traitement audio. En particulier, on connaît des systèmes de réduction de bruit, et notamment de réduction active de bruit ou de contrôle actif de bruit. La réduction active de bruit ou le contrôle actif de bruit consiste à appliquer un filtrage, dans une chaîne électronique d’émission connectée au haut-parleur, ce filtrage ayant pour but d’annuler un bruit capté, de manière à émettre un son débruité à une position (ou une zone) prédéterminée. In order to further improve sound reproduction, the application of various audio processing operations is contemplated. In particular, noise reduction systems are known, and in particular active noise reduction or active noise control systems. Active noise reduction or active noise control consists in applying filtering, in an electronic transmission chain connected to the loudspeaker, this filtering having the aim of canceling a picked up noise, so as to emit a denoised sound to the loudspeaker. a predetermined position (or area).
L’article « Performance évaluation of an active headrest using remote microphone technique » de D. Prasad Das et al, publié dans « Proceedings of ACOUSTICS 2011 », décrit des méthodes de réduction active de bruit pour systèmes audio d’appui-tête, l’appui- tête comportant deux haut-parleurs et deux microphones, placés par rapport à une position centrée de l’utilisateur. La réduction active de bruit est dans ce cas optimisée pour une position prévue de la tête de l’utilisateur pour laquelle elle a été calibrée. The article "Performance evaluation of an active headrest using remote microphone technique" by D. Prasad Das et al, published in "Proceedings of ACOUSTICS 2011", describes methods of active noise reduction for headrest audio systems, l headrest comprising two loudspeakers and two microphones, placed in relation to a centered position of the user. Active noise reduction in this case is optimized for an intended position of the user's head for which it has been calibrated.
Cependant, en pratique, les utilisateurs ne sont pas nécessairement positionnés dans la position prévue, et par conséquent la réduction active de bruit est sous-optimale. De manière plus générale, ce défaut est présent pour tout système audio pour appui-tête de siège, dès lors que l’opération de traitement audio pour améliorer la qualité du son est dépendante d’une position prévue de la tête de l’utilisateur. However, in practice, users are not necessarily positioned in the intended position, and therefore active noise reduction is suboptimal. More generally, this defect is present for any audio system for a seat headrest, since the audio processing operation to improve the sound quality is dependent on an expected position of the user's head.
L’invention a pour but de proposer un système permettant l’amélioration des systèmes audio pour appui-tête indépendamment de la position de la tête de l’utilisateur. The object of the invention is to provide a system for improving headrest audio systems regardless of the user's head position.
A cet effet, l’invention propose, selon un aspect, un procédé de traitement audio pour système audio d’appui-tête de siège, le système audio comportant au moins deux haut-parleurs positionnés de part et d’autre de l’appui-tête, et un module de traitement audio adapté à appliquer au moins une opération de traitement audio. Ce procédé comporte des étapes de : To this end, the invention provides, according to one aspect, an audio processing method for a seat headrest audio system, the audio system comprising at least two loudspeakers positioned on either side of the seat. -head, and an audio processing module adapted to apply at least one audio processing operation. This process comprises steps of:
- acquisition d’images de la tête d’un utilisateur dudit système audio par un dispositif d’acquisition d’images, - acquisition of images of the head of a user of said audio system by an image acquisition device,
- traitement des images acquises pour déterminer, dans un référentiel spatial à trois dimensions prédéterminé, une position spatiale de chaque oreille, respectivement oreille droite et oreille gauche, de l’utilisateur, - processing of the acquired images to determine, in a predetermined three-dimensional spatial frame of reference, a spatial position of each ear, respectively right ear and left ear, of the user,
- en fonction desdites positions spatiales déterminées des oreilles de l’utilisateur, et à partir d’informations de calibration préalablement enregistrées en lien avec une opération de traitement audio, détermination d’une information de calibration permettant d’adapter ladite opération de traitement audio aux positions spatiales déterminées des oreilles de l’utilisateur. - as a function of said determined spatial positions of the user's ears, and on the basis of calibration information previously recorded in connection with an audio processing operation, determination of calibration information making it possible to adapt said audio processing operation to the determined spatial positions of the user's ears.
Avantageusement, le procédé de traitement audio pour système audio d’appui-tête selon l’invention permet d’optimiser l’opération de traitement audio en fonction des positions calculées des oreilles de l’utilisateur dans un référentiel spatial prédéterminé. Advantageously, the audio processing method for a headrest audio system according to the invention makes it possible to optimize the audio processing operation according to the calculated positions of the user's ears in a predetermined spatial frame of reference.
Le procédé de traitement audio pour système audio d’appui-tête selon l’invention peut également présenter une ou plusieurs des caractéristiques ci-dessous, prises indépendamment ou selon toutes les combinaisons techniquement envisageables. The audio processing method for a headrest audio system according to the invention may also have one or more of the characteristics below, taken independently or in any technically conceivable combination.
Le traitement des images acquises comprend une extraction, à partir d’au moins une image acquise, de marqueurs associés à des caractéristiques morphologiques de l’utilisateur, et une détermination, dans ledit référentiel spatial à trois dimensions, d’une position spatiale associée à chaque marqueur extrait. The processing of the acquired images comprises an extraction, from at least one acquired image, of markers associated with the morphological characteristics of the user, and a determination, in said three-dimensional spatial frame of reference, of a spatial position associated with each marker extracted.
Le procédé comporte en outre une génération d’un modèle tridimensionnel représentatif de la tête de l’utilisateur en fonction desdits marqueurs extraits, et une détermination des positions spatiales de chaque oreille de l’utilisateur dans ledit référentiel spatial à partir dudit modèle tridimensionnel. The method further comprises generating a representative three-dimensional model of the user's head based on said extracted markers, and determining the spatial positions of each user's ear in said spatial frame of reference from said three-dimensional model.
Les marqueurs extraits comportent seulement un marqueur d’oreille relatif à une oreille de l’utilisateur parmi l’oreille gauche et l’oreille droite, le procédé comportant un calcul de position spatiale de l’autre oreille de l’utilisateur en fonction du modèle tridimensionnel représentatif de la tête de l’utilisateur généré. The extracted markers comprise only an ear marker relating to an ear of the user among the left ear and the right ear, the method comprising a calculation. spatial position of the user's other ear as a function of the three-dimensional model representative of the user's head generated.
Le procédé comporte en outre une étape préalable de détermination d’informations de calibration en lien avec ladite opération de traitement audio pour chaque point d’une pluralité de points d’une grille de calibration, chaque point de la grille de calibration étant associé à un indice et correspondant à une position de calibration pour l’oreille droite et une position de calibration pour l’oreille gauche, et un enregistrement desdites informations de calibration en association un indice de calibration associé au point de calibration. The method further comprises a preliminary step of determining calibration information in connection with said audio processing operation for each point of a plurality of points of a calibration grid, each point of the calibration grid being associated with a index and corresponding to a calibration position for the right ear and a calibration position for the left ear, and a recording of said calibration information in association with a calibration index associated with the calibration point.
La détermination d’une information de calibration en fonction des positions spatiales déterminées des oreilles droite et gauche de l’utilisateur comporte une recherche de voisinage pour sélectionner un point de la grille de calibration correspondant à une position de calibration de l’oreille droite et une position de calibration de l’oreille gauche qui sont les plus proches, selon une distance prédéterminée, respectivement de la position spatiale déterminée de l’oreille droite de l’utilisateur et de la position spatiale déterminée de l’oreille gauche de l’utilisateur. The determination of calibration information as a function of the determined spatial positions of the user's right and left ears comprises a neighborhood search to select a point of the calibration grid corresponding to a calibration position of the right ear and a calibration position of the left ear which are closest, by a predetermined distance, respectively to the determined spatial position of the user's right ear and to the determined spatial position of the user's left ear.
L’opération de traitement audio est une réduction active de bruit ou un contrôle actif de bruit et/ou une spatialisation du son et/ou une égalisation du son. The audio processing operation is active noise reduction or active noise control and / or sound spatialization and / or sound equalization.
Selon un autre aspect, l’invention concerne un système audio d’appui-tête de siège comprenant au moins deux haut-parleurs positionnés de part et d’autre de l’appui-tête, et un module de traitement audio adapté à appliquer au moins une opération de traitement audio. Le système comprend un dispositif d’acquisition d’images, un dispositif de traitement d’images et un dispositif de détermination d’informations de calibration, et: According to another aspect, the invention relates to a seat headrest audio system comprising at least two speakers positioned on either side of the headrest, and an audio processing module suitable for applying to the headrest. minus an audio processing operation. The system comprises an image acquisition device, an image processing device and a device for determining calibration information, and:
-le dispositif d’acquisition d’images est configuré pour acquérir des images de la tête d’un utilisateur dudit système audio, -the image acquisition device is configured to acquire images of the head of a user of said audio system,
-le dispositif de traitement d’images est configuré pour effectuer un traitement des images acquises pour déterminer, dans un référentiel spatial à trois dimensions prédéterminé, une position spatiale de chaque oreille, respectivement oreille droite et oreille gauche, de l’utilisateur, -the image processing device is configured to perform processing of the acquired images to determine, in a predetermined three-dimensional spatial frame of reference, a spatial position of each ear, respectively right ear and left ear, of the user,
-le dispositif de détermination d’informations de calibration est configuré pour, en fonction desdites positions spatiales déterminées des oreilles de l’utilisateur, et à partir d’informations de calibration préalablement enregistrées en lien avec une opération de traitement audio, déterminer une information de calibration permettant d’adapter ladite opération de traitement audio aux positions spatiales déterminées des oreilles de l’utilisateur. Le système audio d’appui-tête selon l’invention est adapté pour mettre en œuvre l’ensemble des caractéristiques du procédé de de traitement audio tel que brièvement décrit ci-dessus. the device for determining calibration information is configured to, as a function of said determined spatial positions of the user's ears, and on the basis of calibration information previously recorded in connection with an audio processing operation, to determine information of calibration making it possible to adapt said audio processing operation to the determined spatial positions of the user's ears. The headrest audio system according to the invention is suitable for implementing all of the characteristics of the audio processing method as briefly described above.
Selon une caractéristique avantageuse, le système audio d’appui-tête de siège comporte en outre au moins un microphone, de préférence au moins deux microphones. According to an advantageous characteristic, the seat headrest audio system further comprises at least one microphone, preferably at least two microphones.
Selon un autre aspect, l’invention concerne un véhicule de transport de passagers comprenant un ou plusieurs sièges, au moins un siège étant équipé d’un appui-tête comprenant un système audio d’appui-tête, ledit système audio d’appui-tête étant configuré pour mettre en œuvre un procédé de traitement audio tel que brièvement décrit ci-dessus. According to another aspect, the invention relates to a passenger transport vehicle comprising one or more seats, at least one seat being equipped with a headrest comprising a headrest audio system, said audio support system. head being configured to implement an audio processing method as briefly described above.
D’autres caractéristiques et avantages de l’invention ressortiront de la description qui en est donnée ci-dessous, à titre indicatif et nullement limitatif, en référence aux figures annexées, parmi lesquelles : Other characteristics and advantages of the invention will emerge from the description which is given below, by way of indication and in no way limiting, with reference to the appended figures, among which:
[Fig 1] la figure 1 est un exemple schématique d’un système audio d’appui-tête selon un mode de réalisation de l’invention ; [Fig 1] Figure 1 is a schematic example of a headrest audio system according to one embodiment of the invention;
[Fig 2] la figure 2 illustre schématiquement un déplacement de la tête d’un utilisateur dans un référentiel prédéterminé ; [Fig 2] Figure 2 schematically illustrates a movement of the head of a user in a predetermined frame of reference;
[Fig 3] la figure 3 est une vue schématique d’un système audio selon l’invention ; [Fig 3] Figure 3 is a schematic view of an audio system according to the invention;
[Fig 4] la figure 4 est un organigramme des principales étapes d’un procédé de traitement audio dans un mode de réalisation de l’invention ; [Fig 4] Figure 4 is a flowchart of the main steps of an audio processing method in one embodiment of the invention;
[Fig 5] la figure 5 est un organigramme des principales étape d’une phase préalable de calcul d’informations de calibration selon un mode de réalisation. [Fig 5] FIG. 5 is a flowchart of the main steps of a preliminary phase of calculating calibration information according to one embodiment.
Dans la figure 1 est illustré schématiquement un véhicule 2 de transport de passagers, par exemple un véhicule automobile. In Figure 1 is schematically illustrated a vehicle 2 for transporting passengers, for example a motor vehicle.
Le véhicule 2 comprend un habitacle 4 dans lequel sont placés un plusieurs sièges non représentés, et au moins un siège comporte un appui-tête 6, couplé à un dossier de siège, destiné généralement à supporter la tête de l’utilisateur assis dans le siège. The vehicle 2 comprises a passenger compartment 4 in which are placed a plurality of seats, not shown, and at least one seat comprises a headrest 6, coupled to a seat back, generally intended to support the head of the user seated in the seat. .
De préférence, le véhicule 2 comporte plusieurs sièges dont le dossier est muni d’un appui-tête. Preferably, the vehicle 2 has several seats, the back of which is provided with a headrest.
Par exemple, un véhicule automobile 2 comporte une rangée de sièges avant, une rangée de sièges arrière, et les deux sièges avant sont tous deux équipés d’un appui-tête 6. Le véhicule automobile peut également comporter une ou plusieurs rangées de sièges intermédiaires, situées entre la rangée de sièges avant et la rangée de siège arrière.For example, a motor vehicle 2 has a front row of seats, a row of rear seats, and the two front seats are both fitted with a headrest 6. The motor vehicle can also have one or more rows of intermediate seats. , located between the front row of seats and the rear row of seats.
En variante, tous les sièges sont équipés d’un appui-tête. Un appui-tête 6 comporte un corps central 8, par exemple de forme concave, formant une zone 10 d’appui pour la tête 12 d’un utilisateur 14. As a variant, all the seats are fitted with a headrest. A headrest 6 comprises a central body 8, for example of concave shape, forming a bearing zone 10 for the head 12 of a user 14.
De plus, en complément optionnel, l’appui-tête 6 comporte deux volets latéraux 16L, 16R, positionnés de part et d’autre du corps central 8. In addition, as an optional extra, the headrest 6 has two side flaps 16L, 16R, positioned on either side of the central body 8.
Par exemple, dans un mode de réalisation, les volets latéraux 16L, 16R sont fixes. En variante, les volets latéraux 16L, 16R sont articulés par rapport au corps central 8, par exemple mobiles en rotation par rapport à un axe. For example, in one embodiment, the side flaps 16L, 16R are fixed. As a variant, the side flaps 16L, 16R are articulated relative to the central body 8, for example movable in rotation relative to an axis.
L’appui-tête 4 est muni d’un système audio 20 pour appui-tête de siège, comprenant notamment un nombre N de haut-parleurs 22, intégrés dans un logement de l’appui-tête. The headrest 4 is provided with an audio system 20 for a seat headrest, comprising in particular a number N of speakers 22, integrated in a housing of the headrest.
De préférence les haut-parleurs sont logés de part et d’autre d’un axe central A du corps 18 de l’appui-tête, par exemple dans les volets latéraux 16R, 16L lorsque de tels volets latéraux sont présents. Preferably the loudspeakers are housed on either side of a central axis A of the body 18 of the headrest, for example in the side flaps 16R, 16L when such side flaps are present.
Dans l’exemple de la figure 1, le système audio comprend 2 haut-parleurs, qui sont distingués et notés respectivement 22L, 22R. In the example of Figure 1, the audio system includes 2 speakers, which are distinguished and denoted respectively 22L, 22R.
De plus, dans le mode de réalisation illustré à la figure 1 , le système audio 20 comporte P microphones 24, chaque microphone étant logé dans un logement correspondant de l’appui-tête. Dans l’exemple, le système audio 20 comporte deux microphones24R, 24L, placés de part et d’autre de l’appui-tête. In addition, in the embodiment illustrated in Figure 1, the audio system 20 comprises P microphones 24, each microphone being housed in a corresponding housing of the headrest. In the example, the audio system 20 has two microphones 24R, 24L, placed on either side of the headrest.
Ces microphones 24L, 24R sont notamment adaptés à capter le niveau de pression des signaux sonores. These microphones 24L, 24R are particularly suitable for picking up the pressure level of the sound signals.
On comprend que si la tête 12 de l’utilisateur est dans une position centrée donnée, comme représenté à la figure 1 , la distance entre chaque oreille 26L, 26R de l’utilisateur et chaque haut-parleur 22L, 22R est fixe et connue, ainsi que les distances croisées entre oreilles 26L, 26R et haut-parleurs 22R, 22L. Les fonctions de transfert entre oreilles et haut- parleurs, dépendantes des champs acoustiques, et en particulier des distances entre oreilles et haut-parleurs, sont représentées dans la figure 1 par des flèches : Fi représente la fonction de transfert entre le haut-parleur 22L et l’oreille 26L ; F2 représente la fonction de transfert entre le haut-parleur 22R et l’oreille 26R. Les fonctions de transfert croisées sont en plus représentées : F3 représente la fonction de transfert entre le haut-parleur 22L et l’oreille 26R; F4 représente la fonction de transfert entre le haut-parleur 22R et l’oreille 26L. It will be understood that if the user's head 12 is in a given centered position, as shown in FIG. 1, the distance between each user's ear 26L, 26R and each loudspeaker 22L, 22R is fixed and known, as well as the crossed distances between ears 26L, 26R and speakers 22R, 22L. The transfer functions between the ears and the loudspeakers, depending on the sound fields, and in particular the distances between the ears and the loudspeakers, are represented in FIG. 1 by arrows: Fi represents the transfer function between the loudspeaker 22L and the ear 26L; F 2 represents the transfer function between the loudspeaker 22R and the ear 26R. The cross transfer functions are also represented: F 3 represents the transfer function between the loudspeaker 22L and the ear 26R; F 4 represents the transfer function between the loudspeaker 22R and the ear 26L.
Il en est de même en ce qui concerne les fonctions de transfert entre les oreilles 26L, 26R de l’utilisateur et chaque microphone 24L, 24R. The same is true of the transfer functions between the user's ears 26L, 26R and each microphone 24L, 24R.
Le système audio 20 comporte en outre un module de traitement audio 30, relié aux N haut-parleurs et aux P microphones via une liaison 32, de préférence une liaison filaire. Le module de traitement audio 30 reçoit des signaux sonores en provenance d’une source 34, par exemple un autoradio, et met en œuvre divers traitements audio du signal sonore reçu. The audio system 20 further comprises an audio processing module 30, connected to the N loudspeakers and to the P microphones via a link 32, preferably a wired link. The audio processing module 30 receives sound signals from a source 34, for example a car radio, and implements various audio processing of the received sound signal.
Selon l’invention, le système audio 20 d’appui-tête comporte un système 36 d’amélioration de traitement audio, mettant en œuvre une détermination de la position des oreilles de l’utilisateur pour améliorer la restitution sonore du système audio 20 pour appui- tête de siège, est également installé. L’amélioration de la restitution sonore est obtenues par une opération de traitement audio calibrée en fonction des positions des oreilles de l’utilisateur déterminées. According to the invention, the headrest audio system 20 comprises an audio processing improvement system 36, implementing a determination of the position of the user's ears to improve the sound reproduction of the audio system 20 for support. - seat head, is also installed. The improvement in sound reproduction is achieved by an audio processing operation calibrated according to the positions of the user's ears determined.
Par exemple, l’opération de traitement audio est une réduction de bruit, en particulier une réduction active de bruit, ou une spatialisation du son, ou une réduction de diaphonie entre les sièges, une égalisation du son ou une toute opération du son permettant d’améliorer la qualité de l’écoute musicale. For example, the audio processing operation is noise reduction, in particular active noise reduction, or sound spatialization, or cross-talk reduction between seats, sound equalization, or any sound operation allowing '' improve the quality of listening to music.
Dans un mode de réalisation, plusieurs opérations de traitement audio sont mises en œuvre. In one embodiment, multiple audio processing operations are implemented.
Le système audio 20 comporte un dispositif d’acquisition d’images 38 associé à l’appui-tête 6. The audio system 20 includes an image acquisition device 38 associated with the headrest 6.
Le dispositif d’acquisition d’images 38 est par exemple une caméra optique, adaptée à capter des images dans une plage donnée du spectre électromagnétique, par exemple dans le spectre visible, le spectre infrarouge ou le spectre proche infrarouge. The image acquisition device 38 is for example an optical camera, suitable for capturing images in a given range of the electromagnetic spectrum, for example in the visible spectrum, the infrared spectrum or the near infrared spectrum.
En variante, le dispositif d’acquisition d’image 38 est un dispositif radar. Alternatively, the image acquisition device 38 is a radar device.
De préférence, le dispositif d’acquisition d’images 38 est adapté à capter des images bidimensionnelles. En variante, le dispositif d’acquisition d’images 38 est adapté à capter des images tridimensionnelles. Preferably, the image acquisition device 38 is adapted to capture two-dimensional images. As a variant, the image acquisition device 38 is adapted to capture three-dimensional images.
Le dispositif d’acquisition d’images 38 est positionné dans l’habitable 4 du véhicule, dans une position spatiale choisie pour que l’appui-tête 6 soit dans le champ de prise de vue 40 du dispositif d’acquisition d’images 38. The image acquisition device 38 is positioned in the passenger compartment 4 of the vehicle, in a spatial position chosen so that the headrest 6 is in the shooting field 40 of the image acquisition device 38 .
Par exemple, dans un mode de réalisation, le dispositif d’acquisition d’images 38 est placé sur ou intégré dans un logement d’un élément (non représenté) de l’habitacle 4, situé devant le siège sur lequel est monté l’appui-tête 6. For example, in one embodiment, the image acquisition device 38 is placed on or integrated into a housing of an element (not shown) of the passenger compartment 4, located in front of the seat on which the headrest 6.
Dans un mode de réalisation, le dispositif d’acquisition d’images 38 est monté dans une position fixe, et son champ de prise de vue est également fixé. In one embodiment, the image acquisition device 38 is mounted in a fixed position, and its field of view is also fixed.
Selon une variante, le dispositif d’acquisition d’images 38 est monté dans une position mobile, par exemple sur une partie mobile de l’habitacle 4 du véhicule, siège ou tableau de bord, dont le mouvement est connu d’un ordinateur de bord du véhicule. According to a variant, the image acquisition device 38 is mounted in a movable position, for example on a movable part of the passenger compartment 4 of the vehicle, seat or dashboard, the movement of which is known to a control computer. edge of the vehicle.
La position de montage du dispositif d’acquisition d’images 38 est choisie de manière à ce que des déplacements de la tête 12 de l’utilisateur 14, en translation et/ou en rotation par rapport à la position centrée représentée à la figure 1 demeure dans le champ de prise de vue 40 du dispositif d’acquisition d’images 38. Un tel déplacement de la tête 12 de l’utilisateur 14 est schématiquement illustré à la figure 2. The mounting position of the image acquisition device 38 is chosen so that the movements of the head 12 of the user 14, in translation and / or in rotation relative to the centered position shown in FIG. 1 remains in the field of view 40 of the image acquisition device 38. Such a displacement of the head 12 of the user 14 is schematically illustrated in FIG. 2 .
Comme on peut le noter à la figure 2, un déplacement en rotation et/ou en translation de la tête 12 de l’utilisateur 14 modifie notamment les distances entre chaque oreille 26R, 26L de l’utilisateur 14 et le haut-parleur 22R, 22L correspondant, et par conséquent les fonctions de transfert, représentées par les flèches F’i, F’2, F’3 et F’4 dans la figure 2, sont modifiées par rapport aux fonctions de transfert correspondant à la position centrée, représentées par flèches Fi, F2, F3 et F4 de la figure 1 . As can be seen in FIG. 2, a rotational and / or translational movement of the head 12 of the user 14 notably modifies the distances between each ear 26R, 26L of the user 14 and the loudspeaker 22R, 22L corresponding, and consequently the transfer functions, represented by the arrows F'i, F ' 2 , F' 3 and F ' 4 in figure 2, are modified with respect to the transfer functions corresponding to the centered position, represented by arrows Fi, F 2 , F 3 and F 4 in Figure 1.
Un référentiel spatial tridimensionnel (3D), de centre O et d’axes (X, Y, Z), orthogonaux deux à deux, est associé au dispositif d’acquisition d’images 38. Ce référentiel 3D est, dans un mode de réalisation, choisi comme référentiel spatial de référence dans le procédé de traitement audio mis en œuvre par le système audio 20 de l’appui-tête 4. A three-dimensional (3D) spatial frame of reference, with center O and axes (X, Y, Z), orthogonal in pairs, is associated with the image acquisition device 38. This 3D frame of reference is, in one embodiment , chosen as the spatial reference frame of reference in the audio processing method implemented by the audio system 20 of the headrest 4.
Le système 36 comporte en outre un dispositif de traitement d’images 42, connecté au dispositif d’acquisition d’images 38, par exemple par une liaison filaire, et configuré pour déterminer la position de chaque oreille 26R, 26L de l’utilisateur dans le référentiel 3D de référence, à partir d’images acquises par le dispositif d’acquisition d’images 38. The system 36 further comprises an image processing device 42, connected to the image acquisition device 38, for example by a wired link, and configured to determine the position of each ear 26R, 26L of the user in the 3D reference frame of reference, from images acquired by the image acquisition device 38.
En variante non représentée, le dispositif de traitement d’images 42 est intégré dans le dispositif d’acquisition d’images 38. In a variant not shown, the image processing device 42 is integrated into the image acquisition device 38.
Le dispositif de traitement d’images 42 est connecté à un dispositif 44 de détermination d’informations de calibration en fonction des positions de chaque oreille 26R, 26L de l’utilisateur, destinées à adapter une opération traitement audio du système audio 20 pour appui-tête, pour optimiser la restitution sonore de ce système audio. The image processing device 42 is connected to a device 44 for determining calibration information as a function of the positions of each ear 26R, 26L of the user, intended to adapt an audio processing operation of the audio system 20 for support. head, to optimize the sound reproduction of this audio system.
Dans un mode de réalisation, le dispositif 44 est un processeur de traitement de signal, par exemple un DSP (pour « digital signal processor ») intégré dans le module de traitement audio 30. In one embodiment, the device 44 is a signal processing processor, for example a DSP (for “digital signal processor”) integrated into the audio processing module 30.
La figure 3 est une représentation schématique d’un système audio pour appui-tête de siège, dans lequel sont détaillés plus particulièrement le dispositif de traitement d’images 42 et le dispositif 44 de détermination d’informations de calibration. FIG. 3 is a schematic representation of an audio system for a seat headrest, in which the image processing device 42 and the device 44 for determining calibration information are detailed more particularly.
Le dispositif de traitement d’images 42 comporte un processeur 46, par exemple un processeur de type GPU (pour « Graphics Processing Unit »), spécialisé dans le traitement d’images, et une unité de mémoire électronique 48, par exemple une mémoire électronique, de type RAM ou DRAM par exemple. The image processing device 42 comprises a processor 46, for example a processor of GPU (for “Graphics Processing Unit”) type, specialized in image processing, and an electronic memory unit 48, for example an electronic memory. , of RAM or DRAM type for example.
Le processeur 46 est adapté à implémenter, lorsque le dispositif de traitement d’images 42 est mis sous tension, un module d’acquisition d’images 50, un module 52 d’extraction de marqueurs représentatifs de caractéristiques morphologiques de la tête d’un utilisateur, un module 54 de génération de modèle 3D représentatif de la tête de l’utilisateur et un module 56 de calcul de position de chaque oreille de l’utilisateur dans un référentiel 3D de référence. Ces modules 50, 52, 54 et 56 sont par exemple sous forme de logiciel. The processor 46 is suitable for implementing, when the image processing device 42 is powered on, an image acquisition module 50, a module 52 for extracting markers representative of morphological characteristics of the head of a user, a module 54 for generating a 3D model representative of the user's head and a module 56 for calculating the position of each user's ear in a 3D reference frame of reference. These modules 50, 52, 54 and 56 are for example in the form of software.
Chacun de ces logiciels est adapté à être enregistré sur un support non volatile, lisible par un ordinateur, comme par exemple un disque ou une carte optique, un disque ou une carte magnéto-optique, une mémoire ROM, RAM, tout type de mémoire non volatile (EPROM, EEPROM, FLASH, NVRAM). Each of these software is suitable for being recorded on a non-volatile medium, readable by a computer, such as for example an optical disc or card, a magneto-optical disc or card, a ROM memory, RAM, any type of non-memory. volatile (EPROM, EEPROM, FLASH, NVRAM).
En variante ces modules 50, 52, 54 et 56 sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA ou un circuit intégré. As a variant, these modules 50, 52, 54 and 56 are each made in the form of a programmable logic component, such as an FPGA or an integrated circuit.
Des coordonnées spatiales dans le référentiel 3D, pour chacune des oreilles de l’utilisateur, sont transmises au dispositif 44 de détermination d’informations de calibration. Spatial coordinates in the 3D frame of reference, for each of the user's ears, are transmitted to the device 44 for determining calibration information.
Ce dispositif 44 est un dispositif programmable comportant un processeur 58 et une unité de mémoire électronique 60, par exemple une mémoire électronique, de type RAM ou DRAM par exemple. This device 44 is a programmable device comprising a processor 58 and an electronic memory unit 60, for example an electronic memory, of RAM or DRAM type for example.
Dans un mode de réalisation, le processeur 58 est un DSP, adapté à implémenter un module 62 configuré pour déterminer un indice de calibration d’une grille de calibration à partir des coordonnées spatiales des oreilles reçues du dispositif de traitement d’images 42 et un module 64 d’extraction d’information(s) de calibration 68 associées à l’indice de calibration à partir d’un enregistrement préalable. In one embodiment, the processor 58 is a DSP, adapted to implement a module 62 configured to determine a calibration index of a calibration grid from the spatial coordinates of the ears received from the image processing device 42 and a module 64 for extracting calibration information (s) 68 associated with the calibration index from a prior recording.
Ces modules 62, 64 sont par exemple sous forme de logiciel. These modules 62, 64 are for example in the form of software.
Chacun de ces logiciels est adapté à être enregistré sur un support non volatile, lisible par un ordinateur, comme par exemple un disque ou une carte optique, un disque ou une carte magnéto-optique, une mémoire ROM, RAM, tout type de mémoire non volatile (EPROM, EEPROM, FLASH, NVRAM). Each of these software is suitable for being recorded on a non-volatile medium, readable by a computer, such as for example an optical disc or card, a magneto-optical disc or card, a ROM memory, RAM, any type of non-memory. volatile (EPROM, EEPROM, FLASH, NVRAM).
En variante ces modules 62, 64 sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA ou un circuit intégré. As a variant, these modules 62, 64 are each made in the form of a programmable logic component, such as an FPGA or an integrated circuit.
Les informations de calibration 68 sont fournies au module de traitement audio 30.The calibration information 68 is supplied to the audio processing module 30.
Le module de traitement audio 30 met en œuvre une opération de traitement audio utilisant les informations de calibration 68. The audio processing module 30 implements an audio processing operation using the calibration information 68.
Le module de traitement audio 30 met également en œuvre d’autres filtrages audio connus, qui ne sont pas décrits en détail ici, ainsi qu’une conversion numérique analogique et une amplification, pour fournir un signal sonore traité aux haut-parleurs 22L, 22R. The audio processing module 30 also implements other known audio filtering, which is not described in detail here, as well as digital-to-analog conversion and amplification, to provide a processed sound signal to the speakers 22L, 22R .
Lorsque l’opération de traitement audio est une réduction active de bruit, des signaux audio captés par les microphones 24R, 24L sont également utilisés par l’opération de traitement audio. La figure 4 est un organigramme des principales étapes d’un procédé de traitement audio pour système audio d’appui-tête de siège selon un mode de réalisation de l’invention, mis en œuvre dans un système de traitement tel que décrit ci-dessus. When the audio processing operation is active noise reduction, audio signals picked up by the microphones 24R, 24L are also used by the audio processing operation. FIG. 4 is a flowchart of the main steps of an audio processing method for a seat headrest audio system according to one embodiment of the invention, implemented in a processing system as described above .
Ce procédé comporte une étape 70 d’acquisition d’images par le dispositif d’acquisition d’images. Par exemple, les images sont acquises avec une fréquence d’acquisition donnée (en anglais « frame rate »), et sont mémorisées successivement sous d’images numériques. This method comprises a step 70 of acquiring images by the image acquisition device. For example, the images are acquired with a given acquisition frequency (in English "frame rate"), and are stored successively under digital images.
Une image numérique de manière connue est formée d’une ou plusieurs matrice(s) d’échantillons numériques, également appelés pixels, ayant une valeur associée. A digital image in a known manner is formed of one or more matrix (s) of digital samples, also called pixels, having an associated value.
Dans un mode de réalisation, le dispositif d’acquisition d’images est adapté à acquérir des images bidimensionnelles, donc chaque image numérique acquise est formée d’une ou plusieurs matrice(s) bidimensionnelle(s) (2D). In one embodiment, the image acquisition device is adapted to acquire two-dimensional images, therefore each digital image acquired is formed from one or more two-dimensional (2D) matrix (s).
Etant donné le positionnement du dispositif d’acquisition d’images dans le système audio 20 selon l’invention, les images acquises, dans le champ de prise de vue du dispositif d’acquisition d’images, sont des images dans lesquelles au moins une partie de la tête d’un utilisateur apparaît lorsque l’utilisateur est présent sur le siège auquel l’appui-tête est fixé. Given the positioning of the image acquisition device in the audio system 20 according to the invention, the images acquired, in the field of view of the image acquisition device, are images in which at least one part of a user's head appears when the user is in the seat to which the headrest is attached.
A partir d’une ou plusieurs des images acquises et enregistrées, une extraction 72 de marqueurs associés à des caractéristiques morphologiques de l’utilisateur, notamment des caractéristiques morphologiques de la tête. Optionnellement les caractéristiques morphologiques comprennent le torse et les épaules également. From one or more of the images acquired and recorded, an extraction 72 of markers associated with the morphological characteristics of the user, in particular the morphological characteristics of the head. Optionally, the morphological characteristics include the torso and shoulders as well.
Les caractéristiques morphologiques comprennent notamment: les yeux, la bouche, le nez, les oreilles, le menton, mais peuvent également contenir la partie haute du corps. The morphological characteristics include in particular: eyes, mouth, nose, ears, chin, but can also contain the upper part of the body.
Bien entendu, en fonction de la position de la tête de l’utilisateur dans le champ de prise de vue, il est possible que seulement une partie de ces caractéristiques soit visible, par exemple si l’utilisateur est tourné de profil. De plus, il est envisageable que certaines caractéristiques qui pourraient être visibles, soient cachées, par exemple par les cheveux de l’utilisateur. Ainsi, selon la position de la tête de l’utilisateur, un sous-ensemble de caractéristiques morphologiques de sa tête est détectable à l’étape 72 d’extraction de marqueurs de caractéristiques morphologiques. Of course, depending on the position of the user's head in the field of view, it is possible that only part of these characteristics will be visible, for example if the user is turned in profile. In addition, it is conceivable that certain characteristics which could be visible, are hidden, for example by the user's hair. Thus, depending on the position of the user's head, a subset of morphological characteristics of his head is detectable in step 72 of extracting markers of morphological characteristics.
Chaque caractéristique morphologique est par exemple détectée dans l’image par segmentation et représentée par un ensemble de pixels d’une image acquise. Un marqueur est associé à chaque caractéristique morphologique, et une position du marqueur dans le référentiel 3D associé au dispositif d’acquisition d’images. Each morphological characteristic is for example detected in the image by segmentation and represented by a set of pixels of an acquired image. A marker is associated with each morphological characteristic, and a position of the marker in the 3D frame of reference associated with the image acquisition device.
Par exemple, la méthode décrite dans l’article « Monocular vision measurement System for the position and orientation of remote object », de Tao Zhou et al, publié dans « International Symposium on Photo electronic Détection and Imaging », vol. 6623, est utilisée pour le calcul des positions spatiales des marqueurs dans le référentiel 3D associé au dispositif d’acquisition d’images. For example, the method described in the article “Monocular vision measurement System for the position and orientation of remote object”, by Tao Zhou et al, published in “International Symposium on Photo electronic Detection and Imaging”, vol. 6623, is used for calculating the spatial positions of the markers in the 3D frame of reference associated with the image acquisition device.
Le procédé comprend ensuite une génération 74 d’un modèle tridimensionnel (3D) représentatif de la tête de l’utilisateur en fonction desdits marqueurs extraits, par mise en correspondance des marqueurs de caractéristiques morphologiques extraits à l’étape 72 sur un modèle 3D standard de tête humaine. De préférence, un réseau de neurones, préalablement entraîné, est utilisé à l’étape 74. The method then comprises a generation 74 of a three-dimensional (3D) model representative of the user's head as a function of said extracted markers, by matching the markers of morphological characteristics extracted in step 72 on a standard 3D model of human head. Preferably, a previously trained neural network is used in step 74.
En variante, toute autre méthode de mise en correspondance des marqueurs de caractéristiques morphologiques extraits à l’étape 72 sur un modèle 3D standard de tête humaine est utilisable. Alternatively, any other method of matching the markers of morphological characteristics extracted in step 72 on a standard 3D model of a human head can be used.
Ainsi, un modèle 3D de la tête de l’utilisateur complet est obtenu, ce qui permet notamment de calculer la position des marqueurs de caractéristiques morphologiques non détectés à l’étape 72. Par exemple, lorsque l’utilisateur est tourné de profil, seule une partie de ses caractéristiques morphologiques sont détectables sur une image 2D acquise, mais il est possible de déterminer par calcul, à partir du modèle 3D, la position des caractéristiques manquantes. Thus, a 3D model of the head of the complete user is obtained, which makes it possible in particular to calculate the position of the markers of morphological characteristics not detected in step 72. For example, when the user is turned in profile, alone part of its morphological characteristics can be detected on an acquired 2D image, but it is possible to determine by calculation, from the 3D model, the position of the missing characteristics.
La position des chacune des deux oreilles de l’utilisateur, i.e. la position de son oreille droite et la position de son oreille gauche, dans le référentiel 3D, est calculée à l’étape suivante 76 de détermination des positions spatiales des oreilles à partir du modèle 3D représentatif de la tête de l’utilisateur. The position of each of the user's two ears, ie the position of his right ear and the position of his left ear, in the 3D frame of reference, is calculated in the following step 76 for determining the spatial positions of the ears from the representative 3D model of the user's head.
Avantageusement, grâce à l’utilisation de ce modèle 3D, la position des deux oreilles de l’utilisateur est obtenue dans tous les cas de figure. Advantageously, thanks to the use of this 3D model, the position of the user's two ears is obtained in all cases.
En particulier, la position d’une oreille, droite ou gauche, non visible sur une image acquise est déterminée par calcul, utilisant le module 3D représentatif de la tête de l’utilisateur. In particular, the position of an ear, right or left, not visible on an acquired image is determined by calculation, using the 3D module representative of the user's head.
Ainsi, à l’issue de l’étape 76, la position de chaque oreille, représentée par un triplet de coordonnées spatiales dans le référentiel 3D : (x,y,z)R et (x,y,z)L. Thus, at the end of step 76, the position of each ear, represented by a triplet of spatial coordinates in the 3D frame of reference: (x, y, z) R and (x, y, z) L.
Le procédé comporte ensuite une étape 78 de détermination d’un indice associé à un point d’une grille de calibration prédéfinie, dit indice de calibration, en fonction des coordonnées (x,y,z)R et (x,y,z)L. The method then comprises a step 78 of determining an index associated with a point of a predefined calibration grid, called the calibration index, as a function of the coordinates (x, y, z) R and (x, y, z) L.
Dans un mode de réalisation, la détermination d’un indice consiste à appliquer une recherche de voisinage pour sélectionner des points correspondant à des positions de calibration des oreilles, préalablement enregistrées, de coordonnées (xk,yk,zk)R (position de calibration de l’oreille droite)et (xm,ym,zm)L (position de calibration de l’oreille gauche), qui sont les plus proches des points de coordonnées (x,y,z)R (position de l’oreille droite de l’utilisateur, déterminée à l’étape 76) et (x,y,z)i_ (position de l’oreille gauche de l’utilisateur, déterminée à l’étape 76). La proximité étant évaluée par une distance prédéterminée, par exemple la distance euclidienne. In one embodiment, the determination of an index consists in applying a neighborhood search to select points corresponding to calibration positions of the ears, previously recorded, of coordinates (x k , y k , z k ) R (position ear calibration) and (x m , y m , z m ) L (left ear calibration position), which are closest to the coordinate points (x, y, z) R (position of the user's right ear, determined in step 76) and (x, y, z) i_ (position of the user's left ear, determined in step 76). The proximity being evaluated by a predetermined distance, for example the Euclidean distance.
Selon une variante, une grille de calibration 2D est utilisée, et l’opération de détermination d’un indice de calibration associé à un point d’une grille de calibration est mise en œuvre de manière analogue pour des coordonnées (X,Y)R et (x,y)i_ de chaque oreille et des coordonnées (ck,gk) et (Xm,ym) de positions de calibration. According to one variant, a 2D calibration grid is used, and the operation of determining a calibration index associated with a point of a calibration grid is implemented in a similar manner for coordinates (X, Y) R and (x, y) i_ of each ear and coordinates (ck, gk) and (Xm, y m ) of calibration positions.
Un indice de calibration correspondant à la position de calibration la plus proche, selon la distance prédéterminée, de la position effective des oreilles droite et gauche, est obtenu. A calibration index corresponding to the closest calibration position, according to the predetermined distance, to the effective position of the right and left ears, is obtained.
L’indice de calibration est utilisé à l’étape d’extraction suivante 80 pour extraire une information de calibration associée à une opération de traitement audio, à partir d’informations de calibration préalablement enregistrées dans une mémoire du dispositif de calcul 44. The calibration index is used in the next extraction step 80 to extract calibration information associated with an audio processing operation, from calibration information previously stored in a memory of the computing device 44.
On entend par « information de calibration » un ensemble de filtres numériques déterminés préalablement par des mesures, cet ensemble de filtres numériques permettant de corriger ou de calibrer l’opération de traitement audio pour améliorer, en fonction de la distance et/ou du champ acoustique entre l’oreille et le hautparleur, la restitution de son par des haut-parleurs lorsque les deux oreilles ne sont pas en face des hautparleurs ou ne sont pas à distance égale de chaque côté de l’appuie-tête. The term “calibration information” is understood to mean a set of digital filters determined beforehand by measurements, this set of digital filters making it possible to correct or calibrate the audio processing operation in order to improve, as a function of the distance and / or of the acoustic field. between the ear and the loudspeaker, the reproduction of sound by the loudspeakers when the two ears are not in front of the loudspeakers or are not at an equal distance on each side of the head restraint.
Dans un mode de réalisation, l’opération de traitement audio est une réduction active de bruit, et comporte l’application de filtres adaptatifs FxLMS (pour « filtered least mean squared »). In one embodiment, the audio processing operation is active noise reduction, and includes the application of FxLMS (filtered least mean squared) adaptive filters.
L’information de calibration comporte, dans ce mode de réalisation, pour chacune des oreilles, une fonction de transfert primaire et une fonction de transfert secondaire. La fonction de transfert primaire IRp (resp IRp R ) est la fonction de transfert entre le microphone 24L (resp. 24R) et l’oreille 26L (resp. 26R), lorsque le champ acoustique est formé par le signal sonore à traiter. La fonction de transfert secondaire IRR (IRR ) est la fonction de transfert entre le microphone 24L (resp. 24R) et l’oreille 26L (resp. 26R), lorsque le champ acoustique est formé par le signal sonore émis par le haut-parleur 22L (resp. 22R) correspondant. En complément optionnel, les fonctions de transfert croisées, primaire et secondaire, entre microphone droit 24R (respectivement haut-parleur droit 22R) et oreille gauche 26L, et microphone gauche 24L(respectivement haut-parleur gauche 22L) et oreille droite 26R sont également utilisées. The calibration information comprises, in this embodiment, for each of the ears, a primary transfer function and a secondary transfer function. The primary transfer function IR p (resp IR p R ) is the transfer function between the microphone 24L (resp. 24R) and the ear 26L (resp. 26R), when the acoustic field is formed by the sound signal to be processed . The secondary transfer function IR R (IR R ) is the transfer function between the microphone 24L (resp. 24R) and the ear 26L (resp. 26R), when the acoustic field is formed by the sound signal emitted from the top -speaker 22L (resp. 22R) corresponding. As an optional addition, the cross transfer functions, primary and secondary, between right microphone 24R (respectively right speaker 22R) and left ear 26L, and left microphone 24L (respectively left speaker 22L) and right ear 26R are also used. .
Ainsi, pour la réduction active de bruit, l’information de calibration extraite à l’étape 80 comporte 4 fonctions de transfert, préalablement mesurées et enregistrées. Le procédé se termine par l’application 82 de l’opération de traitement audio, par exemple l’application de la réduction active de bruit, adaptée en utilisant l’information de calibration obtenue à l’étape 80. Ainsi, l’opération de traitement audio est optimisée en fonction des positions calculées des oreilles de l’utilisateur, ce qui permet d’améliorer la qualité du son perçu par l’utilisateur. Thus, for active noise reduction, the calibration information extracted in step 80 comprises 4 transfer functions, previously measured and recorded. The method ends with the application 82 of the audio processing operation, for example the application of the active noise reduction, adapted by using the calibration information obtained in step 80. Thus, the operation of Audio processing is optimized based on the calculated positions of the user's ears, which improves the quality of the sound perceived by the user.
Le procédé de traitement audio selon l’invention a été décrit ci-dessus dans le cas où l’opération de traitement audio est la réduction active de bruit. The audio processing method according to the invention has been described above in the case where the audio processing operation is active noise reduction.
En variante, ou en complément, d’autres opérations de traitement audio dont la performance dépend de la position de oreilles de l’utilisateur sont mises en œuvre, avec ou sans réduction de bruit. Dans un autre mode de réalisation, l’opération de traitement audio est une amélioration de la qualité de perception audio, et comporte l’application de filtres de spatialisation tel que filtres de binauralisation. Grâce aux positions des deux oreilles détectées, les filtres de spatialisation sont bien choisis en fonction de ces positions. Alternatively, or in addition, other audio processing operations whose performance depends on the position of the user's ears are implemented, with or without noise reduction. In another embodiment, the audio processing operation is an improvement in the quality of audio perception, and includes the application of spatialization filters such as binauralization filters. Thanks to the positions of the two ears detected, the spatialization filters are well chosen as a function of these positions.
Un mode de réalisation d’une phase préalable de détermination et d’enregistrement des informations de calibration est décrite ci-après en référence à la figure 5. An embodiment of a preliminary phase for determining and recording the calibration information is described below with reference to Figure 5.
La phase préalable comprend une étape 90 de définition d’une grille de calibration comportant une pluralité de points, chaque point étant repéré par un indice de calibration. The preliminary phase includes a step 90 for defining a calibration grid comprising a plurality of points, each point being identified by a calibration index.
Pour définir la grille de calibration, plusieurs positions spatiales du siège auquel est fixé l’appui-tête sont considérées, lorsque le siège est mobile en translation, selon un ou plusieurs axes, ce qui est par exemple le cas dans un véhicule automobile. To define the calibration grid, several spatial positions of the seat to which the headrest is attached are considered, when the seat is movable in translation, along one or more axes, which is for example the case in a motor vehicle.
En variante, le siège est fixé dans une position spatiale donnée. Alternatively, the seat is fixed in a given spatial position.
Pour chaque position spatiale du siège, plusieurs positions de la tête d’un utilisateur, représenté par un mannequin de test dans cette phase préalable, sont considérées. For each spatial position of the seat, several positions of the head of a user, represented by a test dummy in this preliminary phase, are considered.
Pour chaque point de la grille de calibration, des coordonnées spatiales représentatives de la position de calibration de chaque oreille du mannequin de test, dans le référentiel du dispositif d’acquisition d’images, sont mesurées et enregistrées à l’étape 92, en association avec l’indice de calibration correspondant. For each point of the calibration grid, spatial coordinates representative of the calibration position of each ear of the test manikin, in the frame of reference of the image acquisition device, are measured and recorded in step 92, in association with the corresponding calibration index.
Pour l’opération de traitement audio choisie, l’information ou les informations de calibration, par exemple les fonctions de transfert primaire et secondaire pour chacune des oreilles dans le cas de la réduction active de bruit, sont calculées à l’étape 94 de calcul des informations de calibration. For the chosen audio processing operation, the information or the calibration information, for example the primary and secondary transfer functions for each of the ears in the case of active noise reduction, are calculated in the calculation step 94. calibration information.
Par exemple, la mesure d’une fonction de transfert, primaire ou secondaire, dans un environnement de test, à l’aide d’un mannequin de test, est bien connue de l’homme du métier. Un signal sonore de test, par exemple un bruit rose, est utilisé par exemple pour calculer ces fonctions de transfert pour chaque oreille du mannequin de test. Les informations de calibration enregistrées à l’étape 96, en lien avec l’indice de calibration et avec les coordonnées spatiales calculées à l’étape 92. For example, the measurement of a transfer function, primary or secondary, in a test environment, using a test dummy, is well known to those skilled in the art. A test sound signal, for example pink noise, is used, for example, to calculate these transfer functions for each ear of the test manikin. The calibration information recorded in step 96, in connection with the calibration index and with the spatial coordinates calculated in step 92.
De préférence, les informations de calibration sont enregistrées dans la mémoire RAM du processeur du module de traitement utilisé. Les étapes 92 à 96 sont répétées pour tous les points de la grille, ce qui permet d’obtenir une base de données d’informations de calibration, associées à la grille de calibration, pour l’opération de traitement audio choisie. Preferably, the calibration information is recorded in the RAM memory of the processor of the processing module used. Steps 92 to 96 are repeated for all the points of the grid, which makes it possible to obtain a database of calibration information, associated with the calibration grid, for the chosen audio processing operation.
L’invention a été décrite ci-dessus pour un système audio d’appui-tête de siège. Il est clair que l’invention s’applique de la même manière pour chaque système audio d’appui- tête de siège, un dispositif d’acquisition d’images étant installé pour chaque système audio d’appui-tête de siège. La phase préalable de calibration, suivie de la mise en œuvre de l’opération de traitement audio pour améliorer la qualité sonore perçue par l’utilisateur. The invention has been described above for a seat headrest audio system. It is clear that the invention applies in the same way to each seat headrest audio system, an image acquisition device being installed for each seat headrest audio system. The preliminary phase of calibration, followed by the implementation of the audio processing operation to improve the sound quality perceived by the user.
Avantageusement, l’utilisation d’une mise en correspondance de positions spatiales de marqueurs représentatifs de caractéristiques morphologiques de l’utilisateur avec un modèle tridimensionnel représentatif de la tête de l’utilisateur permet d’obtenir les coordonnées spatiales des oreilles de l’utilisateur dans tous les cas de figure, y compris lorsque les oreilles ne sont pas détectées sur les images acquises par le dispositif d’acquisition d’images. Advantageously, the use of a mapping of the spatial positions of markers representative of the user's morphological characteristics with a three-dimensional model representative of the user's head makes it possible to obtain the spatial coordinates of the user's ears in all cases, including when the ears are not detected on the images acquired by the image acquisition device.

Claims

REVENDICATIONS
1. Procédé de traitement audio pour un système audio d’appui-tête de siège, le système audio comportant au moins deux haut-parleurs positionnés de part et d’autre de l’appui-tête, et un module de traitement audio adapté à appliquer au moins une opération de traitement audio, le procédé étant caractérisé en ce qu’il comporte des étapes de : o acquisition (70) d’images de la tête (12) d’un utilisateur (14) dudit système audio par un dispositif d’acquisition d’images (38), o traitement (72, 74) des images acquises pour déterminer (76), dans un référentiel spatial à trois dimensions prédéterminé, une position spatiale de chaque oreille (26L, 26R), respectivement oreille droite(26R) et oreille gauche (26L), de l’utilisateur (14), o en fonction desdites positions spatiales déterminées des oreilles (26L, 26R) de l’utilisateur, et à partir d’informations de calibration préalablement enregistrées en lien avec une opération de traitement audio, détermination (80) d’une information de calibration permettant d’adapter ladite opération de traitement audio aux positions spatiales déterminées des oreilles (26L, 26R) de l’utilisateur. 1. Audio processing method for a seat headrest audio system, the audio system comprising at least two loudspeakers positioned on either side of the headrest, and an audio processing module suitable for applying at least one audio processing operation, the method being characterized in that it comprises steps of: o acquisition (70) of images of the head (12) of a user (14) of said audio system by a device acquisition of images (38), o processing (72, 74) of the images acquired to determine (76), in a predetermined three-dimensional spatial frame of reference, a spatial position of each ear (26L, 26R), respectively the right ear (26R) and left ear (26L), of the user (14), o according to said determined spatial positions of the ears (26L, 26R) of the user, and from calibration information previously recorded in connection with an audio processing operation, determination (80) of calibration information making it possible to adapt said audio processing operation to the determined spatial positions of the user's ears (26L, 26R).
2. Procédé selon la revendication 1 , dans lequel ledit traitement des images acquises comprend une extraction (72), à partir d’au moins une image acquise, de marqueurs associés à des caractéristiques morphologiques de l’utilisateur, et une détermination, dans ledit référentiel spatial à trois dimensions, d’une position spatiale associée à chaque marqueur extrait. 2. The method of claim 1, wherein said processing of the acquired images comprises an extraction (72), from at least one acquired image, of markers associated with morphological characteristics of the user, and a determination, in said. three-dimensional spatial frame of reference, of a spatial position associated with each extracted marker.
3. Procédé selon la revendication 2, comportant en outre une génération (74) d’un modèle tridimensionnel représentatif de la tête de l’utilisateur en fonction desdits marqueurs extraits, et une détermination (76) des positions spatiales de chaque oreille de l’utilisateur dans ledit référentiel spatial à partir dudit modèle tridimensionnel. 3. The method of claim 2, further comprising a generation (74) of a three-dimensional model representative of the head of the user based on said extracted markers, and a determination (76) of the spatial positions of each ear of the. user in said spatial frame of reference from said three-dimensional model.
4. Procédé selon la revendication 3, dans lequel lesdits marqueurs extraits comportent seulement un marqueur d’oreille relatif à une oreille de l’utilisateur parmi l’oreille gauche et l’oreille droite, le procédé comportant un calcul (76) de position spatiale de l’autre oreille de l’utilisateur en fonction du modèle tridimensionnel représentatif de la tête de l’utilisateur généré. 4. The method of claim 3, wherein said extracted markers comprise only an ear marker relating to an ear of the user among the left ear and the right ear, the method comprising a calculation (76) of spatial position. the user's other ear as a function of the three-dimensional model representative of the user's head generated.
5. Procédé selon l’une quelconque des revendication 1 à 4, comportant en outre une étape préalable de détermination (94) d’informations de calibration en lien avec ladite opération de traitement audio pour chaque point d’une pluralité de points d’une grille de calibration, chaque point de la grille de calibration étant associé à un indice et correspondant à une position de calibration pour l’oreille droite et une position de calibration pour l’oreille gauche, et un enregistrement (96) desdites informations de calibration en association un indice de calibration associé au point de calibration. 5. Method according to any one of claims 1 to 4, further comprising a prior step of determining (94) calibration information related to said audio processing operation for each point of a plurality of points of a. wire rack calibration, each point of the calibration grid being associated with an index and corresponding to a calibration position for the right ear and a calibration position for the left ear, and a recording (96) of said calibration information in association a calibration index associated with the calibration point.
6. Procédé selon la revendication 5, dans lequel la détermination (80) d’une information de calibration en fonction des positions spatiales déterminées des oreilles droite et gauche de l’utilisateur comporte une recherche de voisinage pour sélectionner un point de la grille de calibration correspondant à une position de calibration de l’oreille droite et une position de calibration de l’oreille gauche qui sont les plus proches, selon une distance prédéterminée, respectivement de la position spatiale déterminée de l’oreille droite de l’utilisateur et de la position spatiale déterminée de l’oreille gauche de l’utilisateur. 6. The method of claim 5, wherein the determination (80) of calibration information as a function of the determined spatial positions of the right and left ears of the user comprises a neighborhood search to select a point of the calibration grid. corresponding to a calibration position of the right ear and a calibration position of the left ear which are closest, according to a predetermined distance, respectively from the determined spatial position of the right ear of the user and of the determined spatial position of the user's left ear.
7. Procédé selon l’une quelconque des revendications 1 à 6, dans lequel l’opération de traitement audio est une réduction active de bruit ou un contrôle actif de bruit et/ou une spatialisation du son et/ou une égalisation du son. 7. A method according to any one of claims 1 to 6, wherein the audio processing operation is active noise reduction or active noise control and / or sound spatialization and / or sound equalization.
8. Système audio d’appui-tête (20) configuré pour mettre en œuvre un procédé de traitement audio selon l’une quelconque des revendications 1 à 7. A headrest audio system (20) configured to implement an audio processing method according to any one of claims 1 to 7.
9. Système audio d’appui-tête (20) selon la revendication 8 comprenant au moins deux haut-parleurs (22L, 22R) positionnés de part et d’autre de l’appui-tête (2), et un module de traitement audio (30) adapté à appliquer au moins une opération de traitement audio, le système (20) étant caractérisé en ce qu’il comprend un dispositif d’acquisition d’images (38), un dispositif de traitement d’images (42) et un dispositif de détermination d’informations de calibration (44), et dans lequel : o le dispositif d’acquisition d’images (38) est configuré pour acquérir des images de la tête (12) d’un utilisateur (14) dudit système audio, o le dispositif de traitement d’images (42) est configuré pour effectuer un traitement des images acquises pour déterminer, dans un référentiel spatial à trois dimensions prédéterminé, une position spatiale de chaque oreille, respectivement oreille droite et oreille gauche, de l’utilisateur, o le dispositif de détermination d’informations de calibration (44) est configuré pour, en fonction desdites positions spatiales déterminées des oreilles de l’utilisateur, et à partir d’informations de calibration préalablement enregistrées en lien avec une opération de traitement audio, déterminer une information de calibration permettant d’adapter ladite opération de traitement audio aux positions spatiales déterminées des oreilles de l’utilisateur. 9. Headrest audio system (20) according to claim 8 comprising at least two loudspeakers (22L, 22R) positioned on either side of the headrest (2), and a processing module. audio (30) adapted to apply at least one audio processing operation, the system (20) being characterized in that it comprises an image acquisition device (38), an image processing device (42) and a device for determining calibration information (44), and in which: the image acquisition device (38) is configured to acquire images of the head (12) of a user (14) of said audio system, where the image processing device (42) is configured to perform processing of the acquired images to determine, in a predetermined three-dimensional spatial frame of reference, a spatial position of each ear, respectively right ear and left ear, of the user, where the device for determining calibration information (44) is con figured for, as a function of said determined spatial positions of the user's ears, and from calibration information previously recorded in connection with an audio processing operation, to determine calibration information making it possible to adapt said audio processing operation to the determined spatial positions of the user's ears.
10. Système audio d’appui-tête de siège selon la revendication 8 ou 9, comportant en outre au moins un microphone (24L, 24R), de préférence au moins deux microphones (24L, 24R). 10. A seat headrest audio system according to claim 8 or 9, further comprising at least one microphone (24L, 24R), preferably at least two microphones (24L, 24R).
11. Véhicule de transport de passagers comprenant un ou plusieurs sièges, au moins un siège étant équipé d’un appui-tête comprenant un système audio d’appui-tête, caractérisé en ce que ledit système audio d’appui-tête est configuré pour mettre en œuvre un procédé de traitement audio selon l’une quelconque des revendications 1 à 7. 11. Passenger transport vehicle comprising one or more seats, at least one seat being equipped with a headrest comprising a headrest audio system, characterized in that said headrest audio system is configured for implementing an audio processing method according to any one of claims 1 to 7.
EP20829947.9A 2019-12-24 2020-12-22 Audio method and system for a seat headrest Pending EP4082226A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1915546A FR3105549B1 (en) 2019-12-24 2019-12-24 Seat headrest audio method and system
PCT/EP2020/087612 WO2021130217A1 (en) 2019-12-24 2020-12-22 Audio method and system for a seat headrest

Publications (1)

Publication Number Publication Date
EP4082226A1 true EP4082226A1 (en) 2022-11-02

Family

ID=70228188

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20829947.9A Pending EP4082226A1 (en) 2019-12-24 2020-12-22 Audio method and system for a seat headrest

Country Status (4)

Country Link
US (1) US20230027663A1 (en)
EP (1) EP4082226A1 (en)
FR (1) FR3105549B1 (en)
WO (1) WO2021130217A1 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7243945B2 (en) * 1992-05-05 2007-07-17 Automotive Technologies International, Inc. Weight measuring systems and methods for vehicles
US7738678B2 (en) * 1995-06-07 2010-06-15 Automotive Technologies International, Inc. Light modulation techniques for imaging objects in or around a vehicle
JP5327049B2 (en) * 2007-12-14 2013-10-30 パナソニック株式会社 Noise reduction device
JP5092974B2 (en) * 2008-07-30 2012-12-05 富士通株式会社 Transfer characteristic estimating apparatus, noise suppressing apparatus, transfer characteristic estimating method, and computer program
US9529431B2 (en) * 2012-09-06 2016-12-27 Thales Avionics, Inc. Directional sound systems including eye tracking capabilities and related methods
US20150382129A1 (en) * 2014-06-30 2015-12-31 Microsoft Corporation Driving parametric speakers as a function of tracked user location
US9544679B2 (en) * 2014-12-08 2017-01-10 Harman International Industries, Inc. Adjusting speakers using facial recognition
US9595251B2 (en) * 2015-05-08 2017-03-14 Honda Motor Co., Ltd. Sound placement of comfort zones
WO2018127901A1 (en) * 2017-01-05 2018-07-12 Noveto Systems Ltd. An audio communication system and method
KR20210068409A (en) * 2018-10-10 2021-06-09 소니그룹주식회사 Information processing devices, information processing methods and information processing programs

Also Published As

Publication number Publication date
US20230027663A1 (en) 2023-01-26
FR3105549B1 (en) 2022-01-07
FR3105549A1 (en) 2021-06-25
WO2021130217A1 (en) 2021-07-01

Similar Documents

Publication Publication Date Title
EP2258119B1 (en) Method and device for determining transfer functions of the hrtf type
US8948414B2 (en) Providing audible signals to a driver
FR2988654A1 (en) Method for adjustment of seat of car, involves providing set of measurements for user, where set of measurements is given using rangefinder, and measurements are taken when user is in sitting position
EP2766872A1 (en) Method of calibrating a computer-based vision system onboard a craft
CN111854620B (en) Monocular camera-based actual pupil distance measuring method, device and equipment
CA3046312A1 (en) Object recognition system based on an adaptive 3d generic model
EP3579191B1 (en) Dynamic estimation of instantaneous pitch and roll of a video camera embedded in a motor vehicle
FR3116934A1 (en) Audio processing method and system for a seat headrest audio system
FR3099610A1 (en) EMOTION EVALUATION SYSTEM
FR3067999B1 (en) METHOD FOR AIDING THE DRIVING OF A MOTOR VEHICLE
EP4082226A1 (en) Audio method and system for a seat headrest
EP2445759A2 (en) Obstacle detection device comprising a sound reproduction system
FR3097711A1 (en) Autonomous audio system for seat headrest, seat headrest and associated vehicle
FR3105949A1 (en) Device for detecting the position of a headrest of a seat, for example a vehicle seat
FR3079652A1 (en) METHOD FOR EVALUATING A DISTANCE, ASSOCIATED EVALUATION SYSTEM AND SYSTEM FOR MANAGING AN INFLATABLE CUSHION
FR3085927A1 (en) DEVICE, SYSTEM AND METHOD FOR DETECTING DISTRACTION OF A CONDUCTOR
WO2018206331A1 (en) Method for calibrating a device for monitoring a driver in a vehicle
FR3113993A1 (en) Sound spatialization process
WO2019086314A1 (en) Method of processing data for system for aiding the driving of a vehicle and associated system for aiding driving
EP4211002A1 (en) Method and system for locating a speaker in a reference frame linked to a vehicle
WO2023280745A1 (en) Method for labelling an epipolar-projected 3d image
FR3111464A1 (en) Method of calibrating a camera and associated device
FR3146523A1 (en) Method of estimating the speed of a vehicle
FR3088465A1 (en) ESTIMATING A DISPARITY MAP FROM A MONOSCOPIC IMAGE BY DEEP LEARNING
FR2899341A1 (en) DEVICE FOR ACOUSTIC LOCALIZATION AND MEASUREMENT OF THEIR INTENSITY

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20220623

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS