WO2016124865A1 - Appareil de réception et de lecture de signaux audio et système de sonorisation live - Google Patents

Appareil de réception et de lecture de signaux audio et système de sonorisation live Download PDF

Info

Publication number
WO2016124865A1
WO2016124865A1 PCT/FR2016/050243 FR2016050243W WO2016124865A1 WO 2016124865 A1 WO2016124865 A1 WO 2016124865A1 FR 2016050243 W FR2016050243 W FR 2016050243W WO 2016124865 A1 WO2016124865 A1 WO 2016124865A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
sound
signal
listener
processor
Prior art date
Application number
PCT/FR2016/050243
Other languages
English (en)
Inventor
Stéphane Dufosse
Laurent SAID
Frédéric PATY
Stéphanie Plasse
Original Assignee
Augmented Acoustics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Augmented Acoustics filed Critical Augmented Acoustics
Priority to KR1020177024836A priority Critical patent/KR20170115079A/ko
Priority to JP2017559923A priority patent/JP2018512107A/ja
Priority to EP16707869.0A priority patent/EP3254389A1/fr
Priority to US15/548,842 priority patent/US9942681B2/en
Publication of WO2016124865A1 publication Critical patent/WO2016124865A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S3/004For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H40/00Arrangements specially adapted for receiving broadcast information
    • H04H40/18Arrangements characterised by circuits or components specially adapted for receiving
    • H04H40/27Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95
    • H04H40/36Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95 specially adapted for stereophonic broadcast receiving
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Definitions

  • the present invention generally relates to sound systems for improving the sound experience of a listener attending a show.
  • the term "show” refers to any event that takes place in front of an audience (also referred to as an audience) and that includes one or more sound sources (such as voices, sounds, musical instruments).
  • the show can be, for example, a concert, a play, a number (eg one-man show), a ballet, or a conference, a meeting, a meeting, a film, a television show or radio recorded live and in public.
  • the show can be sounded, that is to say that the sounds of the show are broadcast (possibly amplified) to the attention of the public through a device (digital or analog) sound reproduction.
  • the show may be live (or "live") and take place on a stage, which designates a place where sound sources (eg musicians) are gathered or distributed; the audience may be gathered or distributed in a room, which in the case of a live performance may be adjacent to (or distant from) the stage.
  • the configuration of the room is arbitrary; it is not necessarily covered; the room can be located below the stage (or on the contrary overhanging).
  • the room can be organized in tiers or on one level.
  • the room can occupy the front of the stage (this is typically the case of a theater) or surround it (typically in a stadium).
  • the term "room” may in fact refer to an undefined space, such as a lawn or esplanade.
  • the quality of the sound perceived by a listener can be affected by several objective factors (beyond the auditor's control): the acoustics of the place (presence of parasitic reflections, echoes, resonance modes), the quality of the sound system. sound, the constraints on the sound engineers responsible for mixing, and the presence of spurious noises (eg generated by a noisy audience). Other subjective factors (related to the listener himself) may also affect the quality of the sound, including the listener's position in the room and his sensitivity to certain frequencies in the audio spectrum more than others.
  • US patent application US2014 / 0328485 discloses an audio system configured to provide enhanced sound effects to a listener equipped with a mobile terminal and headphones.
  • this system comprises a console coupled on the one hand to a plurality of microphones and, on the other hand, to a wireless access point.
  • the console is programmed to transfer to the mobile terminal, via the wireless access point, audio signals received on different channels from multiple microphones.
  • a central server is responsible, at the request of each user, to perform the custom mix required by this user.
  • the centralized client / server architecture that is described (a custom mix of the different audio channels is provided in point-to-point mode at the request of each user) causes an overload of the central server, supposed to interact with each terminal (which forms control interface) and provide it with a mixed signal on demand.
  • each terminal which forms control interface
  • an alternative solution is briefly mentioned, which consists in processing the console signal directly at the terminal, but, as it is precisely indicated, this solution is likely to quickly exhaust the terminal battery.
  • the document US2014 / 0328485 proposes, moreover, to avoid the superposition, in the listener's ears, of the console audio signal and the direct signal received from the sound system of the room, to introduce a delay in the return of the signal.
  • audio from the console to synchronize it to the direct signal.
  • a given loudspeaker sends a pulsation (outside the audible spectrum) into the room to allow, via a microphone equipping the terminal, to calculate the distance from it to the loudspeaker and to deduce a delay to apply to the console signal.
  • a first objective is to improve for the listener the quality of the sound reproduction of a show, by avoiding, as much as possible, the factors likely to affect the quality of this restitution.
  • a second objective is to allow an individualized personalization of the sound restored from the show.
  • a device for receiving and reading audio signals intended to equip a listener and to be controlled by a mobile terminal incorporating a graphic interface, this mobile terminal being distinct from the apparatus, said apparatus comprising: a high frequency electromagnetic wave receiver configured to receive broadcast signals incorporating a plurality of audio tracks;
  • a wireless communication interface separate from the receiver and configured to receive from the mobile terminal at least one setting parameter to be applied to at least one audio track of the received signal
  • a digital signal processor configured to apply the setting parameter to the audio track and produce a mixed signal
  • the apparatus further comprises an integrated microphone configured to receive a sound signal in the vicinity of the apparatus;
  • the processor is configured to calculate a time offset between the signal mixed by the processor and the sound signal picked up by the microphone;
  • the processor is configured to apply to the mixed signal a delay equal to the calculated time offset.
  • This helmet may further include an acoustic noise reduction system.
  • a transmitter connected to the mixer and configured to community broadcast multichannel audio tracks
  • a mobile terminal configured to transmit to the reception apparatus, via its second communication interface, at least one setting parameter to be applied to at least one audio track;
  • a headphone connected to the audio output of the device for the reproduction of the mixed signal.
  • the show is live and includes sound sources
  • the system includes microphones pointing to the sound sources to capture the sounds as an electrical signal forming an audio track for each microphone.
  • the system comprises a mobile terminal configured to transmit to the reception apparatus, via its second communication interface, at least one adjustment parameter to be applied to at least one audio track.
  • FIG. 1 is a diagrammatic view in FIG. perspective illustrating a sound system of a show, this sound system being equipped with a reception and reading apparatus;
  • FIG.2 is a schematic view detailing the functional architecture of the system.
  • FIG. 1 shows a sound system 1 of a show emitting sounds (voices and / or noises and / or music) for the benefit of a public (or audience) composed of one or more listeners 2.
  • This show can be live or "live” and take place live.
  • the show can be a concert, a play, a number (eg one-man show), a ballet, a conference, a meeting, a meeting, a film, a live television or radio broadcast, and in public.
  • this place 3 which is not necessarily clearly delimited, is designated by the term "scene".
  • scene 3 designates a stage on which are gathered the artists who perform the show.
  • the show is given by musicians (of whom two singers have been represented) who form 4 sound sources.
  • Scene 3 is schematized by a dotted rectangle that frames the musicians 4.
  • the term "scene” may designate a screen on which the visual part of the show is projected.
  • the listeners 2 can be gathered, or on the contrary disseminated, in front of or around the stage 3, or in front of screens retransmitting the show from a distance.
  • the term "hall” usually means a place both covered and delimited.
  • the room 5 is effectively covered and delimited, and extends in front of the stage 3.
  • the room 5 is of any configuration; it may be an undefined space, not necessarily covered, such as a lawn or esplanade, eg. in the case of concerts given outdoors and / or in a stadium.
  • each sound source 4 is dedicated a microphone 6.
  • the microphones 6 are shown fixed, but at least some of them can be mobile.
  • a microphone 6 can be portable, especially if its source 4 is mobile, e.g. the singer or the guitarist of a musical group. In this case, the microphone 6 can be held by hand by the protagonist, or hooked to him or his instrument (or even integrated with it, eg in the case of an electric guitar).
  • the system 1 may comprise a primary audio splitter 7 which retrieves the audio track from each microphone 6 via a line 8 audio input - wired, as in the example shown, or radio frequency (RF) in the case of a wireless microphone.
  • a primary audio splitter 7 which retrieves the audio track from each microphone 6 via a line 8 audio input - wired, as in the example shown, or radio frequency (RF) in the case of a wireless microphone.
  • RF radio frequency
  • the separator 7 comprises several inputs so that it can recover in parallel the signals generated by the different microphones 6.
  • the sound capture is therefore multitrack (ie on different tracks), in real time.
  • the sound system 1 may include a first mixing table 9 connected to the primary splitter 7 by a link 10 (wired or RF) by which the first table 9 receives different channels from the audio lines 8.
  • This first mixing table 9 is connected, at the output, to a sound reproduction device 11, hereinafter more simply called sono, which comprises loudspeakers turned towards the listeners 2.
  • the sound system 11 can be organized in a manner whatever, preferably according to the habits of sound engineers; it can thus comprise loudspeakers mounted in line (line array), arranged in a matrix, or grouped in front of the stage 3. For simplicity, the sound system 11 is represented in FIG. 1 by a single loudspeaker.
  • the different channels from the primary separator 7 are mixed thanks to the first table 9 to form a first sound composition intended to be broadcast in free field to the public via the sound system 11.
  • a sound engineer is responsible for mixing on the first table 9, to apply to the room 5 settings applied to the various tracks, including the sound volume, balance, equalization.
  • the sound system 1 may comprise a second mixing table 12 connected to the primary separator 7 by a link 13 (wired or RF) by which the second table 12 also receives the channels coming from the lines 8 audio.
  • the different channels from the primary separator 7 are mixed thanks to the second table 9 to form a second sound composition for the stage 3 (via return speakers, not shown).
  • a sound engineer (the same as before or another) 5 is responsible for mixing on the second table 12, to apply to the scene 3 settings applied to the various tracks, among which the volume sound, balance, equalization.
  • the sound system 1 further comprises a secondary separator 14 mounted in
  • the audio tracks may be identical to those coming from the primary splitter, or different, depending on the settings (identical or different) applied to the splitter 7,
  • the sound system 1 further comprises a third mixing table 15 connected to the secondary separator 14 by a link 16 (wired or RF) by which the third table 15 receives different channels from the audio lines 8.
  • the system 1 is devoid of secondary separator 14, and the third table can be directly connected to one of the tables 9, 12, preferably the first table 9.
  • the sound system 1 comprises at least one broadcasting transmitter 17 to which the third table 15 is connected and which is configured to collect the various channels coming from it and broadcast them over the air in multichannel mode by means of an antenna. 18, e.g. according to the IEEE 802.11 standard. We will take care to cover the entire room 5 in
  • the transmitter 17 and the third table 15 form a single device.
  • the broadcasting carried out by the transmitter 17 is community-based, that is to say that the broadcast is common for a set of recipients, which are not necessarily identified by the transmitter 17 and which can capture the broadcast as long as they are configured for this purpose and located within range of the transmitter 17.
  • the broadcasting mode is multichannel, that is to say that the signal broadcast by the transmitter 17 comprises each audio track taken separately from the others.
  • the audio tracks can be multiplexed within the broadcast signal.
  • the transmitter 17, illustrated in FIG. 2 comprises: an analog-to-digital converter (ADC), multichannel, configured to collect, by differential analog inputs, the analog signals from the third mixing table and converting them into digital signals;
  • ADC analog-to-digital converter
  • DSP Digital Signal Processor
  • the signals are transmitted by the ADC 19 to the DSP 20 via a data bus 21 of the I2S (Integrated Interchip Sound) standard, which has the advantage of minimizing fluctuation phenomena (or jitter, of the English jitter) in the signal ;
  • the DSP 20 controls the ADC 19 via a synchronous serial data bus 22 or
  • a modulator 23 which receives the processed audio stream of the DSP 20 via a bus
  • I2S standard data for in-phase and quadrature modulation (I / Q modulation); a radio transmitter 25 which receives the modulated signal of the modulator 23 via an I / Q bus 26 looping the radio transmitter 25 to the modulator 23 and which is connected to the antenna 18 for broadcasting the channels (over the air).
  • the modulator 23 controls the radio transmitter 25 via a synchronous serial data bus 27 or SPI (acronym for Serial Peripheral Interface), by means of which the radio transmitter 25 is controlled by modulator 23.
  • the radio transmitter 25 is connected to the antenna 18 via an amplifier 28 which applies to the signal from the radio transmitter 25 a proportionality coefficient to increase the power (and therefore the range).
  • the sound system 1 also comprises an apparatus 29 for receiving and reading the audio signals received from the transmitter 17.
  • the apparatus 29 comprises a housing 30 and, in this housing 30: an antenna 31 and a receiver 32 of high frequency electromagnetic waves (HF), coupled to the antenna 31 and configured to receive the signals broadcast by the transmitter 17 (and integrating, as we have seen, several audio tracks );
  • HF high frequency electromagnetic waves
  • a demodulator 33 which receives the modulated signal from the receiver 32 via an I / Q bus 34 looping the receiver 32 and the demodulator 33 and which is programmed to demodulate this signal; according to a preferred embodiment illustrated in FIG. 2, the demodulator 33 controls the receiver 32 via a serial synchronous data bus or SPI (Serial Peripheral Interface), whereby the receiver 32 is slaved to the demodulator 33;
  • SPI Serial Peripheral Interface
  • a DSP 36 programmed to process in real time the digital signals delivered to it by the demodulator 33 by applying them in particular filters and settings which will be detailed below; the signals pass through a 37 I2S bus;
  • a microphone 38 integrated in the housing 30 and connected to the DSP 36
  • an audio output 39 integrated in the housing 30 and connected to the DSP 36 to allow the connection of a sound reproduction device such as a 40 audio headset, for the sound reproduction of the signals processed by DSP 36;
  • a wireless communication interface 41 distinct from the receiver 32, e.g. ultra-high frequency (UHF) IEEE 802.15 standard (called “Bluetooth®”), connected to an antenna 42.
  • UHF ultra-high frequency
  • Bluetooth® IEEE 802.15 standard
  • the signals received by the interface 41 transit to the DSP 36 by a bus 43 data I2S standard; at the same time, the DSP 36 controls the interface 41 by an asynchronous circuit 44 of the UART (Universal Asynchronous Receiver Transmitter) type;
  • a port 45 for connecting the apparatus 29 to peripherals eg a programming computer, or to the mains for charging a built-in battery to the apparatus 29.
  • Various other wireless communication protocols may be suitable for the interface 41: include the standard IEEE 802.11 (commonly known as WiFi) or its equivalent HiperLAN (Hlgh PERFORMANCE radio Local Area Network), the standard GPRS (General Packet Radio Service), the protocol IRDA (InfraRed Data Association) the WUSB (Wireless Universal Serial Bus).
  • the sound system 1 also includes a mobile terminal 46 type Smartphone, tablet or laptop.
  • the terminal 46 is configured to control the apparatus 29 and comprises: a processor 47;
  • a primary wireless communication interface 48 connected to the processor 47 and to an antenna 49 and configured to communicate with a remote server 50 via a local area network 51 (LAN type: Local area network), metropolitan (type MAN: Metropolitan area network) or even extended (Wide Area Network (WAN) type such as the Internet, via standard protocols such as Universal Mobile Telecommunications System (UMTS) 3G or LTE 4G (Long Term Evolution); a wireless communication interface 52, e.g. ultra-high frequency (UHF) IEEE 802.15 standard (called "Bluetooth®”), connected to an antenna 52 and the processor 47;
  • UHF ultra-high frequency
  • a graphical interface 54 e.g. a touch screen.
  • the other wireless communication protocols mentioned above may also be suitable for the implementation of the interface 52.
  • the processor 47 integrates an application (which can be downloaded remotely via the processor 47 connecting for this purpose to the server 50) comprising instructions for making available to the listener 2, via the graphical interface 54, various settings for each track (such as a gain level and a level of panning) and to communicate, via the antennas 53, 42 and the interfaces 52, 41, the adjustments thus made to the processor 36 of the apparatus 29 so that they applies to the different tracks before returning them to the headset 40 via the jack 39.
  • the listener 2 therefore has a device 29, which can be lent to him when he enters the room 5 and until the end the show, and a 46 terminal, which can be its own Smartphone.
  • the wireless communication between the device 29 and the terminal 46 is of the point-to-point type, so as to guarantee the uniqueness of the adjustments made by the listener 2 and to prevent these settings from being unwantedly extended to Other apparatuses 29.
  • the apparatus 29 and the terminal 46 are, prior to the establishment of a media session between them, paired by a conventional procedure in which the apparatus 29 and the terminal 46 exchange messages from each other. signaling containing their respective identifiers and URLs (uniform resource locator). It is conceivable to match a terminal 46 with several devices 29, which are then controlled by the same terminal 46 so that the same setting controlled from it is deployed on all devices 29.
  • the media session between the terminal 46 and the device 29 does not necessarily include the exchange of audio tracks. Indeed, it is sufficient for the application programmed in the terminal 46 to make adjustments to the broadcast audio tracks, the auditory experience of the auditor 2 sufficient to know if these settings are suitable.
  • the application programmed in the terminal 46 may also, for this purpose, be dedicated to the current show, and automatically integrate good audio tracks. Alternatively, the application is reusable for several shows, and includes a certain number of potentiometers, some of which can be activated or deactivated via a software update available for download by the listeners from the server 50, from the beginning and for the duration a spectacle.
  • the setting proposed to the listener 2 for each track, via the graphical interface 54 of the terminal 46, may be in the form of a potentiometer emulation 55.
  • the listener 2 can thus, by performing for each audio track settings of his choice (including the sound level of each track), improve its sound experience by proceeding to its own mixing from the raw audio data received from the transmitter 17 by the device 29.
  • the various audio tracks are, at the level of the third mixing table, all preset at a medium level, allowing the listener 2 to have, at the beginning of the broadcast, an audio signal. equipped with a default mix (eg performed by a sound engineer) allowing a comfortable listening to which some auditors 2 little demanding can estimate not having to retouch.
  • a default mix eg performed by a sound engineer
  • the multitrack broadcast allows the listener 2 to act at his convenience on one or more audio tracks conveyed on dedicated tracks to finally get a custom mix.
  • the listener 2 who locally has all the multitrack sound content (That is, the tracks are isolated from one another at the level of the apparatus 29), can, via the application which it has installed on its mobile terminal 46, modify at will the sound of the contents.
  • the two signals are both real-time signals, from the same 4 sound sources, via the same microphones 6, but the signal of the headphones 40 traveled to the listener 2 at the speed of light (300 000 km / s), while the sound signal 11, which may appear synchronized to the signal from the headset 40 when it is close to the sound 11, accuses when the headset 40 is distant from the sound 11 a delay due to the path separating the listener 2 of the sono 11, traveled to the speed of sound (about 340 m / s).
  • the perceived time difference between the two signals is about 60 ms. This offset is important enough to be fully detected by the human ear and be an embarrassment for the listener 2 who will feel an unpleasant echo effect.
  • the apparatus 29 in order to minimize (or even eliminate) this echo effect, and this independently of the position of the listener 2 in the room 5, the apparatus 29 (and more precisely its DSP 36) is programmed to capture, via its integrated microphone 38, the sound environment in its vicinity (and, therefore, in the vicinity of the listener 2).
  • the DSP 36 is programmed to: - estimate the phase difference between the acoustic signal picked up by the microphone 38 (ambient signal) and the signal intended for the headphones 40 (mixed signal), for example by calculating the delay between maxima; perform a time registration of the mixed signal on the ambient signal, so as to synchronize them.
  • the estimate of the delay between the maxima is carried out at a predefined frequency of the sound spectrum, e.g. at a low frequency (corresponding to a dull sound such as a big hit box) or on the contrary at a high frequency (corresponding to an acute sound such as a hi-hat cymbal tempo).
  • Time synchronization between two acoustic signals is obtained by delaying the mixed signal by the estimated difference between the maxima of the two signals.
  • This difference is preferably re-estimated regularly (eg at regular intervals of 1 second or less) to account for any factor that might change its value (such as moving the listener 2 in room 5 or a change in the physical configuration of the sound stage such as adding and / or removing an obstacle).
  • the microphone 38 being integrated in the apparatus 29 and therefore permanently worn by the listener 2, it follows that the time registration is automatically updated accordingly.
  • the time adjustment does not eliminate the physical sensations due to the acoustic pressure exerted on the body of the listener 2, in particular in the low frequencies (it is thus known that the bass drum sounds are reflected, at loudness high, in the belly and ribcage of the listeners). But the physical sensations are part of the live experience and, to the extent that the sensations are synchronized with the mixed signal, the listener 2 can have the illusion that they are generated by the mixed audio signal of quality that hears in his helmet 40.
  • the time adjustment makes it possible to attenuate (or even suppress) the echo effect, it does not correct, on the other hand, the quality defects of the ambient signal, in particular if the room acoustics and / or the sound 11 and / or the mixing of the signal delivered by it is / are degraded.
  • the 40 audio headset is equipped with a noise reduction system (English noise canceling) to reduce the intensity of the ambient signal perceived by the listener 2 and thus make to predominate the mixed signal to improve the listening experience of the listener 2.
  • a noise reduction system English noise canceling
  • the signal delivered by the third mixer table is eight tracks, which the listener 2 can separately adjust from its terminal 46 and which are combined by the apparatus 29 from these settings to build a mixed audio signal according to the wishes of the listener 2.
  • the apparatus 29 is miniaturized and integrated with the audio headset 40.
  • the sound system 1 allows the listener 2: to improve his sound experience by allowing him to become, in a way, his own sound engineer;
  • the device 29 does not support the entire computational load since it is up to the terminal 46 (separate from the device 29) to display the settings for the benefit of the listener 2.
  • the apparatus 29 is preferably electrically self-contained, e.g. equipped with a battery (not shown), which can be periodically charged by connection to the sector, in particular via a serial port type USB (Universal Serial Bus).
  • a battery not shown
  • USB Universal Serial Bus
  • the sound system 1 allows the listener 2 to enjoy a constant experience and quality regardless of its position in relation to the stage 3 or in relation to the sound system 11. Of a acoustic point of view, there is therefore for the listener 2 neither bad room, nor bad placement.

Abstract

Appareil (29) de réception et de lecture de signaux audio,qui comprend: -un récepteur d'ondes électromagnétiques à hautes fréquences configuré pour capter des signaux radiodiffusés intégrant une pluralité de pistes audio; -une interface de communication sans fil, distincte du récepteur et configurée pour recevoir au moins un paramètre de réglage à appliquer à au moins une piste audio du signal capté; -un processeur de signal numérique configuré pour appliquer le paramètre de réglage à la piste audio et produire un signal mixé.

Description

APPAREIL DE RECEPTION ET DE LECTURE DE SIGNAUXAUDIO ET SYSTEME DE SONORISATION LIVE
La présente invention concerne, d'une manière générale, les systèmes de sonorisation permettant d'améliorer l'expérience sonore d'un auditeur assistant à un spectacle.
Le terme « spectacle » désigne tout événement qui se déroule devant un public (également dénommé auditoire) et qui comprend une ou plusieurs sources sonores (telles que voix, bruits, instruments de musique). Le spectacle peut être, par exemple, un concert, une pièce de théâtre, un numéro (par ex. de one man show), un ballet, ou encore une conférence, une réunion, un meeting, un film, une émission de télévision ou de radio enregistrée en direct et en public.
Le spectacle peut être sonorisé, c'est-à-dire que les sons du spectacle sont diffusés (en étant éventuellement amplifiés) à l'attention du public au moyen d'un dispositif (numérique ou analogique) de reproduction sonore.
Le spectacle peut être vivant (ou « live ») et se dérouler sur une scène, qui désigne un lieu où sont rassemblées ou réparties les sources sonores (par ex. des musiciens) ; le public peut être quant à lui rassemblé ou réparti dans une salle, qui dans le cas d'un spectacle vivant peut être attenante à (ou distante de) la scène. La configuration de la salle est quelconque ; elle n'est pas nécessairement couverte ; la salle peut être située en contrebas de la scène (ou au contraire en surplomb). La salle peut être organisée en gradins ou être de plain-pied. La salle peut occuper le devant de la scène (c'est typiquement le cas d'une salle de théâtre) ou entourer celle-ci (typiquement dans un stade). Pour certains spectacles en plein air, le terme « salle » peut en fait désigner un espace non délimité, tel qu'une pelouse ou une esplanade.
La qualité du son perçu par un auditeur peut être affectée par plusieurs facteurs objectifs (indépendants de la volonté de l'auditeur) : l'acoustique du lieu (présence de réflexions parasites, échos, modes de résonance propre), la qualité du système de sonorisation, les contraintes auxquelles sont soumis les ingénieurs du son chargés du mixage, et la présence de bruits parasites (par exemple générés par un public bruyant). D'autres facteurs subjectifs (liés à l'auditeur lui-même) peuvent également affecter la qualité du son, notamment la position de l'auditeur dans la salle et sa sensibilité à certaines fréquences du spectre audio plus qu'à d'autres.
Certaines mesures peuvent être prises pour améliorer la qualité du son perçu par les auditeurs. On peut ainsi modifier l'architecture du lieu pour en améliorer l'acoustique. On peut également remplacer tout ou partie du matériel du système de sonorisation. Il est cependant difficile de rendre polyvalente une salle de spectacle. En particulier, certaines fréquences peuvent être absorbées par les parois, ou au contraire totalement réfléchies. Une salle peut entrer en résonance à certaines fréquences et générer des vibrations parasites à d'autres. En outre, une acoustique convenant bien à la musique de chambre peut, par exemple, ne pas être adaptée à la musique pop, et vice-versa.
Il existe donc un besoin de mieux adapter le rendu sonore aux attentes des auditeurs. On notera d'ailleurs que, la perception auditive étant subjective, une sonorisation peut être considérée satisfaisante par certains auditeurs et au contraire insatisfaisante par d'autres.
La demande de brevet américain US2014/0328485 décrit un système audio configuré pour procurer des effets sonores améliorés à un auditeur équipé d'un terminal mobile et d'un casque audio. Pour cela, ce système comprend une console couplée d'une part à une pluralité de microphones et, d'autre part, à un point d'accès sans fil. La console est programmée pour transférer au terminal mobile, via le point d'accès sans fil, des signaux audio reçus sur différent canaux depuis plusieurs microphones. Un serveur central se charge, à la demande de chaque utilisateur, d'effectuer le mixage personnalisé requis par cet utilisateur.
Cette solution peut paraître résoudre les difficultés susmentionnées, mais elle n'est cependant pas exempte de défauts. En premier lieu, l'architecture centralisée de type client/serveur qui est décrite (un mixage personnalisé des différents canaux audio est fourni en mode point-à-point sur demande de chaque utilisateur) provoque une surcharge du serveur central, censé dialoguer avec chaque terminal (qui forme interface de contrôle) et lui fournir un signal mixé à la demande. Certes, une solution alternative est brièvement évoquée, qui consiste à traiter le signal de console directement au niveau du terminal, mais, comme il est justement indiqué, cette solution est de nature à épuiser rapidement la batterie du terminal.
Le document US2014/0328485 propose, par ailleurs, pour éviter la superposition, dans les oreilles de l'auditeur, du signal audio de console et du signal direct reçu de la sonorisation de la salle, d'introduire un délai dans la restitution du signal audio issu de la console pour le synchroniser au signal direct. Concrètement, un haut-parleur donné envoie dans la salle une pulsation (hors du spectre audible) pour permettre, via un micro équipant le terminal, de calculer la distance de celui-ci au haut-parleur et d'en déduire un délai à appliquer au signal de console. Cette procédure est, en pratique, difficilement applicable car le haut-parleur émettant la pulsation n'est pas nécessairement le plus proche de l'auditeur, de sorte que le délai introduit dans la restitution du signal de console risque de ne pas permettre la synchronisation au signal direct. En outre, la plupart des terminaux mobiles (notamment les Smartphones) sont équipés de filtres passe-bas qui vont éliminer les fréquences auxquelles sont émises les pulsations. Il en résulte que, pour la majorité des utilisateurs, le système décrit dans ce document ne pourra tout simplement pas fonctionner. Un premier objectif est d'améliorer pour l'auditeur la qualité de la restitution sonore d'un spectacle, en s'affranchissant, autant que possible, des facteurs susceptibles d'affecter la qualité de cette restitution.
Un deuxième objectif est de permettre une personnalisation individualisée du son restitué issu du spectacle. A cet effet, il est proposé, en premier lieu, un appareil de réception et de lecture de signaux audio destiné à équiper un auditeur et à être piloté par un terminal mobile intégrant une interface graphique, ce terminal mobile étant distinct de l'appareil, cet appareil comprenant: un récepteur d'ondes électromagnétiques à hautes fréquences configuré pour capter des signaux radiodiffusés intégrant une pluralité de pistes audio ;
une interface de communication sans fil, distincte du récepteur et configurée pour recevoir depuis le terminal mobile au moins un paramètre de réglage à appliquer à au moins une piste audio du signal capté ;
un processeur de signal numérique configuré pour appliquer le paramètre de réglage à la piste audio et produire un signal mixé ;
- une sortie audio pour la restitution sonore du signal mixé par le processeur.
Selon diverses caractéristiques supplémentaires, prises individuellement ou en combinaison :
l'appareil comprend en outre un microphone intégré, configuré pour capter un signal sonore au voisinage de l'appareil ;
le processeur est configuré pour calculer un décalage temporel entre le signal mixé par le processeur et le signal sonore capté par le microphone ;
le processeur est configuré pour appliquer au signal mixé un retard égal au décalage temporel calculé.
Il est proposé, en deuxième lieu, un casque audio intégrant un appareil tel que présenté ci-dessus. Ce casque peut en outre comprendre un système de réduction du bruit acoustique.
Il est proposé, en troisième lieu, un système de sonorisation d'un spectacle, ce système comprenant :
une table de mixage qui reçoit des pistes audio ;
un émetteur relié à la table de mixage et configuré pour radiodiffuser de manière communautaire les pistes audio en mode multicanal ;
au moins un appareil de réception et de lecture du signal radiodiffusé, tel que présenté ci-dessus ;
un terminal mobile configuré pour transmettre à l'appareil de réception, via sa deuxième interface de communication, au moins un paramètre de réglage à appliquer à au moins une piste audio;
un casque relié à la sortie audio de l'appareil pour la restitution du signal mixé.
Selon diverses caractéristiques supplémentaires, prises individuellement ou en combinaison : le spectacle est vivant et comprend des sources sonores, et le système comprend des microphones pointant vers les sources sonores pour en capturer les sons sous forme d'un signal électrique formant une piste audio pour chaque microphone.
- le système comprend un terminal mobile configuré pour transmettre à l'appareil de réception, via sa deuxième interface de communication, au moins un paramètre de réglage à appliquer à au moins une piste audio.
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement et de manière concrète à la lecture de la description ci-après de modes de réalisation préférés, faite en référence aux dessins annexés dans lesquels : la FIG.1 est une vue schématique en perspective illustrant un système de sonorisation d'un spectacle, ce système de sonorisation étant équipé d'un appareil de réception et de lecture ;
la FIG.2 est une vue schématique détaillant l'architecture fonctionnelle du système.
Sur la figure 1 est représenté un système 1 de sonorisation d'un spectacle émettant des sons (voix et/ou bruits et/ou musique) au bénéfice d'un public (ou auditoire) composé d'un ou plusieurs auditeurs 2. Ce spectacle peut être vivant ou « live » et se dérouler en direct.
Le spectacle peut être un concert, une pièce de théâtre, un numéro (par ex. de one man show), un ballet, une conférence, une réunion, un meeting, un film, une émission de télévision ou de radio enregistrée en direct et en public.
Lorsqu'il est vivant, le spectacle se déroule au sein d'un lieu 3 et comprend, au sein de ce lieu 3, des sources 4 sonores (le spectacle peut, en plus des sources 4 sonores, comprendre des sources visuelles non sonores). Dans ce qui suit, on désigne ce lieu 3, qui n'est pas nécessairement clairement délimité, par le terme « scène ». Dans certains cas, par ex. lorsque le spectacle est un concert, la scène 3 désigne un plateau sur lequel sont rassemblés les artistes qui réalisent le spectacle. Dans l'exemple illustré, le spectacle est donné par des musiciens (dont on a représenté deux chanteurs) qui forment des sources 4 sonores. La scène 3 est schématisée par un rectangle en pointillés qui encadre les musiciens 4. Lorsque le spectacle est enregistré (par ex. un film) ou diffusé à distance du lieu dans lequel il se déroule, par ex. une rencontre sportive se déroulant dans un stade et retransmise à l'extérieur du stade au bénéfice d'un public surnuméraire), le terme « scène » peut désigner un écran sur lequel la partie visuelle du spectacle est projetée.
Les auditeurs 2 peuvent être rassemblés, ou au contraire disséminés, devant ou autour de la scène 3, ou devant des écrans retransmettant le spectacle à distance. Le terme « salle » désigne d'ordinaire un lieu à la fois couvert et délimité. Ici, on généralise la notion de salle, référencée sous le numéro 5, pour désigner tout lieu où se trouvent les auditeurs 2. Dans le cas le plus simple (par ex. dans le cas, illustré, d'un concert donné sur une scène 2), la salle 5 est effectivement couverte et délimitée, et s'étend devant la scène 3. Mais la salle 5 est de configuration quelconque ; il peut s'agir d'un espace non délimité, non nécessairement couvert, tel qu'une pelouse ou une esplanade, par ex. dans le cas de concerts donnés en plein air et/ou dans un stade. Le spectacle est sonorisé, c'est-à-dire que les sons issus des sources 4 sonores (les musiciens dans l'exemple illustré) sont captés à l'aide du système 1 de sonorisation, qui comprend à cet effet des microphones 6 pointant vers les sources 4 sonores pour en capturer les sons sous forme, pour chaque microphone 6, d'un signal électrique formant une piste audio. De préférence, à chaque source 4 sonore est dédié un microphone 6. Sur la figure 1, les microphones 6 sont représentés fixes, mais certains au moins d'entre eux peuvent être mobiles. En particulier, un microphone 6 peut être portatif, notamment si sa source 4 est mobile, par ex. le chanteur ou le guitariste d'un groupe musical. Dans ce cas, le microphone 6 peut être tenu à la main par le protagoniste, ou accroché à lui ou à son instrument (ou même intégré à celui-ci, par ex. dans le cas d'une guitare électrique).
De manière classique, le système 1 peut comprendre un séparateur 7 audio primaire qui récupère la piste audio issue de chaque microphone 6 via une ligne 8 audio d'entrée - filaire, comme dans l'exemple illustré, ou à radiofréquences (RF) dans le cas d'un microphone sans fil.
Le séparateur 7 comprend plusieurs entrées de sorte à pouvoir récupérer en parallèle les signaux générés par les différents microphones 6. La capture des sons est par conséquent multipiste (c.à.d. sur différentes pistes), en temps réel.
Le système 1 de sonorisation peut comprendre une première table 9 de mixage reliée au séparateur 7 primaire par une liaison 10 (filaire ou RF) par laquelle la première table 9 reçoit différents canaux issus des lignes 8 audio.
Cette première table 9 de mixage est reliée, en sortie, à un dispositif 11 de reproduction sonore, ci-après plus simplement dénommé sono, qui comprend des haut-parleurs tournés vers les auditeurs 2. La sono 11 peut être organisée d'une manière quelconque, de préférence conformément aux habitudes des ingénieurs du son ; elle peut ainsi comprendre des haut- parleurs montés en ligne (line array), agencés en matrice, ou groupés en façade sur la scène 3. Par simplicité, la sono 11 est représentée sur la figure 1 par un unique haut-parleur.
Les différents canaux issus du séparateur 7 primaire sont mixés grâce à la première table 9 pour former une première composition sonore destinée à être diffusée en champ libre à destination du public via la sono 11.
A cet effet, un ingénieur du son est chargé de procéder au mixage, sur la première table 9, pour appliquer à destination de la salle 5 des réglages appliqués aux différentes pistes, parmi lesquels le volume sonore, la balance, l'égalisation.
Comme on le voit sur la figure 1, le système 1 de sonorisation peut comprendre une deuxième table 12 de mixage reliée au séparateur 7 primaire par une liaison 13 (filaire ou RF) par laquelle la deuxième table 12 reçoit également les canaux issus des lignes 8 audio. Les différents canaux issus du séparateur 7 primaire sont mixés grâce à la deuxième table 9 pour former une deuxième composition sonore destinée à la scène 3 (via des haut-parleurs de retour, non représentés).
A cet effet, un ingénieur du son (le même que précédemment ou un autre) 5 est chargé de procéder au mixage, sur la deuxième table 12, pour appliquer à destination de la scène 3 des réglages appliqués aux différentes pistes, parmi lesquels le volume sonore, la balance, l'égalisation.
Selon un mode de réalisation illustré sur la figure 1, le système 1 de sonorisation comprend en outre un séparateur 14 secondaire monté en
10 parallèle (ou en cascade) avec le séparateur 7 primaire et qui récupère comme lui le signal de chaque microphone 6 via les mêmes lignes 8 audio d'entrée. En sortie du séparateur 14 secondaire, les pistes audio peuvent être identiques à celles issus du séparateur 7 primaire, ou différentes, selon les réglages (identiques ou différents) appliqués aux séparateurs 7,
15 14.
Le système 1 de sonorisation comprend par ailleurs une troisième table 15 de mixage reliée au séparateur 14 secondaire par une liaison 16 (filaire ou RF) par laquelle la troisième table 15 reçoit différents canaux issus des lignes 8 audio. 0 En variante, le système 1 est dépourvu de séparateur 14 secondaire, et la troisième table peut être directement reliée à l'une des tables 9, 12, de préférence la première table 9.
En outre, dans le cas d'un spectacle non vivant (par ex. un film), le système est dépourvu de micros, les lignes 8 audio étant préenregistrées. 5 Le système 1 de sonorisation comprend au moins un émetteur 17 de radiodiffusion auquel est reliée la troisième table 15 et qui est configuré pour recueillir les différents canaux issus de celle-ci et les diffuser par voie hertzienne en mode multicanal au moyen d'une antenne 18, par ex. selon la norme IEEE 802.11. On veillera à couvrir l'ensemble de la salle 5 en
30 adaptant la puissance de l'émetteur 17 et, le cas échéant, en prévoyant plusieurs émetteurs 17 reliés à la troisième table 15, répartis de sorte à maximiser la couverture de la radiodiffusion. En variante, l'émetteur 17 et la troisième table 15 forment un seul et même appareil.
La radiodiffusion réalisée par l'émetteur 17 est communautaire, c'est-à-dire que la diffusion est commune pour un ensemble de destinataires, qui ne sont pas nécessairement identifiés par l'émetteur 17 et qui peuvent capter la diffusion dès lors qu'ils sont configurés à cet effet et situés à portée de l'émetteur 17.
Le mode de diffusion est multicanal, c'est-à-dire que le signal diffusé par l'émetteur 17 comprend chaque piste audio prise séparément des autres. Les pistes audio peuvent être multiplexées au sein du signal radiodiffusé.
L'émetteur 17, illustré sur la figure 2, comprend : un convertisseur 19 analogique-numérique ou ADC (acronyme de l'anglais Analog-to-Digital Converter), multicanal, configuré pour collecter, par des entrées analogiques différentielles, les signaux analogiques en provenance de la troisième table 15 de mixage et les convertir en signaux numériques ;
un processeur 20 de signal numérique ou DSP (acronyme de l'anglais Digital Signal Processor), programmé pour traiter en temps réel les signaux numériques qui lui sont délivrés par l'ADC 19 en leur appliquant notamment des filtres et une conversion en signaux radiofréquence ; les signaux sont transmis par l'ADC 19 au DSP 20 par un bus 21 de données au standard I2S (Integrated Interchip Sound), qui a pour avantage de minimiser les phénomènes de fluctuation (ou gigue, de l'anglais jitter) dans le signal ; le DSP 20 assure la commande de l'ADC 19 via un bus 22 de données série synchrone ou
SPI (acronyme de l'anglais Sériai Peripheral Interface), qui permet de réaliser une commande de type maître-esclave dans laquelle l'ADC 19 est asservi au DSP 20 qui génère le signal d'horloge pour l'envoi des données par le bus 21 I2S ;
- un modulateur 23, qui reçoit le flux audio traité du DSP 20 via un bus
24 de données au standard I2S pour le moduler en phase et en quadrature (modulation l/Q) ; un radioémetteur 25 qui reçoit le signal modulé du modulateur 23 via un bus l/Q 26 reliant en boucle le radioémetteur 25 au modulateur 23 et qui est relié à l'antenne 18 pour la radiodiffusion des canaux (par voie hertzienne). Selon un mode de réalisation préféré illustré sur la figure 2, le modulateur 23 assure la commande du radioémetteur 25 via un bus 27 de données série synchrone ou SPI (acronyme de l'anglais Sériai Peripheral Interface), grâce auquel le radioémetteur 25 est asservi au modulateur 23.
En outre, selon un mode préféré de réalisation, le radioémetteur 25 est relié à l'antenne 18 via un amplificateur 28 qui applique au signal issu du radioémetteur 25 un coefficient de proportionnalité pour en augmenter la puissance (et donc la portée).
Le système 1 de sonorisation comprend par ailleurs un appareil 29 de réception et de lecture des signaux audio reçus de l'émetteur 17. Comme illustré sur les figures 1 et 2, l'appareil 29 comprend un boîtier 30 et, dans ce boîtier 30 : une antenne 31 et un récepteur 32 d'ondes électromagnétiques à hautes fréquences (HF), couplé à l'antenne 31 et configuré pour capter les signaux radiodiffusés par l'émetteur 17 (et intégrant, comme nous l'avons vu, plusieurs pistes audio) ;
un démodulateur 33 qui reçoit le signal modulé du récepteur 32 via un bus l/Q 34 reliant en boucle le récepteur 32 et le démodulateur 33 et qui est programmé pour démoduler ce signal ; selon un mode de réalisation préféré illustré sur la figure 2, le démodulateur 33 assure la commande du récepteur 32 via un bus 35 de données série synchrone ou SPI (acronyme de l'anglais Sériai Peripheral Interface), grâce auquel le récepteur 32 est asservi au démodulateur 33 ;
un DSP 36, programmé pour traiter en temps réel les signaux numériques qui lui sont délivrés par le démodulateur 33 en leur appliquant notamment des filtres et des réglages qui seront détaillés ci-après ; les signaux transitent par un bus 37 I2S ;
un microphone 38 intégré au boîtier 30 et relié au DSP 36 ; une sortie 39 audio (par ex. de type jack 3,5 mm) intégrée au boîtier 30 et reliée au DSP 36 pour permettre le branchement d'un dispositif de reproduction sonore tel qu'un casque 40 audio, pour la restitution sonore des signaux traités par le DSP 36 ;
- une interface 41 de communication sans fil, distincte du récepteur 32, par ex. à ultra-hautes fréquences (UHF) au standard IEEE 802.15 (dit « Bluetooth® »), reliée à une antenne 42. Les signaux reçus par l'interface 41 transitent vers le DSP 36 par un bus 43 de données au standard I2S ; parallèlement, le DSP 36 assure la commande de l'interface 41 par un circuit 44 asynchrone de type UART (acronyme de l'anglais Universal Asynchronous Receiver Transmitter) ;
de préférence un port 45 pour le raccordement de l'appareil 29 à des périphériques (par ex. un ordinateur de programmation), ou au secteur pour la charge d'une batterie intégrée à l'appareil 29. Divers autres protocoles de communication sans fil peuvent convenir pour l'interface 41 : citons notamment le standard IEEE 802.11 (couramment connu sous la dénomination WiFi) ou son équivalent HiperLAN (Hlgh PERformance radio Local Area Network), le standard GPRS (General Packet Radio Service), le protocole IRDA (InfraRed Data Association) le WUSB (Wireless Universal Sériai Bus).
Comme on le voit sur la figure 2, le système 1 de sonorisation comprend également un terminal 46 mobile de type Smartphone, tablette ou ordinateur portable. Le terminal 46 est configuré pour piloter l'appareil 29 et comprend : - un processeur 47 ;
une interface 48 primaire de communication sans fil, reliée au processeur 47 et à une antenne 49 et configurée pour communiquer avec un serveur 50 distant via un réseau 51 local (de type LAN : Local area network), métropolitain (de type MAN : Metropolitan area network) ou même étendu (de type WAN : Wide area network) tel que l'Internet, via des protocoles standard tels que la 3G de l'UMTS (Universal mobile télécommunication System) ou la 4G du LTE (Long term évolution) ; une interface 52 de communication sans fil, par ex. à ultra-hautes fréquences (UHF) au standard IEEE 802.15 (dit « Bluetooth® »), reliée à une antenne 52 et au processeur 47 ;
une interface 54 graphique, par ex. un écran tactile. Les autres protocoles de communication sans fil mentionnés ci-dessus peuvent également convenir pour la réalisation de l'interface 52.
Le processeur 47 intègre une application (qui peut être téléchargée à distance via le processeur 47 se connectant à cet effet sur le serveur 50) comprenant des instructions pour mettre à disposition de l'auditeur 2, via l'interface 54 graphique, différents réglages pour chaque piste (tel qu'un niveau de gain et un niveau de panoramique) et pour communiquer, via les antennes 53, 42 et les interfaces 52, 41, les réglages ainsi effectués au processeur 36 de l'appareil 29 pour qu'il les applique aux différentes pistes avant de les restituer à destination du casque 40 via la prise 39. L'auditeur 2 dispose par conséquent d'un appareil 29, qui peut lui être prêté lors de son entrée dans la salle 5 et jusqu'à la fin du spectacle, et d'un terminal 46, qui peut être son propre Smartphone. La communication sans fil entre l'appareil 29 et le terminal 46 est du type point à point, de sorte à garantir l'unicité des réglages effectués par l'auditeur 2 et éviter que ces réglages ne soient étendus de manière non désirée à d'autres appareils 29. A cet effet, l'appareil 29 et le terminal 46 sont, préalablement à l'établissement d'une session média entre eux, appariés par une procédure classique dans laquelle l'appareil 29 et le terminal 46 échangent des messages de signalisation contenant leurs identifiants et URL (uniform resource locator) respectifs. Il est envisageable d'apparier un terminal 46 avec plusieurs appareils 29, qui sont alors pilotés par le même terminal 46 pour qu'un même réglage commandé depuis celui-ci soit déployé sur tous les appareils 29.
On notera que la session média entre le terminal 46 et l'appareil 29 ne comprend pas nécessairement l'échange des pistes audio. En effet, il est suffisant que l'application programmée dans le terminal 46 permette d'effectuer des réglages sur les pistes audio diffusées, l'expérience sonore de l'auditeur 2 suffisant à savoir si ces réglages lui conviennent. L'application programmée dans le terminal 46 peut d'ailleurs, à cet effet, être dédiée au spectacle en cours, et intégrer d'office les bonnes pistes audio. En variante, l'application est réutilisable pour plusieurs spectacles, et comprend un nombre déterminé de potentiomètres dont certains peuvent être activés ou désactivés via une mise à jour logicielle disponible au téléchargement par les auditeurs depuis le serveur 50, dès le début et pendant la durée du spectacle.
Comme on l'a illustré sur la figure 2, le réglage proposé à l'auditeur 2 pour chaque piste, via l'interface 54 graphique du terminal 46, peut se présenter sous forme d'une émulation de potentiomètre 55. Les réglages peuvent également être regroupés pour l'ensemble des pistes, sous forme par exemple d'une émulation graphique de table de mixage.
L'auditeur 2 peut ainsi, en effectuant pour chaque piste audio des réglages de son choix (notamment le niveau sonore de chaque piste), améliorer son expérience sonore en procédant à son propre mixage à partir des données audio brutes reçues de l'émetteur 17 par l'appareil 29.
Selon un mode de réalisation, les différentes pistes audio sont, au niveau de la troisième table 15 de mixage, toutes préréglées à un niveau moyen, permettant à l'auditeur 2 de disposer, dès le début de la diffusion, d'un signal audio muni d'un mixage par défaut (par ex. réalisé par un ingénieur du son) permettant une écoute confortable auquel certains auditeurs 2 peu exigeants peuvent estimer ne pas devoir retoucher.
Un auditeur 2 équipé d'un appareil 29 couplé à un terminal 46 mobile tels que décrits ci-dessus, peut appliquer aux différentes pistes audio (qui sont restituées mixées dans son casque 40) les paramètres de réglage qui lui conviennent, ce qui lui permet de personnaliser son écoute en l'adaptant à ses exigences, ses goûts ainsi qu'à ses facultés (acuité auditive, fréquences inaudible, problèmes psycho-acoustiques, sensibilité asymétrique entre les deux oreilles par exemple). En d'autres termes, la diffusion multipiste permet à l'auditeur 2 d'agir à sa convenance sur une ou plusieurs pistes audio véhiculées sur des pistes dédiées pour obtenir au final un mixage personnalisé. L'auditeur 2, qui dispose localement de l'ensemble des contenus sonores en multipiste (c.à.d. que les pistes sont isolées les unes des autres au niveau de l'appareil 29), peut, via l'application qu'il a installée sur son terminal 46 mobile, modifier à volonté la sonorité des contenus.
Il peut cependant exister un décalage temporel entre le signal audio perçu par l'auditeur 2 dans son casque 40, et le signal audio perçu par l'auditeur 2 en provenance de la sono 11. Les deux signaux sont tous deux des signaux temps réels, issus des mêmes sources 4 sonores, via les mêmes microphones 6, mais le signal du casque 40 a voyagé jusqu'à l'auditeur 2 à la vitesse de la lumière (soit 300 000 km/s), tandis que le signal de la sono 11, qui peut paraître synchronisé au signal du casque 40 lorsque celui-ci est proche de la sono 11, accuse lorsque le casque 40 est distant de la sono 11 un retard dû au trajet séparant l'auditeur 2 de la sono 11, parcouru à la vitesse du son (soit environ 340 m/s). Ainsi, du point de vue d'un auditeur 2 situé à une distance de 20 m environ de la sono, le décalage temporel perçu entre les deux signaux est de 60 ms environ. Ce décalage est suffisamment important pour être pleinement détecté par l'oreille humaine et constituer une gêne pour l'auditeur 2 qui ressentira un désagréable effet d'écho.
Selon un mode de réalisation, afin de minimiser (voire éliminer) cet effet d'écho, et ce indépendamment de la position de l'auditeur 2 dans la salle 5, l'appareil 29 (et plus précisément son DSP 36) est programmé pour capter, via son microphone 38 intégré, l'ambiance sonore dans son voisinage (et, donc, au voisinage de l'auditeur 2).
Le DSP 36 est programmé pour : - estimer le déphasage entre le signal acoustique capté par le microphone 38 (signal ambiant) et le signal destiné au casque 40 (signal mixé), par exemple en calculant le délai entre des maxima ; effectuer un recalage temporel du signal mixé sur le signal ambiant, de sorte à les synchroniser. Selon un mode de réalisation, l'estimation du délai entre les maxima est réalisée à une fréquence prédéfinie du spectre sonore, par ex. à une fréquence basse (correspondant à un son sourd tel qu'un coup de grosse caisse) ou au contraire à une fréquence élevée (correspondant un son aigu tel qu'un tempo de cymbale charleston).
La synchronisation temporelle entre des deux signaux acoustiques est obtenue en retardant le signal mixé de la différence estimée entre les maxima des deux signaux. Cette différence est, de préférence, ré-estimée régulièrement (par ex. à intervalles réguliers de 1 seconde ou moins) pour tenir compte de tout facteur qui pourrait modifier sa valeur (tel que le déplacement de l'auditeur 2 dans la salle 5 ou un changement dans la configuration physique de la scène sonore tel que l'ajout et/ou la suppression d'un obstacle).
Le microphone 38 étant intégré à l'appareil 29 et donc porté en permanence par l'auditeur 2, il s'ensuit que le recalage temporel s'actualise automatiquement en conséquence.
Le recalage temporel ne supprime pas les sensations physiques dues à la pression acoustique qui s'exerce sur le corps de l'auditeur 2, en particulier dans les fréquences graves (il est ainsi connu que les coups de grosse caisse se répercutent, à volume sonore élevé, dans le ventre et la cage thoracique des auditeurs). Mais les sensations physiques font partie de l'expérience live et, dans la mesure où les sensations sont synchronisées avec le signal mixé, l'auditeur 2 peut avoir l'illusion qu'elles sont générées par le signal audio mixé de qualité qu'il entend dans son casque 40.
Toutefois, si le recalage temporel permet d'atténuer (voire de supprimer) l'effet d'écho, il ne corrige pas, en revanche, les défauts de qualité du signal ambiant, en particulier si l'acoustique de la salle et/ou la sono 11 et/ou le mixage du signal délivré par celle-ci est/sont dégradés.
C'est pourquoi, selon un mode avantageux de réalisation, le casque 40 audio est équipé d'un système de réduction du bruit (en anglais Noise Cancelling) afin de réduire l'intensité du signal ambiant perçu par l'auditeur 2 et ainsi faire prédominer le signal mixé pour améliorer l'expérience sonore de l'auditeur 2. Il existe des modèles de casques tout équipés, cf. par ex. le casque de la marque BOSE® commercialisé sous la dénomination QuiefComfort®, ou encore le casque de la marque PARROT® commercialisé sous la dénomination Zik®. Selon un exemple (non limitatif) de réalisation, le signal délivré par la troisième table 15 de mixage est à huit pistes, que l'auditeur 2 peut régler séparément à partir de son terminal 46 et qui sont combinées par l'appareil 29 à partir de ces réglages pour construire un signal audio mixé conforme aux souhaits de l'auditeur 2.
Il est avantageux, pour améliorer encore l'expérience sonore de l'auditeur 2, et en particulier pour renforcer l'ambiance live dans le signal mixé, de tourner un microphone 6 vers la salle pour en capter les bruits d'ambiance, et en particulier les bruits de participation (typiquement la reprise de paroles en chœur ou les applaudissements). Les bruits de salle sont alors alloués à une piste audio dédiée, que l'auditeur 2 peut régler dans son mixage. De même, il est avantageux d'ajouter dans le signal mixé à l'attention de l'auditeur un effet sonore de réverbération qui donne au son une coloration acoustique caractéristique du lieu. En outre, selon une forme de réalisation intéressante, l'appareil 29 est miniaturisé et intégré au casque 40 audio.
Il résulte de ce qui précède que le système 1 de sonorisation permet à l'auditeur 2 : d'améliorer son expérience sonore en lui permettant de devenir, en quelque sorte, son propre ingénieur du son ;
de s'affranchir des contraintes acoustiques liées à la salle 5 ;
de profiter d'une qualité sonore optimale (le son issu de la troisième table 15 de mixage et mixé à volonté par l'auditeur 2) ;
tout en profitant d'une expérience live avec les avantages qui lui sont inhérents (présence des artistes, interactivité, ambiance festive) ;
d'améliorer sa relation avec l'artiste en la rendant plus intime ;
de s'immerger plus complètement dans le spectacle grâce à un son spatialisé.
En transférant les différentes pistes sonores à l'appareil 29 et, par conséquent en déléguant le traitement audio à celui-ci en tant que boîtier personnel, on surmonte les inconvénients (notamment, la charge calculatoire) d'une architecture centralisée. Pour autant, l'appareil 29 ne supporte pas la totalité de la charge calculatoire puisqu'il revient au terminal 46 (séparé de l'appareil 29) d'afficher les réglages au profit de l'auditeur 2.
Cela permet d'éviter d'équiper l'appareil 29 d'une interface graphique consommatrice de ressources calculatoires (et énergétiques), au bénéfice d'une grande autonomie de fonctionnement.
L'appareil 29 est de préférence autonome électriquement, en étant par ex. muni d'une batterie (non représentée), susceptible d'être chargée épisodiquement par branchement sur le secteur, notamment via un port série de type USB (Universal Sériai Bus).
Enfin, grâce à son architecture, le système 1 de sonorisation permet à l'auditeur 2 de bénéficier d'une expérience constante et de qualité quelle que soit sa position par rapport à la scène 3 ou par rapport à la sono 11. D'un point de vue acoustique, il n'existe donc pour l'auditeur 2 ni de mauvaise salle, ni de mauvais placement.

Claims

REVENDICATIONS
1. Appareil (29) de réception et de lecture de signaux audio destiné à équiper un auditeur (2) [page 12 lignes 5-7, page 13 ligne 13] et à être piloté par un terminal (46) mobile intégrant une interface (54) graphique, ce terminal (46) mobile étant distinct de l'appareil (29) [page 11 lignes 10-26, page 12 lignes 15-18], cet appareil comprenant :
un récepteur (32) d'ondes électromagnétiques à hautes fréquences configuré pour capter des signaux radiodiffusés intégrant une pluralité de pistes audio ;
- une interface (41) de communication sans fil, distincte du récepteur (32) et configurée pour recevoir depuis le terminal (46) mobile au moins un paramètre de réglage à appliquer à au moins une piste audio du signal capté ;
un processeur (36) de signal numérique configuré pour appliquer le paramètre de réglage à la piste audio et produire un signal mixé ;
une sortie (39) audio pour la restitution sonore du signal mixé par le processeur (36) [revendication 2 telle que déposée, page 10 lignes 25- 28].
2. Appareil (29) selon la revendication 1, qui comprend en outre un microphone (38) intégré, configuré pour capter un signal sonore au voisinage de l'appareil (29).
3. Appareil (29) selon la revendication 2, dans lequel le processeur (36) est configuré pour calculer un décalage temporel entre le signal mixé par le processeur (36) et le signal sonore capté par le microphone (38).
4. Appareil (29) selon la revendication 3, dans lequel le processeur
(36) est configuré pour appliquer au signal mixé un retard égal au décalage temporel calculé.
5. Casque (40) audio intégrant un appareil (29) selon l'une quelconque des revendications précédentes.
6. Casque (40) audio selon la revendication 5, qui comprend en outre un système de réduction du bruit acoustique.
7. Système (1) de sonorisation d'un spectacle, ce système (1) comprenant :
une table (15) de mixage qui reçoit des pistes audio ; un émetteur (17) relié à la table (15) de mixage et configuré pour radiodiffuser de manière communautaire les pistes audio en mode multicanal ;
au moins un appareil (29) de réception et de lecture du signal radiodiffusé, selon l'une des revendications 1 à 4 ;
un terminal (46) mobile configuré pour transmettre à l'appareil (29) de réception, via sa deuxième interface (41) de communication, au moins un paramètre de réglage à appliquer à au moins une piste audio [revendication 10 telle que déposée];
- un casque (40) relié à la sortie (39) audio [revendication 2 telle que déposée]de l'appareil (29) pour la restitution du signal mixé.
8. Système (1) selon la revendication 7, caractérisé en ce que, le spectacle étant vivant et comprenant des sources (4) sonores, le système comprend des microphones (6) pointant vers les sources (4) sonores pour en capturer les sons sous forme d'un signal électrique formant une piste audio pour chaque microphone (6).
PCT/FR2016/050243 2015-02-05 2016-02-05 Appareil de réception et de lecture de signaux audio et système de sonorisation live WO2016124865A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020177024836A KR20170115079A (ko) 2015-02-05 2016-02-05 오디오 신호를 수신 및 판독하기 위한 장치 및 라이브 사운드 시스템
JP2017559923A JP2018512107A (ja) 2015-02-05 2016-02-05 音信号を受信して読み取るための機器及びライブ音響システム
EP16707869.0A EP3254389A1 (fr) 2015-02-05 2016-02-05 Appareil de réception et de lecture de signaux audio et système de sonorisation live
US15/548,842 US9942681B2 (en) 2015-02-05 2016-02-05 Appliance for receiving and reading audio signals and live sound system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1550923 2015-02-05
FR1550923A FR3032586B1 (fr) 2015-02-05 2015-02-05 Appareil de reception et de lecture de signaux audio et systeme de sonorisation live

Publications (1)

Publication Number Publication Date
WO2016124865A1 true WO2016124865A1 (fr) 2016-08-11

Family

ID=52988314

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2016/050243 WO2016124865A1 (fr) 2015-02-05 2016-02-05 Appareil de réception et de lecture de signaux audio et système de sonorisation live

Country Status (6)

Country Link
US (1) US9942681B2 (fr)
EP (1) EP3254389A1 (fr)
JP (1) JP2018512107A (fr)
KR (1) KR20170115079A (fr)
FR (1) FR3032586B1 (fr)
WO (1) WO2016124865A1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018051161A1 (fr) * 2016-09-16 2018-03-22 Augmented Acoustics Procédé de production et de lecture de contenu vidéo et audio multicanal
FR3070568A1 (fr) * 2017-08-28 2019-03-01 Theater Ears, LLC Systemes et procedes pour reduire les effets d'annulation de phase lors de l'utilisation de casque audio
WO2019097161A1 (fr) 2017-11-16 2019-05-23 Augmented Acoustics Procede de sonorisation live, au casque, tenant compte des caracteristiques de perception auditive de l'auditeur.

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10652398B2 (en) 2017-08-28 2020-05-12 Theater Ears, LLC Systems and methods to disrupt phase cancellation effects when using headset devices
KR102184918B1 (ko) * 2017-12-06 2020-12-02 주식회사 아세스 수상 활동을 위한 커뮤니케이션 시스템 및 방법
US10481859B2 (en) 2017-12-07 2019-11-19 Powerchord Group Limited Audio synchronization and delay estimation
CN108848434A (zh) * 2018-05-24 2018-11-20 深圳普罗声声学科技有限公司 音频处理装置的声音处理方法和装置、助听器
US11709648B2 (en) * 2019-12-19 2023-07-25 Tyxit Sa Distributed audio processing system for processing audio signals from multiple sources
CN112214106B (zh) * 2020-09-16 2023-05-30 青岛小鸟看看科技有限公司 高精度抗干扰的vr系统、运行方法
CN113411719B (zh) * 2021-06-17 2022-03-04 杭州海康威视数字技术股份有限公司 一种麦克风级联系统、麦克风及终端
CN116915896A (zh) * 2022-03-22 2023-10-20 荣耀终端有限公司 防止蓝牙音频Track音轨抖动的方法及相关设备
KR102638322B1 (ko) * 2022-05-30 2024-02-19 주식회사 유기지능스튜디오 1인칭 실감형 오디오 컨텐츠를 제작하기 위한 장치, 방법
CN116249045B (zh) * 2023-05-11 2023-08-01 深圳奥尼电子股份有限公司 一种采用无线星链方式的集联麦克风声学技术设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2904481Y (zh) * 2005-11-10 2007-05-23 晶通信息(上海)有限公司 具备人机接口装置操控功能的蓝牙立体声耳机
US20140328485A1 (en) * 2013-05-06 2014-11-06 Nvidia Corporation Systems and methods for stereoisation and enhancement of live event audio

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9319019B2 (en) * 2013-02-11 2016-04-19 Symphonic Audio Technologies Corp. Method for augmenting a listening experience
US20150124995A1 (en) * 2013-11-04 2015-05-07 David Walter Defnet Public address system with wireless audio transmission

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2904481Y (zh) * 2005-11-10 2007-05-23 晶通信息(上海)有限公司 具备人机接口装置操控功能的蓝牙立体声耳机
US20140328485A1 (en) * 2013-05-06 2014-11-06 Nvidia Corporation Systems and methods for stereoisation and enhancement of live event audio

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Search Results - Gear Patrol", 4 November 2015 (2015-11-04), XP055225725, Retrieved from the Internet <URL:http://gearpatrol.com/search-results/?q=noise%20headphones> [retrieved on 20151104] *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018051161A1 (fr) * 2016-09-16 2018-03-22 Augmented Acoustics Procédé de production et de lecture de contenu vidéo et audio multicanal
FR3070568A1 (fr) * 2017-08-28 2019-03-01 Theater Ears, LLC Systemes et procedes pour reduire les effets d'annulation de phase lors de l'utilisation de casque audio
WO2019097161A1 (fr) 2017-11-16 2019-05-23 Augmented Acoustics Procede de sonorisation live, au casque, tenant compte des caracteristiques de perception auditive de l'auditeur.
US11297454B2 (en) 2017-11-16 2022-04-05 Augmented Acoustics Method for live public address, in a helmet, taking into account the auditory perception characteristics of the listener

Also Published As

Publication number Publication date
US20180035232A1 (en) 2018-02-01
EP3254389A1 (fr) 2017-12-13
US9942681B2 (en) 2018-04-10
JP2018512107A (ja) 2018-05-10
FR3032586A1 (fr) 2016-08-12
KR20170115079A (ko) 2017-10-16
FR3032586B1 (fr) 2018-03-16

Similar Documents

Publication Publication Date Title
WO2016124865A1 (fr) Appareil de réception et de lecture de signaux audio et système de sonorisation live
CN103053180B (zh) 用于声音再现的系统和方法
CA2992510C (fr) Synchronisation d&#39;un signal audio
EP1774825A1 (fr) Systeme et procede de controle a l&#39;interieur de l&#39;oreille
AU2016293318B2 (en) Personal audio mixer
EP1886535B1 (fr) Procede pour produire une pluralite de signaux temporels
EP2009891B1 (fr) Transmission de signal audio dans un système de conférence audio immersive
WO2013057438A1 (fr) Procede d&#39;envoi et de restitution sonore d&#39;informations audio
US10448162B2 (en) Smart headphone device personalization system with directional conversation function and method for using same
US20190182557A1 (en) Method of presenting media
WO2017191384A1 (fr) Procédé de diffusion sonore prenant en compte les particularités individuelles
EP3711307A1 (fr) Procede de sonorisation live, au casque, tenant compte des caracteristiques de perception auditive de l&#39;auditeur.
FR3010597A1 (fr) Dispositif de communication sonore sans fil bidirectionnelle
FR3040253B1 (fr) Procede de mesure de filtres phrtf d&#39;un auditeur, cabine pour la mise en oeuvre du procede, et procedes permettant d&#39;aboutir a la restitution d&#39;une bande sonore multicanal personnalisee
WO2020249903A1 (fr) Système vibratoire sensoriel
EP4203486A1 (fr) Boitier decodeur pour la restitution d&#39;une piste audio additionnelle
Nguyen et al. The effects of diffuse noise and artificial reverberation on listener weighting of interaural cues in sound localization
FR3010596A1 (fr) Dispositif de communication sonore sans fil dans un milieu dense en frequences
FR3052623A1 (fr) Systeme d&#39;ecoute.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16707869

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017559923

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15548842

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2016707869

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20177024836

Country of ref document: KR

Kind code of ref document: A