APPAREIL DE RECEPTION ET DE LECTURE DE SIGNAUXAUDIO ET SYSTEME DE SONORISATION LIVE
La présente invention concerne, d'une manière générale, les systèmes de sonorisation permettant d'améliorer l'expérience sonore d'un auditeur assistant à un spectacle.
Le terme « spectacle » désigne tout événement qui se déroule devant un public (également dénommé auditoire) et qui comprend une ou plusieurs sources sonores (telles que voix, bruits, instruments de musique). Le spectacle peut être, par exemple, un concert, une pièce de théâtre, un numéro (par ex. de one man show), un ballet, ou encore une conférence, une réunion, un meeting, un film, une émission de télévision ou de radio enregistrée en direct et en public.
Le spectacle peut être sonorisé, c'est-à-dire que les sons du spectacle sont diffusés (en étant éventuellement amplifiés) à l'attention du public au moyen d'un dispositif (numérique ou analogique) de reproduction sonore.
Le spectacle peut être vivant (ou « live ») et se dérouler sur une scène, qui désigne un lieu où sont rassemblées ou réparties les sources sonores (par ex. des musiciens) ; le public peut être quant à lui rassemblé ou réparti dans une salle, qui dans le cas d'un spectacle vivant peut être attenante à (ou distante de) la scène. La configuration de la salle est quelconque ; elle n'est pas nécessairement couverte ; la salle peut être située en contrebas de la scène (ou au contraire en surplomb). La salle peut être organisée en gradins ou être de plain-pied. La salle peut occuper le devant de la scène (c'est typiquement le cas d'une salle de théâtre) ou entourer celle-ci (typiquement dans un stade). Pour certains spectacles en plein air, le terme « salle » peut en fait désigner un espace non délimité, tel qu'une pelouse ou une esplanade.
La qualité du son perçu par un auditeur peut être affectée par plusieurs facteurs objectifs (indépendants de la volonté de l'auditeur) : l'acoustique du lieu (présence de réflexions parasites, échos, modes de résonance propre), la qualité du système de sonorisation, les contraintes auxquelles sont soumis les ingénieurs du son chargés du mixage, et la présence de bruits parasites (par exemple générés par un public bruyant).
D'autres facteurs subjectifs (liés à l'auditeur lui-même) peuvent également affecter la qualité du son, notamment la position de l'auditeur dans la salle et sa sensibilité à certaines fréquences du spectre audio plus qu'à d'autres.
Certaines mesures peuvent être prises pour améliorer la qualité du son perçu par les auditeurs. On peut ainsi modifier l'architecture du lieu pour en améliorer l'acoustique. On peut également remplacer tout ou partie du matériel du système de sonorisation. Il est cependant difficile de rendre polyvalente une salle de spectacle. En particulier, certaines fréquences peuvent être absorbées par les parois, ou au contraire totalement réfléchies. Une salle peut entrer en résonance à certaines fréquences et générer des vibrations parasites à d'autres. En outre, une acoustique convenant bien à la musique de chambre peut, par exemple, ne pas être adaptée à la musique pop, et vice-versa.
Il existe donc un besoin de mieux adapter le rendu sonore aux attentes des auditeurs. On notera d'ailleurs que, la perception auditive étant subjective, une sonorisation peut être considérée satisfaisante par certains auditeurs et au contraire insatisfaisante par d'autres.
La demande de brevet américain US2014/0328485 décrit un système audio configuré pour procurer des effets sonores améliorés à un auditeur équipé d'un terminal mobile et d'un casque audio. Pour cela, ce système comprend une console couplée d'une part à une pluralité de microphones et, d'autre part, à un point d'accès sans fil. La console est programmée pour transférer au terminal mobile, via le point d'accès sans fil, des signaux audio reçus sur différent canaux depuis plusieurs microphones. Un serveur central se charge, à la demande de chaque utilisateur, d'effectuer le mixage personnalisé requis par cet utilisateur.
Cette solution peut paraître résoudre les difficultés susmentionnées, mais elle n'est cependant pas exempte de défauts. En premier lieu, l'architecture centralisée de type client/serveur qui est décrite (un mixage personnalisé des différents canaux audio est fourni en mode point-à-point sur demande de chaque utilisateur) provoque une surcharge du serveur central, censé dialoguer avec chaque terminal (qui forme interface de contrôle) et lui fournir un signal mixé à la demande. Certes, une solution alternative est
brièvement évoquée, qui consiste à traiter le signal de console directement au niveau du terminal, mais, comme il est justement indiqué, cette solution est de nature à épuiser rapidement la batterie du terminal.
Le document US2014/0328485 propose, par ailleurs, pour éviter la superposition, dans les oreilles de l'auditeur, du signal audio de console et du signal direct reçu de la sonorisation de la salle, d'introduire un délai dans la restitution du signal audio issu de la console pour le synchroniser au signal direct. Concrètement, un haut-parleur donné envoie dans la salle une pulsation (hors du spectre audible) pour permettre, via un micro équipant le terminal, de calculer la distance de celui-ci au haut-parleur et d'en déduire un délai à appliquer au signal de console. Cette procédure est, en pratique, difficilement applicable car le haut-parleur émettant la pulsation n'est pas nécessairement le plus proche de l'auditeur, de sorte que le délai introduit dans la restitution du signal de console risque de ne pas permettre la synchronisation au signal direct. En outre, la plupart des terminaux mobiles (notamment les Smartphones) sont équipés de filtres passe-bas qui vont éliminer les fréquences auxquelles sont émises les pulsations. Il en résulte que, pour la majorité des utilisateurs, le système décrit dans ce document ne pourra tout simplement pas fonctionner. Un premier objectif est d'améliorer pour l'auditeur la qualité de la restitution sonore d'un spectacle, en s'affranchissant, autant que possible, des facteurs susceptibles d'affecter la qualité de cette restitution.
Un deuxième objectif est de permettre une personnalisation individualisée du son restitué issu du spectacle. A cet effet, il est proposé, en premier lieu, un appareil de réception et de lecture de signaux audio destiné à équiper un auditeur et à être piloté par un terminal mobile intégrant une interface graphique, ce terminal mobile étant distinct de l'appareil, cet appareil comprenant: un récepteur d'ondes électromagnétiques à hautes fréquences configuré pour capter des signaux radiodiffusés intégrant une pluralité de pistes audio ;
une interface de communication sans fil, distincte du récepteur et configurée pour recevoir depuis le terminal mobile au moins un
paramètre de réglage à appliquer à au moins une piste audio du signal capté ;
un processeur de signal numérique configuré pour appliquer le paramètre de réglage à la piste audio et produire un signal mixé ;
- une sortie audio pour la restitution sonore du signal mixé par le processeur.
Selon diverses caractéristiques supplémentaires, prises individuellement ou en combinaison :
l'appareil comprend en outre un microphone intégré, configuré pour capter un signal sonore au voisinage de l'appareil ;
le processeur est configuré pour calculer un décalage temporel entre le signal mixé par le processeur et le signal sonore capté par le microphone ;
le processeur est configuré pour appliquer au signal mixé un retard égal au décalage temporel calculé.
Il est proposé, en deuxième lieu, un casque audio intégrant un appareil tel que présenté ci-dessus. Ce casque peut en outre comprendre un système de réduction du bruit acoustique.
Il est proposé, en troisième lieu, un système de sonorisation d'un spectacle, ce système comprenant :
une table de mixage qui reçoit des pistes audio ;
un émetteur relié à la table de mixage et configuré pour radiodiffuser de manière communautaire les pistes audio en mode multicanal ;
au moins un appareil de réception et de lecture du signal radiodiffusé, tel que présenté ci-dessus ;
un terminal mobile configuré pour transmettre à l'appareil de réception, via sa deuxième interface de communication, au moins un paramètre de réglage à appliquer à au moins une piste audio;
un casque relié à la sortie audio de l'appareil pour la restitution du signal mixé.
Selon diverses caractéristiques supplémentaires, prises individuellement ou en combinaison :
le spectacle est vivant et comprend des sources sonores, et le système comprend des microphones pointant vers les sources sonores pour en capturer les sons sous forme d'un signal électrique formant une piste audio pour chaque microphone.
- le système comprend un terminal mobile configuré pour transmettre à l'appareil de réception, via sa deuxième interface de communication, au moins un paramètre de réglage à appliquer à au moins une piste audio.
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement et de manière concrète à la lecture de la description ci-après de modes de réalisation préférés, faite en référence aux dessins annexés dans lesquels : la FIG.1 est une vue schématique en perspective illustrant un système de sonorisation d'un spectacle, ce système de sonorisation étant équipé d'un appareil de réception et de lecture ;
la FIG.2 est une vue schématique détaillant l'architecture fonctionnelle du système.
Sur la figure 1 est représenté un système 1 de sonorisation d'un spectacle émettant des sons (voix et/ou bruits et/ou musique) au bénéfice d'un public (ou auditoire) composé d'un ou plusieurs auditeurs 2. Ce spectacle peut être vivant ou « live » et se dérouler en direct.
Le spectacle peut être un concert, une pièce de théâtre, un numéro (par ex. de one man show), un ballet, une conférence, une réunion, un meeting, un film, une émission de télévision ou de radio enregistrée en direct et en public.
Lorsqu'il est vivant, le spectacle se déroule au sein d'un lieu 3 et comprend, au sein de ce lieu 3, des sources 4 sonores (le spectacle peut, en plus des sources 4 sonores, comprendre des sources visuelles non sonores). Dans ce qui suit, on désigne ce lieu 3, qui n'est pas nécessairement clairement délimité, par le terme « scène ». Dans certains cas, par ex. lorsque le spectacle est un concert, la scène 3 désigne un plateau sur lequel sont rassemblés les artistes qui réalisent le spectacle.
Dans l'exemple illustré, le spectacle est donné par des musiciens (dont on a représenté deux chanteurs) qui forment des sources 4 sonores. La scène 3 est schématisée par un rectangle en pointillés qui encadre les musiciens 4. Lorsque le spectacle est enregistré (par ex. un film) ou diffusé à distance du lieu dans lequel il se déroule, par ex. une rencontre sportive se déroulant dans un stade et retransmise à l'extérieur du stade au bénéfice d'un public surnuméraire), le terme « scène » peut désigner un écran sur lequel la partie visuelle du spectacle est projetée.
Les auditeurs 2 peuvent être rassemblés, ou au contraire disséminés, devant ou autour de la scène 3, ou devant des écrans retransmettant le spectacle à distance. Le terme « salle » désigne d'ordinaire un lieu à la fois couvert et délimité. Ici, on généralise la notion de salle, référencée sous le numéro 5, pour désigner tout lieu où se trouvent les auditeurs 2. Dans le cas le plus simple (par ex. dans le cas, illustré, d'un concert donné sur une scène 2), la salle 5 est effectivement couverte et délimitée, et s'étend devant la scène 3. Mais la salle 5 est de configuration quelconque ; il peut s'agir d'un espace non délimité, non nécessairement couvert, tel qu'une pelouse ou une esplanade, par ex. dans le cas de concerts donnés en plein air et/ou dans un stade. Le spectacle est sonorisé, c'est-à-dire que les sons issus des sources 4 sonores (les musiciens dans l'exemple illustré) sont captés à l'aide du système 1 de sonorisation, qui comprend à cet effet des microphones 6 pointant vers les sources 4 sonores pour en capturer les sons sous forme, pour chaque microphone 6, d'un signal électrique formant une piste audio. De préférence, à chaque source 4 sonore est dédié un microphone 6. Sur la figure 1, les microphones 6 sont représentés fixes, mais certains au moins d'entre eux peuvent être mobiles. En particulier, un microphone 6 peut être portatif, notamment si sa source 4 est mobile, par ex. le chanteur ou le guitariste d'un groupe musical. Dans ce cas, le microphone 6 peut être tenu à la main par le protagoniste, ou accroché à lui ou à son instrument (ou même intégré à celui-ci, par ex. dans le cas d'une guitare électrique).
De manière classique, le système 1 peut comprendre un séparateur 7 audio primaire qui récupère la piste audio issue de chaque microphone 6 via une
ligne 8 audio d'entrée - filaire, comme dans l'exemple illustré, ou à radiofréquences (RF) dans le cas d'un microphone sans fil.
Le séparateur 7 comprend plusieurs entrées de sorte à pouvoir récupérer en parallèle les signaux générés par les différents microphones 6. La capture des sons est par conséquent multipiste (c.à.d. sur différentes pistes), en temps réel.
Le système 1 de sonorisation peut comprendre une première table 9 de mixage reliée au séparateur 7 primaire par une liaison 10 (filaire ou RF) par laquelle la première table 9 reçoit différents canaux issus des lignes 8 audio.
Cette première table 9 de mixage est reliée, en sortie, à un dispositif 11 de reproduction sonore, ci-après plus simplement dénommé sono, qui comprend des haut-parleurs tournés vers les auditeurs 2. La sono 11 peut être organisée d'une manière quelconque, de préférence conformément aux habitudes des ingénieurs du son ; elle peut ainsi comprendre des haut- parleurs montés en ligne (line array), agencés en matrice, ou groupés en façade sur la scène 3. Par simplicité, la sono 11 est représentée sur la figure 1 par un unique haut-parleur.
Les différents canaux issus du séparateur 7 primaire sont mixés grâce à la première table 9 pour former une première composition sonore destinée à être diffusée en champ libre à destination du public via la sono 11.
A cet effet, un ingénieur du son est chargé de procéder au mixage, sur la première table 9, pour appliquer à destination de la salle 5 des réglages appliqués aux différentes pistes, parmi lesquels le volume sonore, la balance, l'égalisation.
Comme on le voit sur la figure 1, le système 1 de sonorisation peut comprendre une deuxième table 12 de mixage reliée au séparateur 7 primaire par une liaison 13 (filaire ou RF) par laquelle la deuxième table 12 reçoit également les canaux issus des lignes 8 audio.
Les différents canaux issus du séparateur 7 primaire sont mixés grâce à la deuxième table 9 pour former une deuxième composition sonore destinée à la scène 3 (via des haut-parleurs de retour, non représentés).
A cet effet, un ingénieur du son (le même que précédemment ou un autre) 5 est chargé de procéder au mixage, sur la deuxième table 12, pour appliquer à destination de la scène 3 des réglages appliqués aux différentes pistes, parmi lesquels le volume sonore, la balance, l'égalisation.
Selon un mode de réalisation illustré sur la figure 1, le système 1 de sonorisation comprend en outre un séparateur 14 secondaire monté en
10 parallèle (ou en cascade) avec le séparateur 7 primaire et qui récupère comme lui le signal de chaque microphone 6 via les mêmes lignes 8 audio d'entrée. En sortie du séparateur 14 secondaire, les pistes audio peuvent être identiques à celles issus du séparateur 7 primaire, ou différentes, selon les réglages (identiques ou différents) appliqués aux séparateurs 7,
15 14.
Le système 1 de sonorisation comprend par ailleurs une troisième table 15 de mixage reliée au séparateur 14 secondaire par une liaison 16 (filaire ou RF) par laquelle la troisième table 15 reçoit différents canaux issus des lignes 8 audio. 0 En variante, le système 1 est dépourvu de séparateur 14 secondaire, et la troisième table peut être directement reliée à l'une des tables 9, 12, de préférence la première table 9.
En outre, dans le cas d'un spectacle non vivant (par ex. un film), le système est dépourvu de micros, les lignes 8 audio étant préenregistrées. 5 Le système 1 de sonorisation comprend au moins un émetteur 17 de radiodiffusion auquel est reliée la troisième table 15 et qui est configuré pour recueillir les différents canaux issus de celle-ci et les diffuser par voie hertzienne en mode multicanal au moyen d'une antenne 18, par ex. selon la norme IEEE 802.11. On veillera à couvrir l'ensemble de la salle 5 en
30 adaptant la puissance de l'émetteur 17 et, le cas échéant, en prévoyant plusieurs émetteurs 17 reliés à la troisième table 15, répartis de sorte à
maximiser la couverture de la radiodiffusion. En variante, l'émetteur 17 et la troisième table 15 forment un seul et même appareil.
La radiodiffusion réalisée par l'émetteur 17 est communautaire, c'est-à-dire que la diffusion est commune pour un ensemble de destinataires, qui ne sont pas nécessairement identifiés par l'émetteur 17 et qui peuvent capter la diffusion dès lors qu'ils sont configurés à cet effet et situés à portée de l'émetteur 17.
Le mode de diffusion est multicanal, c'est-à-dire que le signal diffusé par l'émetteur 17 comprend chaque piste audio prise séparément des autres. Les pistes audio peuvent être multiplexées au sein du signal radiodiffusé.
L'émetteur 17, illustré sur la figure 2, comprend : un convertisseur 19 analogique-numérique ou ADC (acronyme de l'anglais Analog-to-Digital Converter), multicanal, configuré pour collecter, par des entrées analogiques différentielles, les signaux analogiques en provenance de la troisième table 15 de mixage et les convertir en signaux numériques ;
un processeur 20 de signal numérique ou DSP (acronyme de l'anglais Digital Signal Processor), programmé pour traiter en temps réel les signaux numériques qui lui sont délivrés par l'ADC 19 en leur appliquant notamment des filtres et une conversion en signaux radiofréquence ; les signaux sont transmis par l'ADC 19 au DSP 20 par un bus 21 de données au standard I2S (Integrated Interchip Sound), qui a pour avantage de minimiser les phénomènes de fluctuation (ou gigue, de l'anglais jitter) dans le signal ; le DSP 20 assure la commande de l'ADC 19 via un bus 22 de données série synchrone ou
SPI (acronyme de l'anglais Sériai Peripheral Interface), qui permet de réaliser une commande de type maître-esclave dans laquelle l'ADC 19 est asservi au DSP 20 qui génère le signal d'horloge pour l'envoi des données par le bus 21 I2S ;
- un modulateur 23, qui reçoit le flux audio traité du DSP 20 via un bus
24 de données au standard I2S pour le moduler en phase et en quadrature (modulation l/Q) ;
un radioémetteur 25 qui reçoit le signal modulé du modulateur 23 via un bus l/Q 26 reliant en boucle le radioémetteur 25 au modulateur 23 et qui est relié à l'antenne 18 pour la radiodiffusion des canaux (par voie hertzienne). Selon un mode de réalisation préféré illustré sur la figure 2, le modulateur 23 assure la commande du radioémetteur 25 via un bus 27 de données série synchrone ou SPI (acronyme de l'anglais Sériai Peripheral Interface), grâce auquel le radioémetteur 25 est asservi au modulateur 23.
En outre, selon un mode préféré de réalisation, le radioémetteur 25 est relié à l'antenne 18 via un amplificateur 28 qui applique au signal issu du radioémetteur 25 un coefficient de proportionnalité pour en augmenter la puissance (et donc la portée).
Le système 1 de sonorisation comprend par ailleurs un appareil 29 de réception et de lecture des signaux audio reçus de l'émetteur 17. Comme illustré sur les figures 1 et 2, l'appareil 29 comprend un boîtier 30 et, dans ce boîtier 30 : une antenne 31 et un récepteur 32 d'ondes électromagnétiques à hautes fréquences (HF), couplé à l'antenne 31 et configuré pour capter les signaux radiodiffusés par l'émetteur 17 (et intégrant, comme nous l'avons vu, plusieurs pistes audio) ;
un démodulateur 33 qui reçoit le signal modulé du récepteur 32 via un bus l/Q 34 reliant en boucle le récepteur 32 et le démodulateur 33 et qui est programmé pour démoduler ce signal ; selon un mode de réalisation préféré illustré sur la figure 2, le démodulateur 33 assure la commande du récepteur 32 via un bus 35 de données série synchrone ou SPI (acronyme de l'anglais Sériai Peripheral Interface), grâce auquel le récepteur 32 est asservi au démodulateur 33 ;
un DSP 36, programmé pour traiter en temps réel les signaux numériques qui lui sont délivrés par le démodulateur 33 en leur appliquant notamment des filtres et des réglages qui seront détaillés ci-après ; les signaux transitent par un bus 37 I2S ;
un microphone 38 intégré au boîtier 30 et relié au DSP 36 ;
une sortie 39 audio (par ex. de type jack 3,5 mm) intégrée au boîtier 30 et reliée au DSP 36 pour permettre le branchement d'un dispositif de reproduction sonore tel qu'un casque 40 audio, pour la restitution sonore des signaux traités par le DSP 36 ;
- une interface 41 de communication sans fil, distincte du récepteur 32, par ex. à ultra-hautes fréquences (UHF) au standard IEEE 802.15 (dit « Bluetooth® »), reliée à une antenne 42. Les signaux reçus par l'interface 41 transitent vers le DSP 36 par un bus 43 de données au standard I2S ; parallèlement, le DSP 36 assure la commande de l'interface 41 par un circuit 44 asynchrone de type UART (acronyme de l'anglais Universal Asynchronous Receiver Transmitter) ;
de préférence un port 45 pour le raccordement de l'appareil 29 à des périphériques (par ex. un ordinateur de programmation), ou au secteur pour la charge d'une batterie intégrée à l'appareil 29. Divers autres protocoles de communication sans fil peuvent convenir pour l'interface 41 : citons notamment le standard IEEE 802.11 (couramment connu sous la dénomination WiFi) ou son équivalent HiperLAN (Hlgh PERformance radio Local Area Network), le standard GPRS (General Packet Radio Service), le protocole IRDA (InfraRed Data Association) le WUSB (Wireless Universal Sériai Bus).
Comme on le voit sur la figure 2, le système 1 de sonorisation comprend également un terminal 46 mobile de type Smartphone, tablette ou ordinateur portable. Le terminal 46 est configuré pour piloter l'appareil 29 et comprend : - un processeur 47 ;
une interface 48 primaire de communication sans fil, reliée au processeur 47 et à une antenne 49 et configurée pour communiquer avec un serveur 50 distant via un réseau 51 local (de type LAN : Local area network), métropolitain (de type MAN : Metropolitan area network) ou même étendu (de type WAN : Wide area network) tel que l'Internet, via des protocoles standard tels que la 3G de l'UMTS (Universal mobile télécommunication System) ou la 4G du LTE (Long term évolution) ;
une interface 52 de communication sans fil, par ex. à ultra-hautes fréquences (UHF) au standard IEEE 802.15 (dit « Bluetooth® »), reliée à une antenne 52 et au processeur 47 ;
une interface 54 graphique, par ex. un écran tactile. Les autres protocoles de communication sans fil mentionnés ci-dessus peuvent également convenir pour la réalisation de l'interface 52.
Le processeur 47 intègre une application (qui peut être téléchargée à distance via le processeur 47 se connectant à cet effet sur le serveur 50) comprenant des instructions pour mettre à disposition de l'auditeur 2, via l'interface 54 graphique, différents réglages pour chaque piste (tel qu'un niveau de gain et un niveau de panoramique) et pour communiquer, via les antennes 53, 42 et les interfaces 52, 41, les réglages ainsi effectués au processeur 36 de l'appareil 29 pour qu'il les applique aux différentes pistes avant de les restituer à destination du casque 40 via la prise 39. L'auditeur 2 dispose par conséquent d'un appareil 29, qui peut lui être prêté lors de son entrée dans la salle 5 et jusqu'à la fin du spectacle, et d'un terminal 46, qui peut être son propre Smartphone. La communication sans fil entre l'appareil 29 et le terminal 46 est du type point à point, de sorte à garantir l'unicité des réglages effectués par l'auditeur 2 et éviter que ces réglages ne soient étendus de manière non désirée à d'autres appareils 29. A cet effet, l'appareil 29 et le terminal 46 sont, préalablement à l'établissement d'une session média entre eux, appariés par une procédure classique dans laquelle l'appareil 29 et le terminal 46 échangent des messages de signalisation contenant leurs identifiants et URL (uniform resource locator) respectifs. Il est envisageable d'apparier un terminal 46 avec plusieurs appareils 29, qui sont alors pilotés par le même terminal 46 pour qu'un même réglage commandé depuis celui-ci soit déployé sur tous les appareils 29.
On notera que la session média entre le terminal 46 et l'appareil 29 ne comprend pas nécessairement l'échange des pistes audio. En effet, il est suffisant que l'application programmée dans le terminal 46 permette d'effectuer des réglages sur les pistes audio diffusées, l'expérience sonore de l'auditeur 2 suffisant à savoir si ces réglages lui conviennent.
L'application programmée dans le terminal 46 peut d'ailleurs, à cet effet, être dédiée au spectacle en cours, et intégrer d'office les bonnes pistes audio. En variante, l'application est réutilisable pour plusieurs spectacles, et comprend un nombre déterminé de potentiomètres dont certains peuvent être activés ou désactivés via une mise à jour logicielle disponible au téléchargement par les auditeurs depuis le serveur 50, dès le début et pendant la durée du spectacle.
Comme on l'a illustré sur la figure 2, le réglage proposé à l'auditeur 2 pour chaque piste, via l'interface 54 graphique du terminal 46, peut se présenter sous forme d'une émulation de potentiomètre 55. Les réglages peuvent également être regroupés pour l'ensemble des pistes, sous forme par exemple d'une émulation graphique de table de mixage.
L'auditeur 2 peut ainsi, en effectuant pour chaque piste audio des réglages de son choix (notamment le niveau sonore de chaque piste), améliorer son expérience sonore en procédant à son propre mixage à partir des données audio brutes reçues de l'émetteur 17 par l'appareil 29.
Selon un mode de réalisation, les différentes pistes audio sont, au niveau de la troisième table 15 de mixage, toutes préréglées à un niveau moyen, permettant à l'auditeur 2 de disposer, dès le début de la diffusion, d'un signal audio muni d'un mixage par défaut (par ex. réalisé par un ingénieur du son) permettant une écoute confortable auquel certains auditeurs 2 peu exigeants peuvent estimer ne pas devoir retoucher.
Un auditeur 2 équipé d'un appareil 29 couplé à un terminal 46 mobile tels que décrits ci-dessus, peut appliquer aux différentes pistes audio (qui sont restituées mixées dans son casque 40) les paramètres de réglage qui lui conviennent, ce qui lui permet de personnaliser son écoute en l'adaptant à ses exigences, ses goûts ainsi qu'à ses facultés (acuité auditive, fréquences inaudible, problèmes psycho-acoustiques, sensibilité asymétrique entre les deux oreilles par exemple). En d'autres termes, la diffusion multipiste permet à l'auditeur 2 d'agir à sa convenance sur une ou plusieurs pistes audio véhiculées sur des pistes dédiées pour obtenir au final un mixage personnalisé. L'auditeur 2, qui dispose localement de l'ensemble des contenus sonores en multipiste
(c.à.d. que les pistes sont isolées les unes des autres au niveau de l'appareil 29), peut, via l'application qu'il a installée sur son terminal 46 mobile, modifier à volonté la sonorité des contenus.
Il peut cependant exister un décalage temporel entre le signal audio perçu par l'auditeur 2 dans son casque 40, et le signal audio perçu par l'auditeur 2 en provenance de la sono 11. Les deux signaux sont tous deux des signaux temps réels, issus des mêmes sources 4 sonores, via les mêmes microphones 6, mais le signal du casque 40 a voyagé jusqu'à l'auditeur 2 à la vitesse de la lumière (soit 300 000 km/s), tandis que le signal de la sono 11, qui peut paraître synchronisé au signal du casque 40 lorsque celui-ci est proche de la sono 11, accuse lorsque le casque 40 est distant de la sono 11 un retard dû au trajet séparant l'auditeur 2 de la sono 11, parcouru à la vitesse du son (soit environ 340 m/s). Ainsi, du point de vue d'un auditeur 2 situé à une distance de 20 m environ de la sono, le décalage temporel perçu entre les deux signaux est de 60 ms environ. Ce décalage est suffisamment important pour être pleinement détecté par l'oreille humaine et constituer une gêne pour l'auditeur 2 qui ressentira un désagréable effet d'écho.
Selon un mode de réalisation, afin de minimiser (voire éliminer) cet effet d'écho, et ce indépendamment de la position de l'auditeur 2 dans la salle 5, l'appareil 29 (et plus précisément son DSP 36) est programmé pour capter, via son microphone 38 intégré, l'ambiance sonore dans son voisinage (et, donc, au voisinage de l'auditeur 2).
Le DSP 36 est programmé pour : - estimer le déphasage entre le signal acoustique capté par le microphone 38 (signal ambiant) et le signal destiné au casque 40 (signal mixé), par exemple en calculant le délai entre des maxima ; effectuer un recalage temporel du signal mixé sur le signal ambiant, de sorte à les synchroniser. Selon un mode de réalisation, l'estimation du délai entre les maxima est réalisée à une fréquence prédéfinie du spectre sonore, par ex. à une fréquence basse (correspondant à un son sourd tel qu'un coup de grosse
caisse) ou au contraire à une fréquence élevée (correspondant un son aigu tel qu'un tempo de cymbale charleston).
La synchronisation temporelle entre des deux signaux acoustiques est obtenue en retardant le signal mixé de la différence estimée entre les maxima des deux signaux. Cette différence est, de préférence, ré-estimée régulièrement (par ex. à intervalles réguliers de 1 seconde ou moins) pour tenir compte de tout facteur qui pourrait modifier sa valeur (tel que le déplacement de l'auditeur 2 dans la salle 5 ou un changement dans la configuration physique de la scène sonore tel que l'ajout et/ou la suppression d'un obstacle).
Le microphone 38 étant intégré à l'appareil 29 et donc porté en permanence par l'auditeur 2, il s'ensuit que le recalage temporel s'actualise automatiquement en conséquence.
Le recalage temporel ne supprime pas les sensations physiques dues à la pression acoustique qui s'exerce sur le corps de l'auditeur 2, en particulier dans les fréquences graves (il est ainsi connu que les coups de grosse caisse se répercutent, à volume sonore élevé, dans le ventre et la cage thoracique des auditeurs). Mais les sensations physiques font partie de l'expérience live et, dans la mesure où les sensations sont synchronisées avec le signal mixé, l'auditeur 2 peut avoir l'illusion qu'elles sont générées par le signal audio mixé de qualité qu'il entend dans son casque 40.
Toutefois, si le recalage temporel permet d'atténuer (voire de supprimer) l'effet d'écho, il ne corrige pas, en revanche, les défauts de qualité du signal ambiant, en particulier si l'acoustique de la salle et/ou la sono 11 et/ou le mixage du signal délivré par celle-ci est/sont dégradés.
C'est pourquoi, selon un mode avantageux de réalisation, le casque 40 audio est équipé d'un système de réduction du bruit (en anglais Noise Cancelling) afin de réduire l'intensité du signal ambiant perçu par l'auditeur 2 et ainsi faire prédominer le signal mixé pour améliorer l'expérience sonore de l'auditeur 2. Il existe des modèles de casques tout équipés, cf. par ex. le casque de la marque BOSE® commercialisé sous la dénomination QuiefComfort®, ou encore le casque de la marque PARROT® commercialisé sous la dénomination Zik®.
Selon un exemple (non limitatif) de réalisation, le signal délivré par la troisième table 15 de mixage est à huit pistes, que l'auditeur 2 peut régler séparément à partir de son terminal 46 et qui sont combinées par l'appareil 29 à partir de ces réglages pour construire un signal audio mixé conforme aux souhaits de l'auditeur 2.
Il est avantageux, pour améliorer encore l'expérience sonore de l'auditeur 2, et en particulier pour renforcer l'ambiance live dans le signal mixé, de tourner un microphone 6 vers la salle pour en capter les bruits d'ambiance, et en particulier les bruits de participation (typiquement la reprise de paroles en chœur ou les applaudissements). Les bruits de salle sont alors alloués à une piste audio dédiée, que l'auditeur 2 peut régler dans son mixage. De même, il est avantageux d'ajouter dans le signal mixé à l'attention de l'auditeur un effet sonore de réverbération qui donne au son une coloration acoustique caractéristique du lieu. En outre, selon une forme de réalisation intéressante, l'appareil 29 est miniaturisé et intégré au casque 40 audio.
Il résulte de ce qui précède que le système 1 de sonorisation permet à l'auditeur 2 : d'améliorer son expérience sonore en lui permettant de devenir, en quelque sorte, son propre ingénieur du son ;
de s'affranchir des contraintes acoustiques liées à la salle 5 ;
de profiter d'une qualité sonore optimale (le son issu de la troisième table 15 de mixage et mixé à volonté par l'auditeur 2) ;
tout en profitant d'une expérience live avec les avantages qui lui sont inhérents (présence des artistes, interactivité, ambiance festive) ;
d'améliorer sa relation avec l'artiste en la rendant plus intime ;
de s'immerger plus complètement dans le spectacle grâce à un son spatialisé.
En transférant les différentes pistes sonores à l'appareil 29 et, par conséquent en déléguant le traitement audio à celui-ci en tant que boîtier personnel, on surmonte les inconvénients (notamment, la charge calculatoire) d'une architecture centralisée.
Pour autant, l'appareil 29 ne supporte pas la totalité de la charge calculatoire puisqu'il revient au terminal 46 (séparé de l'appareil 29) d'afficher les réglages au profit de l'auditeur 2.
Cela permet d'éviter d'équiper l'appareil 29 d'une interface graphique consommatrice de ressources calculatoires (et énergétiques), au bénéfice d'une grande autonomie de fonctionnement.
L'appareil 29 est de préférence autonome électriquement, en étant par ex. muni d'une batterie (non représentée), susceptible d'être chargée épisodiquement par branchement sur le secteur, notamment via un port série de type USB (Universal Sériai Bus).
Enfin, grâce à son architecture, le système 1 de sonorisation permet à l'auditeur 2 de bénéficier d'une expérience constante et de qualité quelle que soit sa position par rapport à la scène 3 ou par rapport à la sono 11. D'un point de vue acoustique, il n'existe donc pour l'auditeur 2 ni de mauvaise salle, ni de mauvais placement.