BE1014157A6 - Equipment for processing and operating digital sound data with integrated information introduced during coding, comprises decoding system and output control by microcontroller and convertors - Google Patents

Equipment for processing and operating digital sound data with integrated information introduced during coding, comprises decoding system and output control by microcontroller and convertors Download PDF

Info

Publication number
BE1014157A6
BE1014157A6 BE2001/0313A BE200100313A BE1014157A6 BE 1014157 A6 BE1014157 A6 BE 1014157A6 BE 2001/0313 A BE2001/0313 A BE 2001/0313A BE 200100313 A BE200100313 A BE 200100313A BE 1014157 A6 BE1014157 A6 BE 1014157A6
Authority
BE
Belgium
Prior art keywords
synchronized
audio
reproduction
digital
events
Prior art date
Application number
BE2001/0313A
Other languages
French (fr)
Original Assignee
Lange Philippe
Cans Myriam
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lange Philippe, Cans Myriam filed Critical Lange Philippe
Priority to BE2001/0313A priority Critical patent/BE1014157A6/en
Application granted granted Critical
Publication of BE1014157A6 publication Critical patent/BE1014157A6/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B31/00Arrangements for the associated working of recording or reproducing apparatus with related apparatus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J5/00Auxiliaries for producing special effects on stages, or in circuses or arenas
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/031File merging MIDI, i.e. merging or mixing a MIDI-like file or stream with a non-MIDI file or stream, e.g. audio or video
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/161Memory and use thereof, in electrophonic musical instruments, e.g. memory map
    • G10H2240/165Memory card, i.e. removable module or card for storing music data for an electrophonic musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/271Serial transmission according to any one of RS-232 standards for serial binary single-ended data and control signals between a DTE and a DCE
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/311MIDI transmission
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2545CDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/60Solid state media
    • G11B2220/61Solid state media wherein solid state memory is used for storing A/V content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

An audio signal with integrated information introduced by a coding system is presented to a forming unit (2). The signal may emanate from a CD or similar (3), a ROM or flash card (4) or a data system (5). A microcontroller (7) detects the type of decoding (8,9) required and a synchronizing microcontroller (10) directs the output of convertors (11-16) and outputs (17-22) : Independent claims are also included for the following; (1) a coding system permitting the reproduction of synchronized events to various standards, (2) a system for managing spatialisation of synchronized sound with audio/video source, (3) a system for managing spatialisation of synchronized light with audio/video source, (4) a system for managing spatialisation of fireworks with audio/video source, (5) a system for reproducing events in real time permitting spatial division of sources, (6) a system for reading ambiance synthesizers, (7) a system for reproduction of technical, artistic and industrial electrical processes, (8) a tool for dynamic synchronous reading of light, and (9) a system for transmitting events in real time synchronized with an audio or visual source.

Description

       

  Titre de l'invention

  
Audiosynchroniseur ou lecteur audio digital multi-format

  
synchronisé avec des signaux analogiques, digitaux,

  
sériels, MIDI et ou DMX.

Domaine de l'invention

  
La présente invention concerne un appareil et une méthode pour traiter et exploiter des données de son digital, comprimé ou non, et les exploiter afin de reproduire le son synchronisé avec la transmission d'informations introduites dans le codage du son digitalisé. Cette information est transmise par l'appareil via les sorties analogiques, digitales, MIDI, DMX et sérielles. En particulier, mais de manière non exhaustive, l'invention décrit une méthode et  un procédé qui permettent de réaliser un appareil compact de reproduction d'événements électriques temporisés et synchronisés. La présente invention est particulièrement avantageuse dans les applications de divertissement et de génération d'ambiances car elle permet de provoquer une perception synesthésique.

  
L'utilisation de lecteurs audio capables d'interpréter du son encodé digitalement est devenue commune. En particulier sur des  appareils tenant dans la main, légers et où le son est stocké soit sur des supports de type disque digital ou sur des mémoires constituées de composants électroniques. De tels lecteurs incluent ceux qui sont adaptés pour jouer du son comprimé ou non, et où le fichier digital des pistes sonores est stocké dans la mémoire tel par exemple les cartes compact flash. L'utilisation de mémoires solides dans ces unités rend l'appareil particulièrement adapté à des  environnements où les vibrations sont importantes, tels que sur les scènes de spectacles, unités de production industrielles, dans des  véhicules ou sur des personnes en mouvements telles que danseurs ou individus en activité physique.

  
Pour les réalisations où la mémoire solide est utilisée, les données audio peuvent être chargées sur la carte mémoire, par exemple, en téléchargeant les données via Internet ou d'un autre lecteur digital. Les données sont habituellement comprimées et  chargées sur la carte mémoire via un ordinateur personnel capable de télécharger les fichiers des données. La mémoire de l'appareil peut également contenir des données pré-chargées. 

  
Pour les réalisations où le disque digital est utilisé, le disque peut être disponible via un revendeur ou être gravé directement après avoir téléchargé les fichiers de données via l'Internet. Ces opérations communes peuvent être réalisées en utilisant un ordinateur personnel.

  
Les fichiers utilisés dans nos appareils peuvent également être réalisés via un logiciel qui assure l'encodage du fichier son et y intègre les données à jouer en synchronisation avec les événements à produire. De tels outils, simples d'utilisation, permettent alors à chaque utilisateur ou à chaque centre de production de réaliser des coordinations d'événements qui leur sont spécifiques. Et ce, soit en créant une genèse d'événements originaux, soit en modifiant des  parties spécifiques des événements joués afin de les adapter à un contexte spécifique. Ils peuvent alors être utilisés selon les méthodes décrites ci-dessus.

  
Un mode particulier de réalisation de l'invention est, par exemple, d'utiliser une connexion directe via réseau, TCP/IP ou autre, pour transmettre le fichier des données directement à l'appareil. L'avantage principal de ce mode de réalisation réside dans l'utilisation d'un fichier qui est généré dynamiquement par un autre appareillage, ou alors l'utilisation d'une information disponible sur des serveurs en réseau.

  
Les données sont encodées avant d'être chargées dans la carte mémoire et décodées dynamiquement lors de la lecture du fichier. Outre l'encodage, les données sonores peuvent être comprimées. Une variété de formats de compression est disponible sur le marché. De tels formats comprennent, mais ne sont pas limités au, MP3 et au Real Network G2. D'autres formats sont ajoutés régulièrement et seront disponibles dans le futur. Notre appareil peut être réalisé en intégrant n'importe quel format de compression existant à ce jour ou disponible dans le futur. Cela est  réalisable simplement parce que les données qui doivent être générées sur les ports de sortie non audio de notre appareil sont  intégrées à intervalles précis dans le fichier contenant l'encodage du son.

  
Cependant, un désavantage des lecteurs audio actuels est qu'ils intègrent uniquement une lecture d'information audio, éventuellement synchronisée avec des images fixes ou animées dans le cadre de lecteurs de films. 

Etat de la technique

  
La réalisation de la coordination d'actions électriques avec une source audio est réalisable en intégrant une grande diversité d'appareils provenant de domaines techniques différents. La lumière peut, entre autre, être gérée via une console de lumière qui utilise, par exemple, mais non limité à, le standard DMX. Dans ce cas, soit un opérateur est nécessaire pour synchroniser la lumière au jeu sonore, soit l'ensemble est enregistré sur un séquenceur lumineux qui rejoue alors la séquence enregistrée. Celle-ci peut être synchronisée avec le jeu sonore par l'intermédiaire d'un système de synchronisation, mais non limité à, de type Time code SMTP par exemple. L'inconvénient majeur de ce type de synchronisation réside dans la nécessité d'interconnecter divers matériels.

   Ceux-ci sont complexes à mettre en �uvre et certaines facultés de synchronisation ne sont disponibles que sur des  appareillages haut de gamme réservés aux professionnels. Ces appareillages sont assez coûteux et, en tout cas, hors de portée de l'amateur qui désire réaliser simplement une animation lumineuse, même très simple ou minimaliste, synchronisée avec une lecture sonore. La réflexion est applicable également avec une interface musicale de type MIDI, même si celle-ci est plus simple à mettre en �uvre et moins coûteuse. Cependant, lorsque l'on désire coordonner des appareils qui n'ont comme possibilité de synchronisation que des signaux sériels, mais non limité à, de type RS 232, RS 485, RS 422, la difficulté et le coût sont assez importants. Il en est de même pour des connexions analogiques ou digitales.

   De toutes les manières, le recours à un spécialiste de chaque domaine est inévitable, même parfois pour des installations très simples.

  
Ni cette difficulté, ni le coût ne sont réductibles substantiellement même dans le cas où un utilisateur désirerait simplement lire une séquence que d'autres ont réalisée.

  
D'autre part, les domaines liés ici dans l'objet font intervenir des compétences diverses telles que le son, la lumière, la musique, la gestion de protocoles série, la connexion d'appareils à entrée analogique ou digitale. L'ensemble de ces domaines n'est couvert que par de rares experts ou professionnels qui possèdent l'ensemble des connaissances relatives à ces domaines techniques. 

  
Un autre facteur limitant est la complexité de mise en oeuvre, à chaque fois différente en fonction des choix scéniques et du matériel utilisé (entre autre des normes spécifiques de gestion des  événements), car gérée par chaque spécialiste qui utilise ses propres outils préparatifs et descriptifs. Cela engendre une extrême difficulté à reproduire exactement, avec un personnel choisi, un jeu scénique qui a été réalisé par une autre équipe de personnes. Ou même, simplement, de reproduire une seconde fois exactement le même type de spectacle, au niveau de la perception, s'il est joué en "live" par des artistes.

  
La présente invention permet de proposer à un large public, et  dans une réalisation compacte, simple et peu coûteuse, un appareil qui intègre l'ensemble de ces compétences et les rend accessibles au plus grand nombre.

  
La présente invention permet également d'interconnecter, entre elles, diverses réalisations de l'invention. Cela conduit alors à la réalisation de systèmes en réseau de temporisateurs d'événements, ou audiosynchroniseurs, très complexes et quasi impossibles à mettre en �uvre avec les techniques actuelles.

  
Comme la présente invention réduit fortement l'ordre de complexité de mise en �uvre d'événements synchronisés avec une source sonore, utilisée par des experts et des professionnels, elle leur permet de réaliser des systèmes beaucoup plus complexes avec beaucoup plus d'efficacité, de fiabilité et de créativité qu'avec l'utilisation des outils et techniques traditionnels. Ceux-ci sont, par ailleurs, parfaitement complémentaires, soit au niveau de la genèse en temps réel d'une partie de l'information, soit au niveau d'une synchronisation à plus large échelle d'un ensemble de réalisations de la présente invention.

  
D'autre part, la sortie sous forme standardisée des événements et ce, respectivement dans leur technologie, permet d'ajouter une interaction dynamique aux sorties d'événements. Cette interaction est basée sur les données événementielles sorties par l'appareil.

  
La présente invention permet également d'utiliser le système pour jouer une séquence d'événements électriques synchronisés dans le temps. La piste sonore n'est pas absolument obligatoire pour le bon fonctionnement du système. Dans ce cas, une source audio de silence est utilisée. 

  
D'une certaine manière, la présente invention constitue un système de lecture sonore qui génère des événements électriques synchronisés. Ce système comprend : une interface utilisateur constituée des boutons de commande de l'appareil ; un dispositif d'entrée permettant de recevoir des données digitales ; une unité de stockage de données adaptée pour être utilisée, soit via une connexion réseau directe, soit via un support de données digitales ; un ensemble de micro-contrôleurs ; un processeur de signaux digitaux ; un système de détection de codage et de compression basé sur une lecture anticipée avec interprétation des  données digitales ; un décodeur qui redistribue les sources selon leur type de sortie ; un système de synchronisation qui assure la bonne simultanéité des signaux générés sur les sorties ;

   un convertisseur de signal série asynchrone en un signal série cyclique adapté au standard DMX ; un convertisseur digital analogique ; u n convertisseur digital-digital ; une connexion d'extension destinée à lier un autre appareil via le bus de communication digital. Celui-ci peut, par exemple, dans une forme particulière de réalisation, être réalisé avec le standard I2C.

  
D'une autre manière, la présente invention constitue un système de lecture de fichier de son digitalisé dans lequel a été intégrée une information autre que sonore. Le procédé de fonctionnement est alors : activation selon une interface utilisateur ; identification du type de source de données ; reconstitution des éléments à distribuer selon leur type de sortie ; synchronisation de ceux-ci ; mise en forme selon les différents standards intégrés ; sortie de l'ensemble des signaux en synchronicité.

  
D'une autre manière, la présente invention constitue un système de stockage de données digitales mixtes pouvant être redistribuées selon une séquence synchronisée d'un élément, d'une partie ou de l'ensemble des éléments stockés dans le fichier digital. La méthode est alors la suivante : sélection par l'utilisateur des types de sorties désirées ; activation du démarrage de la lecture ; sortie des signaux synchronisés uniquement pour les types de sorties choisies. 

Description détaillée de l'invention

  
L'objet de cette invention consiste à réaliser un système d'exploitation d'événements électriques, analogiques et/ou digitaux de faible ou forte puissance et synchronisés. Le nombre d'événements ou source électrique peut être très grand et de l'ordre de plusieurs milliers pour un système de base.

  
L'invention permet également de réduire très largement l'extrême complexité, donc le coût, des systèmes devant être mis  en oeuvre pour gérer la synchronisation d'événements selon les méthodes actuelles.

  
Une des originalités et innovations de notre procédé réside dans l'extrême simplicité de mise en oeuvre, de la non nécessité de programmation, et de la capacité à gérer spatialement directement des événements électriques.

  
Le procédé utilisé par l'audiospatialiseur 1 (figure 1) est décrit ci-après.

  
Une entrée au format digital permet de récupérer un fichier son digitalisé. Ce fichier son peut venir de trois origines : une lecture directe d'un support digital 3, par exemple, mais non limité à, cd ou cartouche DAT ; un support mémoire solide 4, par  exemple, mais non limité à, carte RAM ou carte flash; une entrée de type réseau 5. Le circuit de mise en forme est représenté par l'élément 2. Celui-ci permet d'envoyer un flux digital 6 directement  contrôlé et géré par un micro-contrôleur à un ensemble de décodage. Le type de données transmises sur le bus digital est  récupéré dans le micro-contrôleur 7 qui effectue une détection du type et transmet au DSP 8 les algorithmes à mettre en �uvre afin de décoder 9 le signal d'entrée.

  
Le micro-contrôleur 10 coordonne alors la lecture de l'ensemble du flux de données digitales avec les sorties digitales du système. Six types de sorties sont utilisées à travers un bus digital :
une unité de conversion digitale vers analogique 13 permet de sortir sous forme analogique 19 l'information digitale encodée dans le fichier d'entrée 2, décodée à travers le système de décodage 9 et synchronisée par le micro-contrôleur 10 ; une conversion digitale vers digitale 12 permet au système de générer, par le même principe que celui de la conversion digitale vers analogique, un ensemble de sorties digitales 18.

  
Trois autres systèmes de conversion série vers série 14, 15 et 16 permettent de générer une sortie de type midi 20 à travers le circuit de mise en forme 14 ; une sortie de type DMX 21 à travers le circuit de mise en forme DMX 15; une sortie de type sériel 22 à travers le circuit de mise en forme sérielle 16.

  
Nous décrirons maintenant le contenu des informations digitales connectées au port d'entrée. L'innovation propose deux types d'encodage des données événementielles avec les informations audio. Ce choix sera réalisé judicieusement en fonction, soit d'une optimisation de la taille des données, soit dans l'optique d'une synchronicité maximale entre la gestion des  événements et la lecture du fichier audio. Typiquement, mais non de manière systématique, un fichier audio non comprimé sera encodé avec des informations événementielles à périodicité fixe. Celle-ci sera typiquement écrite avec une période de l'ordre de 0,1  milliseconde et ce, afin de garantir une synchronicité permettant de générer chez l'utilisateur une perception synesthésique de l'ensemble des événements par rapport à l'information audio.

   Les informations digitales seront générées de la manière suivante :
figure 7.

  
En début de lecture, une information d'entête 152 permettra d'identifier exactement le type d'encodage des informations digitales qui suivent. Un identificateur 153 suivra éventuellement, mais non obligatoirement l'entête afin, éventuellement, de permettre aux algorithmes de sécurité d'autoriser ou non l'accès aux informations à l'utilisateur. Une clef digitale 142 sera directement intégrée. Le type de gestion de la sécurité 143 suivra. L'ensemble 153, 142 et 143 permet des choix de gestion et  d'utilisation de cette information pour choisir le mode de gestion de la sécurité du système de façon à permettre ou non à l'utilisateur de lire et utiliser les informations digitales qui suivent.

  
Ensuite, nous trouverons une répétition de groupes de données digitales dont chaque bloc audio aura une même taille prédéterminée en fonction de l'identificateur de fichiers repris à l'entête 152. Les données relatives à la génération des événements synchronisés seront reprises à l'intérieur du groupe de données
144. Ce groupe de données contiendra d'abord un identificateur de groupe qui permet de préciser qu'il s'agit du groupe d'événements #1. Ensuite, une information qui précise la taille des groupes de données du bloc événement #1. En effet, chaque groupe d'événements peut contenir une plus ou moins grande quantité de données et ce, dépendant du nombre d'événements à générer lors de la synchronisation.

   Une première information d'événements 144 permettra au système de générer ceux-ci qui devront débuter directement au départ de la séquence audio. Typiquement, la structure répétitive reprise par les blocs 144 et 146 constituera un ensemble de données digitales représentant une durée fixe à l'interprétation audio de l'ordre de 0,1 milliseconde. Les informations relatives à l'événement reprendront le numéro d'identification de la séquence d'événements ainsi que la taille des  informations des données événements et celles-ci reprenant, dans un codage indépendant de la structure scénique, la représentation des événements à générer sur l'ensemble des sorties digitales et/ou analogiques. L'information audio sera codée en fonction du standard de compression ou de codage audio utilisé.

   Cette description de codage audio sera partie intégrante de l'entête identifiant le type de données digitales.

  
Nous décrivons en figure 9 la structure interne d'un groupe de données événements. Le groupe de données événements commencera toujours par 180 un identificateur de groupe d'événements. Ceci permet, en cas de perte de synchronisation du système, de générer une resynchronisation automatique. Une information de taille de groupe de données 181 suivra immédiatement. Cette information garantit au système un nonmélange des informations de type audio et des informations événementielles encodées. Les informations relatives aux différents groupes spécifiques d'événements électriques générés seront reprises en fonction de leur nature. La caractéristique essentielle de ces différents groupes est qu'ils devront être joués avec le temps de synchronisation du début de la séquence audio qui suivra.

   Nous aurons dans l'ordre, par exemple, mais non obligatoirement, les groupes d'identification de contrôle Midi 182, les groupes de données d'identification des contrôles DMX 185, les groupes d'identification de données sérielles 187, les groupes d'identification de données digitales 192. Chaque groupe de nature d'événements électriques est constitué de son identificateur, suivi des données spécifiques qui lui sont relatives. C'est ainsi que le premier groupe de données Midi 183 suivra directement les informations de début de contrôle Midi 182. Les données Midi suivront jusque la fin des données Midi nécessaires. Le début d'un nouveau groupe sera marqué par un identificateur. 

  
Le groupe des données de contrôle DMX commencera par un identificateur de contrôle DMX 185, suivi, à chaque fois, d'un groupe de données de type DMX 186. Le groupe des données d'identification des données sérielles 187 sera suivi des données sérielles 188 et suivantes. Le groupe des données analogiques débutera par l'identificateur de données analogiques 190 et  suivantes 191. Le groupe des données digitales débutera par l'identificateur de données digitales 192, suivi des groupes de données digitales 193 et suivantes 194. L'ensemble des données étant terminé par un identificateur de fin de données événementielles 195, également utilisé comme identificateur de début de données audio qui suivront directement cette information digitale.

  
L'ensemble des données digitales sera donc répétitif et  comprendra toujours un bloc contenant la description des  événements à générer par le système, suivi des informations audio à jouer en synchronicité. Les boucles 145 et 147 représentent les deux flux synchronisés au niveau des sorties du système. Chaque séquence sera répétée à intervalles réguliers et ce, jusqu'à la fin du fichier audio. La séquence 150 terminera donc la génération d'événements au niveau du système, et la séquence 151 contiendra les informations finales relatives à la genèse du signal audio.

  
En figure 8, nous montrons comment ce procédé est également utilisable pour un codage plus adapté dans certaines situations, essentiellement les situations où l'on se trouve avec un fichier comprimé, donc où la durée de jeu audio n'est pas exactement déterminée à l'avance, ou dans un cas où l'information de type événement ou audio est largement prédominante. La structure de ce type de flux de données est fort proche du flux de données utilisées pour un système de représentation avec une périodicité fixe (figure 7) entre les événements. Nous renvoyons donc les compréhensions de l'entête 160 telle que décrite également dans la figure 7 ainsi que les rôles des identificateurs 161, de la clef 162 et  du système de sécurité utilisé en 163.

   La différence notée ici est  que les groupes événements et audio n'auront pas, le long de la durée des données, une taille constante. Chaque bloc sera lu avec une interprétation directe. La taille de la séquence audio pourra également se faire de deux manières distinctes, soit l'information correspondra à une donnée de temps, au cas où il n'y a aucun signal audio à générer sur les sorties de l'invention, soit le début de la séquence audio contiendra la taille des données du bloc audio afin que le système puisse repérer exactement à quel moment il recevra à nouveau un groupe de données de genèse d'événements.

   C'est ainsi que nous retrouverons le premier bloc d'événements
164 suivi du premier bloc audio 166 qui permet au système de recalculer exactement à partir de quel moment les données suivantes des événements 168 seront transmises dans le flux d'informations. Il en est de même pour les informations audio 167 qui permettront alors d'identifier exactement la position des  données des groupes suivants audio 170. Le mécanisme sera également répété jusqu'à la dernière séquence des événements 171 et de l'information digitale audio 172.

  
En figure 5 et 6, sont reprises les méthodes d'encodage et de décodage. La méthode d'encodage est exprimée en figure 5. Les informations digitales du son 101 sont lues et, de ces informations, on crée le bloc d'entête 102 qui sera utilisé pour la génération du flux des données digitales et fichiers encodés. 103 représente l'écriture digitale des informations générées. Le groupe d'entête contiendra également la genèse, l'identificateur et les clefs de sécurité. Un choix sera réalisé, soit par l'utilisateur qui encodera les données, soit automatiquement en fonction du type d'entête déterminée. Le système choisira si le type d'encodage à utiliser est un encodage à pas variable 105 ou à pas constant 106. Dans le cas  d'une périodicité variable, une boucle 107 sera réalisée jusqu'à la fin de la lecture d'encodage du fichier son.

   Celle-ci passera tout  d'abord par une analyse 109 sur la longueur de la durée audio des  données qui seront encryptées après l'événement. Après l'analyse du saut 109, le système ajoute l'information de l'événement en
112. Celle-ci est ajoutée au flux des données générées en 154. Le système ajoute 111 alors les informations 110 du son digitalisé derrière les informations précédemment écrites 154. La boucle 113 est ainsi répétée et ce jusqu'à la fin du fichier audio.

  
Dans le cas d'un encodage à périodicité constante, le procédé est le même sinon qu'il n'y a aucun calcul de saut réalisé après chaque lecture de groupe de séquence. L'analyse se déroule donc sous forme d'une réalisation d'une boucle 116 qui réalise un saut
118 fixe au niveau de la taille des données audio. L'information des événements 121 est ainsi d'abord ajoutée, ensuite le son 119 est  ajouté, et ce jusqu'à la fin des données audio lues par le fichier audio 101. La boucle se termine ainsi en 122 et le fichier est  clôturé en 123.

  
Le procédé de décodage repris en figure 6 est identique tant dans le cas de la structure à périodicité fixe que dans le cas de la structure à périodicité variable. Le flux de données sera lu séquentiellement 124.

  
L'entête 125 sera interprétée ainsi que les clefs d'identificateur et  l'algorithmique de sécurité. Après cette interprétation, la boucle de lecture 126 lira, à chaque fois, les événements 130. La lecture des événements sera ensuite filtrée 131 éventuellement à travers les modes choisis par l'utilisateur et les événements électriques seront générés en 132 via les sorties électriques du système. La lecture du groupe de données audio se réalisera 128 et elles seront envoyées directement au DSP en 129 afin que celui-ci les sorte sur la ligne audio. Nous tenons à souligner le fait que la méthode et le procédé décrits ci-dessus sont également utilisables lorsque l'on ajoute les données vidéo aux données audio.

  
Cela signifie qu'il faut entendre ici que les données audio au sens large peuvent contenir, soit des informations d'images, de sons, de sons et/ou d'images. Le procédé est utilisable pour toute forme de signal digital.

Description détaillée d'un exemple de réalisation de l'invention

  
Un exemple de réalisation de la présente invention, ou audiosynchroniseur est montré en figure 2. Il est réalisé par un ensemble de micro-contrôleurs indépendants reliés entre eux par un bus de communication standardisé, mais pour lequel nous avons créé et réalisé une architecture spécifique.

  
Nous décrivons ci-après les éléments de réalisation et de fonctionnement.

  
Le détail des éléments contenus dans l'invention et qui sont  bien connus de ceux qui maîtrisent l'art des techniques ne sera pas  décrit ici.

  
L'audiosynchroniseur 23 est articulé autour d'un microcontrôleur 25 qui contrôle les différents éléments ainsi que le mode opératoire, d'accès et de paramétrisation des composants, et ce y compris le transfert de l'information digitale avec la carte RAM 24 par exemple de type compactflashTM vers le DSP 35. Le micro-contrôleur inclut une mémoire de type ROM 28 et de type RAM 29 de taille suffisante afin de stocker le logiciel firmware de gestion du système. Ce firmware contient les jeux d'instruction de base, les fonctions directement liées à l'interface utilisateur, la gestion du DSP et de la carte RAM, le système de décodage de sécurité et le procédé de décodage des fichiers audio.

   L'utilisation de mémoire type flash au sein du micro-contrôleur permet de reprogrammer celui-ci afin d'y ajouter ou de modifier les algorithmes de décodage et/ou d'y intégrer des fonctions reprises dans l'interface utilisateur. Par exemple, sont utilisables comme

  
 <EMI ID=1.1> 

  
fabriqués par NEC Corporation, ou PIC 16F84-04 ou PIC 16F84X de Microchip.

  
L'invention 23 contient également un Digital Signal Processor ("DSP") 35 qui peut être programmé pour réaliser une série de traitements du signal audio pendant la relecture de celui-ci. Tels que, par exemple, mais non limité à, décryptage du son comprimé en utilisant un code de sécurité éventuellement même associé à une carte RAM spécifique ou à une famille d'ID de carte, décompression, ou des fonction audio telles que par exemple contrôle du volume, équalizer, conversion d'échantillonnage et  filtrage digital.

   Le module DSP 35 contient lui-même un ensemble repris fonctionnellement comme le décodeur, le player 37 qui contient l'interprétation du fichier audio suivi éventuellement des  algorithmes de filtrage, ainsi qu'une mémoire RAM 38 tampon qui permet d'optimiser l'efficacité du DSP, ainsi que d'y stocker des informations spécifiques de filtrage, d'effets ou de décodage. Une taille optimale de cette mémoire 38 opérationnelle est de 64 Kmots
(KW). Le micro-contrôleur 25 et le DSP 35 sont reliés via un bus  digital 34. Un exemple de DSP utilisable inclus, mais n'est pas limité à, le composant TMS320NC5410 fabriqué par Texas Instruments, Dallas, Texas USA. La sortie du DSP 46 est reliée à un convertisseur digital vers analogique 47 de qualité suffisante afin de fournir une qualité de signal audio optimale.

   La sortie analogique 48 du convertisseur est directement reliée à un amplificateur 49 à la sortie duquel le connecteur de sortie audio 50 extériorise les signaux de sortie audio gauche 51 et droite 52. Les sorties analogiques peuvent elles-même être connectées sur un système de spatialisation du son.

  
Un autre exemple de réalisation comprendrait une connexion digitale directe 46 en sortie et ce, dans le but de fournir un signal digital qui pourrait alors être connecté directement à un système de spatialisation du son digital, comme par exemple, mais non limité à, un système de type Dolby Surround Digital. Une mise en forme du signal à un standard digital commun devrait alors éventuellement être ajoutée. 

  
Un écran d'affichage 31, type écran à cristaux liquides, est  également connecté directement au contrôleur via le bus digital 30. Cet afficheur constitue un feed-back pour l'utilisateur de l'invention. Différentes touches de clavier que nous nommerons keyboard 32 sont également connectées au micro-contrôleur via un bus digital 33. Un ensemble de dip switch permet de générer les données de configuration figées. Ces éléments de configuration sont, par exemple, mais non limités à, des préférences relatives à des taux de compression standard, des fréquences d'échantillonnages spécifiques, des comportements tels que l'utilisation de certaines sorties analogiques ou digitales. Ce dip switch est également relié via un bus digital 82.

  
L'ensemble micro-contrôleur est alimenté en basse tension par un convertisseur DC/DC 40 qui lui-même peut être alimenté, soit directement à travers les connecteurs extérieurs 41 et 42 ou, soit à travers une batterie 43 rechargeable ou non et située dans le compartiment 44. Le convertisseur lui-même peut être piloté par le micro-contrôleur de manière à provoquer, par exemple, un arrêt du système par coupure d'alimentation dans certaines configurations.

  
Le bus digital 45 permet au micro-contrôleur de commander l'ensemble des convertisseurs pour les sorties synchronisées de l'invention.

  
Le lien direct entre le micro-contrôleur 25 et le convertisseur digital vers digital 56 permet, à travers la liaison digitale 57 et le tampon de sortie digitale 58, de générer des signaux d'entrée/sortie digitaux récupérés sur le connecteur 59. Une entrée digitale est également utilisée à travers l'interrupteur 60 et  permet d'imposer un mode de fonctionnement spécifique. Le choix du comportement peut dépendre lui-même de la configuration du dip switch 83 et est, par exemple, utilisable pour donner une interface rapide à l'utilisateur pour activer la sortie midi 65. Le bus s digital 45 connecté à un circuit de conversion 61 vers un signal série permet de lier, via le bus digital 62 et l' optocoupleur 63, l'ensemble. Cette liaison autorise une sortie au standard de type midi sur le connecteur 65.

   Un signal midi d'entrée via le connecteur 66 et reporté sur le connecteur 67 en tant que midi through permet également au système de bénéficier d'informations d'entrée via le signal midi. Cela permet, par exemple, d'activer des  fonctions de démarrage, d'arrêt, de configuration ou de paramétrisation en temps réel des événements générés par l'invention.

  
Le bus digital 45 permet également, via l'UART 68 d'autoriser, via le bus 69 et le connecteur 70 les signaux d'entrée 72 et de sortie
71 sériels. Les standards supportés sont, par exemple, le RS 232, RS
422, RS 485 et ce, selon la réalisation particulière de l'innovation.

  
Un autre UART 73 connecté aux puces digitales 45 permet à l'ensemble de s'intégrer directement à un circuit de mise en forme
74 du signal sériel au standard DMX. Ce convertisseur reproduit simplement et cycliquement, selon le standard DMX, les  informations transmises à travers l'interface série 73. Le principe que nous utilisons est que le contrôleur 25 n'envoie à l'interface série 73 que les signaux ayant changés de valeur. Le convertisseur DMX 74 répète continuellement et en boucle les 512 paramètres stockés dans sa mémoire et changés en temps réel à travers le mécanisme de connexion de l'UART 73 vers le circuit d'entrée du convertisseur DMX 74. Le signal sériel du convertisseur 74 est transmis au connecteur DMX 75 qui permet alors d'extérioriser le signal DMX 76.

  
Le bus digital 47 connecté au convertisseur digital vers analogique 77 permet au système de générer, en synchronicité, des signaux analogiques 78 transmis au connecteur 79. Celui-ci extériorise les sorties analogiques synchrones générées par l'invention à travers les sorties 80 et 81.

  
Les bus digitaux 82, 39, 45, 33, 30 et 54 sont, par exemple, mais non limités à, des bus de type I2C. Cette technologie mise au point par Philips Corporation permet une réalisation de l'invention à un coût très faible mais également d'intégrer l'ensemble, soit dans une version compacte, soit dans une version où chaque élément interconnecté sur le bus peut être situé jusqu'à une distance de 400 mètres. Le bus I2C est récupérable à l'extérieur du système à travers le connecteur 55 et ce, après qu'il ait été amplifié et remis en forme à travers le tampon 53. Le signal récupéré en 6 4 est donc un signal complètement utilisable au standard I2C.

  
L'insertion d'une carte RAM 24 ou d'une carte de type, mais non limitée à flash, est directement connectée au micro-contrôleur à travers les bus digitaux 26 et 27. 

  
Nous allons donner ci-après des exemples de références utilisables pour la réalisation des différents éléments mentionnés ci-dessus. L'élément 53 utilisé comme tampon peut être réalisé grâce à un circuit de type 82B715 de chez Philips.

  
Les UART définis en 61, 68 et 73 peuvent être implémentés grâce au circuit 80C652 de chez Intel. La mise en forme du circuit de type Midi peut être réalisée à travers un circuit Texas 74HC04 suivi de l'élément d'optocouplage 63, utilisant, par exemple, un 6N139. Le circuit de mise en forme DMX peut être réalisé à travers un
80C652, suivi d'un circuit Texas Instrument 75176. Le circuit de sortie digitale peut être implémenté à travers un 80C652, suivi d'un décodeur 74HCOO et nous utiliserons, par exemple, les convertisseurs Maxim 506 pour générer les sorties analogiques.

  
En figure 3 et figure 4, nous trouverons un exemple d'interface utilisateur de l'innovation. L'ensemble étant contenu dans un conteneur 84. L'écran LCD 85 (ou 31 dans la figure 2) permet à l'utilisateur, par exemple, mais non limité à, de visualiser ses sélections disponibles dans la mémoire du système. La sélection active est mise en évidence de façon à présenter à l'utilisateur le mode d'action actuel du système. Le clavier, constitué par les éléments 86, 87, 88, 89, 90 et 91 (ou 32 dans la figure 2), constitue l'interface utilisateur principal du système. Par exemple, nous trouverons en 86 le bouton de démarrage et d'arrêt de la lecture du système ; en 89, le système permet de reculer dans le temps ou de retourner au début de séquence ou de séquence précédente.

   Le bouton 90 permet d'avancer dans le temps ou d'avancer au début de séquence ou de séquence suivante. Le bouton 91 permet, par exemple, de faire des pauses et des arrêts sur un son ou un événement spécifique. Dans ce cas, le système est figé et n'envoie plus de son dans ses sorties audio, ni de signaux sur les canaux digitaux et sériels. Seules les valeurs analogiques restent à leur état. Les boutons 87 et 88 constituent eux, par  exemple, mais non limités à, des interfaces utilisateurs permettant de sélectionner des modes ou des valeurs dans le système, tels que, par exemple, les types de filtrage utilisé au niveau du DSP ou les types de sélection de sortie activée.

   Par exemple, le bouton 8 8 pourrait permettre d'activer ou de désactiver des sorties spécifiques, ou d'appliquer un traitement de filtrage particulier au niveau de la spatialisation des sorties digitales. Par spatialisation, nous entendons le changement de référence en une table d'adéquation entre les valeurs des paramètres entrée et des  paramètres sortie, soit et/ou pour les signaux DMX et MIDI. 

  
Par exemple, le bouton 87 pourrait permettre d'activer des  modes de filtrage particulier au niveau du DSP.

  
Au dos de l'appareil 84, nous pouvons voir le conteneur pour  les piles ou batteries 44 ainsi que le connecteur d'alimentation
141. En 155, nous verrons, par exemple, des contacts qui permettent, en déposant le système sur un berceau, soit de le recharger, soit de le mettre en communication digitale avec un réseau. Le bouton 95 (60 sur la figure 2) permet de sélectionner un mode constant particulier au système. La carte flash 93 est  extractible du système à l'aide du bouton 92. Le système peut  également être attaché à un support extérieur ou fixé à travers la griffe 94. Nous retrouverons également sur les bords, le connecteur 140 (26 sur la figure 2) permettant de donner un accès réseau extérieur à l'invention via un connecteur. Le connecteur 9 6 reprend les signaux audio.

   Le connecteur 97 reprend les signaux midi in, out et through (les connecteurs midi utilisés pour les modèles portables seront ici des connecteurs que nous appellerons mini-midi et dédicacés spécialement aux unités portables). Il en est de même également avec le connecteur DMX 98, le connecteur I2C
99 et le connecteur 100 reprenant à la fois les sorties sérielles et  analogiques. 

Brève description des figures

  
Les particularités et avantages du système seront plus clairement compris à travers quelques descriptions données en conjonction de schémas et figures exposés.

  
Les figures suivantes sont présentées :
Fig. 1 Présentation de la méthode utilisée pour la lecture synchronisée des événements Fig. 2 Exemple de réalisation du système de génération synchronisée des événements électriques et sonores Fig. 3 Exemple de réalisation d'interface utilisateur utilisable pour ce type de système : vue de face Fig. 4 Exemple de réalisation d'interface utilisateur utilisable pour ce type de système :

   vue de dos Fig. 5 Méthode de codage des signaux dans l'information son Fig. 6 Méthode de décodage des signaux dans l'information son Fig. 7 Exemple d'organisation de l'information dans une structure de données mixtes avec les événements situés à intervalles fixes Fig. 8 Exemple d'organisation de l'information dans une structure de données mixtes avec les événements situés à intervalles variables Fig. 9 Exemple d'organisation de l'information dans la structure des données de type événement



  Title of invention

  
Audiosynchronizer or multi-format digital audio player

  
synchronized with analog, digital signals,

  
serial, MIDI and or DMX.

Field of the invention

  
The present invention relates to an apparatus and a method for processing and using digital sound data, compressed or not, and using it in order to reproduce sound synchronized with the transmission of information introduced into the coding of digital sound. This information is transmitted by the device via analog, digital, MIDI, DMX and serial outputs. In particular, but in a non-exhaustive manner, the invention describes a method and a method which make it possible to produce a compact apparatus for reproducing timed and synchronized electrical events. The present invention is particularly advantageous in entertainment and ambience generation applications because it makes it possible to provoke synaesthetic perception.

  
The use of audio players capable of interpreting digitally encoded sound has become common. In particular on light, hand-held devices where sound is stored either on digital disc type media or on memories made up of electronic components. Such readers include those which are suitable for playing compressed or uncompressed sound, and where the digital file of sound tracks is stored in memory such as for example compact flash cards. The use of solid memories in these units makes the device particularly suitable for environments where vibrations are important, such as on stage of shows, industrial production units, in vehicles or on moving people such as dancers or individuals in physical activity.

  
For realizations where solid memory is used, audio data can be loaded onto the memory card, for example, by downloading the data via the Internet or another digital player. The data is usually compressed and loaded onto the memory card via a personal computer capable of downloading the data files. The device memory can also contain pre-loaded data.

  
For realizations where the digital disc is used, the disc can be available via a reseller or be burned directly after having downloaded the data files via the Internet. These common operations can be performed using a personal computer.

  
The files used in our devices can also be produced using software that encodes the sound file and integrates the data to be played in synchronization with the events to be produced. Such tools, easy to use, then allow each user or each production center to carry out coordination of events that are specific to them. And this, either by creating a genesis of original events, or by modifying specific parts of the events played in order to adapt them to a specific context. They can then be used according to the methods described above.

  
A particular embodiment of the invention is, for example, to use a direct connection via network, TCP / IP or other, to transmit the data file directly to the device. The main advantage of this embodiment is the use of a file which is generated dynamically by another device, or the use of information available on networked servers.

  
The data is encoded before being loaded into the memory card and dynamically decoded when the file is read. In addition to encoding, sound data can be compressed. A variety of compression formats are available in the market. Such formats include, but are not limited to, MP3 and Real Network G2. Other formats are added regularly and will be available in the future. Our device can be realized by integrating any compression format existing today or available in the future. This is achievable simply because the data that must be generated on the non-audio output ports of our device is integrated at precise intervals in the file containing the sound encoding.

  
However, a disadvantage of current audio players is that they only integrate audio information playback, possibly synchronized with still or animated images in the context of film players.

State of the art

  
The coordination of electrical actions with an audio source can be achieved by integrating a wide variety of devices from different technical fields. The light can, among other things, be managed via a light console which uses, for example, but not limited to, the DMX standard. In this case, either an operator is necessary to synchronize the light to the sound game, or the whole is recorded on a light sequencer which then replay the recorded sequence. This can be synchronized with the sound game via a synchronization system, but not limited to, of the SMTP Time code type for example. The major drawback of this type of synchronization lies in the need to interconnect various materials.

   These are complex to implement and certain synchronization faculties are only available on high-end devices reserved for professionals. These devices are quite expensive and, in any case, out of reach of the amateur who wishes to carry out simply a light animation, even very simple or minimalist, synchronized with a sound reading. The reflection is also applicable with a MIDI type musical interface, even if it is simpler to implement and less costly. However, when it is desired to coordinate devices which only have the possibility of synchronization with serial signals, but not limited to, of the RS 232, RS 485, RS 422 type, the difficulty and the cost are quite significant. The same is true for analog or digital connections.

   In any case, recourse to a specialist in each field is inevitable, even sometimes for very simple installations.

  
Neither this difficulty nor the cost can be reduced substantially even in the case where a user simply wishes to read a sequence which others have carried out.

  
On the other hand, the fields linked here in the object involve various skills such as sound, light, music, management of serial protocols, connection of devices with analog or digital input. All of these areas are covered only by rare experts or professionals who have all the knowledge relating to these technical areas.

  
Another limiting factor is the complexity of implementation, each time different depending on the scenic choices and the equipment used (among other things specific event management standards), since it is managed by each specialist who uses his own preparative and descriptive tools . This creates an extreme difficulty in reproducing exactly, with a chosen staff, a scenic game which was produced by another team of people. Or even, simply, to reproduce a second time exactly the same type of show, at the level of perception, if it is performed "live" by artists.

  
The present invention makes it possible to offer a large audience, and in a compact, simple and inexpensive embodiment, a device which integrates all of these skills and makes them accessible to the greatest number.

  
The present invention also makes it possible to interconnect, between them, various embodiments of the invention. This then leads to the realization of networked systems of event timers, or audio synchronizers, which are very complex and almost impossible to implement with current techniques.

  
As the present invention greatly reduces the order of complexity of implementing events synchronized with a sound source, used by experts and professionals, it allows them to realize much more complex systems with much more 'efficiency, reliability and creativity with the use of traditional tools and techniques. These are, moreover, perfectly complementary, either at the level of the real-time genesis of part of the information, or at the level of a larger-scale synchronization of a set of embodiments of the present invention .

  
On the other hand, the output in standardized form of events and this, respectively in their technology, makes it possible to add dynamic interaction to the outputs of events. This interaction is based on the event data output by the device.

  
The present invention also makes it possible to use the system to play a sequence of electrical events synchronized in time. The sound track is not absolutely mandatory for the proper functioning of the system. In this case, an audio source of silence is used.

  
In a way, the present invention constitutes a sound playback system which generates synchronized electrical events. This system includes: a user interface consisting of the control buttons of the device; an input device for receiving digital data; a data storage unit adapted to be used, either via a direct network connection, or via a digital data medium; a set of microcontrollers; a digital signal processor; a coding and compression detection system based on read-ahead with interpretation of digital data; a decoder which redistributes the sources according to their type of output; a synchronization system which ensures good simultaneity of the signals generated on the outputs;

   an asynchronous serial signal converter into a cyclic serial signal adapted to the DMX standard; an analog digital converter; a digital-to-digital converter; an extension connection intended to link another device via the digital communication bus. This can, for example, in a particular embodiment, be carried out with the I2C standard.

  
In another way, the present invention constitutes a digital sound file reading system in which information other than sound has been integrated. The operating method is then: activation according to a user interface; identification of the type of data source; reconstitution of the items to be distributed according to their type of output; synchronization of these; shaping according to the various integrated standards; output of all signals in synchronicity.

  
In another way, the present invention constitutes a system for storing mixed digital data which can be redistributed according to a synchronized sequence of an element, part or all of the elements stored in the digital file. The method is then as follows: selection by the user of the desired types of outputs; activation of reading start; synchronized signal output only for the types of outputs selected.

Detailed description of the invention

  
The object of this invention is to provide a system for operating electrical, analog and / or digital events of low or high power and synchronized. The number of events or electrical source can be very large and of the order of several thousand for a basic system.

  
The invention also makes it possible to very widely reduce the extreme complexity, and therefore the cost, of the systems that must be implemented to manage the synchronization of events according to current methods.

  
One of the originalities and innovations of our process lies in the extreme simplicity of implementation, the non-need for programming, and the ability to spatially manage electrical events directly.

  
The method used by the audiospatializer 1 (FIG. 1) is described below.

  
An entry in digital format allows you to retrieve a digital sound file. This sound file can come from three origins: direct reading from a digital medium 3, for example, but not limited to, cd or DAT cartridge; a solid memory medium 4, for example, but not limited to, RAM card or flash card; a network type input 5. The shaping circuit is represented by element 2. This makes it possible to send a digital stream 6 directly controlled and managed by a microcontroller to a decoding assembly. The type of data transmitted on the digital bus is recovered in the microcontroller 7 which detects the type and transmits to the DSP 8 the algorithms to be implemented in order to decode 9 the input signal.

  
The microcontroller 10 then coordinates the reading of the entire digital data stream with the digital outputs of the system. Six types of outputs are used through a digital bus:
a digital to analog conversion unit 13 makes it possible to output in analog form 19 the digital information encoded in the input file 2, decoded through the decoding system 9 and synchronized by the microcontroller 10; a digital to digital conversion 12 allows the system to generate, by the same principle as that of the digital to analog conversion, a set of digital outputs 18.

  
Three other series to series conversion systems 14, 15 and 16 make it possible to generate an output of the midi type 20 through the shaping circuit 14; a DMX 21 type output through the DMX shaping circuit 15; a serial type output 22 through the serial shaping circuit 16.

  
We will now describe the content of the digital information connected to the input port. The innovation offers two types of encoding of event data with audio information. This choice will be made judiciously in function, either of an optimization of the size of the data, or with a view to maximum synchronicity between the management of events and the playback of the audio file. Typically, but not systematically, an uncompressed audio file will be encoded with event information of fixed frequency. This will typically be written with a period of the order of 0.1 milliseconds, in order to guarantee synchronicity allowing the user to generate a synesthetic perception of all the events in relation to the audio information.

   The digital information will be generated as follows:
figure 7.

  
At the start of reading, header information 152 will identify exactly the type of encoding of the following digital information. An identifier 153 will possibly follow, but not necessarily the header in order, possibly, to allow security algorithms to authorize or not access to information to the user. A digital key 142 will be directly integrated. Security management type 143 will follow. The set 153, 142 and 143 allows choices of management and use of this information to choose the mode of management of the security of the system so as to allow or not the user to read and use the digital information which follows .

  
Next, we will find a repetition of groups of digital data, each audio block of which will have the same predetermined size as a function of the file identifier mentioned in the header 152. The data relating to the generation of synchronized events will be taken up inside. of the data group
144. This data group will first contain a group identifier which makes it possible to specify that it is event group # 1. Next, information that specifies the size of the data groups in event block # 1. In fact, each group of events can contain a greater or lesser amount of data, depending on the number of events to be generated during synchronization.

   A first piece of information of events 144 will allow the system to generate these which must start directly at the start of the audio sequence. Typically, the repetitive structure taken up by blocks 144 and 146 will constitute a set of digital data representing a fixed duration for audio interpretation of the order of 0.1 milliseconds. The information relating to the event will include the identification number of the sequence of events as well as the size of the information in the event data and this will include, in coding independent of the scenic structure, the representation of the events to be generated all digital and / or analog outputs. The audio information will be coded according to the compression or audio coding standard used.

   This audio coding description will be an integral part of the header identifying the type of digital data.

  
We describe in Figure 9 the internal structure of a group of event data. The event data group will always start with 180 an event group identifier. This allows, in case of loss of synchronization of the system, to generate an automatic resynchronization. Data group size information 181 will follow immediately. This information ensures that the system does not mix audio type information and encoded event information. The information relating to the different specific groups of electrical events generated will be used depending on their nature. The essential characteristic of these different groups is that they must be played with the synchronization time of the beginning of the audio sequence which will follow.

   We will have in order, for example, but not necessarily, the Midi 182 identification identification groups, the DMX control identification data groups 185, the serial data identification groups 187, the identification groups identification of digital data 192. Each group of nature of electrical events is made up of its identifier, followed by specific data relating to it. This is how the first Midi 183 data group will directly follow the Midi start control information 182. The Midi data will follow until the end of the necessary Midi data. The start of a new group will be marked with an identifier.

  
The DMX control data group will start with a DMX control identifier 185, followed each time by a DMX type data group 186. The serial data identification data group 187 will be followed by serial data 188 and following. The group of analog data will start with the identifier of analog data 190 and following 191. The group of digital data will start with the identifier of digital data 192, followed by the groups of digital data 193 and following 194. All of the data being terminated by an identifier for the end of event data 195, also used as an identifier for the start of audio data which will directly follow this digital information.

  
All the digital data will therefore be repetitive and will always include a block containing the description of the events to be generated by the system, followed by the audio information to be played in synchronicity. Loops 145 and 147 represent the two synchronized flows at the level of the system outputs. Each sequence will be repeated at regular intervals until the end of the audio file. The sequence 150 will therefore complete the generation of events at the system level, and the sequence 151 will contain the final information relating to the genesis of the audio signal.

  
In figure 8, we show how this method is also usable for a coding more adapted in certain situations, essentially the situations where one is with a compressed file, therefore where the audio playing time is not exactly determined at l in advance, or in a case where information of the event or audio type is largely predominant. The structure of this type of data flow is very close to the data flow used for a representation system with a fixed periodicity (Figure 7) between events. We therefore return the understandings of the header 160 as also described in FIG. 7 as well as the roles of the identifiers 161, of the key 162 and of the security system used in 163.

   The difference noted here is that the event and audio groups will not have a constant size over the duration of the data. Each block will be read with direct interpretation. The size of the audio sequence can also be done in two distinct ways, either the information will correspond to a time datum, in case there is no audio signal to be generated on the outputs of the invention, or the start of the audio sequence will contain the size of the audio block data so that the system can pinpoint exactly when it will again receive a group of event genesis data.

   This is how we will find the first block of events
164 followed by the first audio block 166 which allows the system to recalculate exactly from what time the following data of events 168 will be transmitted in the information flow. It is the same for the audio information 167 which will then make it possible to identify exactly the position of the data of the following audio groups 170. The mechanism will also be repeated until the last sequence of events 171 and of the digital audio information 172.

  
In FIGS. 5 and 6, the encoding and decoding methods are shown. The encoding method is expressed in FIG. 5. The digital information of sound 101 is read and, from this information, the header block 102 is created which will be used for generating the flow of digital data and encoded files. 103 represents the digital writing of the information generated. The header group will also contain the genesis, the identifier and the security keys. A choice will be made, either by the user who will encode the data, or automatically depending on the type of header determined. The system will choose whether the type of encoding to be used is a variable step 105 or constant step encoding 106. In the case of a variable periodicity, a loop 107 will be produced until the end of the encoding reading of the sound file.

   This will first of all pass through an analysis 109 on the length of the audio duration of the data which will be encrypted after the event. After the analysis of the jump 109, the system adds the information of the event in
112. This is added to the data stream generated in 154. The system then adds 111 the information 110 of the digitalized sound behind the previously written information 154. The loop 113 is thus repeated until the end of the audio file.

  
In the case of encoding at constant periodicity, the process is the same except that there is no jump calculation performed after each reading of a sequence group. The analysis therefore takes place in the form of a loop 116 which jumps
118 fixed at the size of the audio data. The information of the events 121 is thus first added, then the sound 119 is added, and this until the end of the audio data read by the audio file 101. The loop thus ends at 122 and the file is closed in 123.

  
The decoding process shown in FIG. 6 is identical both in the case of the structure with fixed periodicity and in the case of the structure with variable periodicity. The data stream will be read sequentially 124.

  
The header 125 will be interpreted as well as the identifier keys and the security algorithm. After this interpretation, the reading loop 126 will read, each time, the events 130. The reading of the events will then be filtered 131 possibly through the modes chosen by the user and the electrical events will be generated at 132 via the electrical outputs of the system. The audio data group will be read 128 and they will be sent directly to the DSP in 129 so that the latter outputs them on the audio line. We would like to point out that the method and method described above can also be used when adding video data to audio data.

  
This means that it should be understood here that the audio data in the broad sense may contain either image, sound, sound and / or image information. The process can be used for any form of digital signal.

Detailed description of an embodiment of the invention

  
An exemplary embodiment of the present invention, or audio synchronizer is shown in FIG. 2. It is produced by a set of independent microcontrollers linked together by a standardized communication bus, but for which we have created and produced a specific architecture.

  
We describe below the elements of implementation and operation.

  
The details of the elements contained in the invention and which are well known to those who master the art of techniques will not be described here.

  
The audio synchronizer 23 is articulated around a microcontroller 25 which controls the various elements as well as the operating mode, access and parameterization of the components, and this including the transfer of digital information with the RAM card 24 for example from compactflashTM type to DSP 35. The microcontroller includes a ROM 28 and RAM 29 type memory of sufficient size to store the firmware for managing the system. This firmware contains the basic instruction sets, the functions directly linked to the user interface, the management of the DSP and the RAM card, the security decoding system and the decoding process of the audio files.

   The use of flash type memory within the microcontroller makes it possible to reprogram the latter in order to add or modify the decoding algorithms and / or integrate therein functions included in the user interface. For example, can be used as

  
  <EMI ID = 1.1>

  
manufactured by NEC Corporation, or PIC 16F84-04 or PIC 16F84X from Microchip.

  
The invention 23 also contains a Digital Signal Processor ("DSP") 35 which can be programmed to carry out a series of processing of the audio signal during the replay of the latter. Such as, for example, but not limited to, decryption of compressed sound using a security code possibly even associated with a specific RAM card or a family of card IDs, decompression, or audio functions such as for example control volume, equalizer, sample conversion and digital filtering.

   The DSP module 35 itself contains a set that is functionally taken up like the decoder, the player 37 which contains the interpretation of the audio file possibly followed by filtering algorithms, as well as a RAM 38 buffer memory which makes it possible to optimize efficiency. DSP, as well as to store specific filtering, effects or decoding information. An optimal size of this operational memory 38 is 64 Kwords
(KW). The microcontroller 25 and the DSP 35 are connected via a digital bus 34. An example of usable DSP included, but not limited to, the component TMS320NC5410 manufactured by Texas Instruments, Dallas, Texas USA. The output of DSP 46 is connected to a digital to analog converter 47 of sufficient quality to provide optimal audio signal quality.

   The analog output 48 of the converter is directly connected to an amplifier 49 at the output of which the audio output connector 50 externalizes the left 51 and right 52 audio output signals. The analog outputs can themselves be connected to a spatialization system of the his.

  
Another exemplary embodiment would include a direct digital connection 46 at the output and this, in order to provide a digital signal which could then be connected directly to a digital sound spatialization system, such as for example, but not limited to, a system Dolby Surround Digital type. Signal shaping to a common digital standard should then possibly be added.

  
A display screen 31, of the liquid crystal screen type, is also connected directly to the controller via the digital bus 30. This display constitutes feedback for the user of the invention. Different keyboard keys that we will call keyboard 32 are also connected to the microcontroller via a digital bus 33. A set of dip switches allows you to generate frozen configuration data. These configuration items are, for example, but not limited to, preferences relating to standard compression rates, specific sampling frequencies, behaviors such as the use of certain analog or digital outputs. This dip switch is also connected via a digital bus 82.

  
The microcontroller assembly is supplied with low voltage by a DC / DC converter 40 which itself can be supplied, either directly through the external connectors 41 and 42 or, either through a rechargeable or non-rechargeable battery 43 located in compartment 44. The converter itself can be controlled by the microcontroller so as to cause, for example, a system shutdown by power cut in certain configurations.

  
The digital bus 45 allows the microcontroller to control all the converters for the synchronized outputs of the invention.

  
The direct link between the microcontroller 25 and the digital to digital converter 56 allows, through the digital link 57 and the digital output buffer 58, to generate digital input / output signals recovered on the connector 59. An input digital is also used through the switch 60 and allows to impose a specific operating mode. The choice of behavior can itself depend on the configuration of the dip switch 83 and is, for example, usable to give a quick interface to the user to activate the midi output 65. The digital bus 45 connected to a conversion circuit 61 towards a serial signal makes it possible to link, via the digital bus 62 and the optocoupler 63, the assembly. This link authorizes an output of the midi type standard on connector 65.

   An input midi signal via connector 66 and transferred to connector 67 as midi through also allows the system to benefit from input information via the midi signal. This allows, for example, to activate start, stop, configuration or parameterization functions in real time of the events generated by the invention.

  
The digital bus 45 also allows, via the UART 68 to authorize, via the bus 69 and the connector 70 the input 72 and output signals
71 serial numbers. The supported standards are, for example, RS 232, RS
422, RS 485 and this, according to the particular achievement of the innovation.

  
Another UART 73 connected to digital chips 45 allows the assembly to integrate directly into a shaping circuit
74 of the serial signal to the DMX standard. This converter reproduces simply and cyclically, according to the DMX standard, the information transmitted through the serial interface 73. The principle that we use is that the controller 25 sends to the serial interface 73 only the signals having changed value. The DMX 74 converter continuously repeats and loops the 512 parameters stored in its memory and changed in real time through the connection mechanism of the UART 73 to the input circuit of the DMX 74 converter. The serial signal of the converter 74 is transmitted to the DMX 75 connector which then makes it possible to exteriorize the DMX 76 signal.

  
The digital bus 47 connected to the digital to analog converter 77 allows the system to generate, in synchronicity, analog signals 78 transmitted to the connector 79. The latter externalizes the synchronous analog outputs generated by the invention through the outputs 80 and 81.

  
The digital buses 82, 39, 45, 33, 30 and 54 are, for example, but not limited to, I2C type buses. This technology developed by Philips Corporation allows an embodiment of the invention at a very low cost but also to integrate the whole, either in a compact version, or in a version where each element interconnected on the bus can be located up to 'at a distance of 400 meters. The I2C bus is recoverable outside the system through the connector 55 and this, after it has been amplified and reshaped through the buffer 53. The signal recovered in 6 4 is therefore a completely usable signal in standard I2C.

  
The insertion of a RAM card 24 or a card of the type, but not limited to flash, is directly connected to the microcontroller through the digital buses 26 and 27.

  
We will give below examples of references which can be used for the production of the various elements mentioned above. The element 53 used as a buffer can be produced by means of a circuit of the 82B715 type from Philips.

  
The UART defined in 61, 68 and 73 can be implemented thanks to the 80C652 circuit from Intel. The formatting of the Midi-type circuit can be carried out through a Texas 74HC04 circuit followed by the optocoupler element 63, using, for example, a 6N139. The DMX shaping circuit can be realized through a
80C652, followed by a Texas Instrument 75176 circuit. The digital output circuit can be implemented through an 80C652, followed by a 74HCOO decoder and we will use, for example, the Maxim 506 converters to generate the analog outputs.

  
In figure 3 and figure 4, we will find an example of user interface of innovation. The assembly being contained in a container 84. The LCD screen 85 (or 31 in FIG. 2) allows the user, for example, but not limited to, to view his selections available in the memory of the system. The active selection is highlighted so as to present to the user the current mode of action of the system. The keyboard, consisting of elements 86, 87, 88, 89, 90 and 91 (or 32 in Figure 2), constitutes the main user interface of the system. For example, we will find at 86 the button for starting and stopping the reading of the system; in 89, the system makes it possible to go back in time or to return to the start of the sequence or of the previous sequence.

   The button 90 makes it possible to advance in time or to advance to the start of the sequence or of the following sequence. The button 91 allows, for example, to pause and stop on a specific sound or event. In this case, the system is frozen and no longer sends sound in its audio outputs, nor signals on the digital and serial channels. Only the analog values remain in their state. The buttons 87 and 88 constitute them, for example, but not limited to, user interfaces making it possible to select modes or values in the system, such as, for example, the types of filtering used at the level of the DSP or the types of output selection activated.

   For example, the button 8 8 could make it possible to activate or deactivate specific outputs, or to apply a specific filtering treatment at the level of the spatialization of the digital outputs. By spatialization, we mean the change of reference to an adequacy table between the values of the input parameters and the output parameters, either and / or for DMX and MIDI signals.

  
For example, the button 87 could be used to activate specific filtering modes at the DSP level.

  
On the back of the device 84, we can see the container for the batteries 44 as well as the power connector
141. In 155, we will see, for example, contacts which allow, by depositing the system on a cradle, either to recharge it, or to put it in digital communication with a network. The button 95 (60 in FIG. 2) makes it possible to select a constant mode particular to the system. The flash card 93 can be removed from the system using the button 92. The system can also be attached to an external support or fixed through the hot shoe 94. We will also find on the edges, the connector 140 (26 in Figure 2 ) allowing to give an external network access to the invention via a connector. The connector 9 6 takes the audio signals.

   The 97 connector takes the midi in, out and through signals (the midi connectors used for the portable models will be here connectors that we will call mini-midi and dedicated specially to the portable units). It is the same also with the DMX 98 connector, the I2C connector
99 and connector 100 including both serial and analog outputs.

Brief description of the figures

  
The particularities and advantages of the system will be more clearly understood through a few descriptions given in conjunction with the diagrams and figures shown.

  
The following figures are presented:
Fig. 1 Presentation of the method used for synchronized reading of events Fig. 2 Example of embodiment of the system for synchronized generation of electrical and sound events Fig. 3 Example of user interface design usable for this type of system: front view Fig. 4 Example of user interface design usable for this type of system:

   back view Fig. 5 Method of coding the signals in the sound information FIG. 6 Method for decoding signals in sound information Fig. 7 Example of information organization in a mixed data structure with events located at fixed intervals Fig. 8 Example of information organization in a mixed data structure with events located at variable intervals Fig. 9 Example of information organization in the structure of event type data


    

Claims (28)

Revendicationsclaims 1. Un système de reproduction dynamique de l'éclairage 1. A dynamic lighting reproduction system 1. Un système de lecture d'événements électriques 1. An electrical event reading system synchronisés avec un signal audio et ou un signal vidéo synchronized with an audio signal and or a video signal 2. Un système de reproduction dynamique d'éclairage de 2. A dynamic lighting reproduction system of mobilier ou d'architecture urbaine 3. Un système d'éducation à la musique, composition furniture or urban architecture 3. A music education system, composition musicale, analyse musicale et au rythme par la lumière musical, musical analysis and rhythm by light 2. Un système de codage qui permet la reproduction 2. A coding system that allows reproduction d'informations électriques synchronisées d'événements ayant les normes Midi, DMX, Sérielles, RS485, RS422, RS232, des sorties digitales et analogiques synchronized electrical information of events having Midi, DMX, Serial, RS485, RS422, RS232 standards, digital and analog outputs 3. Un système de gestion de spatialisation du son 3. A sound spatialization management system synchronisé avec une source audio et/ou vidéo synchronized with an audio and / or video source 4. Un système de reproduction dynamique de la lumière 4. A dynamic light reproduction system dans les éclairages publicitaires in advertising lighting 4. Un système de gestion de spatialisation de la lumière 4. A light spatialization management system synchronisée avec une source audio et/ou vidéo synchronized with an audio and / or video source 5. Un système de reproduction dynamique de la lumière 5. A dynamic light reproduction system dans des zones et systèmes de sécurité in security zones and systems 5. Un système de gestion de spatialisation d'événements 5. An event spatial management system pyrotechniqueset lumineux synchronisés avec une source audio et/ou vidéo pyrotechnic and light synchronized with an audio and / or video source 6. Un système de reproduction dynamique de relaxation 6. A dynamic reproductive system of relaxation psycho-acoustique psychoacoustic 6. Un système de reproduction d'événements en temps réel 6. A real-time event reproduction system qui permet une répartition dans l'espace de sources e t/ o u de signaux électriques, analogiques et/ou digitaux which allows a spatial distribution of sources and / or electrical, analog and / or digital signals 7. Un système de gestion de spatialisation d'odeurs 7. An odor spatialization management system synchronisées avec une source audio et/ou vidéo synchronized with an audio and / or video source 7. Un système de lecture de synthétiseurs d'ambiance 7. A system for reading ambient synthesizers intégrant lumière, son, vidéo et robots synchronisés integrating light, sound, video and synchronized robots 8. Un système d'aide et d'apprentissage de la danse et de la 8. A support and learning system for dance and psychomotricité psychomotor 8. Un système de reproduction de processus électriques 8. A system for reproducing electrical processes techniques, artistiques et/ou industriels technical, artistic and / or industrial 9. Un système de rééducation physique 9. A physical rehabilitation system 9. Un outil de lecture dynamique synchrone de la lumière 9. A dynamic synchronous light reading tool 10. Un système de reproduction dynamique d'effets 10. A system of dynamic reproduction of effects synesthésiques de relaxation utilisés pour l'augmentation de la créativité et la diminution du stress synesthetics for relaxation used to increase creativity and decrease stress 10. Un système de transmission réseaux et/ou 10. A network transmission system and / or télétransmission de gestion dynamique d'événements en temps réel synchronisés avec une source audio e t/ o u vidéo remote transmission of dynamic management of real-time events synchronized with an audio and video source Revendications dépendantes Dependent claims Dans les revendications qui suivent, le terme lumière doit être lu dans son sens large donné ici dans l'ensemble des explications du brevet, c'est-à-dire d'événements électriques spatialisables. Nous avons choisi le terme lumière car il permet de comprendre intuitivement et correspond à une utilisation concrète de notre invention. In the claims which follow, the term light should be read in the broad sense given here in all of the explanations of the patent, that is to say of electrical events which can be spatialized. We chose the term light because it allows us to understand intuitively and corresponds to a concrete use of our invention. Les revendications suivantes constituent des exemples directs d'application du système : The following claims are direct examples of application of the system: 11. Un système de reproduction d'ambiance d'événements 11. A system for reproducing the atmosphere of events utilisable en discothèques, salles de détente, salles de jeux, studios de production, halls publics ou privés, magasins et/ou surfaces de distribution commerciales, halls industriels can be used in discotheques, relaxation rooms, games rooms, production studios, public or private halls, shops and / or commercial distribution areas, industrial halls 12. Un système d'entraînement et de développement de 12. A training and development system réflexes par reproductions d'ambiances synchronisées reflexes by reproducing synchronized atmospheres 13. Un système de divertissements permettant la création de 13. An entertainment system allowing the creation of nouveaux jeux à travers des séquences d'événements synchronisés new games through synchronized event sequences 14. Un système de coordination d'ambiances à travers un 14. A system for coordinating atmospheres through a réseau. Par ambiance, nous entendons un jeu synchronisé de son, d' audio, de vidéo, d'informations relatives à la lumière, à des actuateurs digitaux ou analogiques et à des effets synchronisés network. By ambience we mean a synchronized play of sound, audio, video, light information, digital or analog actuators and synchronized effects 15. Un système de reproduction de spectacles synchronisés 15. A system for reproducing synchronized shows tels que utilisé dans des parcs d'attractions ou scènes publiques ou musés as used in amusement parks or public or museum stages 16. Un système de reproduction permettant d'émettre des 16. A reproduction system allowing the transmission of informations dans un langage non verbal, synchronisé information in non-verbal language, synchronized 17. Un système de reproduction et d'animation d'éclairage de 17. A lighting reproduction and animation system monuments monuments 18. Un système de reproduction destiné à l'éducation 18. A reproductive system for education musicale et à la danse musical and dance 19. Un système de reproduction intégrable dans des jeux pour 19. A reproduction system that can be integrated into games for enfants, adolescents et adultes children, adolescents and adults 20. Un système de reproduction d'effets scéniques et 20. A system for reproducing scenic effects and événementiels event 21. Un système de coordination de thérapies lumineuses et 21. A system for coordinating light therapy and physiques physical 22. Un système de rééducation motrice par génération 22. A motor rehabilitation system by generation d'effets synesthésiques synesthetic effects 23. Un système de reproduction d'environnements et 23. A system for reproducing environments and d'éducation à la danse pour les sourds dance education for the deaf 24. Un système de reproduction de décorations intérieures 24. A system of reproduction of interior decorations 25. Un système de reproduction de décorations synchronisées 25. A system of reproduction of synchronized decorations et d'animations de jardins, mares, parcs publics and animations of gardens, ponds, public parks 26. Un système de reproduction d'événements pour les stands 26. An event reproduction system for stands d'exposition exhibition 27. Un système de reproduction d'animations sons et 27. A system for reproducing sound and couleurs incluant des jeux avec des liquides, des sources pyrotechniques et du feu colors including games with liquids, pyrotechnic sources and fire 28. Un système de reproduction de guidage audio lumineux 28. Bright audio guidance reproduction system utilisable dans les magasins, endroits privés et/ou publics usable in shops, private and / or public places
BE2001/0313A 2001-05-04 2001-05-04 Equipment for processing and operating digital sound data with integrated information introduced during coding, comprises decoding system and output control by microcontroller and convertors BE1014157A6 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BE2001/0313A BE1014157A6 (en) 2001-05-04 2001-05-04 Equipment for processing and operating digital sound data with integrated information introduced during coding, comprises decoding system and output control by microcontroller and convertors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BE2001/0313A BE1014157A6 (en) 2001-05-04 2001-05-04 Equipment for processing and operating digital sound data with integrated information introduced during coding, comprises decoding system and output control by microcontroller and convertors

Publications (1)

Publication Number Publication Date
BE1014157A6 true BE1014157A6 (en) 2003-05-06

Family

ID=3896972

Family Applications (1)

Application Number Title Priority Date Filing Date
BE2001/0313A BE1014157A6 (en) 2001-05-04 2001-05-04 Equipment for processing and operating digital sound data with integrated information introduced during coding, comprises decoding system and output control by microcontroller and convertors

Country Status (1)

Country Link
BE (1) BE1014157A6 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1569198A1 (en) * 2004-02-26 2005-08-31 Yamaha Corporation Electronic music apparatus capable of reproducing composite music file
CN104258581A (en) * 2014-08-22 2015-01-07 苏州乐聚一堂电子科技有限公司 Synchronous jet system for virtual concert

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1569198A1 (en) * 2004-02-26 2005-08-31 Yamaha Corporation Electronic music apparatus capable of reproducing composite music file
US7482528B2 (en) 2004-02-26 2009-01-27 Yamaha Corporation Electronic music apparatus capable of reproducing composite music file, and program therefor
CN1661668B (en) * 2004-02-26 2010-05-05 雅马哈株式会社 Electronic music apparatus capable of reproducing composite music file and method thereof
CN104258581A (en) * 2014-08-22 2015-01-07 苏州乐聚一堂电子科技有限公司 Synchronous jet system for virtual concert
CN104258581B (en) * 2014-08-22 2016-08-24 苏州乐聚一堂电子科技有限公司 Virtual concert synchronizes gas ejecting system

Similar Documents

Publication Publication Date Title
Chanan Repeated takes: A short history of recording and its effects on music
US20180376225A1 (en) Music video recording kiosk
US7596296B2 (en) System and method for dynamic media reproduction
RU2339085C2 (en) Device, system and method of making decorations
KR20160088954A (en) Digital jukebox device with karaoke and/or photo booth features, and associated methods
AU2009271622A1 (en) Child&#39;s media player with automatic wireless synchronization from content servers with adult management and content creation
EP0927977A2 (en) Home digital audiovisual information recording and playback apparatus
BE1014157A6 (en) Equipment for processing and operating digital sound data with integrated information introduced during coding, comprises decoding system and output control by microcontroller and convertors
EP0187073A1 (en) Method for producing audio-visual programmes by the use of a video disc, and cassette employed in this method
Rickert et al. The distributed Gesamptkunstwerk: Sound, worlding, and new media culture
Haine Color Grading 101: getting started color grading for editors, cinematographers, directors, and aspiring colorists
KR200183863Y1 (en) The personal system for making music video
Mallinder Live or Memorex. Changing perceptions of music practices
KR100350712B1 (en) The personal system for making music video
Hartman DIY in Early Live Electroacoustic Music: John Cage, Gordon Mumma, David Tudor, and the Migration of Live Electronics from the Studio to Performance
Kramer Classical music for the posthuman condition
Marasco Bendit_I/O: A System for Extending Mediated and Networked Performance Techniques to Circuit-Bent Devices
US20220343923A1 (en) Systems and methods for an immersive audio experience
Browne The Last Five Years: medium, mode and the making of Cathy
Redhead Dynamic Music The Implications of Interactive Technologies on Popular Music Making
Katz Listening to recorded sound
FR2483723A1 (en) Digital sound distribution controller for cinemas - stores adjustments to be made on incoming analogue signal for each respective output to main amplification system
BE1012063A6 (en) Light instrument: system for space-time use and management of electrical events synchronised in real time
Arbo et al. Penser la musique à l’ère du web/Thinking Music in the Web Age (2)
Kjus et al. Creating Studios on Stage

Legal Events

Date Code Title Description
RE Patent lapsed

Effective date: 20030531