BE1014157A6 - audiosynchroniseur ou lecteur audio digital multi-format synchronise avec des signaux analogiques, digitaux, seriels, midi et ou dmx. - Google Patents

audiosynchroniseur ou lecteur audio digital multi-format synchronise avec des signaux analogiques, digitaux, seriels, midi et ou dmx. Download PDF

Info

Publication number
BE1014157A6
BE1014157A6 BE2001/0313A BE200100313A BE1014157A6 BE 1014157 A6 BE1014157 A6 BE 1014157A6 BE 2001/0313 A BE2001/0313 A BE 2001/0313A BE 200100313 A BE200100313 A BE 200100313A BE 1014157 A6 BE1014157 A6 BE 1014157A6
Authority
BE
Belgium
Prior art keywords
synchronized
audio
reproduction
digital
events
Prior art date
Application number
BE2001/0313A
Other languages
English (en)
Original Assignee
Lange Philippe
Cans Myriam
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lange Philippe, Cans Myriam filed Critical Lange Philippe
Priority to BE2001/0313A priority Critical patent/BE1014157A6/fr
Application granted granted Critical
Publication of BE1014157A6 publication Critical patent/BE1014157A6/fr

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B31/00Arrangements for the associated working of recording or reproducing apparatus with related apparatus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J5/00Auxiliaries for producing special effects on stages, or in circuses or arenas
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/031File merging MIDI, i.e. merging or mixing a MIDI-like file or stream with a non-MIDI file or stream, e.g. audio or video
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/161Memory and use thereof, in electrophonic musical instruments, e.g. memory map
    • G10H2240/165Memory card, i.e. removable module or card for storing music data for an electrophonic musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/271Serial transmission according to any one of RS-232 standards for serial binary single-ended data and control signals between a DTE and a DCE
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/311MIDI transmission
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2545CDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/60Solid state media
    • G11B2220/61Solid state media wherein solid state memory is used for storing A/V content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Dispositif et procédé servant à reproduire un signal audio, d'origine digital, synchronisé avec des signaux de différentes natures dont le but est de reproduire une suite d'événements synchronisés avec le son. Ces signaux, de nature électrique, permettent de commander via une connexion simplifiée des systèmes asservis via une entrée de signaux analogiques, digitaux, sériels, MIDI et ou DMX. Un ou plusieurs de ces signaux peuvent être utilisés simultanément. La présente invention, ou audiosynchroniseur, consiste en un système qui gère la synchronisation et la répartition temporelle de la réalisation d'événements électriques.

Description


  Titre de l'invention

  
Audiosynchroniseur ou lecteur audio digital multi-format

  
synchronisé avec des signaux analogiques, digitaux,

  
sériels, MIDI et ou DMX.

Domaine de l'invention

  
La présente invention concerne un appareil et une méthode pour traiter et exploiter des données de son digital, comprimé ou non, et les exploiter afin de reproduire le son synchronisé avec la transmission d'informations introduites dans le codage du son digitalisé. Cette information est transmise par l'appareil via les sorties analogiques, digitales, MIDI, DMX et sérielles. En particulier, mais de manière non exhaustive, l'invention décrit une méthode et  un procédé qui permettent de réaliser un appareil compact de reproduction d'événements électriques temporisés et synchronisés. La présente invention est particulièrement avantageuse dans les applications de divertissement et de génération d'ambiances car elle permet de provoquer une perception synesthésique.

  
L'utilisation de lecteurs audio capables d'interpréter du son encodé digitalement est devenue commune. En particulier sur des  appareils tenant dans la main, légers et où le son est stocké soit sur des supports de type disque digital ou sur des mémoires constituées de composants électroniques. De tels lecteurs incluent ceux qui sont adaptés pour jouer du son comprimé ou non, et où le fichier digital des pistes sonores est stocké dans la mémoire tel par exemple les cartes compact flash. L'utilisation de mémoires solides dans ces unités rend l'appareil particulièrement adapté à des  environnements où les vibrations sont importantes, tels que sur les scènes de spectacles, unités de production industrielles, dans des  véhicules ou sur des personnes en mouvements telles que danseurs ou individus en activité physique.

  
Pour les réalisations où la mémoire solide est utilisée, les données audio peuvent être chargées sur la carte mémoire, par exemple, en téléchargeant les données via Internet ou d'un autre lecteur digital. Les données sont habituellement comprimées et  chargées sur la carte mémoire via un ordinateur personnel capable de télécharger les fichiers des données. La mémoire de l'appareil peut également contenir des données pré-chargées. 

  
Pour les réalisations où le disque digital est utilisé, le disque peut être disponible via un revendeur ou être gravé directement après avoir téléchargé les fichiers de données via l'Internet. Ces opérations communes peuvent être réalisées en utilisant un ordinateur personnel.

  
Les fichiers utilisés dans nos appareils peuvent également être réalisés via un logiciel qui assure l'encodage du fichier son et y intègre les données à jouer en synchronisation avec les événements à produire. De tels outils, simples d'utilisation, permettent alors à chaque utilisateur ou à chaque centre de production de réaliser des coordinations d'événements qui leur sont spécifiques. Et ce, soit en créant une genèse d'événements originaux, soit en modifiant des  parties spécifiques des événements joués afin de les adapter à un contexte spécifique. Ils peuvent alors être utilisés selon les méthodes décrites ci-dessus.

  
Un mode particulier de réalisation de l'invention est, par exemple, d'utiliser une connexion directe via réseau, TCP/IP ou autre, pour transmettre le fichier des données directement à l'appareil. L'avantage principal de ce mode de réalisation réside dans l'utilisation d'un fichier qui est généré dynamiquement par un autre appareillage, ou alors l'utilisation d'une information disponible sur des serveurs en réseau.

  
Les données sont encodées avant d'être chargées dans la carte mémoire et décodées dynamiquement lors de la lecture du fichier. Outre l'encodage, les données sonores peuvent être comprimées. Une variété de formats de compression est disponible sur le marché. De tels formats comprennent, mais ne sont pas limités au, MP3 et au Real Network G2. D'autres formats sont ajoutés régulièrement et seront disponibles dans le futur. Notre appareil peut être réalisé en intégrant n'importe quel format de compression existant à ce jour ou disponible dans le futur. Cela est  réalisable simplement parce que les données qui doivent être générées sur les ports de sortie non audio de notre appareil sont  intégrées à intervalles précis dans le fichier contenant l'encodage du son.

  
Cependant, un désavantage des lecteurs audio actuels est qu'ils intègrent uniquement une lecture d'information audio, éventuellement synchronisée avec des images fixes ou animées dans le cadre de lecteurs de films. 

Etat de la technique

  
La réalisation de la coordination d'actions électriques avec une source audio est réalisable en intégrant une grande diversité d'appareils provenant de domaines techniques différents. La lumière peut, entre autre, être gérée via une console de lumière qui utilise, par exemple, mais non limité à, le standard DMX. Dans ce cas, soit un opérateur est nécessaire pour synchroniser la lumière au jeu sonore, soit l'ensemble est enregistré sur un séquenceur lumineux qui rejoue alors la séquence enregistrée. Celle-ci peut être synchronisée avec le jeu sonore par l'intermédiaire d'un système de synchronisation, mais non limité à, de type Time code SMTP par exemple. L'inconvénient majeur de ce type de synchronisation réside dans la nécessité d'interconnecter divers matériels.

   Ceux-ci sont complexes à mettre en �uvre et certaines facultés de synchronisation ne sont disponibles que sur des  appareillages haut de gamme réservés aux professionnels. Ces appareillages sont assez coûteux et, en tout cas, hors de portée de l'amateur qui désire réaliser simplement une animation lumineuse, même très simple ou minimaliste, synchronisée avec une lecture sonore. La réflexion est applicable également avec une interface musicale de type MIDI, même si celle-ci est plus simple à mettre en �uvre et moins coûteuse. Cependant, lorsque l'on désire coordonner des appareils qui n'ont comme possibilité de synchronisation que des signaux sériels, mais non limité à, de type RS 232, RS 485, RS 422, la difficulté et le coût sont assez importants. Il en est de même pour des connexions analogiques ou digitales.

   De toutes les manières, le recours à un spécialiste de chaque domaine est inévitable, même parfois pour des installations très simples.

  
Ni cette difficulté, ni le coût ne sont réductibles substantiellement même dans le cas où un utilisateur désirerait simplement lire une séquence que d'autres ont réalisée.

  
D'autre part, les domaines liés ici dans l'objet font intervenir des compétences diverses telles que le son, la lumière, la musique, la gestion de protocoles série, la connexion d'appareils à entrée analogique ou digitale. L'ensemble de ces domaines n'est couvert que par de rares experts ou professionnels qui possèdent l'ensemble des connaissances relatives à ces domaines techniques. 

  
Un autre facteur limitant est la complexité de mise en oeuvre, à chaque fois différente en fonction des choix scéniques et du matériel utilisé (entre autre des normes spécifiques de gestion des  événements), car gérée par chaque spécialiste qui utilise ses propres outils préparatifs et descriptifs. Cela engendre une extrême difficulté à reproduire exactement, avec un personnel choisi, un jeu scénique qui a été réalisé par une autre équipe de personnes. Ou même, simplement, de reproduire une seconde fois exactement le même type de spectacle, au niveau de la perception, s'il est joué en "live" par des artistes.

  
La présente invention permet de proposer à un large public, et  dans une réalisation compacte, simple et peu coûteuse, un appareil qui intègre l'ensemble de ces compétences et les rend accessibles au plus grand nombre.

  
La présente invention permet également d'interconnecter, entre elles, diverses réalisations de l'invention. Cela conduit alors à la réalisation de systèmes en réseau de temporisateurs d'événements, ou audiosynchroniseurs, très complexes et quasi impossibles à mettre en �uvre avec les techniques actuelles.

  
Comme la présente invention réduit fortement l'ordre de complexité de mise en �uvre d'événements synchronisés avec une source sonore, utilisée par des experts et des professionnels, elle leur permet de réaliser des systèmes beaucoup plus complexes avec beaucoup plus d'efficacité, de fiabilité et de créativité qu'avec l'utilisation des outils et techniques traditionnels. Ceux-ci sont, par ailleurs, parfaitement complémentaires, soit au niveau de la genèse en temps réel d'une partie de l'information, soit au niveau d'une synchronisation à plus large échelle d'un ensemble de réalisations de la présente invention.

  
D'autre part, la sortie sous forme standardisée des événements et ce, respectivement dans leur technologie, permet d'ajouter une interaction dynamique aux sorties d'événements. Cette interaction est basée sur les données événementielles sorties par l'appareil.

  
La présente invention permet également d'utiliser le système pour jouer une séquence d'événements électriques synchronisés dans le temps. La piste sonore n'est pas absolument obligatoire pour le bon fonctionnement du système. Dans ce cas, une source audio de silence est utilisée. 

  
D'une certaine manière, la présente invention constitue un système de lecture sonore qui génère des événements électriques synchronisés. Ce système comprend : une interface utilisateur constituée des boutons de commande de l'appareil ; un dispositif d'entrée permettant de recevoir des données digitales ; une unité de stockage de données adaptée pour être utilisée, soit via une connexion réseau directe, soit via un support de données digitales ; un ensemble de micro-contrôleurs ; un processeur de signaux digitaux ; un système de détection de codage et de compression basé sur une lecture anticipée avec interprétation des  données digitales ; un décodeur qui redistribue les sources selon leur type de sortie ; un système de synchronisation qui assure la bonne simultanéité des signaux générés sur les sorties ;

   un convertisseur de signal série asynchrone en un signal série cyclique adapté au standard DMX ; un convertisseur digital analogique ; u n convertisseur digital-digital ; une connexion d'extension destinée à lier un autre appareil via le bus de communication digital. Celui-ci peut, par exemple, dans une forme particulière de réalisation, être réalisé avec le standard I2C.

  
D'une autre manière, la présente invention constitue un système de lecture de fichier de son digitalisé dans lequel a été intégrée une information autre que sonore. Le procédé de fonctionnement est alors : activation selon une interface utilisateur ; identification du type de source de données ; reconstitution des éléments à distribuer selon leur type de sortie ; synchronisation de ceux-ci ; mise en forme selon les différents standards intégrés ; sortie de l'ensemble des signaux en synchronicité.

  
D'une autre manière, la présente invention constitue un système de stockage de données digitales mixtes pouvant être redistribuées selon une séquence synchronisée d'un élément, d'une partie ou de l'ensemble des éléments stockés dans le fichier digital. La méthode est alors la suivante : sélection par l'utilisateur des types de sorties désirées ; activation du démarrage de la lecture ; sortie des signaux synchronisés uniquement pour les types de sorties choisies. 

Description détaillée de l'invention

  
L'objet de cette invention consiste à réaliser un système d'exploitation d'événements électriques, analogiques et/ou digitaux de faible ou forte puissance et synchronisés. Le nombre d'événements ou source électrique peut être très grand et de l'ordre de plusieurs milliers pour un système de base.

  
L'invention permet également de réduire très largement l'extrême complexité, donc le coût, des systèmes devant être mis  en oeuvre pour gérer la synchronisation d'événements selon les méthodes actuelles.

  
Une des originalités et innovations de notre procédé réside dans l'extrême simplicité de mise en oeuvre, de la non nécessité de programmation, et de la capacité à gérer spatialement directement des événements électriques.

  
Le procédé utilisé par l'audiospatialiseur 1 (figure 1) est décrit ci-après.

  
Une entrée au format digital permet de récupérer un fichier son digitalisé. Ce fichier son peut venir de trois origines : une lecture directe d'un support digital 3, par exemple, mais non limité à, cd ou cartouche DAT ; un support mémoire solide 4, par  exemple, mais non limité à, carte RAM ou carte flash; une entrée de type réseau 5. Le circuit de mise en forme est représenté par l'élément 2. Celui-ci permet d'envoyer un flux digital 6 directement  contrôlé et géré par un micro-contrôleur à un ensemble de décodage. Le type de données transmises sur le bus digital est  récupéré dans le micro-contrôleur 7 qui effectue une détection du type et transmet au DSP 8 les algorithmes à mettre en �uvre afin de décoder 9 le signal d'entrée.

  
Le micro-contrôleur 10 coordonne alors la lecture de l'ensemble du flux de données digitales avec les sorties digitales du système. Six types de sorties sont utilisées à travers un bus digital :
une unité de conversion digitale vers analogique 13 permet de sortir sous forme analogique 19 l'information digitale encodée dans le fichier d'entrée 2, décodée à travers le système de décodage 9 et synchronisée par le micro-contrôleur 10 ; une conversion digitale vers digitale 12 permet au système de générer, par le même principe que celui de la conversion digitale vers analogique, un ensemble de sorties digitales 18.

  
Trois autres systèmes de conversion série vers série 14, 15 et 16 permettent de générer une sortie de type midi 20 à travers le circuit de mise en forme 14 ; une sortie de type DMX 21 à travers le circuit de mise en forme DMX 15; une sortie de type sériel 22 à travers le circuit de mise en forme sérielle 16.

  
Nous décrirons maintenant le contenu des informations digitales connectées au port d'entrée. L'innovation propose deux types d'encodage des données événementielles avec les informations audio. Ce choix sera réalisé judicieusement en fonction, soit d'une optimisation de la taille des données, soit dans l'optique d'une synchronicité maximale entre la gestion des  événements et la lecture du fichier audio. Typiquement, mais non de manière systématique, un fichier audio non comprimé sera encodé avec des informations événementielles à périodicité fixe. Celle-ci sera typiquement écrite avec une période de l'ordre de 0,1  milliseconde et ce, afin de garantir une synchronicité permettant de générer chez l'utilisateur une perception synesthésique de l'ensemble des événements par rapport à l'information audio.

   Les informations digitales seront générées de la manière suivante :
figure 7.

  
En début de lecture, une information d'entête 152 permettra d'identifier exactement le type d'encodage des informations digitales qui suivent. Un identificateur 153 suivra éventuellement, mais non obligatoirement l'entête afin, éventuellement, de permettre aux algorithmes de sécurité d'autoriser ou non l'accès aux informations à l'utilisateur. Une clef digitale 142 sera directement intégrée. Le type de gestion de la sécurité 143 suivra. L'ensemble 153, 142 et 143 permet des choix de gestion et  d'utilisation de cette information pour choisir le mode de gestion de la sécurité du système de façon à permettre ou non à l'utilisateur de lire et utiliser les informations digitales qui suivent.

  
Ensuite, nous trouverons une répétition de groupes de données digitales dont chaque bloc audio aura une même taille prédéterminée en fonction de l'identificateur de fichiers repris à l'entête 152. Les données relatives à la génération des événements synchronisés seront reprises à l'intérieur du groupe de données
144. Ce groupe de données contiendra d'abord un identificateur de groupe qui permet de préciser qu'il s'agit du groupe d'événements #1. Ensuite, une information qui précise la taille des groupes de données du bloc événement #1. En effet, chaque groupe d'événements peut contenir une plus ou moins grande quantité de données et ce, dépendant du nombre d'événements à générer lors de la synchronisation.

   Une première information d'événements 144 permettra au système de générer ceux-ci qui devront débuter directement au départ de la séquence audio. Typiquement, la structure répétitive reprise par les blocs 144 et 146 constituera un ensemble de données digitales représentant une durée fixe à l'interprétation audio de l'ordre de 0,1 milliseconde. Les informations relatives à l'événement reprendront le numéro d'identification de la séquence d'événements ainsi que la taille des  informations des données événements et celles-ci reprenant, dans un codage indépendant de la structure scénique, la représentation des événements à générer sur l'ensemble des sorties digitales et/ou analogiques. L'information audio sera codée en fonction du standard de compression ou de codage audio utilisé.

   Cette description de codage audio sera partie intégrante de l'entête identifiant le type de données digitales.

  
Nous décrivons en figure 9 la structure interne d'un groupe de données événements. Le groupe de données événements commencera toujours par 180 un identificateur de groupe d'événements. Ceci permet, en cas de perte de synchronisation du système, de générer une resynchronisation automatique. Une information de taille de groupe de données 181 suivra immédiatement. Cette information garantit au système un nonmélange des informations de type audio et des informations événementielles encodées. Les informations relatives aux différents groupes spécifiques d'événements électriques générés seront reprises en fonction de leur nature. La caractéristique essentielle de ces différents groupes est qu'ils devront être joués avec le temps de synchronisation du début de la séquence audio qui suivra.

   Nous aurons dans l'ordre, par exemple, mais non obligatoirement, les groupes d'identification de contrôle Midi 182, les groupes de données d'identification des contrôles DMX 185, les groupes d'identification de données sérielles 187, les groupes d'identification de données digitales 192. Chaque groupe de nature d'événements électriques est constitué de son identificateur, suivi des données spécifiques qui lui sont relatives. C'est ainsi que le premier groupe de données Midi 183 suivra directement les informations de début de contrôle Midi 182. Les données Midi suivront jusque la fin des données Midi nécessaires. Le début d'un nouveau groupe sera marqué par un identificateur. 

  
Le groupe des données de contrôle DMX commencera par un identificateur de contrôle DMX 185, suivi, à chaque fois, d'un groupe de données de type DMX 186. Le groupe des données d'identification des données sérielles 187 sera suivi des données sérielles 188 et suivantes. Le groupe des données analogiques débutera par l'identificateur de données analogiques 190 et  suivantes 191. Le groupe des données digitales débutera par l'identificateur de données digitales 192, suivi des groupes de données digitales 193 et suivantes 194. L'ensemble des données étant terminé par un identificateur de fin de données événementielles 195, également utilisé comme identificateur de début de données audio qui suivront directement cette information digitale.

  
L'ensemble des données digitales sera donc répétitif et  comprendra toujours un bloc contenant la description des  événements à générer par le système, suivi des informations audio à jouer en synchronicité. Les boucles 145 et 147 représentent les deux flux synchronisés au niveau des sorties du système. Chaque séquence sera répétée à intervalles réguliers et ce, jusqu'à la fin du fichier audio. La séquence 150 terminera donc la génération d'événements au niveau du système, et la séquence 151 contiendra les informations finales relatives à la genèse du signal audio.

  
En figure 8, nous montrons comment ce procédé est également utilisable pour un codage plus adapté dans certaines situations, essentiellement les situations où l'on se trouve avec un fichier comprimé, donc où la durée de jeu audio n'est pas exactement déterminée à l'avance, ou dans un cas où l'information de type événement ou audio est largement prédominante. La structure de ce type de flux de données est fort proche du flux de données utilisées pour un système de représentation avec une périodicité fixe (figure 7) entre les événements. Nous renvoyons donc les compréhensions de l'entête 160 telle que décrite également dans la figure 7 ainsi que les rôles des identificateurs 161, de la clef 162 et  du système de sécurité utilisé en 163.

   La différence notée ici est  que les groupes événements et audio n'auront pas, le long de la durée des données, une taille constante. Chaque bloc sera lu avec une interprétation directe. La taille de la séquence audio pourra également se faire de deux manières distinctes, soit l'information correspondra à une donnée de temps, au cas où il n'y a aucun signal audio à générer sur les sorties de l'invention, soit le début de la séquence audio contiendra la taille des données du bloc audio afin que le système puisse repérer exactement à quel moment il recevra à nouveau un groupe de données de genèse d'événements.

   C'est ainsi que nous retrouverons le premier bloc d'événements
164 suivi du premier bloc audio 166 qui permet au système de recalculer exactement à partir de quel moment les données suivantes des événements 168 seront transmises dans le flux d'informations. Il en est de même pour les informations audio 167 qui permettront alors d'identifier exactement la position des  données des groupes suivants audio 170. Le mécanisme sera également répété jusqu'à la dernière séquence des événements 171 et de l'information digitale audio 172.

  
En figure 5 et 6, sont reprises les méthodes d'encodage et de décodage. La méthode d'encodage est exprimée en figure 5. Les informations digitales du son 101 sont lues et, de ces informations, on crée le bloc d'entête 102 qui sera utilisé pour la génération du flux des données digitales et fichiers encodés. 103 représente l'écriture digitale des informations générées. Le groupe d'entête contiendra également la genèse, l'identificateur et les clefs de sécurité. Un choix sera réalisé, soit par l'utilisateur qui encodera les données, soit automatiquement en fonction du type d'entête déterminée. Le système choisira si le type d'encodage à utiliser est un encodage à pas variable 105 ou à pas constant 106. Dans le cas  d'une périodicité variable, une boucle 107 sera réalisée jusqu'à la fin de la lecture d'encodage du fichier son.

   Celle-ci passera tout  d'abord par une analyse 109 sur la longueur de la durée audio des  données qui seront encryptées après l'événement. Après l'analyse du saut 109, le système ajoute l'information de l'événement en
112. Celle-ci est ajoutée au flux des données générées en 154. Le système ajoute 111 alors les informations 110 du son digitalisé derrière les informations précédemment écrites 154. La boucle 113 est ainsi répétée et ce jusqu'à la fin du fichier audio.

  
Dans le cas d'un encodage à périodicité constante, le procédé est le même sinon qu'il n'y a aucun calcul de saut réalisé après chaque lecture de groupe de séquence. L'analyse se déroule donc sous forme d'une réalisation d'une boucle 116 qui réalise un saut
118 fixe au niveau de la taille des données audio. L'information des événements 121 est ainsi d'abord ajoutée, ensuite le son 119 est  ajouté, et ce jusqu'à la fin des données audio lues par le fichier audio 101. La boucle se termine ainsi en 122 et le fichier est  clôturé en 123.

  
Le procédé de décodage repris en figure 6 est identique tant dans le cas de la structure à périodicité fixe que dans le cas de la structure à périodicité variable. Le flux de données sera lu séquentiellement 124.

  
L'entête 125 sera interprétée ainsi que les clefs d'identificateur et  l'algorithmique de sécurité. Après cette interprétation, la boucle de lecture 126 lira, à chaque fois, les événements 130. La lecture des événements sera ensuite filtrée 131 éventuellement à travers les modes choisis par l'utilisateur et les événements électriques seront générés en 132 via les sorties électriques du système. La lecture du groupe de données audio se réalisera 128 et elles seront envoyées directement au DSP en 129 afin que celui-ci les sorte sur la ligne audio. Nous tenons à souligner le fait que la méthode et le procédé décrits ci-dessus sont également utilisables lorsque l'on ajoute les données vidéo aux données audio.

  
Cela signifie qu'il faut entendre ici que les données audio au sens large peuvent contenir, soit des informations d'images, de sons, de sons et/ou d'images. Le procédé est utilisable pour toute forme de signal digital.

Description détaillée d'un exemple de réalisation de l'invention

  
Un exemple de réalisation de la présente invention, ou audiosynchroniseur est montré en figure 2. Il est réalisé par un ensemble de micro-contrôleurs indépendants reliés entre eux par un bus de communication standardisé, mais pour lequel nous avons créé et réalisé une architecture spécifique.

  
Nous décrivons ci-après les éléments de réalisation et de fonctionnement.

  
Le détail des éléments contenus dans l'invention et qui sont  bien connus de ceux qui maîtrisent l'art des techniques ne sera pas  décrit ici.

  
L'audiosynchroniseur 23 est articulé autour d'un microcontrôleur 25 qui contrôle les différents éléments ainsi que le mode opératoire, d'accès et de paramétrisation des composants, et ce y compris le transfert de l'information digitale avec la carte RAM 24 par exemple de type compactflashTM vers le DSP 35. Le micro-contrôleur inclut une mémoire de type ROM 28 et de type RAM 29 de taille suffisante afin de stocker le logiciel firmware de gestion du système. Ce firmware contient les jeux d'instruction de base, les fonctions directement liées à l'interface utilisateur, la gestion du DSP et de la carte RAM, le système de décodage de sécurité et le procédé de décodage des fichiers audio.

   L'utilisation de mémoire type flash au sein du micro-contrôleur permet de reprogrammer celui-ci afin d'y ajouter ou de modifier les algorithmes de décodage et/ou d'y intégrer des fonctions reprises dans l'interface utilisateur. Par exemple, sont utilisables comme

  
 <EMI ID=1.1> 

  
fabriqués par NEC Corporation, ou PIC 16F84-04 ou PIC 16F84X de Microchip.

  
L'invention 23 contient également un Digital Signal Processor ("DSP") 35 qui peut être programmé pour réaliser une série de traitements du signal audio pendant la relecture de celui-ci. Tels que, par exemple, mais non limité à, décryptage du son comprimé en utilisant un code de sécurité éventuellement même associé à une carte RAM spécifique ou à une famille d'ID de carte, décompression, ou des fonction audio telles que par exemple contrôle du volume, équalizer, conversion d'échantillonnage et  filtrage digital.

   Le module DSP 35 contient lui-même un ensemble repris fonctionnellement comme le décodeur, le player 37 qui contient l'interprétation du fichier audio suivi éventuellement des  algorithmes de filtrage, ainsi qu'une mémoire RAM 38 tampon qui permet d'optimiser l'efficacité du DSP, ainsi que d'y stocker des informations spécifiques de filtrage, d'effets ou de décodage. Une taille optimale de cette mémoire 38 opérationnelle est de 64 Kmots
(KW). Le micro-contrôleur 25 et le DSP 35 sont reliés via un bus  digital 34. Un exemple de DSP utilisable inclus, mais n'est pas limité à, le composant TMS320NC5410 fabriqué par Texas Instruments, Dallas, Texas USA. La sortie du DSP 46 est reliée à un convertisseur digital vers analogique 47 de qualité suffisante afin de fournir une qualité de signal audio optimale.

   La sortie analogique 48 du convertisseur est directement reliée à un amplificateur 49 à la sortie duquel le connecteur de sortie audio 50 extériorise les signaux de sortie audio gauche 51 et droite 52. Les sorties analogiques peuvent elles-même être connectées sur un système de spatialisation du son.

  
Un autre exemple de réalisation comprendrait une connexion digitale directe 46 en sortie et ce, dans le but de fournir un signal digital qui pourrait alors être connecté directement à un système de spatialisation du son digital, comme par exemple, mais non limité à, un système de type Dolby Surround Digital. Une mise en forme du signal à un standard digital commun devrait alors éventuellement être ajoutée. 

  
Un écran d'affichage 31, type écran à cristaux liquides, est  également connecté directement au contrôleur via le bus digital 30. Cet afficheur constitue un feed-back pour l'utilisateur de l'invention. Différentes touches de clavier que nous nommerons keyboard 32 sont également connectées au micro-contrôleur via un bus digital 33. Un ensemble de dip switch permet de générer les données de configuration figées. Ces éléments de configuration sont, par exemple, mais non limités à, des préférences relatives à des taux de compression standard, des fréquences d'échantillonnages spécifiques, des comportements tels que l'utilisation de certaines sorties analogiques ou digitales. Ce dip switch est également relié via un bus digital 82.

  
L'ensemble micro-contrôleur est alimenté en basse tension par un convertisseur DC/DC 40 qui lui-même peut être alimenté, soit directement à travers les connecteurs extérieurs 41 et 42 ou, soit à travers une batterie 43 rechargeable ou non et située dans le compartiment 44. Le convertisseur lui-même peut être piloté par le micro-contrôleur de manière à provoquer, par exemple, un arrêt du système par coupure d'alimentation dans certaines configurations.

  
Le bus digital 45 permet au micro-contrôleur de commander l'ensemble des convertisseurs pour les sorties synchronisées de l'invention.

  
Le lien direct entre le micro-contrôleur 25 et le convertisseur digital vers digital 56 permet, à travers la liaison digitale 57 et le tampon de sortie digitale 58, de générer des signaux d'entrée/sortie digitaux récupérés sur le connecteur 59. Une entrée digitale est également utilisée à travers l'interrupteur 60 et  permet d'imposer un mode de fonctionnement spécifique. Le choix du comportement peut dépendre lui-même de la configuration du dip switch 83 et est, par exemple, utilisable pour donner une interface rapide à l'utilisateur pour activer la sortie midi 65. Le bus s digital 45 connecté à un circuit de conversion 61 vers un signal série permet de lier, via le bus digital 62 et l' optocoupleur 63, l'ensemble. Cette liaison autorise une sortie au standard de type midi sur le connecteur 65.

   Un signal midi d'entrée via le connecteur 66 et reporté sur le connecteur 67 en tant que midi through permet également au système de bénéficier d'informations d'entrée via le signal midi. Cela permet, par exemple, d'activer des  fonctions de démarrage, d'arrêt, de configuration ou de paramétrisation en temps réel des événements générés par l'invention.

  
Le bus digital 45 permet également, via l'UART 68 d'autoriser, via le bus 69 et le connecteur 70 les signaux d'entrée 72 et de sortie
71 sériels. Les standards supportés sont, par exemple, le RS 232, RS
422, RS 485 et ce, selon la réalisation particulière de l'innovation.

  
Un autre UART 73 connecté aux puces digitales 45 permet à l'ensemble de s'intégrer directement à un circuit de mise en forme
74 du signal sériel au standard DMX. Ce convertisseur reproduit simplement et cycliquement, selon le standard DMX, les  informations transmises à travers l'interface série 73. Le principe que nous utilisons est que le contrôleur 25 n'envoie à l'interface série 73 que les signaux ayant changés de valeur. Le convertisseur DMX 74 répète continuellement et en boucle les 512 paramètres stockés dans sa mémoire et changés en temps réel à travers le mécanisme de connexion de l'UART 73 vers le circuit d'entrée du convertisseur DMX 74. Le signal sériel du convertisseur 74 est transmis au connecteur DMX 75 qui permet alors d'extérioriser le signal DMX 76.

  
Le bus digital 47 connecté au convertisseur digital vers analogique 77 permet au système de générer, en synchronicité, des signaux analogiques 78 transmis au connecteur 79. Celui-ci extériorise les sorties analogiques synchrones générées par l'invention à travers les sorties 80 et 81.

  
Les bus digitaux 82, 39, 45, 33, 30 et 54 sont, par exemple, mais non limités à, des bus de type I2C. Cette technologie mise au point par Philips Corporation permet une réalisation de l'invention à un coût très faible mais également d'intégrer l'ensemble, soit dans une version compacte, soit dans une version où chaque élément interconnecté sur le bus peut être situé jusqu'à une distance de 400 mètres. Le bus I2C est récupérable à l'extérieur du système à travers le connecteur 55 et ce, après qu'il ait été amplifié et remis en forme à travers le tampon 53. Le signal récupéré en 6 4 est donc un signal complètement utilisable au standard I2C.

  
L'insertion d'une carte RAM 24 ou d'une carte de type, mais non limitée à flash, est directement connectée au micro-contrôleur à travers les bus digitaux 26 et 27. 

  
Nous allons donner ci-après des exemples de références utilisables pour la réalisation des différents éléments mentionnés ci-dessus. L'élément 53 utilisé comme tampon peut être réalisé grâce à un circuit de type 82B715 de chez Philips.

  
Les UART définis en 61, 68 et 73 peuvent être implémentés grâce au circuit 80C652 de chez Intel. La mise en forme du circuit de type Midi peut être réalisée à travers un circuit Texas 74HC04 suivi de l'élément d'optocouplage 63, utilisant, par exemple, un 6N139. Le circuit de mise en forme DMX peut être réalisé à travers un
80C652, suivi d'un circuit Texas Instrument 75176. Le circuit de sortie digitale peut être implémenté à travers un 80C652, suivi d'un décodeur 74HCOO et nous utiliserons, par exemple, les convertisseurs Maxim 506 pour générer les sorties analogiques.

  
En figure 3 et figure 4, nous trouverons un exemple d'interface utilisateur de l'innovation. L'ensemble étant contenu dans un conteneur 84. L'écran LCD 85 (ou 31 dans la figure 2) permet à l'utilisateur, par exemple, mais non limité à, de visualiser ses sélections disponibles dans la mémoire du système. La sélection active est mise en évidence de façon à présenter à l'utilisateur le mode d'action actuel du système. Le clavier, constitué par les éléments 86, 87, 88, 89, 90 et 91 (ou 32 dans la figure 2), constitue l'interface utilisateur principal du système. Par exemple, nous trouverons en 86 le bouton de démarrage et d'arrêt de la lecture du système ; en 89, le système permet de reculer dans le temps ou de retourner au début de séquence ou de séquence précédente.

   Le bouton 90 permet d'avancer dans le temps ou d'avancer au début de séquence ou de séquence suivante. Le bouton 91 permet, par exemple, de faire des pauses et des arrêts sur un son ou un événement spécifique. Dans ce cas, le système est figé et n'envoie plus de son dans ses sorties audio, ni de signaux sur les canaux digitaux et sériels. Seules les valeurs analogiques restent à leur état. Les boutons 87 et 88 constituent eux, par  exemple, mais non limités à, des interfaces utilisateurs permettant de sélectionner des modes ou des valeurs dans le système, tels que, par exemple, les types de filtrage utilisé au niveau du DSP ou les types de sélection de sortie activée.

   Par exemple, le bouton 8 8 pourrait permettre d'activer ou de désactiver des sorties spécifiques, ou d'appliquer un traitement de filtrage particulier au niveau de la spatialisation des sorties digitales. Par spatialisation, nous entendons le changement de référence en une table d'adéquation entre les valeurs des paramètres entrée et des  paramètres sortie, soit et/ou pour les signaux DMX et MIDI. 

  
Par exemple, le bouton 87 pourrait permettre d'activer des  modes de filtrage particulier au niveau du DSP.

  
Au dos de l'appareil 84, nous pouvons voir le conteneur pour  les piles ou batteries 44 ainsi que le connecteur d'alimentation
141. En 155, nous verrons, par exemple, des contacts qui permettent, en déposant le système sur un berceau, soit de le recharger, soit de le mettre en communication digitale avec un réseau. Le bouton 95 (60 sur la figure 2) permet de sélectionner un mode constant particulier au système. La carte flash 93 est  extractible du système à l'aide du bouton 92. Le système peut  également être attaché à un support extérieur ou fixé à travers la griffe 94. Nous retrouverons également sur les bords, le connecteur 140 (26 sur la figure 2) permettant de donner un accès réseau extérieur à l'invention via un connecteur. Le connecteur 9 6 reprend les signaux audio.

   Le connecteur 97 reprend les signaux midi in, out et through (les connecteurs midi utilisés pour les modèles portables seront ici des connecteurs que nous appellerons mini-midi et dédicacés spécialement aux unités portables). Il en est de même également avec le connecteur DMX 98, le connecteur I2C
99 et le connecteur 100 reprenant à la fois les sorties sérielles et  analogiques. 

Brève description des figures

  
Les particularités et avantages du système seront plus clairement compris à travers quelques descriptions données en conjonction de schémas et figures exposés.

  
Les figures suivantes sont présentées :
Fig. 1 Présentation de la méthode utilisée pour la lecture synchronisée des événements Fig. 2 Exemple de réalisation du système de génération synchronisée des événements électriques et sonores Fig. 3 Exemple de réalisation d'interface utilisateur utilisable pour ce type de système : vue de face Fig. 4 Exemple de réalisation d'interface utilisateur utilisable pour ce type de système :

   vue de dos Fig. 5 Méthode de codage des signaux dans l'information son Fig. 6 Méthode de décodage des signaux dans l'information son Fig. 7 Exemple d'organisation de l'information dans une structure de données mixtes avec les événements situés à intervalles fixes Fig. 8 Exemple d'organisation de l'information dans une structure de données mixtes avec les événements situés à intervalles variables Fig. 9 Exemple d'organisation de l'information dans la structure des données de type événement

Claims (28)

Revendications
1. Un système de reproduction dynamique de l'éclairage
1. Un système de lecture d'événements électriques
synchronisés avec un signal audio et ou un signal vidéo
2. Un système de reproduction dynamique d'éclairage de
mobilier ou d'architecture urbaine 3. Un système d'éducation à la musique, composition
musicale, analyse musicale et au rythme par la lumière
2. Un système de codage qui permet la reproduction
d'informations électriques synchronisées d'événements ayant les normes Midi, DMX, Sérielles, RS485, RS422, RS232, des sorties digitales et analogiques
3. Un système de gestion de spatialisation du son
synchronisé avec une source audio et/ou vidéo
4. Un système de reproduction dynamique de la lumière
dans les éclairages publicitaires
4. Un système de gestion de spatialisation de la lumière
synchronisée avec une source audio et/ou vidéo
5. Un système de reproduction dynamique de la lumière
dans des zones et systèmes de sécurité
5. Un système de gestion de spatialisation d'événements
pyrotechniqueset lumineux synchronisés avec une source audio et/ou vidéo
6. Un système de reproduction dynamique de relaxation
psycho-acoustique
6. Un système de reproduction d'événements en temps réel
qui permet une répartition dans l'espace de sources e t/ o u de signaux électriques, analogiques et/ou digitaux
7. Un système de gestion de spatialisation d'odeurs
synchronisées avec une source audio et/ou vidéo
7. Un système de lecture de synthétiseurs d'ambiance
intégrant lumière, son, vidéo et robots synchronisés
8. Un système d'aide et d'apprentissage de la danse et de la
psychomotricité
8. Un système de reproduction de processus électriques
techniques, artistiques et/ou industriels
9. Un système de rééducation physique
9. Un outil de lecture dynamique synchrone de la lumière
10. Un système de reproduction dynamique d'effets
synesthésiques de relaxation utilisés pour l'augmentation de la créativité et la diminution du stress
10. Un système de transmission réseaux et/ou
télétransmission de gestion dynamique d'événements en temps réel synchronisés avec une source audio e t/ o u vidéo
Revendications dépendantes
Dans les revendications qui suivent, le terme lumière doit être lu dans son sens large donné ici dans l'ensemble des explications du brevet, c'est-à-dire d'événements électriques spatialisables. Nous avons choisi le terme lumière car il permet de comprendre intuitivement et correspond à une utilisation concrète de notre invention.
Les revendications suivantes constituent des exemples directs d'application du système :
11. Un système de reproduction d'ambiance d'événements
utilisable en discothèques, salles de détente, salles de jeux, studios de production, halls publics ou privés, magasins et/ou surfaces de distribution commerciales, halls industriels
12. Un système d'entraînement et de développement de
réflexes par reproductions d'ambiances synchronisées
13. Un système de divertissements permettant la création de
nouveaux jeux à travers des séquences d'événements synchronisés
14. Un système de coordination d'ambiances à travers un
réseau. Par ambiance, nous entendons un jeu synchronisé de son, d' audio, de vidéo, d'informations relatives à la lumière, à des actuateurs digitaux ou analogiques et à des effets synchronisés
15. Un système de reproduction de spectacles synchronisés
tels que utilisé dans des parcs d'attractions ou scènes publiques ou musés
16. Un système de reproduction permettant d'émettre des
informations dans un langage non verbal, synchronisé
17. Un système de reproduction et d'animation d'éclairage de
monuments
18. Un système de reproduction destiné à l'éducation
musicale et à la danse
19. Un système de reproduction intégrable dans des jeux pour
enfants, adolescents et adultes
20. Un système de reproduction d'effets scéniques et
événementiels
21. Un système de coordination de thérapies lumineuses et
physiques
22. Un système de rééducation motrice par génération
d'effets synesthésiques
23. Un système de reproduction d'environnements et
d'éducation à la danse pour les sourds
24. Un système de reproduction de décorations intérieures
25. Un système de reproduction de décorations synchronisées
et d'animations de jardins, mares, parcs publics
26. Un système de reproduction d'événements pour les stands
d'exposition
27. Un système de reproduction d'animations sons et
couleurs incluant des jeux avec des liquides, des sources pyrotechniques et du feu
28. Un système de reproduction de guidage audio lumineux
utilisable dans les magasins, endroits privés et/ou publics
BE2001/0313A 2001-05-04 2001-05-04 audiosynchroniseur ou lecteur audio digital multi-format synchronise avec des signaux analogiques, digitaux, seriels, midi et ou dmx. BE1014157A6 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BE2001/0313A BE1014157A6 (fr) 2001-05-04 2001-05-04 audiosynchroniseur ou lecteur audio digital multi-format synchronise avec des signaux analogiques, digitaux, seriels, midi et ou dmx.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BE2001/0313A BE1014157A6 (fr) 2001-05-04 2001-05-04 audiosynchroniseur ou lecteur audio digital multi-format synchronise avec des signaux analogiques, digitaux, seriels, midi et ou dmx.

Publications (1)

Publication Number Publication Date
BE1014157A6 true BE1014157A6 (fr) 2003-05-06

Family

ID=3896972

Family Applications (1)

Application Number Title Priority Date Filing Date
BE2001/0313A BE1014157A6 (fr) 2001-05-04 2001-05-04 audiosynchroniseur ou lecteur audio digital multi-format synchronise avec des signaux analogiques, digitaux, seriels, midi et ou dmx.

Country Status (1)

Country Link
BE (1) BE1014157A6 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1569198A1 (fr) * 2004-02-26 2005-08-31 Yamaha Corporation Instrument de musique électronique capable de reproduire des fichiers musicaux composites
CN104258581A (zh) * 2014-08-22 2015-01-07 苏州乐聚一堂电子科技有限公司 虚拟演唱会同步喷气系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1569198A1 (fr) * 2004-02-26 2005-08-31 Yamaha Corporation Instrument de musique électronique capable de reproduire des fichiers musicaux composites
US7482528B2 (en) 2004-02-26 2009-01-27 Yamaha Corporation Electronic music apparatus capable of reproducing composite music file, and program therefor
CN1661668B (zh) * 2004-02-26 2010-05-05 雅马哈株式会社 能够再现合成音乐文件的电子音乐装置及其方法
CN104258581A (zh) * 2014-08-22 2015-01-07 苏州乐聚一堂电子科技有限公司 虚拟演唱会同步喷气系统
CN104258581B (zh) * 2014-08-22 2016-08-24 苏州乐聚一堂电子科技有限公司 虚拟演唱会同步喷气系统

Similar Documents

Publication Publication Date Title
Chanan Repeated takes: A short history of recording and its effects on music
EP0786125B1 (fr) Appareil domestique d&#39;enregistrement et de restitution d&#39;informations audiovisuelles numeriques
US20180376225A1 (en) Music video recording kiosk
US7596296B2 (en) System and method for dynamic media reproduction
RU2339085C2 (ru) Устройство, система и способ для изготовления украшений
KR20160088954A (ko) 가라오케 및/또는 포토 부스 특징들을 갖는 디지털 주크박스 디바이스, 및 연관된 방법들
AU2009271622A1 (en) Child&#39;s media player with automatic wireless synchronization from content servers with adult management and content creation
BE1014157A6 (fr) audiosynchroniseur ou lecteur audio digital multi-format synchronise avec des signaux analogiques, digitaux, seriels, midi et ou dmx.
Exarchos Sample magic:(Conjuring) phonographic ghosts and meta-illusions in contemporary hip-hop production
CA2148089A1 (fr) Systeme et appareil de divertissement multimedia interactif
Herndon Proto
EP0187073A1 (fr) Procédé de réalisation, à partir d&#39;un vidéo-disque, de programmes audio-visuels et cassette mise en oeuvre dans ce procédé
Rickert et al. The distributed Gesamptkunstwerk: Sound, worlding, and new media culture
Haine Color Grading 101: getting started color grading for editors, cinematographers, directors, and aspiring colorists
KR200183863Y1 (ko) 개인 뮤직비디오 제작시스템
Mallinder Live or Memorex. Changing perceptions of music practices
KR100350712B1 (ko) 개인 뮤직비디오 제작시스템
Hartman DIY in Early Live Electroacoustic Music: John Cage, Gordon Mumma, David Tudor, and the Migration of Live Electronics from the Studio to Performance
Marasco Bendit_I/O: A System for Extending Mediated and Networked Performance Techniques to Circuit-Bent Devices
US20220343923A1 (en) Systems and methods for an immersive audio experience
Katz Listening to recorded sound
FR2483723A1 (fr) Systeme de sonorisation d&#39;une salle
BE1012063A6 (fr) Instrument de lumiere : systeme d&#39;utilisation et de gestion spatio-temporelle d&#39;evenements electriques synchronises en temps reel.
Arbo et al. Penser la musique à l’ère du web/Thinking Music in the Web Age (2)
Kjus et al. Creating Studios on Stage

Legal Events

Date Code Title Description
RE Patent lapsed

Effective date: 20030531