BE1012063A6 - Light instrument: system for space-time use and management of electrical events synchronised in real time - Google Patents

Light instrument: system for space-time use and management of electrical events synchronised in real time Download PDF

Info

Publication number
BE1012063A6
BE1012063A6 BE9800511A BE9800511A BE1012063A6 BE 1012063 A6 BE1012063 A6 BE 1012063A6 BE 9800511 A BE9800511 A BE 9800511A BE 9800511 A BE9800511 A BE 9800511A BE 1012063 A6 BE1012063 A6 BE 1012063A6
Authority
BE
Belgium
Prior art keywords
events
light
management
event
real time
Prior art date
Application number
BE9800511A
Other languages
French (fr)
Original Assignee
Lange Philippe
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lange Philippe filed Critical Lange Philippe
Priority to BE9800511A priority Critical patent/BE1012063A6/en
Application granted granted Critical
Publication of BE1012063A6 publication Critical patent/BE1012063A6/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/311MIDI transmission
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

This invention, or event spatialiser, consists of a system which manages the synchronisation and spatial and time distribution of the creation of electrical events. By way of a non-restrictive example, scenic lighting via a simple, intuitive and open interface. This objective is achieved by the creation of a spatialiser powered by the sources of scenic events, such as for example notes played or sung by musicians, "light keyboards", the movements of actors or mechanical, electrical or electronic interfaces, analogue or digital. Furthermore, this spatialiser permits the perfect synchronisation in real time with music or a rhythmed system, any energy sources and to manage it dynamically in space, for any event sources managed by the spatialiser. The spatialiser is in fact an instrument of spatial expression. The purpose of its use can be artistic or technical. It may also be considered, in one of its specific embodiments, as a light synthesiser. The concept of the invention is expressed under...

Description

       

   <Desc/Clms Page number 1> 
 



  INSTRUMENT DE LUMIERE : SYSTEME D'UTILISATION ET DE GESTION SPATIO-TEMPORELLE D'EVENEMENTS ELECTRIQUES SYNCHRONISES EN TEMPS REEL. 



   Domaine de l'invention 
La présente invention concerne un système pour la gestion dynamique en temps réel, l'interface utilisateur ou la reproduction d'événements synchronisés. Ces actions pouvant être réalisées soit localement, soit par télétransmission. Ce système est principalement destiné à être utilisé dans le domaine des techniques de relaxation, du spectacle, de l'art, des éléments scénographiques, de l'éducation, du divertissement, de l'architecture et du mobilier urbain. Cependant ses utilisations sont innombrables et peuvent intervenir dans des secteurs tels que la publicité, la sécurité,   l'animation,...   



   Généralement, la source de référence de synchronisation sera constituée d'un signal sonore, musical ou non, enregistré ou généré dynamiquement en temps réel. Les événements seront déclenchés directement par une interface utilisateur, telle par exemple qu'un clavier de synthétiseur   ou "clavier" spécialisé   tel que proposé plus loin (fig. 2-0, 2-23 et fig. 3). 



   Par éléments scéniques et scénarii, nous entendons toute forme de présentation d'animation synchronisée, et ce, y compris des formes d'expression de décoration, de publicité, d'éducation, de relaxation, de danse et d'éclairage au sens large. 



   État de la technique à laquelle l'invention se rapporte 
Il est classique, dans la technique de la gestion d'événements scéniques, de travailler avec des consoles ou des systèmes indépendants de gestion de son, d'éclairage, de lumière, d'écrans de projection, de sources olfactives ou des effets pyrotechniques. Ces consoles, logiciels ou systèmes sont lourds à mettre en oeuvre et ne contiennent pas des éléments qui les synchronisent ensemble en continu avec une vie scénique improvisée. En général, seuls quelques déclenchements d'événements peuvent éventuellement être synchronisés ponctuellement.

   Un tel agencement des systèmes de gestion des événements ne permet pas de flexibilité importante ni de capacité de gestion créative ou d'improvisation des événements en temps réel en interaction avec l'élément de référence du spectacle, c'est à dire par exemple les musiciens, danseurs, ou simplement une musique. Le but de l'invention est de garantir une synchronisation spatiale et temporelle de la réalisation des événements avec une mise en oeuvre simple, intuitive et une interface ouverte. Ce but est atteint par la 

 <Desc/Clms Page number 2> 

 réalisation d'un spatialiseur alimenté par les sources d'événement scéniques, telles que par exemple les notes jouées ou chantées par les musiciens, des"claviers de lumière", des mouvements d'acteurs ou par des interfaces électriques, électroniques ou mécaniques. 



   D'une manière générale, la synchronisation d'événements de type différents se réalise soit de manière indépendante manuellement, soit automatiquement, soit par des synchronisation de déclenchement de départ de séquence d'événements autosynchronisés. Cela signifie qu'un matériel spécifique à chaque type d'événement doit être utilisé, avec comme conséquence toutes les difficultés techniques engendrées pour le système de commande et la mise en oeuvre. La lourdeur des manipulations actuelles, en particulier dans le domaine de l'éclairage scénique, fait qu'un ou plusieurs éclairagistes sont nécessaires hors scène et se contentent d'éclairer les éléments scéniques dans un ordre préétabli généralement avant le spectacle.

   Les outils de programmation actuels, ainsi que l'enregistrement de séquences sont aisés, mais les séquences enregistrées ne peuvent se réaliser que via une synchronisation interne de la console d'éclairage. Les synchronisations externes parfois acceptées par la console ne peuvent être utilisées que pour déclencher une séquence préenregistrée. Le rythme et la vitesse d'exécution ayant été également préenregistrés, si la vitesse d'exécution change, ou si des improvisations sont réalisées ou pire, si la durée de l'exécution grandit simplement parce que les artistes ont envie de continuer le développement scénique entamé, la séquence préenregistrée continue simplement de jouer de manière autonome à sa vitesse préétablie, ou légèrement modifiée par l'opérateur de lumière.

   Cependant, la synchronisation réelle des événements et du jeu artistique sera en fait aléatoire ou décalée. 



   Nous devons ici expliquer ce que nous appelons synchronisation réelle et les termes temps réel. En fait une synchronisation n'est jamais parfaite au sens théorique simplement parce que l'élément synchroniseur est forcément en avance par rapport au signal de synchronisation qu'il déclenche. Cette différence de synchronisation peut aisément être corrigée simplement en donnant un retard au signal synchronisant. La figure 4 montre le diagramme temporel des signaux de référence 100 et de déclenchement de l'événement dit synchronisé 101. L'état des techniques électroniques actuel amène des retards de synchronisation électriques insignifiant et ne nécessitant pas de 

 <Desc/Clms Page number 3> 

 correction.

   Dans le contexte qui nous occupe, nous dirons que des éléments sont synchronisés si le temps de déclenchement maximum 102 est de l'ordre de 10 millisecondes. Ce temps est mesuré entre des valeurs de seuil d'amplitude prédéterminés. La durée maximale de ce temps est choisie sur la base du fait que le cerveau moyen ne discerne pas de différence de synchronisation pour des perceptions sonores ou lumineuses entre des sources décalées de cet ordre de durée. Nous considérons alors qu'un système réagit en temps réel s'il déclenche un événement sur base d'une source avec un décalage maximum de l'ordre de 10 millisecondes. 



   Un décalage important (largement supérieur au temps réel, c'est à dire de 200 millisecondes à plusieurs secondes) entre lumière et son, est actuellement commun. Ce décalage engendre une perception de la lumière comme une source d'information indépendante des éléments scéniques, et réduit les effets de lumière à des effets d'éclairage d'ambiance statique ou légèrement dynamique. Comme la synchronisation de la lumière et des éléments scéniques n'est pas parfaite, le cerveau traite ces informations de manière indépendante et sépare les perceptions acoustiques des perceptions lumineuses. L'effet réel de complémentarité est en fait perdu.

   La lumière ne peut alors être utilisée comme instrument de"musique"car elle ne peut être gérée avec la précision, la dynamique et le dextérité à laquelle nous sommes habitués pour les événements et la perception sonore. 



   De plus, lorsque d'autres types d'événements sont également utilisés dans la scénographie, chaque type d'événement est en fait géré de manière totalement indépendante. Cela requiert chaque fois un spécialiste, une interface spécifique et une programmation des séquences indépendantes. Avec toujours les mêmes problèmes relatifs à la synchronisation en temps réel et aux standards de normalisation. 



   La complexité de mise en oeuvre, à chaque fois différente en fonction des choix scéniques et du matériel utilisé (entre autre des normes spécifiques de gestion des événements), est actuellement gérée par chaque spécialiste qui utilise ses propres outils préparatifs et descriptifs. Cela engendre une extrême difficulté à reproduire exactement, avec un personnel choisi, un jeu scénique qui a été réalisé par une autre équipe de personnes. Ou même simplement de reproduire une seconde fois exactement le même type de spectacle, au niveau de la perception, s'il est joué en"live" par des artistes. 

 <Desc/Clms Page number 4> 

 



   Pour des animations qui se déroulent dans de très grands espaces, les différences de vitesse de propagation du son et de la lumière sont en fait extrêmement complexes à gérer. Avec les outils actuels, il est extrêmement difficile de mettre en oeuvre une propagation lumineuse synchronisée avec la propagation sonore. Il est en fait irréalisable de synchroniser ces deux propagations pour des événements scéniques improvisés. Nous parlons ici clairement d'une propagation d'effets scéniques de lumières qui se déplacent à la même vitesse qu'une onde sonore dans l'espace scénique. 



   Lorsque l'on désire absolument synchroniser les événements avec une source initiale, les techniques utilisables actuellement sont basées sur des signaux spécifiques de synchronisation qui permettent de faire évoluer éventuellement des générateurs d'événement ensemble. Cependant, ces montages de synchronisation amènent un tel besoin de matériel, de logiciels, de programmation et de synthèse d'information que de tels systèmes ne sont utilisable que lors de post productions, à des coûts extrêmement élevés et rarement en temps réel lorsque l'on désire synchroniser plus de quelques événements. Paradoxalement, beaucoup de systèmes ont été créés afin de gérer des événements ou des suites d'événements relativement complexes. Et cela en particulier dans le domaine de la gestion de l'éclairage.

   Cependant la seule synchronisation qui ait été développée efficacement jusqu'à ce jour consistait à déclencher une séquence d'événements. 



  Les événements étant synchronisés entre eux et pas par rapport a un signal extérieur variable rythmiquement et ou un clavier spécifique. Cela signifie que le seul élément réellement synchrone est constitué par l'événement de départ. Notre système propose désormais une solution simple, conviviale, flexible et très facile à mettre en oeuvre pour synchroniser, gérer et créer des événements répartis dans l'espace scénique. 



   Résumé de l'invention 
L'objet de cette invention consiste à réaliser un système d'exploitation d'événements électriques, analogiques et/ou digitaux de faible ou forte puissance, synchronisés et spatialisés. Le nombre d'événements ou source électrique peut être très grand et de l'ordre de plusieurs milliers pour un système de base. 



   L'invention permet également de réduire très largement l'extrême complexité, donc le coût, des systèmes devant être mis 

 <Desc/Clms Page number 5> 

 en oeuvre pour gérer la synchronisation d'événements selon les méthodes actuelles. 



   Notre mise en oeuvre permet également de réaliser un système simple de reproduction des événements synchronisés lorsque ceux-ci ont été enregistrés sur un séquenceur de type MIDI. 



   Une des originalités et innovation de notre concept réside dans l'extrême simplicité de mise en oeuvre, de la non nécessité de programmation, et la capacité à gérer spatialement directement des événements électriques. 



   Concept et réalisation de l'invention 
Le concept du spatialiseur est montré schématiquement en fig. 



  1. Le spatialiseur est réalisé par un ensemble de micro contrôleurs indépendants reliés entre eux par un bus de communication standardisé, mais pour lequel nous avons créé et réalisé une architecture spécifique telle que montrée en figure 2. 



   L'invention est basée sur un concept de réalisation d'un spatialiseur (C) en temps réel. 



   L'invention est réalisée à partir d'un ensemble de sous systèmes conceptuels et matériels intégrés selon les besoins finaux, en un ou plusieurs groupes de circuits ou appareillages. 



   L'invention est réalisée par un ensemble de micro contrôleurs connectés et programmés de manière telle qu'ils constituent un système opérationnel tel que décrit. Cet ensemble est en fait constitué d'un micro contrôleur central situé sur une carte qui supporte le coeur de l'application. Ce système de base reprend les fonctionnalités Q décrites. Son entrée principale S est constituée d'une entrée MIDI. Le Bus 21 permet de relier les autres unités de l'invention. Chaque autre unité fonctionnelle 23,24, 25,26, 27,28 et 65 sont constituées d'une platine à micro contrôleur indépendante. 



   Le bus et le protocole choisis permettent de connecter les platines à une distance maximale de 400 m entre elles, lorsque le bus est bufférisé. Chaque unité de bufférisation permet de prolonger de 400 m la longueur du bus. 



   Nous décrivons ci-après les éléments de réalisation et de fonctionnement : 
Un signal de type MIDI, venant d'une source A produite directement ou via un séquenceur est entré dans un module D qui 

 <Desc/Clms Page number 6> 

 peut générer un délai. Ce signal constitue la source sur laquelle les événements à générer ou à reproduire sont synchronisés. Le signal M, via la ligne électrique 91, sert à commander les sources MIDI musicales ou diverses éventuelles. 



   Il est important de noter que le système est utilisable sans source de signal A. Dans ce cas, c'est   le signal généré   directement par l'interface utilisateur B, que nous appellerons clavier des lumières, qui générera les événements, leur spatialisation, ainsi que leur synchronisation. 



   Les entrées A et B sont utilisables indépendamment et ou en conjonction à tout moment. 



  Les événements sont générés directement en temps réel : 
Une interface utilisateur B génère les signaux qui déclenchent les événements. Ces signaux peuvent être de différente origine. 



   Soit ils peuvent être générés par des événements identiques à la génération des éléments sonores ou musicaux. C'est le cas par exemple d'événements générés par des instruments de musique qui possèdent des sorties de type MIDI. Le signal MIDI contient toutes les informations du jeu musical. Ces informations peuvent par exemple être utilisées par le spatialiseur en associant à un événement MIDI, une séquence ou un groupe d'événement à une information ou événement MIDI spécifique. Par exemple, la réception d'une note MIDI peut générer un éclairage d'un spot d'éclairage, ou d'un ensemble de spots qui constituent alors une forme de lumière. 



   Soit l'interface utilisateur peut être constituée d'un clavier de type MIDI mais qui ne sera utilisé que pour la génération des événements de spatialisation. Dans ce cas, on aura déterminé au niveau du spatialiseur la correspondance de chaque type d'information généré par le clavier MIDI. Ce clavier sera aussi appelé clavier de lumière, dans le sens où le jeu qui sera réalisé sur ce clavier ne générera aucun son, mais le clavier sera uniquement utilisé pour générer des événements de spatialisation. 



   Soit l'interface utilisateur est constitué par le clavier de synchronisation décrit en figure 3 dont la figure 5 schématise le principe de fonctionnement. Des séquences événementielles 103 à 108 sont préenregistrées dans le spatialiseur sous une forme soit séquentielle 103,104, 107,108 soit matricielle   105,   soit mixte 106. 



  Le nombre de séquences, ainsi que de pas dans une séquence est quelconque. Il ne dépend que des limitations de la réalisation particulière.   Généralement,   il est de plusieurs milliers. Chaque élément 109 constitue un pas de la séquence. Ces pas sont créés 

 <Desc/Clms Page number 7> 

 afin de générer des événements qui suivent des lois de spatialisation spécifiques. Soit au sein d'un seul pas, soit en développement consécutif des pas. Une spatialisation d'un cercle de lumières peut par exemple être tracée pas par pas ou alors toutes les sources lumineuses sont activées ensemble lors du déclenchement d'un pas. Chaque pas est déclenchable par exemple via MIDI. Une source d'événement 112 est également reçue dans le clavier.

   Ce peut être par exemple la sortie MIDI du clavier de lumière ou directement la sortie MIDI de n'importe quel instrument ou système. Ces événements ponctuels 112 sont injectés dans le moteur de mixage de synchronisation   114.   Les éléments injectés sont ceux choisis via le sélecteur 110 et ce pour autant que l'interrupteur de séquence 115 soit désactivé. Les pas sont alors accumulés dans une mémoire de post sélection   111   qui alimente alors directement le moteur de synchronisation. Le moteur de synchronisation 114 fonctionne alors selon un algorithme sélectionné 113 qui détermine exactement le type de synchronisation choisi.

   En suivant cet algorithme, le moteur de synchronisation utilise l'événement venant de 112, traite selon l'algorithme 113 les informations spatiales des pas récupérés en 111 puis distribue vers le groupe des effets 116 les événements générés au rythme des événements amenés en   112.   Les événements arrivant en 112 contiennent, en plus de leur information de synchronisation inhérente, des informations d'intensité, de pression, de type d'action ou de choix de séquence, d'algorithme, d'effet ou d'ADSR (Attack Decay Sustain Release). Le groupe des effets permet de générer des délais de forme spatialisée, des effets de choeur, de retard, des effets de vague, de variation d'amplitude spatiale et/ou globale. Après le processeur d'effets, les événements traités sont alors envoyés vers les sources de production de chaque événement spécifique.

   Il est important de noter que chaque événement, et en particulier les événements relatifs à la lumière ou les odeurs, peut être produit via 117 avec une courbe dynamique établie sur les paramètres ADSR sélectionnés pour ce type d'événement. Les paramètres ADSR sont les paramètres classique de comportement dynamique d'un son, ici, nous appliquons ces paramètres d'enveloppe à la puissance (en agissant en tension ou courant) de l'événement généré. Le paramètre A est constitué du temps d'attaque, le paramètre D est le temps de retombée, ou Decay, le paramètre S est le niveau absolu ou proportionnel de l'amplitude de l'événement soutenu, Sustain, et le paramètre R, Release, est le temps que met l'événement pour disparaître ou retomber à un niveau de 

 <Desc/Clms Page number 8> 

 
 EMI8.1 
 e puissance nulle.

   En résumé, le clavier de synchronisation déclenche les éléments algorithmiques des séquences sur la base de temps de chaque élément amené en 112. Ce système est utilisé en mode multidimensionnel. Cela signifie que ce schéma est reproduit pour chaque origine de source indépendante d'un point de vue logique ou technique. Un seul synthétiseur ou séquenceur actuel est en effet capable de fournir des dizaines ou centaines de canaux de type 112 indépendants. 



   D'un point de vue plus conceptuel, les événements générés par l'interface utilisateur sont entrés dans l'isolateur retardateur D. Les entrées directes de B ne subissent aucun retard spécifique, ils permettent juste à l'unité de délai d'évaluer automatiquement le temps de délai à utiliser pour les sources venant de A. Les événements sont alors transmis dans le décodeur d'interface utilisateur E afin d'être injectés dans le système des traitements spéciaux F, tel que décrit en figure 5, selon un format interne spécifique. L'unité des traitements spéciaux F est constituée d'un système à microprocesseur qui peut appliquer ou générer des algorithmes de traitement au niveau global des événements reçus.

   Cela signifie par exemple que pour chaque système d'événements générés, cette unité est capable de générer ou de supprimer des événements sur des conditions spécifiques d'événements reçus. On pourrait à titre d'exemple non limitatif, pour une forme scénique pentagonale réalisée avec des événements de lumière déclencher un motif spécifique sur un système d'unité d'événement de type 
 EMI8.2 
 Laser ou Vidéo. L'unité des traitements spéciaux F peut alimenter directement les unités d'événement I, et/ou la matrice conceptuelle G, et/ou la matrice matérielle H. 



   Le rôle de la matrice conceptuelle G est de permettre au système des traitements spéciaux F de fonctionner sur une base mathématique conceptuelle et standardisée qui permet de simplifier considérablement la complexité algorithmique et de permettre la standardisation des différents types de réalisation du spatialiseur. La matrice conceptuelle G représentera la translation d'un espace tridimensionnel orthogonal continu vers un espace tridimensionnel discret sous forme polaire. Cet espace discret représente l'espace scénique. Cette représentation permet d'assigner efficacement les événements ou types d'événements à des actions concrètes. La matrice conceptuelle pourra être multidimensionnelle pour des mélanges complexes ou nombreux de types d'événements.

   La quatrième dimension sera utilisée pour 

 <Desc/Clms Page number 9> 

 la gestion spatiale du choix du type d'événement. Une cinquième dimension peut être utilisée pour la gestion des effets. 



   La matrice matérielle H affecte directement les événements à des actions concrètes et spécifiques, c'est à dire une modification de puissance en fonction du temps pour une source spécifique. Le rôle de cette matrice est d'adapter le modèle conceptuel utilisé à l'architecture spécifique des lieux, des éclairages ou générateurs électriques utilisés pour une représentation. Chaque unité d'événement 1 sera alors commandée individuellement par le système H. Chaque unité d'événement est constituée d'un gradateur de puissance, d'une unité de délai J et d'un générateur d'enveloppe K. Chaque élément de puissance spatialisé étant distribué sur chaque ligne L. 



   Pour des applications fixes, par exemple mais de manière non exclusive, pour des jeux d'enfants ou des systèmes de relaxation, il est possible de simplifier le système en évitant le passage via la matrice conceptuelle G et matérielle H. La connexion de chaque unité d'événement 1 se réalise directement à partir du micro contrôleur F. Une unité d'événement peut être simplifiée à l'extrême et être constituée simplement d'une unité d'événement analogique ou digitale, de faible ou forte puissance électrique. Cette simplification, réalisée intelligemment, permet de garder une interface utilisateur simple et conviviale pour un espace scénique fixe. Le bénéfice est alors au niveau du coût. 



   D'un point de vue utilisation et réalisation, la figure 2 reprend les éléments tels que réalisés et assemblés concrètement. 



   Les séquenceurs, claviers musicaux, et clavier des lumières (0) sont reliés via des signaux MIDI (R) à un mélangeur MIDI (P) qui sort un signal MIDI (S) reprenant l'ensemble des signaux MIDI des sources (0). C'est ce signal qui entre dans le coeur de l'invention, sur la platine (Q) du micro contrôleur central. Le signal (S) est isolé optiquement et redistribué via une sortie (T). Cela permet de chaîner plusieurs unités d'invention et d'étendre à moindre coût le nombre de sources que l'on peut gérer simultanément. Le signal (S) entre dans le contrôleur de communication (17). Celui-ci envoie alors directement au micro contrôleur central les informations que l'unité centrale a besoin pour gérer la spatialisation.

   A l'unité centrale sont adjoints des réglages (18) qui permettent d'identifier une unité spécifique lorsqu'elle est   chaînée   via (T). Un réglage du temps via le réglage (19) permet de donner une échelle de temps pour les délais et ou ADSR. Une unité de mémoire (20) est 

 <Desc/Clms Page number 10> 

 nécessaire afin de stocker les matrices (G) et (H), ainsi que les paramètres pour l'unité des traitements spéciaux (F). 



   Le coeur du spatialiseur est alors connecté à un ensemble de micro contrôleurs à fonctions spécifiques via le bus (21). 



   Ce bus (21) permet au système tant de recevoir des informations que d'en envoyer. Le clavier de synchronisation (23) est directement connecté via le bus (21). 



   Une unité de mémoire RAM (24) est également prévue afin de stocker des mémoires spécifiques pour des matrices matérielles (H). Cela permet alors de rapidement changer des configurations matérielles lors d'un même spectacle. 



   L'unité à micro contrôleur (25) constitue une sortie digitale capable de gérer des déclenchements pyrotechniques, des relais ou interrupteurs, ou des sources olfactives. Les sorties sont connectées via les connexions (Z). 



   L'unité (26) constitue une unité de spatialisation de son. Elle intègre une suite d'interrupteurs digitaux (D/D) et de sources analogiques (D/A). Cet ensemble dirige un ensemble de VCA (Amplificateurs commandés en tension) qui eux-mêmes mixent les signaux sonores U et sortent les mixages en Y. Ces sorties sont alors affectées à des amplificateurs répartis dans la salle. A titre d'exemple non exhaustif, si les baffles se situent en dessus ou au dessous des éclairages gérés par l'unité (28) il est alors possible de faire suivre le son avec la lumière. 



   L'unité (27) interface la commande de notre système avec le standard d'éclairage DMX généralement utilisé dans les salles de spectacles ou studios. Cela nous permet alors de connecter notre système sur une infrastructure d'éclairage existante et standardisée. 



   L'unité (65) nous permet de gérer dans l'espace aussi bien des images vidéo, et ce selon le même principe que pour l'unité (26) de spatialisation de son. Les entrées vidéo sont en (67). Les sorties vidéo sont en (66). 



   La sortie (W) permet de connecter notre bus à tout autre système à fonction spécialisé qui utilise notre spatialiseur. Par exemple à titre non exhaustif, il serait possible de connecter des interfaces de commande de laser, de déclenchement d'enregistrement de potentiels évoqués, un système de gestion dynamique de modification de la   couleur,...   



   L'unité (28) est constituée d'un ensemble de convertisseurs analogiques, amplifiés par les unités (29) selon le besoin en basse tension, basse ou forte puissance, avec ou sans ADSR. Les sorties 

 <Desc/Clms Page number 11> 

 (V) peuvent alors être connectées à toute source électrique. Par exemple à des sources lumineuses, ou pompe de jet d'eau,... 



   Dans notre réalisation, nous avons associé l'intensité de la puissance électrique récupérée en (V) à la vélocité de l'élément synchronisant, par exemple une note musicale. L'enveloppe ADSR est elle choisie à l'avance, et associée par exemple à un instrument musical ou une source synchronisante spécifique. Elle peut être liée à a vélocité de jeux global ou à une vélocité de note spécifique. Par exemple, à titre non exhaustif, une note d'instrument de percussion aura une enveloppe identique à un son percussif, une note de piano aura une enveloppe à vitesse d'évolution beaucoup plus lente. 



   Le détail de l'unité 23 est repris en figure 3. Cette unité s'applique particulièrement pour une utilisation de la spatialisation en temps réel de la lumière. Les LED 31 affichent si on reçoit de l'information pour la source synchronisante spécifique, par exemple tel que   112.   Le clavier que nous proposons gère 10 sources synchronisantes simultanées. Les boutons LED 32 nous montrent si nous avons suspendu l'arrivée de l'information synchronisante. Ils constituent un système de suspension de source de synchronisation spécifique. Par exemple simplement si nous ne désirons pas momentanément utiliser cette source de synchronisation. Le bouton Panique (33) permet de stopper complètement le système de synchronisation. Le bouton suspendre (34) permet de suspendre toutes les sources simultanément.

   Le bouton   départ/arrêt   (35) permet d'annuler l'effet de suspension déclenché par (34). Un affichage (37) permet de visualiser les paramètres spécifiques de contrôle. Les unités 38,39, 40 constituent l'interface utilisateur spécifique pour changer les paramètres du système. Les ensembles de faders A (43) et faders B (44) permettent de définir facilement diverses courbes ADSR, ainsi que les durées de base des horloges du système de délai. Les banques (41) permettent de changer rapidement les matrices conceptuelles (G) ou matérielles (H). Les effets (42) peuvent également être changés rapidement. Les boutons Any, Blanc, Rouge,... servent à choisir des couleurs spécifiques qui seront utilisées dans les séquences de spatialisation.

   Le clavier en luimême, constitué de l'élément (30) est construit par un ensemble de touches LED horizontales (44) et verticales (36). Les touches verticales permettent de choisir pour une source d'événement donnée par la ligne horizontale, le type de spatialisation qui sera générée en temps réel par le système pour la source choisie. 

 <Desc/Clms Page number 12> 

 



   De toute la réalisation, le système (Q) représente en effet l'élément fondamentalement innovant. Les   éléments   24,25, 26,27, 28,29, 65 représentent des applications que nous avons réalisées autour du spatialiseur. Cependant, lors des réalisations pratiques, certains éléments ou fonctionnalités du spatialiseur ont été intégrées directement dans ces éléments. Comme par exemple le système de gestion ADSR qui a été repris dans l'élément 29 et dans l'élément 27. En ce sens, ces   éléments   sont alors également innovants. 



   Brève description des futures 
Les particularités et avantages du système seront plus clairement comprises à travers quelques descriptions données en conjonction de schémas et figures exposées. 



  Les figures suivantes sont présentées : 
Fig. 1 Présentation symbolique du concept développé à travers l'invention. 



   Fig. 2 Exemple de réalisation du système de gestion de génération/spatialisation des événements. 



   Fig. 3 Exemple de réalisation d'interface utilisateur utilisable pour ce type de système en application scénique
Fig. 4 Diagramme temporel soutenant la définition de la synchronisation ou du temps dit réel. 



   Fig. 5 Principe du clavier de synchronisation



   <Desc / Clms Page number 1>
 



  INSTRUMENT OF LIGHT: SYSTEM OF USE AND SPATIO-TEMPORAL MANAGEMENT OF ELECTRIC EVENTS SYNCHRONIZED IN REAL TIME.



   Field of the invention
The present invention relates to a system for dynamic management in real time, the user interface or the reproduction of synchronized events. These actions can be carried out either locally or by teletransmission. This system is primarily intended for use in the field of relaxation techniques, entertainment, art, scenography, education, entertainment, architecture and street furniture. However its uses are innumerable and can intervene in sectors such as advertising, security, animation, ...



   Generally, the synchronization reference source will consist of an audio signal, musical or not, recorded or dynamically generated in real time. Events will be triggered directly by a user interface, such as for example a specialized synthesizer keyboard or "keyboard" as proposed below (fig. 2-0, 2-23 and fig. 3).



   By scenic elements and scenarios, we mean any form of synchronized animation presentation, including forms of expression of decoration, advertising, education, relaxation, dance and lighting in the broad sense.



   State of the art to which the invention relates
It is classic, in the technique of the management of scenic events, to work with consoles or independent systems of sound management, lighting, light, projection screens, olfactory sources or pyrotechnic effects. These consoles, software or systems are cumbersome to implement and do not contain elements which synchronize them together continuously with an improvised stage life. In general, only a few event triggers can possibly be synchronized punctually.

   Such an arrangement of event management systems does not allow significant flexibility or capacity for creative management or improvisation of events in real time in interaction with the reference element of the show, ie for example the musicians , dancers, or just music. The object of the invention is to guarantee a spatial and temporal synchronization of the realization of the events with a simple, intuitive implementation and an open interface. This goal is achieved by

 <Desc / Clms Page number 2>

 realization of a spatializer powered by the sources of scenic events, such as for example the notes played or sung by the musicians, "keyboards of light", movements of actors or by electrical, electronic or mechanical interfaces.



   In general, the synchronization of events of different types is carried out either independently manually or automatically, or by synchronization of triggering the start of a sequence of self-synchronized events. This means that a specific material for each type of event must be used, with as a consequence all the technical difficulties generated for the control system and the implementation. The heaviness of current manipulations, in particular in the field of scenic lighting, means that one or more lighting technicians are necessary off stage and are content to illuminate the scenic elements in a pre-established order generally before the show.

   The current programming tools, as well as the recording of sequences are easy, but the recorded sequences can only be carried out via an internal synchronization of the lighting console. External synchronizations sometimes accepted by the console can only be used to trigger a prerecorded sequence. The rhythm and speed of performance having also been prerecorded, if the speed of performance changes, or if improvisations are performed or worse, if the duration of the performance increases simply because the artists want to continue the stage development started, the prerecorded sequence simply continues to play autonomously at its preset speed, or slightly modified by the light operator.

   However, the actual synchronization of events and artistic play will in fact be random or off-beat.



   Here we need to explain what we call real synchronization and real time terms. In fact, synchronization is never perfect in the theoretical sense simply because the synchronizing element is necessarily ahead of the synchronization signal which it triggers. This difference in synchronization can easily be corrected simply by delaying the synchronizing signal. FIG. 4 shows the timing diagram of the reference signals 100 and of the triggering of the so-called synchronized event 101. The current state of electronic techniques leads to insignificant electrical synchronization delays and not requiring any

 <Desc / Clms Page number 3>

 correction.

   In the context which occupies us, we will say that elements are synchronized if the maximum trip time 102 is of the order of 10 milliseconds. This time is measured between predetermined amplitude threshold values. The maximum duration of this time is chosen on the basis of the fact that the average brain does not discern a difference in synchronization for sound or light perceptions between sources shifted by this order of duration. We then consider that a system reacts in real time if it triggers an event based on a source with a maximum offset of around 10 milliseconds.



   A significant shift (far greater than real time, ie 200 milliseconds to several seconds) between light and sound is currently common. This shift generates a perception of light as a source of information independent of the scenic elements, and reduces the light effects to static or slightly dynamic ambient lighting effects. As the synchronization of light and scenic elements is not perfect, the brain processes this information independently and separates acoustic perceptions from light perceptions. The real complementarity effect is actually lost.

   Light cannot then be used as a "musical" instrument because it cannot be managed with the precision, the dynamics and the dexterity to which we are accustomed for events and sound perception.



   In addition, when other types of events are also used in the scenography, each type of event is in fact managed completely independently. This requires a specialist, a specific interface and independent sequence programming each time. Always with the same problems relating to real-time synchronization and standardization standards.



   The complexity of implementation, each time different depending on the scenic choices and the equipment used (among other specific standards of event management), is currently managed by each specialist who uses his own preparative and descriptive tools. This creates an extreme difficulty in reproducing exactly, with a chosen staff, a scenic game which was produced by another team of people. Or even simply to reproduce exactly the same type of show a second time, at the level of perception, if it is performed "live" by artists.

 <Desc / Clms Page number 4>

 



   For animations that take place in very large spaces, the differences in speed of propagation of sound and light are in fact extremely complex to manage. With current tools, it is extremely difficult to implement a light propagation synchronized with the sound propagation. It is in fact impracticable to synchronize these two propagations for improvised scenic events. We are clearly talking about a propagation of scenic effects of lights moving at the same speed as a sound wave in the scenic space.



   When it is absolutely necessary to synchronize the events with an initial source, the techniques currently usable are based on specific synchronization signals which make it possible to possibly evolve event generators together. However, these synchronization arrangements bring such a need for hardware, software, programming and information synthesis that such systems are only usable during post productions, at extremely high costs and rarely in real time when the we want to synchronize more than a few events. Paradoxically, many systems have been created to manage relatively complex events or sequences of events. And this in particular in the field of lighting management.

   However, the only synchronization that has been effectively developed to date has been to trigger a sequence of events.



  The events being synchronized with each other and not with respect to a rhythmically variable external signal and or a specific keyboard. This means that the only truly synchronous element is the starting event. Our system now offers a simple, user-friendly, flexible solution that is very easy to implement to synchronize, manage and create events spread across the stage.



   Summary of the invention
The object of this invention is to provide a system for operating electrical, analog and / or digital events of low or high power, synchronized and spatialized. The number of events or electrical source can be very large and of the order of several thousand for a basic system.



   The invention also makes it possible to greatly reduce the extreme complexity, and therefore the cost, of the systems to be implemented.

 <Desc / Clms Page number 5>

 implemented to manage the synchronization of events according to current methods.



   Our implementation also makes it possible to carry out a simple system of reproduction of synchronized events when these have been recorded on a sequencer of MIDI type.



   One of the originalities and innovation of our concept lies in the extreme simplicity of implementation, the non-need for programming, and the ability to spatially manage electrical events directly.



   Concept and realization of the invention
The concept of the spatializer is shown schematically in fig.



  1. The spatializer is produced by a set of independent microcontrollers linked together by a standardized communication bus, but for which we have created and implemented a specific architecture as shown in Figure 2.



   The invention is based on a concept for realizing a spatializer (C) in real time.



   The invention is carried out from a set of conceptual and material subsystems integrated according to the final needs, into one or more groups of circuits or apparatus.



   The invention is carried out by a set of microcontrollers connected and programmed in such a way that they constitute an operational system as described. This set is in fact made up of a central microcontroller located on a card which supports the core of the application. This basic system incorporates the Q functionalities described. Its main input S consists of a MIDI input. Bus 21 connects the other units of the invention. Each other functional unit 23, 24, 25, 26, 27, 28 and 65 are made up of an independent micro-controller board.



   The bus and the protocol chosen allow connecting the panels at a maximum distance of 400 m between them, when the bus is buffered. Each buffering unit can extend the length of the bus by 400 m.



   We describe below the elements of implementation and operation:
A MIDI type signal, coming from a source A produced directly or via a sequencer is entered into a module D which

 <Desc / Clms Page number 6>

 may generate a delay. This signal constitutes the source on which the events to be generated or reproduced are synchronized. Signal M, via power line 91, is used to control MIDI musical or other sources, if any.



   It is important to note that the system can be used without a signal source A. In this case, it is the signal generated directly by the user interface B, which we will call the light keyboard, which will generate the events, their spatialization, as well as their synchronization.



   Inputs A and B can be used independently and or in conjunction at any time.



  Events are generated directly in real time:
A user interface B generates the signals which trigger the events. These signals can be of different origin.



   Either they can be generated by events identical to the generation of sound or musical elements. This is the case for example of events generated by musical instruments which have MIDI type outputs. The MIDI signal contains all the information of the musical game. This information can for example be used by the spatializer by associating a MIDI event, a sequence or a group of events with specific MIDI information or events. For example, receiving a MIDI note can generate lighting from a lighting spot, or a set of spots which then constitute a form of light.



   Either the user interface can consist of a MIDI type keyboard but which will only be used for the generation of spatialization events. In this case, we will have determined at the level of the spatializer the correspondence of each type of information generated by the MIDI keyboard. This keyboard will also be called a light keyboard, in the sense that the game that will be performed on this keyboard will not generate any sound, but the keyboard will only be used to generate spatialization events.



   Either the user interface is constituted by the synchronization keyboard described in FIG. 3, in which FIG. 5 diagrams the operating principle. Event sequences 103 to 108 are prerecorded in the spatializer in either a sequential 103, 104, 107, 108, matrix 105, or mixed 106 form.



  The number of sequences, as well as steps in a sequence is arbitrary. It only depends on the limitations of the particular embodiment. Generally, it is several thousand. Each element 109 constitutes a step in the sequence. These steps are created

 <Desc / Clms Page number 7>

 in order to generate events that follow specific spatialization laws. Either within a single step, or in consecutive development of steps. A spatialization of a circle of lights can for example be traced step by step or else all the light sources are activated together when a step is triggered. Each step can be triggered, for example via MIDI. An event source 112 is also received in the keyboard.

   This can for example be the MIDI output of the light keyboard or directly the MIDI output of any instrument or system. These punctual events 112 are injected into the synchronization mixing engine 114. The elements injected are those chosen via the selector 110 and this provided that the sequence switch 115 is deactivated. The steps are then accumulated in a post-selection memory 111 which then directly feeds the synchronization engine. The synchronization motor 114 then operates according to a selected algorithm 113 which determines exactly the type of synchronization chosen.

   By following this algorithm, the synchronization engine uses the event coming from 112, processes according to algorithm 113 the spatial information of the steps recovered in 111 then distributes to the group of effects 116 the events generated at the rate of the events brought in 112. The events arriving at 112 contain, in addition to their inherent synchronization information, information on intensity, pressure, type of action or choice of sequence, algorithm, effect or ADSR (Attack Decay). Sustain Release). The group of effects makes it possible to generate delays of spatialized form, choir, delay, wave effects, variation of spatial and / or global amplitude. After the effects processor, the processed events are then sent to the production sources of each specific event.

   It is important to note that each event, and in particular events relating to light or odors, can be produced via 117 with a dynamic curve established on the ADSR parameters selected for this type of event. The ADSR parameters are the classic parameters for the dynamic behavior of a sound, here we apply these envelope parameters to the power (acting in voltage or current) of the generated event. Parameter A consists of the attack time, parameter D is the fall-back time, or Decay, parameter S is the absolute or proportional level of the amplitude of the sustained event, Sustain, and the parameter R, Release , is the time it takes for the event to disappear or fall back to a level of

 <Desc / Clms Page number 8>

 
 EMI8.1
 e zero power.

   In summary, the synchronization keyboard triggers the algorithmic elements of the sequences on the basis of time of each element brought in 112. This system is used in multidimensional mode. This means that this scheme is reproduced for each origin from an independent source from a logical or technical point of view. A single current synthesizer or sequencer is in fact capable of providing tens or hundreds of independent type 112 channels.



   From a more conceptual point of view, the events generated by the user interface are entered in the delay isolator D. The direct inputs of B do not undergo any specific delay, they just allow the delay unit to automatically evaluate the delay time to be used for the sources coming from A. The events are then transmitted in the user interface decoder E in order to be injected into the special processing system F, as described in FIG. 5, according to an internal format specific. The special processing unit F consists of a microprocessor system which can apply or generate processing algorithms at the global level of the events received.

   This means for example that for each system of events generated, this unit is capable of generating or deleting events on specific conditions of events received. We could, by way of nonlimiting example, for a pentagonal scenic form produced with light events, trigger a specific motif on a type of event unit system.
 EMI8.2
 Laser or Video. The special processing unit F can directly supply the event units I, and / or the conceptual matrix G, and / or the hardware matrix H.



   The role of the conceptual matrix G is to allow the system of special processing F to operate on a conceptual and standardized mathematical basis which makes it possible to considerably simplify the algorithmic complexity and to allow the standardization of the different types of realization of the spatializer. The conceptual matrix G will represent the translation from a continuous orthogonal three-dimensional space to a discrete three-dimensional space in polar form. This discreet space represents the scenic space. This representation makes it possible to assign events or types of events effectively to concrete actions. The conceptual matrix can be multidimensional for complex or numerous mixtures of event types.

   The fourth dimension will be used for

 <Desc / Clms Page number 9>

 spatial management of the choice of type of event. A fifth dimension can be used for managing effects.



   The material matrix H directly assigns the events to concrete and specific actions, that is to say a modification of power as a function of time for a specific source. The role of this matrix is to adapt the conceptual model used to the specific architecture of the places, lighting or electric generators used for a representation. Each event unit 1 will then be individually controlled by the system H. Each event unit consists of a power dimmer, a delay unit J and an envelope generator K. Each power element spatialized being distributed on each line L.



   For fixed applications, for example but not exclusively, for children's games or relaxation systems, it is possible to simplify the system by avoiding the passage via the conceptual matrix G and material H. The connection of each unit event 1 is carried out directly from the micro controller F. An event unit can be simplified to the extreme and consist simply of an analog or digital event unit, of low or high electrical power. This simplification, carried out intelligently, makes it possible to keep a simple and user-friendly user interface for a fixed stage space. The profit is then at the level of cost.



   From a use and production point of view, Figure 2 shows the elements as produced and assembled in concrete terms.



   The sequencers, musical keyboards, and keyboard of the lights (0) are connected via MIDI signals (R) to a MIDI mixer (P) which outputs a MIDI signal (S) taking all the MIDI signals from the sources (0). It is this signal which enters the heart of the invention, on the plate (Q) of the central microcontroller. The signal (S) is optically isolated and redistributed via an output (T). This makes it possible to chain several invention units and to extend the number of sources that can be managed simultaneously at a lower cost. The signal (S) enters the communication controller (17). This then sends directly to the central microcontroller the information that the central unit needs to manage the spatialization.

   To the central unit are added adjustments (18) which make it possible to identify a specific unit when it is chained via (T). A time setting via setting (19) gives a time scale for delays and or ADSR. A memory unit (20) is

 <Desc / Clms Page number 10>

 necessary in order to store the matrices (G) and (H), as well as the parameters for the special processing unit (F).



   The core of the spatializer is then connected to a set of microcontrollers with specific functions via the bus (21).



   This bus (21) allows the system both to receive information and to send it. The synchronization keyboard (23) is directly connected via the bus (21).



   A RAM memory unit (24) is also provided for storing specific memories for hardware arrays (H). This allows you to quickly change hardware configurations during the same show.



   The microcontroller unit (25) constitutes a digital output capable of managing pyrotechnic trips, relays or switches, or olfactory sources. The outputs are connected via connections (Z).



   The unit (26) constitutes a sound spatialization unit. It incorporates a series of digital switches (D / D) and analog sources (D / A). This set directs a set of VCAs (Voltage Controlled Amplifiers) which themselves mix the sound signals U and output the mixes at Y. These outputs are then assigned to amplifiers distributed throughout the room. By way of non-exhaustive example, if the baffles are located above or below the lights managed by the unit (28), it is then possible to make the sound follow with the light.



   The unit (27) interfaces the control of our system with the DMX lighting standard generally used in concert halls or studios. This then allows us to connect our system to an existing and standardized lighting infrastructure.



   The unit (65) allows us to manage in space both video images, and this according to the same principle as for the unit (26) of sound spatialization. The video inputs are in (67). The video outputs are in (66).



   The output (W) allows us to connect our bus to any other specialized function system that uses our spatializer. For example, without being exhaustive, it would be possible to connect laser control interfaces, triggering of recording of evoked potentials, a dynamic management system for color modification, etc.



   The unit (28) consists of a set of analog converters, amplified by the units (29) according to the need for low voltage, low or high power, with or without ADSR. The exits

 <Desc / Clms Page number 11>

 (V) can then be connected to any electrical source. For example at light sources, or water jet pump, ...



   In our realization, we associated the intensity of the electric power recovered in (V) with the velocity of the synchronizing element, for example a musical note. The ADSR envelope is chosen in advance, and associated for example with a specific musical instrument or synchronizing source. It can be linked to the overall playing velocity or to a specific note velocity. For example, not exhaustive, a percussion instrument note will have an envelope identical to a percussive sound, a piano note will have an envelope at much slower rate of evolution.



   The detail of the unit 23 is shown in Figure 3. This unit is particularly applicable for the use of real-time spatialization of light. The LEDs 31 display if information is received for the specific synchronizing source, for example such as 112. The keyboard that we offer manages 10 simultaneous synchronizing sources. The LED buttons 32 show us if we have suspended the arrival of synchronizing information. They constitute a specific synchronization source suspension system. For example simply if we do not wish to use this synchronization source temporarily. The Panic button (33) stops the synchronization system completely. The suspend button (34) allows all sources to be suspended simultaneously.

   The start / stop button (35) cancels the suspension effect triggered by (34). A display (37) makes it possible to display the specific control parameters. The units 38, 39, 40 constitute the specific user interface for changing the parameters of the system. The sets of faders A (43) and faders B (44) allow various ADSR curves to be easily defined, as well as the basic durations of the clocks in the delay system. The banks (41) make it possible to quickly change the conceptual (G) or material (H) matrices. Effects (42) can also be changed quickly. The Any, White, Red, ... buttons are used to choose specific colors that will be used in the spatialization sequences.

   The keyboard itself, consisting of the element (30) is constructed by a set of horizontal (44) and vertical (36) LED keys. The vertical keys allow you to choose for an event source given by the horizontal line, the type of spatialization that will be generated in real time by the system for the chosen source.

 <Desc / Clms Page number 12>

 



   Of all the realization, the system (Q) indeed represents the fundamentally innovative element. Elements 24, 25, 26, 27, 28, 29, 65 represent applications that we have carried out around the spatializer. However, during the practical realizations, certain elements or functionalities of the spatializer were integrated directly into these elements. As for example the ADSR management system which was included in element 29 and in element 27. In this sense, these elements are then also innovative.



   Brief description of futures
The features and advantages of the system will be more clearly understood through a few descriptions given in conjunction with the diagrams and figures shown.



  The following figures are presented:
Fig. 1 Symbolic presentation of the concept developed through the invention.



   Fig. 2 Example of implementation of the event generation / spatialization management system.



   Fig. 3 Example of user interface realization usable for this type of system in scenic application
Fig. 4 Time diagram supporting the definition of synchronization or real time.



   Fig. 5 Principle of the synchronization keyboard


    

Claims (7)

Revendications 1. Système de codage qui permet la gestion, l'enregistrement et la reproduction d'informations relatives à la gestion dynamique en temps dit réel d'événements électriques synchronisés (fig. 2, fig. 5). Ces événements concernent, à titre d'exemple non limitatif, la gestion de la spatialisation de son, de lumière, d'événements pyrotechniques et/ou olfactifs. Les alimentations des sources lumineuses se retrouvent à la sortie (V) des gradateurs (29). Ces gradateurs constituent en fait un système de commande de puissance. La puissance qu'ils fournissent permet d'alimenter tout système électrique commandé en tension et ou en intensité. Les applications ne sont donc pas limitées aux effets lumineux. Les événements olfactifs, de puissance électrique et pyrotechniques sont générés par le système de conversion digital (25).  Claims 1. Coding system which allows the management, recording and reproduction of information relating to the dynamic management in real time of synchronized electrical events (fig. 2, fig. 5). These events concern, by way of nonlimiting example, the management of the spatialization of sound, light, pyrotechnic and / or olfactory events. The light source power supplies are found at the output (V) of the dimmers (29). These dimmers are actually a power control system. The power they provide makes it possible to supply any electrical system controlled in voltage and or in intensity. Applications are therefore not limited to light effects. The olfactory, electrical power and pyrotechnic events are generated by the digital conversion system (25). Ce système (25) permet évidement de gérer tout type d'événement binaire. Les images spatialisées sont récupérées à la sortie (66) du générateur d'images (65). Ce même système appliqué à l'unité 26 permet de spatialiser des événements sonores.  This system (25) obviously makes it possible to manage any type of binary event. The spatialized images are recovered at the output (66) of the image generator (65). This same system applied to unit 26 makes it possible to spatialize sound events. 2. Un système de gestion d'éclairage de mobilier ou d'architecture urbaine. 2. A lighting management system for furniture or urban architecture. 2. Spatialiseur d'événement en temps réel (C, Q). Ce système permet de gérer en temps réel toute spatialisation, ou répartition dans l'espace, de sources de puissance électrique. 2. Real time event spatializer (C, Q). This system makes it possible to manage in real time any spatialization, or distribution in space, of electric power sources. 3. Un système d'éducation à la musique, la composition musicale, l'analyse musicale et au rythme par la lumière. 3. A system of education in music, musical composition, musical analysis and rhythm by light. 3. Un synthétiseur de lumière, véritable instrument d'expression artistique structurée, intelligente, reproductible et interprétable. 3. A light synthesizer, a real instrument of structured, intelligent, reproducible and interpretable artistic expression. 4. Un système de gestion de la lumière dans les éclairages publicitaires. 4. A light management system in advertising lighting. 4. Un outil dynamique, une interface utilisateur, synchrone ou asynchrone de gestion de la lumière. 4. A dynamic tool, a user interface, synchronous or asynchronous for light management. 5. Un système de gestion de la lumière dans des zones de sécurité. 5. A light management system in security zones. 5. Un système de télétransmission de gestion dynamique d'événements en temps dit réel. <Desc/Clms Page number 14> 5. A teletransmission system for dynamic management of events in real time.  <Desc / Clms Page number 14>   Revendications dépendante Dans les revendications qui suivent, le terme lumière doit être lu dans son sens large donné ici dans l'ensemble des explications du brevet, c'est à dire d'événement électrique spatialisable. Nous avons choisi le terme lumière car il permet de comprendre intuitivement et correspond à une utilisation concrète de notre invention.  Dependent Claims In the claims which follow, the term light should be read in the broad sense given here in all of the explanations of the patent, that is to say of a spatializable electrical event. We chose the term light because it allows us to understand intuitively and corresponds to a concrete use of our invention. Les revendications suivantes constituent des exemples directs d'application du système : 1. Un système de gestion dynamique de l'éclairage.  The following claims constitute direct examples of application of the system: 1. A dynamic lighting management system. 6. Un système de relaxation psycho-acoustique. 6. A psycho-acoustic relaxation system. 7. Un système d'aide et d'apprentissage de la danse et de la psychomotricité. 7. A support and learning system for dance and psychomotricity.
BE9800511A 1998-07-06 1998-07-06 Light instrument: system for space-time use and management of electrical events synchronised in real time BE1012063A6 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BE9800511A BE1012063A6 (en) 1998-07-06 1998-07-06 Light instrument: system for space-time use and management of electrical events synchronised in real time

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BE9800511A BE1012063A6 (en) 1998-07-06 1998-07-06 Light instrument: system for space-time use and management of electrical events synchronised in real time

Publications (1)

Publication Number Publication Date
BE1012063A6 true BE1012063A6 (en) 2000-04-04

Family

ID=3891335

Family Applications (1)

Application Number Title Priority Date Filing Date
BE9800511A BE1012063A6 (en) 1998-07-06 1998-07-06 Light instrument: system for space-time use and management of electrical events synchronised in real time

Country Status (1)

Country Link
BE (1) BE1012063A6 (en)

Similar Documents

Publication Publication Date Title
US5557424A (en) Process for producing works of art on videocassette by computerized system of audiovisual correlation
CN1918626B (en) Mobiel communication terminal with light effects editor
US20160295668A1 (en) Reproduction device and reproduction method
BE1012063A6 (en) Light instrument: system for space-time use and management of electrical events synchronised in real time
Weinel Explosions in the Mind: Composing Psychedelic Sounds and Visualisations
JPH07199977A (en) Karaoke device
Bloomberg Making Musical Magic Live
Refsum Jensenius et al. Performing the electric violin in a sonic space
JP2006325161A (en) Video system
Payling Visual music composition with electronic sound and video
AU5651001A (en) Animation method and device with synchronised audio output
Hamby Dance and the dancer
Gamper et al. A performer-controlled live sound-processing system: New developments and implementations of the expanded instrument system
FR2873785A1 (en) Lighting device for e.g. concert, has power unit supplying matrix of lamps, controlling unit and interfacing unit that form complete scenic lighting device in protection frame
Fukuda Simulacra
ITTO950179A1 (en) ELECTRONIC DEVICE FOR THE STUDY AND PRACTICE OF A MUSICAL INSTRUMENT, IN PARTICULAR A DRUM
FR2639728A1 (en) EXPOSURE SYSTEM
Beane Generating audio-responsive video images in real-time for a live symphony performance
Upthegrove Auragami: Unfolding Stereo Audio for High-Density Loudspeaker Arrays
Freeman “Glimmer” for chamber orchestra and audience
Donnelly The Color Keyboard
Matthews Adapting and applying central Javanese gamelan music theory in electroacoustic composition and performance
Giannini Immersive spatialized live music composition with performers: a case study, Le vent qui hurle
Rogala et al. Nature is Leaving Us: A Video Theatre Work
JPH0773976A (en) Lighting control device

Legal Events

Date Code Title Description
RE Patent lapsed

Owner name: LANGE PHILIPPE

Effective date: 20000731