FR2982681A1 - Systeme de commande d'un generateur de signaux sensoriels avec retour graphique evolutif - Google Patents

Systeme de commande d'un generateur de signaux sensoriels avec retour graphique evolutif Download PDF

Info

Publication number
FR2982681A1
FR2982681A1 FR1103431A FR1103431A FR2982681A1 FR 2982681 A1 FR2982681 A1 FR 2982681A1 FR 1103431 A FR1103431 A FR 1103431A FR 1103431 A FR1103431 A FR 1103431A FR 2982681 A1 FR2982681 A1 FR 2982681A1
Authority
FR
France
Prior art keywords
space
users
animation
subspaces
controlling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1103431A
Other languages
English (en)
Inventor
David Delassus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BLOK EVENEMENT A
Original Assignee
BLOK EVENEMENT A
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BLOK EVENEMENT A filed Critical BLOK EVENEMENT A
Priority to FR1103431A priority Critical patent/FR2982681A1/fr
Publication of FR2982681A1 publication Critical patent/FR2982681A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/344Structural association with individual keys
    • G10H1/348Switches actuated by parts of the body other than fingers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/161User input interfaces for electrophonic musical instruments with 2D or x/y surface coordinates sensing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/341Floor sensors, e.g. platform or groundsheet with sensors to detect foot position, balance or pressure, steps, stepping rhythm, dancing movements or jumping
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/341Floor sensors, e.g. platform or groundsheet with sensors to detect foot position, balance or pressure, steps, stepping rhythm, dancing movements or jumping
    • G10H2220/346Hopscotch sensing mats, i.e. including several step sensing zones, e.g. for detection of rhythmic dancing in time to background music according to stepping indications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/4013D sensing, i.e. three-dimensional (x, y, z) position or movement sensing.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/405Beam sensing or control, i.e. input interfaces involving substantially immaterial beams, radiation, or fields of any nature, used, e.g. as a switch as in a light barrier, or as a control device, e.g. using the theremin electric field sensing principle
    • G10H2220/411Light beams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/405Beam sensing or control, i.e. input interfaces involving substantially immaterial beams, radiation, or fields of any nature, used, e.g. as a switch as in a light barrier, or as a control device, e.g. using the theremin electric field sensing principle
    • G10H2220/411Light beams
    • G10H2220/421Laser beams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

La présente invention concerne un système (200) de commande d'un générateur (202, 202a, 202b) de signaux sensoriels destinés à animer un espace (204) dans lequel des utilisateurs (206a, 206b, 206c) effectuent des mouvements , ce système (200) comprenant un détecteur (208a) de mouvements desdits utilisateurs (206a, 206b, 206c, 206d) relié à un contrôleur (210) commandant le générateur (202, 202a, 202b) de signaux sensoriels en fonction desdits mouvements détectés, notamment caractérisé en ce que le système (200) comprend également: - des moyens (208a, 208b, 210) pour établir une cartographie (204') de l'espace animé (204), - des moyens (208a, 208b, 210) pour localiser dans ladite cartographie (204') des sous-espaces (203'b, 203'c, 203'd) de commande et des moyens (210) pour commander la génération de signaux sensoriels associés à un sous-espace (203'b, 203'c, 203'd) de commande.

Description

Système de commande d'un générateur de signaux sensoriels avec retour graphique évolutif La présente invention concerne un système de commande d'un générateur de signaux sensoriels avec retour graphique évolutif.
I/ Art antérieur: En référence à la figure 1, on connaît un système 100 de commande d'un générateur 102 de sons relié physiquement à différentes surfaces tactiles 104 formées par des tapis présentant des détecteurs 106 de compression. Les détecteurs 106 permettent à chaque tapis 104 de détecter un déplace- ment d'un utilisateur 108 sur sa surface et d'émettre un signal de commande au générateur 102 de sons. Dès lors, un utilisateur peut générer une suite de sons en se déplaçant successivement sur différents tapis 104. Un tel système 100 présente de nombreux problèmes. Notamment les tapis 104 subissent une usure physique importante du fait de l'abrasion due aux déplacements des utilisateurs successifs sur leurs surfaces. Une telle usure est subie tant au niveau du revêtement qu'au niveau des détecteurs 106 qui finissent par être défaillants au terme d'un certain nombre de compressions. De plus, le transport et la mise en place du système est compliqué du fait de la taille et du poids des détecteurs. En outre un tel système 100 est destiné à des personnes connaissant les sons associés à chacun des différents tapis 104 pour pouvoir contrôler la nature de l'enchaînement des sons et générer ainsi une harmonie souhaitée.
Le système 100 présente également l'inconvénient de ne pas permettre un suivi/enregistrement des parcours de l'utilisateur 108 entre les différents tapis 104. Par ailleurs un tel système ne présente aucune flexibilité pour s'adapter à différentes applications, notamment requérant des formes de tapis distinctes et/ou spécifiques à un espace d'animation où le système est mis en oeuvre.
De surcroît un tel système impose un nombre de participants 108 très limité, notamment en fonction de la distribution fixe des tapis 104 dans l'espace d'animation. Par ailleurs, un tel système requiert une structure coûteuse et complexe, notamment en termes d'installation du câblage requis entre ces différents éléments. Finalement, un tel système peut difficilement être combiné avec la génération d'autres signaux sensoriels, notamment visuels, de telle sorte que l'ensemble des signaux sensoriels soit cohérent. Une telle difficulté limite l'intérêt d'un tel système pour animer un espace. III L'invention: L'invention vise à remédier à au moins un des problèmes mentionnés ci-dessus. Elle concerne un système de commande d'un générateur de si- gnaux sensoriels destinés à animer un espace dans lequel des utilisateurs effectuent des mouvements, ce système comprenant un détecteur (208a) de mouvements desdits utilisateurs relié à un contrôleur commandant le générateur de signaux sensoriels en fonction desdits mouvements détectés, caractérisé en ce que le système comprend également: - des moyens pour établir une cartographie de l'espace animé, - des moyens pour localiser dans ladite cartographie: i) des sous-espaces de commande tels que chaque sous-espace est associé à des signaux sensoriels, ii) les mouvements détectés des utilisateurs dans l'espace animé par le détecteur, et - des moyens pour commander la génération de signaux sensoriels associés à un sous-espace de commande lorsque la localisation d'un mouvement détecté correspond à la localisation de ce sous-espace de commande.
Un tel système comprend de nombreux avantages. Notamment il permet de générer des commandes virtuelles, c'est-à-dire des commandes simulées par des images projetées, qui ne subissent aucune usure physique étant donné l'absence de contact réel entre les commandes virtuelles et les utilisateurs du système. De ce fait le fonctionnement des commandes virtuelles est assuré sur une période de vie particulièrement importante, significativement plus élevée que la période de vie de commandes requérant un contact physique avec l'utilisateur. En outre l'invention permet d'échanger et/ou d'intégrer différents signaux multimédia relatifs à des données vidéo, issues ou destinées à un dispositif électronique et/ou le réseau Internet, par exemple au moyen de courriels électroniques. De plus, un tel système permet à des utilisateurs néophytes, ou non avertis, de participer à une animation où différents signaux sont mélangés, notamment relatifs à des sons et/ou des images, de façon cohérente. De fait un opérateur peut contrôler la nature des commandes virtuelles accessibles aux utilisateurs, et des effets que ces commandes génèrent, de façon à s'assurer que les commandes requises par des utilisateurs produisent des effets satisfaisants avec l'animation en cours. Un système conforme à l'invention présente également l'avantage de permettre un suivi et un enregistrement des utilisateurs, ou du moins de leurs actions sur les différentes commandes virtuelles. Par ailleurs un système conforme à l'invention présente une forte flexibilité pour générer différentes animations en s'adaptant notamment à des représentations différentes de commandes virtuelles, par exemple d'apparences distinctes et/ou spécifiques à un espace d'animation où le système est mis en oeuvre. De fait un opérateur du système peut aisément programmer/modifier la génération des commandes virtuelles générées, par exemple en fonction de l'espace d'animation disponible. De plus un système conforme à l'invention peut présenter une interface d'utilisation aisément et simplement mise à jour, par exemple via le réseau Internet.
Finalement un tel système permet un nombre d'utilisateurs élevé, notamment en effectuant une réplication d'une matrice de base décrite ultérieurement dans la description de l'invention. Dans une réalisation, le système est caractérisé en ce qu'il comprend des moyens pour reproduire, dans l'espace d'animation, des commandes vir- tuelles des signaux sensoriels associés telles que la reproduction de ces commandes virtuelles dans l'espace d'animation délimite les sous-espaces de commande dans l'espace d'animation. Selon une réalisation, le système est caractérisé en ce qu'il comprend des moyens pour créer, effacer ou modifier les signaux sensoriels associés à un sous-espace de commande. Dans une réalisation, le système est caractérisé en ce que le détecteur comprend au moins un des dispositifs de détection suivants: un laser, une caméra filmant l'espace d'animation, une surface tactile, un émetteur de si- gnaux radio porté par chaque utilisateur. Selon une réalisation comprenant un laser, le système est caractérisé en ce qu'il comprend des moyens pour que ce laser effectue un balayage de l'espace d'animation au niveau des membres inférieurs des utilisateurs. Dans une réalisation, le système est caractérisé en ce que le détecteur comprend des moyens pour déterminer l'évolution de la position des utilisa- teurs dans l'espace d'animation et des moyens pour commander les signaux sensoriels à partir de la position des utilisateurs dans l'espace d'animation. Selon une réalisation, le système est caractérisé en ce qu'il comprend des moyens pour déterminer une rapidité et/ou une accélération d'un mouve- ment dans l'espace d'animation et commander un signal sensoriel en fonc- tion de la rapidité et/ou de l'accélération déterminée. Dans une réalisation, le système est caractérisé en ce qu'il comprend des moyens pour effectuer une localisation dans la cartographie de l'espace d'animation à 2 (X, Y) ou 3 (X, Y, Z) dimensions.
L'invention concerne également un procédé de commande d'un générateur de signaux sensoriels destinés à animer un espace dans lequel des utilisateurs effectuent des mouvements, ce procédé mettant en oeuvre un système comprenant un détecteur de mouvements desdits utilisateurs relié à un con- trôleur commandant le générateur de signaux sensoriels en fonction desdits mouvements détectés, caractérisé en ce que le système mis en oeuvre est conforme à l'une des réalisations précédentes.
D'autres avantages de l'invention apparaîtront à la lecture de la description d'une réalisation effectuée ci-dessous à titre descriptif et non limitatif en référence aux figures ci-jointes sur lesquelles : - la figure 1, déjà décrite, représente un système de commande de signaux sensoriels conforme à l'art antérieur, - la figure 2 représente un système de commande de signaux sensoriels conforme à une réalisation de l'invention, - la figure 3 représente un écran d'un dispositif de contrôle du système décrit à la figure 2, - la figure 4 représente un organigramme représentant les transmissions d'informations et de commandes dans le système représenté décrit à la fi- gure 2, - la figure 5 est un écran d'un dispositif de détection du système représenté à la figure 2, et - la figure 6 représente un codage visuel des informations fournies par un détecteur du système de la figure 2. En référence à la figure 2 est représenté un système 200 de commande d'un générateur 202 de signaux sensoriels destinés à animer un espace 204 en fonction notamment de mouvements effectués par des utilisateurs 206a, 206b, 206c et 206d. Plus précisément le générateur 202 comprend des projecteurs 202a, générant des images 203a, 203b, 203c et 203d projetées dans l'espace 204, et des haut-parleurs 202b générant des sons de façon à simuler un échantillonneur musical du type AKAÎTM MPC 2000 commandé par ces mouve- ments. A cet effet: - l'image 203a reproduit graphiquement, à l'échelle de l'espace 204, un écran de contrôle d'un tel échantillonneur AKAÏ TM MPC 2000 indiquant no- tamment le nom et la taille d'un dossier musical en cours de traitement ainsi que la nature de ce traitement. - l'image 203b reproduit graphiquement, à l'échelle de l'espace 204, un potentiomètre coulissant analogue à celui de l'échantillonneur AKAÏ TM MPC 2000. Un tel potentiomètre commande un effet de modulation sonore (filtre, réverbération, écho). En fonction de son niveau de coulissement, le potentiomètre module plus ou moins un son et/ou une séquence vidéo reproduite dans l'espace d'animation. - l'image 203c reproduit graphiquement, à l'échelle de l'espace 204, une plu- ralité de boutons (« pads » en anglais) tels que chaque bouton est associé à un échantillon sonore et visuel distinct (« sample » en anglais). De tels boutons sont reproduits de façon analogue aux boutons de l'échantillonneur AKAÏ TM MPC 2000. Le système 200 peut modifier simplement et rapidement la représentation graphique formée par ces images. De fait il est simple de commander de nouvelles images 203a, 203b et 203c pour qu'elles représentent des commandes propres à un autre échantillonneur, tel que l'échantillonneur AKAVM MPC 5000 qui, par exemple, présente un écran vidéo affichant des formes d'ondes musicales.
Il convient également de noter qu'une image peut être projetée sur une sur- face distincte du sol de l'espace 204 d'animation, par exemple une surface verticale comme l'écran d'un mur situé dans/à la limite de l'espace d'animation, une surface horizontale située en hauteur vis-à-vis du sol ou une surface oblique.
Une telle surface de projection peut être à deux ou trois dimensions. A titre d'exemple, une image 203d est formée sur différentes surfaces d'un tabouret cylindrique, cette image 203d étant composée de différentes textures présentant différentes apparences (lumière, couleur, intensité) variant avec le temps.
Grâce aux dimensions importantes de l'espace 204, cet échantillonneur vir- tuel peut être utilisé par de nombreux utilisateurs 206a, 206b, 206c et 206d afin de générer, de façon collective et/ou participative, de la musique et de la vidéo.
De fait, de seconds signaux sensoriels générés par le système 200, comprenant des sons et des vidéos, sont générés en fonction des mouvements de ces utilisateurs 206a, 206b et 206c dans l'espace 204. A cet effet le système 200 comprend un détecteur de mouvements des utili- sateurs 206a, 206b, 206c et 206d de telle sorte que les seconds signaux sensoriels sont générés si la localisation d'un utilisateur correspond à la localisation d'une image 206a, 206b, 206c et 206d. En d'autres termes, ces images forment des commandes virtuelles des seconds signaux sensoriels comme décrit ci-dessous.
I/ Localisation des utilisateurs : Pour effectuer la localisation des utilisateurs dans l'espace 204, le système 200 utilise un laser 208a étant entendu que, dans d'autres variantes, un plusieurs autre(s) laser(s) 208b peuvent être utilisés en complément du laser 208a dont le fonctionnement est décrit ci-dessous. Le laser 208a génère un faisceau qui balaye l'espace 204 avec une fréquence de l'ordre de 60Hz (60 balayages de l'espace 204 par seconde) sur un angle A (figure 5) de 90° avec un pas p constant de 0,1°. Ainsi le champ balayé par le laser 208a est découpé en 900 bandes angulaires mais il est clair que l'invention peut être mise en oeuvre avec un angle A de balayage allant jusqu'à 360°, notamment supérieur ou égal à 270°, et des fréquences et/ou des pas distincts, typiquement compris entre 0.1 et 1°. L'utilisation d'un laser présente l'avantage de pouvoir balayer de nombreuses surfaces, planes ou courbes, verticales, obliques ou horizontales, tant dans un espace intérieur qu'extérieur, de jour comme de nuit. Les faisceaux lasers balayent l'espace 204 au niveau des pieds/jambes des utilisateurs 206a, 206b, 206c, typiquement à une hauteur comprise entre 5 et 15 cm du sol. Toutefois, la hauteur dépend du type de laser utilisé étant entendu qu'il est intéressant de rechercher un équilibre entre la proximité du faisceau avec le sol, qui délivre des détections plus précises de la position des pieds, avec l'éloignement du faisceau vis-à-vis du sol, qui permet de limiter les détections parasitaires.
Ainsi le système 200 peut être mis en oeuvre dans un espace 204 présentant un certain relief et/ou des obstacles situés sur le sol de l'espace 204. Pour un angle a donné compris entre 0 et A, c'est-à-dire entre 0 et 90° dans cet exemple, le laser 208a peut déterminer une distance r à laquelle est dé- tecté un utilisateur. La position d'un utilisateur est alors connue en coordon- nées polaires (r, a) et elle est représentée sur un écran d'un dispositif de type « radar » (figure 5). A partir de ces coordonnées polaires est formée une matrice à deux entrées correspondant chacune, pour une bande donnée, soit aux valeurs de dis- tance r et d'angle a d'une éventuelle détection soit, le cas échéant, à des valeurs par défaut. A partir d'une telle matrice, un codage visuel des détections est formé un code barre 600 (figure 6) où différentes sections verticales successives correspondent chacune à une bande angulaire.
De plus la distance de détection éventuelle d'un utilisateur est codée par le niveau de gris avec lequel est représentée la barre correspondant à la bande angulaire dans laquelle est effectuée cette détection. Dans cet exemple, le niveau de gris est d'autant plus foncé que la détection est effectuée à proximité du laser.
Un tel codage visuel 600 présente l'intérêt de permettre un traitement par reconnaissance du type code barre, notamment pour filtrer les signaux reçus en fonction de la topographie de l'espace d'animation. Ainsi le signal est filtré pour éliminer les valeurs de détection correspondant à des angles et des distances situées en dehors de la surface d'animation.
Le signal est également filtré à l'aide d'un seuil relatif à une distance mini- male entre deux détections en dessous de laquelle il est considéré que deux, ou plus, détections correspondent à un même utilisateur qui est dès lors « détecté » sur l'écran radar. Dans ce cas, les détections correspondant à un même utilisateur sont asso- ciés dans un groupe de valeurs pour lequel une valeur moyenne, également dénommée centroïd, est calculée. Lors de ce traitement, l'invention met en oeuvre une étape de transformation des coordonnées polaires (r, a) de détection en coordonnées cartésiennes.
Les données obtenues par le détecteur 208a sont ainsi transmises à un contrôleur 210 qui détermine, d'une part, une cartographie (X,Y) de l'espace 204 en fonction du temps et, d'autre part, une localisation des pieds/jambes des utilisateurs dans ladite cartographie, ce qui permet d'obtenir également une vitesse, voire une accélération, des utilisateurs dans l'espace 204. Plus généralement le groupe de détections associées à un même individu est identifié comme un ensemble présentant des caractéristiques physiques telles que son rayon (ou épaisseur), sa vitesse ou le sens de déplacement propre à une extrémité d'un corps humain.
Les commandes mises en oeuvre par les commandes générées par les mouvements/déplacements d'un utilisateur puissent prendre en compte un ou plusieurs de ces paramètres. Par exemple, un son peut être généré plus ou moins rapidement en fonction d'un déplacement plus ou moins rapide d'un utilisateur dans l'image contrôlant ce son.
Cette cartographie (X, Y) est représentée sur un écran 300 (figure 3) de con- trôle accessible à un opérateur 211 qui détermine également la localisation de sous-espaces de commande comme décrit ci-dessous. II/ Localisation de sous-espace de commande et génération d'images: Le système 200 met en oeuvre un procédé de génération d'images projetées dans l'espace 204 d'animation, ces images servant d'interfaces virtuelles de sous-espaces de commande gérées par l'opérateur 211 via le contrôleur 210. Plus précisément l'opérateur 211 dispose d'une palette 220 d'outils gra- phique 222 lui permettant de créer, d'effacer ou de modifier rapidement une forme 203'a, 203'b, 203'c ou 203'd dans la cartographie 204' de l'espace d'animation affichée sur son écran de contrôle 300. Dans cet exemple l'utilisateur dispose d'une bibliothèque de formes (bouton carré, bouton rond, potentiomètre, fenêtre vidéo) pouvant être reproduites dans la cartographie de l'espace d'animation par un simple copié/collé de- puis la palette 220. A partir de la représentation dans l'interface 300 de ces formes 203'a, 203'b, 203'c et 203'd, le contrôleur 210 génère des signaux vidéo destinés aux pro- jecteurs 202a afin de reproduire, à l'échelle de l'espace 204, les images 203a, 203b, 203c et 203d correspondantes. Pour cela, un polygone peut être codé par ses sommets (vertices), les signaux visuels transmis aux vidéoprojecteurs étant générés en conséquence.
Par ailleurs, l'opérateur 211 dispose d'une palette 234 d'effets sonores et/ou visuels pouvant être associés à une de ces formes 203'a, 203'b, 203'c et 203'd de la cartographie 204'. A titre d'exemple, ces effets peuvent être des effets sonores (écho, filtre, répétition, boucle.) et/ou des effets visuels (flou, couleur, rendu 3D...).
Egalement, à partir de la même palette 234 ou d'une palette distincte non représentée), l'opérateur 211 peut associer des fonctions de système à une forme. Par exemple : - Une fonction "rec" pour commander l'enregistrement de l'animation, - un fonction "access" pour accéder à des fichiers audio / vidéo de l'ordina- teur. D'un point de vue informatique, la représentation des formes, de la cartographie et des palettes peut être prise en charge par des logiciels de représentation tels que PhotoshopTM, 3dsMaxTM ou PaintTM. En résumé, grâce à l'interface 300, l'opérateur 211 peut localiser dans la topographie de l'espace d'animation des formes auxquels il peut associer un (ou plusieurs) effet(s) sonore(s)/visuel, le système 200 considérant alors ces formes comme des sous-espaces de commande 203'a, 203'b, 203'c et 203'd dont l'activation est décrite ci-dessous.
Ill/ Utilisation des sous-espaces de commande: A partir des localisations des utilisateurs et des sous-espaces de commande dans l'interface 300, c'est-à-dire dans la cartographie du système 200, ce dernier génère automatiquement un effet(s) sonore(s)/visuel lorsqu'un utilisateur est détecté, dans la cartographie, au niveau du sous-espace de commande associé à cet effet sonore/visuel. De fait, à partir des localisations des détections d'utilisateurs et des sous-espaces de commande, le contrôleur 210 peut automatiquement détecter la 2 9826 81 11 concordance, également dénommée collision, entre la position d'un utilisateur et la position d'un sous-espace de contrôle. En cas de collision, le système génère alors un signal sensoriel propre au sous-espace de commande collisionné, c'est-à-dire activé. Par exemple, ce 5 signal sensoriel peut être une piste audio formée par un mixage, ou mé- lange, de différences échantillons de sonores et/ou par des données vidéo issues d'un jeu vidéo. En référence à la figure 2, l'utilisateur 206c est ainsi localisé au niveau d'un sous-espace 203'c de commande de telle sorte que les effets sonores et/ou 10 visuels associés à ces sous-espace de commande sont activés. Dans une autre variante, le système corrobore les données de localisation avec d'autres données de détection, par exemple sous la forme d'un capteur situé dans le tabouret 206d détectant la position assise d'un utilisateur sur ce tabouret. Dans ce cas, le signal sonore associé est activé lorsque les 15 deux détections (position assise et localisation) sont concordantes. Grâce à l'invention, l'opérateur 211 contrôle les commandes virtuelles mises à la disposition des utilisateurs 206a, 206b, 206c et 206d qui réalisent une fonction de "remixeurs audio-visuels", ou "remixeurs sonores et visuels". De fait ces utilisateurs créent une oeuvre sonore et visuelle, en directe, à partir 20 des échantillons visuels et/ou sonores commandés. Afin de rendre les échantillons sonores/visuels harmonieux entre eux, ces échantillons sont issus d'un registre de signaux prédéterminés, par exemple par l'opérateur 211 qui peut être dénommé « chef d'orchestre ». Il peut être intéressant de dissocier la représentation graphique de l'interface 25 de contrôle et le fait que l'interface de jeu soit liée à une base de données visuelle qui elle-même possède son propre mode de diffusion. Par exemple le jeu vidéo peut être déporté dans cette base de données visuelle vers un écran de cinéma ou sur un mur d'écran plat. Afin de mettre en oeuvre son animation propre, l'opérateur utilise alors une 30 mémoire portable 209 pouvant être insérée dans le contrôleur 210 et com- prenant, par exemples, des échantillons sonores et/ou visuels prédéterminés.
Dans l'utilisation du procédé, une séquence de mise en oeuvre du système telle que la séquence suivante peut être mise en place: - Etape 1 : Aucun utilisateur n'est détecté et l'échantillonneur virtuel est en veille. Une animation d'attente se met en oeuvre, par exemple sous la forme d'une sé- quence vidéo 203a qui a pour but d'inviter l'utilisateur à entrer dans l'espace 204. - Etape 2 : Un utilisateur rentre dans l'espace d'animation 204. Cet utilisateur est détec- té par le contrôleur 210 et le système sort de son état de veille. Un menu apparaît donnant la possibilité à l'utilisateur de choisir le type d'animation à pratiquer. Une fois une animation choisie, une ou plusieurs images 203a, 203b, 203c et 203d apparaissent dans l'espace 204 de manière progressive et dynamique. - Etape 3 : L'utilisateur détecté se déplace dans l'espace d'animation 204 et ses déplacements sont suivis par le contrôleur 210 dans la cartographie de l'espace d'animation. Lorsque sa localisation dans la cartographie correspond à la localisation d'un sous-espace de commande, l'image correspondant à la commande virtuelle est générée et l'effet sonore et visuel associé à cette commande est mis en oeuvre. - Etape 4 : L'utilisateur détecté continue ses déplacements dans l'espace 204 d'animation et, lorsque sa localisation dans la cartographie correspond à la localisation d'un nouveau sous-espace de commande, un nouvel effet so- nore s'ajoute aux effets déjà générés tandis que la vidéo 203a projetée est modifiée. Ainsi, les commandes virtuelles apparaissent et évoluent au fur et à mesure des déplacements de ce premier utilisateur.
Afin de faciliter leur identification par un utilisateur, les sous-espaces de commande de ces sons peuvent correspondre à différentes formes, par exemple des carrés pour représenter des commandes virtuelles de sons d'instruments de musique et de vidéo associées et des ronds pour représen- ter des commandes virtuelles de sons humains comme des chants avec leur vidéos associées. - Etape 5 : Un deuxième utilisateur se présente dans l'espace d'animation 204 et il dé- clenche des images et des effets sonores de façon similaire et combiné au premier utilisateur, notamment en mettant en oeuvre des filtres des images et/ou des sons générés par le premier utilisateur. Par la suite, le nombre d'utilisateurs peut s'accroître selon le fonctionnement décrit dans l'étape 5. A titre d'ordre de grandeur, un système conforme à l'invention peut recevoir un nombre d'utilisateurs typiquement compris entre 1 et 500 sur un espace présentant des dimensions, pour une forme carrée servant de matrice de base, de l'ordre de 2 à 50 m de longueur. De fait, l'espace 204 décrit à la figure 2 forme une matrice de base qui peut être reproduite et combinée à d'autres matrices de bases similaires, mises sous le contrôle d'un même opérateur, de façon à agrandir l'espace animé. En référence à la figure 4, un organigramme des transmissions de données et/ou de commandes entre le détecteur 208a/208b, le contrôleur 210 et le générateur 202 est représenté. Plus précisément, cet organigramme illustre la transmission de données du détecteur 208a vers le contrôleur 210 qui génère alors une cartographie de l'espace d'animation dans laquelle il situe: - d'une part, les sous-espaces de commande correspondant à des commandes virtuelles générées par le générateur 202 via ses projecteurs 202a et 202b, et - d'autre part, les utilisateurs 206a, 206b, 206c et 206d vis-à-vis desquels sont générés des effets visuels et/ou sonores en fonction de leurs interactions avec les commandes virtuelles 203a, 203b, 203c et 203d. La présente invention est susceptible de nombreuses variantes. Notamment une image projetée peut reproduire une commande virtuelle d'un bouton d'enregistrement « REC » tel que, lorsqu'un utilisateur est localisé au niveau du sous-espace de commande correspondant à ce bouton « REC », un enregistrement de l'animation généré est déclenché et/ou transmis en flux direct sur le réseau Internet via un portail dédié.
De même une image projetée peut reproduire une commande déclenchant un décompte, sonore ou visuel, préalable à un effet sonore et/ou visuel particulier. De façon analogue, une image projetée peut reproduire une commande permettant d'exporter les images et/ou les sons générés via un courriel dont l'adresse peut être saisie à l'aide d'un clavier virtuel également généré par des images projetées. - On peut aussi, sur ce principe, intégrer dans le système une caméra qui filme l'utilisateur équipé d'un micro-casque. Ensuite, grâce à cette interface d'enregistrement, l'utilisateur peut mémoriser ses positions corporelles ainsi que des oeuvre vocales, les attribuer à des commandes virtuelles, puis rejouer avec cette matière sonore et visuelle créée en temps réel dans l'espace. - On peut envisager que les utilisateurs utilisent le système de commande pour agir sur le contenu sonore joué par un orchestre en direct situé en un endroit distant. Par ailleurs, la vidéo 203a peut reproduire un écran de contrôle d'un échantillonneur et fournir des indications aux utilisateurs 206a, 206b, 206c et 206d. Par exemple, il peut indiquer les effets sonores et/ou visuels associés à une commande virtuelle sous la forme : " Pad 1 : Vocal - Let's dance" "Pad 2 : Percussion" "Pad 3 : Guitare" "Pad 4 : Effet écho » Il convient de noter que l'utilisation de faisceaux laser pour déterminer la position des utilisateurs 206a, 206b, 206c et 206d n'est pas un impératif pour la mise en oeuvre de l'invention. De fait, différents procédés, par exemple basé sur des dispositifs portables transportés par les utilisateurs 206a, 206b, 206c et 206d permettent de déterminer leur localisation.
A titre d'exemples, de tels dispositifs portables peuvent être formés par des étiquettes RFID, des clefs USB munies de connexions Bluetooth, des cartes sans contact et, plus généralement, tout dispositif et combinaison de dispo- sitifs émetteurs de signaux dont la réception permet de déterminer la localisation de son possesseur. Toutefois, l'utilisation de faisceaux laser permet de déterminer la position d'un utilisateur avec une précision de l'ordre du cm, ce qui est un avantage pour délimiter la concordance de localisations et les propriétés physiques des déplacements d'un utilisateur avec une commande virtuelle dans l'espace 204. Par ailleurs, il convient de noter qu'un système conforme à l'invention permet de générer un nombre pratiquement illimité de systèmes de com- mandes. Notamment il est possible de projeter des images formant un an- neau présentant des sections successives, chaque section correspondant à des commandes virtuelles de telle sorte qu'un danseur puisse générer une série d'effets visuels et/ou sonores en étant situé au centre de cet anneau. Il est également possible de reproduire un jeu vidéo de telle sorte que les utilisateurs génèrent des effets visuels et/ou sonores en participant au jeu vidéo. De fait, d'une façon générale, des séquences vidéo peuvent être attribuées aux commandes virtuelles de la même manière que les échantillons sonores, ces séquences vidéo étant projetés sur un écran vidéo à 2 ou 3 di- mensions, par exemple sous la forme d'hologrammes. Dans une variante, un système conforme à l'invention utilise la vitesse et/ou l'accélération des mouvements détectés pour commander les effets sonores et/ou visuels. Par exemple, une action plus ou moins rapide sur un bouton virtuel associé à un filtre peut provoquer un filtre plus ou moins puissant.
Dans une variante, les signaux sensoriels commandés comprennent des signaux olfactifs et/ou des signaux tactiles, notamment en considérant que les utilisateurs peuvent être équipés de vêtements ou combinaisons permettant de reproduire des pressions sur leur peau. Selon une variante, le système comprend des moyens pour générer des images 203a, 203b et/ou 203c en trois dimensions, par exemple au moyen d'effets optiques types hologrammes, requérant ou pas des lunettes dédiées.
Dans une variante le système comprend des moyens pour accéder à un réseau de télécommunication, par exemple de téléphonie mobile ou de données IP tel que le réseau Internet. Ainsi, le système peut échanger des informations, typiquement des mises à jours permettant de reproduire de nou- velles commandes virtuelles dans l'espace d'animation. La présente invention est susceptible de nombreuses variantes. Par exemple le système de commande d'un générateur de signaux sensoriels est utilisé pour suivre les déplacements d'utilisateurs dans une exposition, temporelle ou permanente telle qu'un musée. Dans ce cas, le système joue un rôle d'outil d'information. Il permet aux utilisateurs de découvrir l'exposi- tion de manière virtuelle en agissant sur les commandes virtuelles qui pilotent le contenu audio-visuel de l'exposition ou bien d'imprimer des informations collectées (fiches descriptives, tickets). Dans une application, le système vise à reproduire un jeu pour enfants tel que la marelle. Les enfants peuvent jouer seuls, à plusieurs ou à tour de rôle. Ils choisissent le niveau de difficulté, le thème et le type de jeu divertissant ou éducatif. Dans une autre variante, le système est un outil de soin spécialisé pour la rééducation d'handicapés. Un parcours de santé est à réaliser en un temps défini en passant par différents étapes liées à des commandes virtuelles. Une fois l'exercice terminé, les données de chaque patient (temps de parcours et/ou précision) sont collectées, sauvegardées et analysées. Dans une variante, des bornes sont situées à des extrémités de l'espace d'animation afin que les limites de cet espace d'animation soient détermi- nées par le générateur en détectant lesdites bornes.30

Claims (9)

  1. REVENDICATIONS1. Système (200) de commande d'un générateur (202, 202a, 202b) de si- gnaux sensoriels destinés à animer un espace (204) dans lequel des utili- sateurs (206a, 206b, 206c) effectuent des mouvements, ce système (200) comprenant un détecteur (208a) de mouvements desdits utilisateurs (206a, 206b, 206c, 206d) relié à un contrôleur (210) commandant le générateur (202, 202a, 202b) de signaux sensoriels en fonction desdits mouvements détectés, caractérisé en ce que le système (200) comprend également: - des moyens (208a, 208b, 210) pour établir une cartographie (204') de l'espace animé (204), - des moyens (208a, 208b, 210) pour localiser dans ladite cartographie (204'): i) des sous-espaces (203'b, 203'c, 203'd) de commande tels que chaque sous-espace (203'b, 203'c, 203'd) est associé à des signaux sensoriels, ii) les mouvements (206'a, 206'b, 206'c, 206'd) détectés des utilisateurs (206a, 206b, 206c, 206d) dans l'espace animé (204) par le détecteur (208a), et - des moyens (210) pour commander la génération de signaux sensoriels associés à un sous-espace (203'b, 203'c, 203'd) de commande lorsque la localisation d'un mouvement détecté correspond à la localisation de ce sous-espace (203'b, 203'c) de commande.
  2. 2. Système (200) selon la revendication 1 caractérisé en ce qu'il com- prend des moyens pour reproduire, dans l'espace (204) d'animation, des commandes virtuelles des signaux sensoriels associés telles que la reproduction de ces commandes virtuelles dans l'espace d'animation (204) délimite les sous-espaces de commande (203'b, 203'c, 203'd) dans l'espace d'animation.
  3. 3. Système (200) selon la revendication 1 ou 2 caractérisé en ce qu'il comprend des moyens pour créer, effacer ou modifier les signaux sensoriels associés à un sous-espace de commande.
  4. 4. Système (200) selon l'une des revendications précédentes caractérisé en ce que le détecteur (208a) comprend au moins un des dispositifs de détection suivants: un laser, une caméra filmant l'espace d'animation, une surface tactile, un émetteur de signaux radio porté par chaque utilisateur.
  5. 5. Système (200) selon la revendication 4 comprenant un laser (208a) caractérisé en ce qu'il comprend des moyens pour que ce laser (208a) effectue un balayage de l'espace d'animation (204) au niveau des membres inférieurs des utilisateurs (206a, 206b, 206c, 206d).
  6. 6. Système (200) selon l'une des revendications précédentes caractéri- sé en ce que le détecteur (208a) comprend des moyens pour déterminer l'évolution de la position des utilisateurs (206a, 206b, 206c) dans l'espace d'animation et des moyens pour commander les signaux sensoriels à partir de la position des utilisateurs (206a, 206b, 206c, 206d) dans l'espace d'animation (204).
  7. 7. Système (200) selon la revendication 6 caractérisé en ce qu'il com- prend des moyens pour déterminer une rapidité et/ou une accélération d'un mouvement dans l'espace d'animation (204) et commander un signal sensoriel en fonction de la rapidité et/ou de l'accélération déterminée(s).
  8. 8. Système (200) selon l'une des revendications précédentes caractéri- sé en ce qu'il comprend des moyens pour effectuer une localisation dans la cartographie de l'espace d'animation à 2 (X, Y) ou 3 (X, Y, Z) dimensions.
  9. 9. Procédé de commande d'un générateur (202, 202a, 202b) de signaux sensoriels destinés à animer un espace (204) dans lequel des utilisateurs (206a, 206b, 206c, 206d) effectuent des mouvements, ce procédé met- tant en oeuvre un système (200) comprenant un détecteur (208a) de mouvements desdits utilisateurs (206a, 206b, 206c, 206d) relié à un contrôleur (210) commandant le générateur (202, 202a, 202b) de signaux sensoriels en fonction desdits mouvements détectés, caractérisé en ce que le système (200) mis en oeuvre est conforme à l'une des revendica- tions précédentes.
FR1103431A 2011-11-10 2011-11-10 Systeme de commande d'un generateur de signaux sensoriels avec retour graphique evolutif Withdrawn FR2982681A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1103431A FR2982681A1 (fr) 2011-11-10 2011-11-10 Systeme de commande d'un generateur de signaux sensoriels avec retour graphique evolutif

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1103431A FR2982681A1 (fr) 2011-11-10 2011-11-10 Systeme de commande d'un generateur de signaux sensoriels avec retour graphique evolutif

Publications (1)

Publication Number Publication Date
FR2982681A1 true FR2982681A1 (fr) 2013-05-17

Family

ID=45592455

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1103431A Withdrawn FR2982681A1 (fr) 2011-11-10 2011-11-10 Systeme de commande d'un generateur de signaux sensoriels avec retour graphique evolutif

Country Status (1)

Country Link
FR (1) FR2982681A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3063364A1 (fr) * 2017-02-28 2018-08-31 Mathieu DUFOURCQ Salle de sport de type "fitness"
EP3396494A1 (fr) * 2017-04-24 2018-10-31 Kinpo Electronics, Inc. Dispositif électronique et procédé d'exécution de fonctions interactives

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2502823A1 (fr) * 1981-03-27 1982-10-01 Szajner Bernard Controle de synthetiseur musical par laser
WO1985004065A1 (fr) * 1984-03-06 1985-09-12 Simon John Veitch Systeme visuel
FR2590033A1 (fr) * 1985-11-13 1987-05-15 Guerre Philippe Dispositif de detection en trois dimensions d'objet par lumiere laser particulierement destine au spectacle
DE3643018A1 (de) * 1986-12-12 1988-06-23 Mario Prof Bertoncini Einrichtung zum umsetzen von koerperlichen aktionen in akustische und optische signale
FR2680113A3 (en) * 1991-08-07 1993-02-12 Denis Brely Musical hopscotch
EP0654779A2 (fr) * 1993-11-24 1995-05-24 Paolo Podesta Système multimédia pour la commande et la génération de musique et d'animation en temps réel
WO2002093344A1 (fr) * 2001-05-14 2002-11-21 Koninklijke Philips Electronics N.V. Procede destine a interagir avec des flux de contenu en temps reel
US20100188340A1 (en) * 2009-01-27 2010-07-29 Disney Enterprises, Inc. Touch detection system and method for use by a display panel
WO2010096163A1 (fr) * 2009-02-19 2010-08-26 Beamz Interactive, Inc. Dispositif de commande de jeu vidéo

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2502823A1 (fr) * 1981-03-27 1982-10-01 Szajner Bernard Controle de synthetiseur musical par laser
WO1985004065A1 (fr) * 1984-03-06 1985-09-12 Simon John Veitch Systeme visuel
FR2590033A1 (fr) * 1985-11-13 1987-05-15 Guerre Philippe Dispositif de detection en trois dimensions d'objet par lumiere laser particulierement destine au spectacle
DE3643018A1 (de) * 1986-12-12 1988-06-23 Mario Prof Bertoncini Einrichtung zum umsetzen von koerperlichen aktionen in akustische und optische signale
FR2680113A3 (en) * 1991-08-07 1993-02-12 Denis Brely Musical hopscotch
EP0654779A2 (fr) * 1993-11-24 1995-05-24 Paolo Podesta Système multimédia pour la commande et la génération de musique et d'animation en temps réel
WO2002093344A1 (fr) * 2001-05-14 2002-11-21 Koninklijke Philips Electronics N.V. Procede destine a interagir avec des flux de contenu en temps reel
US20100188340A1 (en) * 2009-01-27 2010-07-29 Disney Enterprises, Inc. Touch detection system and method for use by a display panel
WO2010096163A1 (fr) * 2009-02-19 2010-08-26 Beamz Interactive, Inc. Dispositif de commande de jeu vidéo

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3063364A1 (fr) * 2017-02-28 2018-08-31 Mathieu DUFOURCQ Salle de sport de type "fitness"
WO2018158525A1 (fr) * 2017-02-28 2018-09-07 Mathieu Dufourcq Dispositif de gestion de l'effort pour salle de sport
US11305175B2 (en) 2017-02-28 2022-04-19 Mathieu DUFOURCQ Device for managing effort for a gym hall
EP3396494A1 (fr) * 2017-04-24 2018-10-31 Kinpo Electronics, Inc. Dispositif électronique et procédé d'exécution de fonctions interactives

Similar Documents

Publication Publication Date Title
CA2942652C (fr) Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d'utilisateurs et procede associe
US20180349700A1 (en) Augmented reality smartglasses for use at cultural sites
TWI486904B (zh) 律動影像化方法、系統以及電腦可讀取記錄媒體
CN110673716B (zh) 智能终端与用户交互的方法、装置、设备及存储介质
CN109416585A (zh) 虚拟、增强及混合现实
CN110462616A (zh) 生成拼接数据流
Sexton et al. Automatic CNN-based enhancement of 360° video experience with multisensorial effects
Nai et al. Vibrotactile feedback rendering of patterned textures using a waveform segment table method
FR2982681A1 (fr) Systeme de commande d'un generateur de signaux sensoriels avec retour graphique evolutif
FR3061797A1 (fr) Emulation d'au moins un son d'instrument de percussion du type batterie
CN116778058B (zh) 一种智能展厅的智能交互系统
Roche et al. Pro iOS 5 augmented reality
CA3028749A1 (fr) Systeme, mecanisme et appareil de sante, de bien-etre et de conditionnement physique fondes sur la kinesiologie integree, ou similaire
CN107526164A (zh) 图像提供系统
Kirisits et al. Creative Interactions–The Mobile Music Workshops 2004-2008: 5th International Mobile Music Workshop, May 13-15, 2008, University of Applied Arts Vienna
Ballin et al. Personal virtual humans—inhabiting the TalkZone and beyond
Rowe Archaeo-mented Reality: A study of the use of Augmented Reality as a tool for archaeological interpretation
Lionello et al. Interactive soundscapes: Developing a physical space augmented through dynamic sound rendering and granular synthesis
Wozniak Range imaging based obstacle detection for virtual environment systems and interactive metaphor based signalization
Mancini et al. A system for mobile music authoring and active listening
CH712678B1 (fr) Procédé d'affichage de données cartographiques.
Bøe A no-code design approach to sitsim development
Sousa Jack-in-the-Mug: An interface to assist in the production of Foley sound effects
EP3351007B1 (fr) Procédé de visualisation de données relatives à un événement et système associé
Hernandez Implementation of Augmented Reality to increase participation from young children in the hiking program Stikk Ut!

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20160729