FR3020480A1 - Dispositif et procede interface de controle d'un terminal de communication - Google Patents

Dispositif et procede interface de controle d'un terminal de communication Download PDF

Info

Publication number
FR3020480A1
FR3020480A1 FR1400962A FR1400962A FR3020480A1 FR 3020480 A1 FR3020480 A1 FR 3020480A1 FR 1400962 A FR1400962 A FR 1400962A FR 1400962 A FR1400962 A FR 1400962A FR 3020480 A1 FR3020480 A1 FR 3020480A1
Authority
FR
France
Prior art keywords
control
detection zone
display device
communication terminal
real time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1400962A
Other languages
English (en)
Inventor
Vincent Donnet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR1400962A priority Critical patent/FR3020480A1/fr
Publication of FR3020480A1 publication Critical patent/FR3020480A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

L'invention concerne une interface de contrôle d'un terminal de communication, notamment un clavier ou un panneau de contrôle, constituée de commandes repositionnables dans l'espace, dans les 3 dimensions et en temps réel, que l'utilisateur peut visualiser en activant un retour visuel associé à l'emplacement des commandes. Un objet de l'invention est un dispositif interface de contrôle d'un terminal de communication, caractérisé par des moyens de commandes 3d, autonomes ou adjoints à un clavier matériel ou panneau de contrôle matériel, activables, modifiables et repositionnables en temps réel, contrôlés par détections spatiales à l'intérieur d'une zone de détection 3d définie, comportant des moyens de capture, traitement et transmission des données en temps réel entre le terminal de communication et un dispositif d'affichage activable d'un réseau de communication, le dispositif d'affichage activable constituant un retour visuel associé à la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d. Le dispositif selon l'invention est particulièrement destiné à l'amélioration ou remplacement des interfaces du type claviers, tables et tablettes tactiles, ou panneaux de contrôle.

Description

La présente invention concerne une interface de contrôle d'un terminal de communication, notamment un clavier ou un panneau de contrôle, constituée de commandes repositionnables dans l'espace, dans les 3 dimensions et en temps réel, que l'utilisateur peut visualiser en activant un retour visuel associé à l'emplacement des commandes.
Un clavier, notamment d'ordinateur, est une interface homme-machine, un périphérique d'entrée de l'ordinateur composé de touches envoyant des instructions à la machine une fois actionnées. Les touches sont un ensemble d'interrupteurs électroniques similaires aux boutons d'une souris, d'une télécommande ou d'une manette de console de jeu.
Elles sont fréquemment imprimées ou gravées de symboles, lettres, chiffres, mots ou images et permettent essentiellement à un utilisateur de saisir des caractères pour écrire du texte. Un panneau de contrôle ou une surface de contrôle est un dispositif d'interface matérielle ou logicielle qui permet à l'utilisateur de piloter un dispositif électronique ou une application 20 numérique. On entend par matériel : qui est formé de matière. Le clavier ou la surface de contrôle sont soit purement matériels, soit logiciels exécutés sur un appareil matériel comme une tablette ou un écran relié à un processeur exécutants un 25 programme faisant fonctionner le clavier ou la surface de contrôle. Par exemple, une surface de contrôle est généralement utilisée pour piloter une station de travail dédiée à l'audionumérique ou un logiciel de montage vidéo. À la différence d'une table de mixage, une surface de contrôle n'agit pas directement sur les 30 signaux audio ou vidéo, numériques ou analogiques, ni ne les transporte, mais génère des données informatiques, reconnues par l'application, qui agissent sur les signaux. Une surface de contrôle basique ressemble à une table de mixage analogique traditionnelle, avec -des faders (encodeurs linéaires) 35 -des encodeurs rotatifs -des boutons poussoir qui peuvent être assignés à certains paramètres. -2 Une surface de contrôle ou un clavier peuvent communiquer avec un ordinateur ou un processeur via plusieurs interfaces et protocoles de communication différents mais en général les interfaces ou protocole MIDI, OSC ou USB sont privilégiés mais tout protocole ou interface 5 de réseau de communication peut être utilisé. Un réseau de communication peut être défini comme l'ensemble des ressources matériels et logiciels liées à la transmission et l'échange d'information entre différentes entités. 10 Des solutions ont été proposées pour réduire l'encombrement des touches ou l'espace nécessaire aux commandes physiques des interfaces surface de contrôle. On peut utiliser des combinaisons de touches sur un clavier pour envoyer des commandes différentes des commandes envoyées par la pression d'une seule de ces touches. On peut aussi changer l'assignation affectée aux commandes de la surface de contrôle 15 ( matérielle ou logicielle) afin de changer la fonction des encodeurs ou boutons. Mais on ne peut pas déplacer, de manière optimale, physiquement ou matériellement, les touches, boutons ou encodeurs d'un clavier ou d'une surface de contrôle. 20 L'utilisateur pourra opérer de nombreuses modifications avec un clavier virtuel ( clavier logiciel utilisé sur un écran ) ou une surface de contrôle logicielle ( sur un moniteur matériel ou un écran tactile matériel ). Mais la, ou les, sélections de l'utilisateur ne sera pas nécessairement optimale pour la rapidité et la facilité d'exécution de ces modifications. 25 Un des buts de la présente invention est d'apporter des améliorations par rapport à l'état de la technique. Un objet de l'invention est un dispositif interface de contrôle d'un terminal de communication, 30 caractérisé par des moyens de commandes 3d, autonomes ou adjoints à un clavier matériel ou panneau de contrôle matériel, activables, modifiables et repositionnables en temps réel, contrôlés par détections spatiales à l'intérieur d'une zone de détection 3d définie, comportant des moyens de capture, traitement et transmission des données en temps réel entre le terminal de communication et un dispositif d'affichage activable d'un réseau de communication, le dispositif 35 d'affichage activable constituant un retour visuel associé à la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d. - 3 - Ainsi, l'utilisateur peut disposer de moyens de commandes, virtuels, du type clavier et surface de contrôle simultanément, repositionnables dans l'espace dans les 3 dimensions, déclenchés par des détections spatiales, soit de toutes parties de son corps (dont sa ou ses mains) soit de tout objet ou pointeur qu'il manipule, déplace ou pose dans la zone de détection définie.
L'utilisateur peut visualiser ces moyens de commandes, des représentations graphiques de ces commandes ou tout type de représentations visuelles assignées à ces commandes, en activant un retour visuel (écran, projection vidéo, ou tout type de moyen d'affichage ) relié à un réseau de communication afin de recevoir les images ou données à afficher.
Les commandes sont caractérisées par des volumes généralement rectangulaires qui auront des fonctions de boutons ou encodeurs capables de générer 3 types de données simultanément selon que l'utilisateur les activent ou non et qui vont réagir aux interactions de l'utilisateur selon les axes x, y et z. Ces commandes sont « virtuelles » elles sont générées par un programme ou un logiciel pour définir leurs tailles, positions et autres paramètres. Il peut aussi déplacer en temps réel tout ou partie de l'interface dans l'espace 3d. Il peut activer ou désactiver un retour visuel ou affichage vidéo pour visualiser les commandes 20 3d ou des images assignées. L'utilisateur peut utiliser les commandes crées de façon autonome mais il peut aussi décider de combiner l'utilisation de ces commandes avec l'utilisation d'un clavier ou une surface de contrôle standard, classique ou matériel. 25 L'utilisateur dispose des fonctionnalités du clavier ou surface de contrôle classique cumulées avec l'avantage d'un troisième paramètre de commande en déplaçant son doigt, par exemple, au dessus d'une touche ou d'un encodeur, suivant l'axe z de la commande 3d. Les boutons, sur un clavier ou panneau de contrôle sont disposés en lignes et en colonnes ( axe 30 x et axe y): chaque bouton pressé produisant une activation distincte, l'utilisateur génère des données différentes en fonction des coordonnées x et y de la position des pressions sur un clavier. Chaque zone de commande définie sur l'axe xy au dessus du clavier matériel, comportant chacune leurs 2 paramètres de contrôle assignables indépendants (un suivant l'axe x et un 35 suivant l'axe y) disposent d'un paramètre de contrôle assignable supplémentaire suivant l'axe z. Par exemple, l'utilisateur peut disposer d'un clavier matériel, les commandes de touches étant disposées sur les axes x et y. Il disposera de sous menus de touches pour la saisie des accents é è ë ou ê pour la touche E qui seront disponibles à la sélection suivant l' axe z.
Et il est toujours possible de projeter, avec un vidéo projecteur, les moyens de commandes, représentations graphiques de ces commandes ou tout type de représentations visuelles assignées à ces commandes sur les touches ou encodeurs du clavier matériel, panneau de contrôle matériel ou surface de contrôle matérielle.
Un objet de l'invention est aussi un terminal de communication comportant un dispositif interface de contrôle, configuré pour piloter un dispositif d'affichage, par des moyens de commandes 3d, autonomes ou adjoints à un clavier matériel ou panneau de contrôle matériel, activables, modifiables et repositionnables en temps réel, contrôlés par détections spatiales à l'intérieur d'une zone de détection 3d définie, qui comporte des moyens de capture, traitement et transmission des données en temps réel entre le terminal de communication et le dispositif d'affichage activable d'un réseau de communication, le dispositif d'affichage activable constitue un retour visuel associé à la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d.
Un objet de l'invention est aussi un terminal de communication comportant un socle matériel dédié pour visualiser par projection vidéo ou tout autre moyen disponible le retour visuel émit par le dispositif d'affichage activable associé à la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d.
Le terminal de communication permettant à l'utilisateur de disposer d'une interface de contrôle 3d visualisée sur un socle dédié dont la forme est adaptée à l'image renvoyée par l'interface et dont la matière est adaptée au style de touché voulu, du plus dur au plus mou : l'utilisateur peut définir ainsi le retour haptique voulu. Toute matière disponible sur le marché est utilisable tant que cette matière respecte les normes 30 de sécurité en vigueur. Ce socle est tracké soit par un repère visuel placé sur le socle comme ceux qu'on utilise avec les applications de réalité augmentée, soit par les capteurs 3d capables de détecter l'épaisseur du socle. Ce socle pourra être imprimé pour définir certaines touches et encodeurs ou juste pour faire 35 apparaître le logo ou la marque. Un objet de l'invention est encore un procédé d'interface de contrôle caractérisé par des - 5 - commandes 3d, autonomes ou adjoints à un clavier matériel ou panneau de contrôle matériel, activables, modifiables et repositionnables en temps réel, contrôlés par détections spatiales à l'intérieur d'une zone de détection 3d définie, comportant des commandes de moyens de capture, traitement et transmission des données en temps réel entre le terminal de communication et un dispositif d'affichage activable d'un réseau de communication, le dispositif d'affichage activable constituant un retour visuel associé à la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d. Avantageusement, le procédé d'interface de contrôle selon revendication précédente comportant : - une activation et désactivation de l' affichage du retour visuel de la base de la zone de détection 3d - une fonction de modification temps réel de la position et la zone de détection associée pour chaque commande 3d - une fonction de modification temps réel globale pour toutes les commandes 3d et toutes les zones de détections associées - une fonction permettant d'activer ou désactiver un clavier matériel ou une surface de contrôle matérielle Ainsi, l'affichage du retour visuel peut être activé ou désactivé en fonction des besoins de l'utilisateur ou par souci d'économie d'énergie. L'utilisateur peut aussi déplacer en temps réel tout ou partie de l'interface dans l'espace 3d. Il peut encore activer l'utilisation d'un clavier matériel ou une surface de contrôle matérielle afin de combiner l'utilisation des commandes 3d avec l'utilisation d'un clavier ou une surface de contrôle standard classique. Avantageusement, selon une implémentation de l'invention, les différentes étapes du procédé selon l'invention sont mises en oeuvre par un logiciel ou programme d'ordinateur, ce logiciel comprenant des instructions logicielles destinées à être exécutées par un processeur de données d'un dispositif faisant partie d'un terminal de communication et étant conçus pour commander l'exécution des différentes étapes de ce procédé. L'invention vise donc aussi un programme comprenant des instructions de code de programme pour l'exécution des étapes du procédé d'interface d'un réseau de communication lorsque ledit 35 programme est exécuté par un processeur. Ce programme peut utiliser n'importe quel langage de programmation et être sous la forme de - 6 - code source, code objet ou code intermédiaire entre code source et code objet tel que dans une forme partiellement compilée ou dans n'importe quelle autre forme souhaitable. Un objet de l'invention est un dispositif d'affichage d'un réseau de communication constituant un retour visuel de la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d comportant des moyens d'activation et de désactivation. Ainsi le retour visuel peut être stoppé par l'utilisateur s'il n'est pas nécessaire pendant que l'interface de contrôle est toujours en fonctionnement.
Un objet de l'invention est aussi un Procédé de traitement mis en oeuvre par un dispositif d'affichage d'un réseau de communication constituant un retour visuel de la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d comportant des moyens d'activation.
Avantageusement, selon une implémentation de l'invention, les différentes étapes du procédé selon l'invention sont mises en oeuvre par un logiciel ou programme d'ordinateur, ce logiciel comprenant des instructions logicielles destinées à être exécutées par un processeur de données du dispositif faisant partie d'un dispositif d'affichage et étant conçus pour commander l'exécution des différentes étapes de ce procédé.
L'invention vise donc aussi un programme comprenant des instructions de code de programme pour l'exécution des étapes du procédé de traitement d'un dispositif d'affichage d'un réseau de communication lorsque ledit programme est exécuté par un processeur.
Ce programme peut utiliser n'importe quel langage de programmation et être sous la forme de code source, code objet ou code intermédiaire entre code source et code objet tel que dans une forme partiellement compilée ou dans n'importe quelle autre forme souhaitable. Le problème technique est que l'on ne peut pas déplacer, ou très difficilement, les touches ou encodeurs d'une interface de contrôle matérielle. On peut les « réassigner » dans le cas d'une interface logicielle exécutée sur un appareil matériel mais cela reste compliqué et ne ce fait pas en temps réel. Il faut, en général, ouvrir un programme associé pour procéder aux modifications ou assignations et relancer l'interface de contrôle.
La solution technique apportée par l'invention est de pouvoir, grâce à ce dispositif basé sur la détection spatiale, déplacer directement, au lieu de changer leurs assignations, les touches ou encodeurs afin de les réorganiser dans l'espace. Les commandes crées sont ré-agencées comme - 7 - le souhaite l'utilisateur, il peut aussi changer la taille si besoin. Toutes les modifications effectuées sont en temps réel. Le problème technique rencontré est aussi qu'une interface associée à un objet ou appareil, comme une télécommande par exemple est soit difficilement intégrable à l'objet ou appareil, soit 5 nécessairement dissociée de l'objet. L'invention apporte une solution pour intégrer une interface de contrôle à tout objet ou appareil même si il est en mouvement. Aussi l'invention apporte un retour visuel associé et ajusté à l'emplacement de chaque commande en combinant les coordonnées des zones de détections de chaque commande avec 10 les coordonnées de chaque représentation graphique de chaque commande. Aussi, l'interface créée peut être masquée à tout moment sur désactivation opérée par l'utilisateur. La solution technique apportée est basée sur le couplage des coordonnées des touches ou encodeurs de clavier et panneau de contrôle, matériels ou virtuels dans un espace 3d, avec les 15 coordonnées de la zone de détection associée pour rendre chaque commande mobile et effective en temps réel. L'invention apporte aussi une solution technique pour transformer un clavier matériel, un panneau matériel ou surface de contrôle matérielle en terminal de contrôle avec retour visuel activable sans nécessité de contacts physiques avec les touches ou encodeurs, tout en conservant 20 les fonctionnalités tactiles de ces appareils. L'invention apporte encore une solution technique pour transformer toute surface (plane ou non plane) ou volume en un terminal de contrôle, avec retour visuel activable, modifiable et ré-organisable en temps réel. L'invention permet a toute surface réelle, par exemple une table ou un mur, de devenir une 25 surface soit tactile, soit réactive sans contacts directs ou encore les deux en même temps. Elle dispose d'un retour visuel activable et elle est modifiable et ré-organisable en temps réel. Les caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description, faite à titre d'exemple, et des figures s'y rapportant. La figure la. illustre un schéma du dispositif interface de contrôle comportant des moyens de capture de type capteur 3d. La figure lb. illustre un schéma du dispositif interface de contrôle comportant des moyens de capture de type webcam. Le dispositif comporte des moyens de capture soit (10) ou soit (11) et (12) capables de détecter les mouvements d'un utilisateur ou la position d'objet disposés ou animés par l'utilisateur (9) 30 35 - 8 - dans le champ des capteurs représenté par des pointillés sur les figure la. et lb. Les mouvements d'un utilisateur ou la position d'objet disposés ou animés par l'utilisateur (9) sont tous symbolisés sur les figure la et lb. par une main Les détections s'opèrent dans une zone de détection définie (7). Ses dimensions (longueur, largeur et hauteur) et orientations dépendent du placement de la camera 3d (10) ou des 2 webcams (11) et (12). 10 il existe deux manière d'effectuer les détections spatiales : -en utilisant un capteur camera 3d ( camera capable de détecter la profondeur dans son champ de vision comme, par exemple, le capteur Kinect de Microsoft ou l'équivalent Xtion de Asus ) (10) qui est capable de détecter tout point et ses coordonnées x y et z dans son champ de vision. 15 Pour une meilleure détection il est possible d'utiliser plusieurs capteurs camera 3d. -en utilisant au minimum deux cameras (11) et (12) (webcams ou toute camera vidéo) : dans ce cas on utilise la première camera (11), grâce à des logiciels ou programmes appropriés qui détectent les formes, couleurs ou luminosités pour capturer les coordonnées x et z de chaque points à détecter. 20 La deuxième camera (12) permet grâce à son placement de capturer la troisième coordonnée y de chaque points à détecter. Les 3 coordonnées sont rassemblées pour obtenir la position dans l'espace. Dans les deux cas décrits, les coordonnées sont transmises à un processeur (8) qui exécutera les 25 étapes du procédé d'interface de contrôle pour traiter les données de coordonnées et générer des moyens de commandes 3d (2) et (4) . Seules 2 commandes ont été illustrées mais le nombre de commandes crées par l' utilisateur est illimité. Il dépendra de la taille de chaque zone de commande par rapport à la taille totale de la 30 zone de détection. Ces moyens de commandes 3d (2) et (4) sont caractérisées par des volumes généralement rectangulaires dont les dimensions et positions sont définies par l'utilisateur et calculées par le processeur (8) qui auront des fonctions de boutons ou encodeurs capables de générer 3 types de données simultanément selon que l'utilisateur les active ou non et qui vont réagir aux 35 interactions de l'utilisateur selon les axes x, y et z. Les commandes 3d (2) et (4) renvoient chacune les données qu'elles ont généré au cours de la - 9 - capture (mouvements d'un utilisateur ou la position d'objet disposés ou animés par l'utilisateur dans le champ des capteurs) vers le processeur (8) qui exécutera les étapes du procédé d'interface de contrôle pour traiter les données et les renvoyées vers le dispositif d'affichage (13), représenté sur la figure 1 par un vidéoprojecteur qui diffuse une image sur la base de la zone de détection 3d (7). L'image projetée aura généralement la même taille que la base de la zone de détection 3d (7). Mais elle peut aussi être de dimension différente : soit plus petite soit plus grande. La taille de la surface de projection sera définie par l'utilisateur et transmise à un processeur (8) qui exécutera les étapes du procédé d'interface de contrôle pour traiter les données et les renvoyées vers le dispositif d'affichage (13), représenté sur la figure 1 par un vidéoprojecteur qui diffuse une image sur la base de la zone de détection 3d (7). La taille de la projection pourra aussi ne concerner que la taille et position de chaque commande 3d (1) (2) (3) ou (4). La taille de la projection pourra aussi ne concerner que la taille et position de chaque commande 3d (1) (2) (3) et (4). La taille de la projection pourra encore concerner la taille totale et position globale de toutes les commande 3d (6).
La visualisation peut aussi se faire suivant différents procédés (non illustré) : -en utilisant un moniteur plat disposé de façon à ce que les 4 coins de l'écran soit dans le même axe que la base de la zone de détection 3d (7) -à travers l'écran d'une tablette, de lunettes ou casques équipées de moyens d'affichage, grâce, 25 par exemple, a un procédé de réalité augmenté logiciel et un marqueur ( un repère visuel ) disposé au niveau de la base de la zone de détection 3d (7) En outre, le dispositif du terminal et le dispositif d'affichage étant connectés à un réseau, ils peuvent communiquer par liaison filaire ou sans fil.
30 Les commandes 3d (2) et (4) sont repositionnables et modifiables grâce à des zones définies (1) et (3) associées spatialement à chaque commande 3d (2) et (4). Ces zones définies (1) et (3) sont elles aussi des commandes : elles permettent de déplacer spatialement chacune des commandes 3d (2) et (4). On peut ainsi déplacer chaque commande 35 3d indépendamment, en temps réel, dès que les mouvements d'un utilisateur ou la position d'objet disposés ou animés par l'utilisateur sont perçus dans l'espace défini de cette commande associée (1) et (3). - 10 - Ces commandes associées (1) et (3) permettent aussi d'effectuer tous types de modifications comme la taille, l'échelle, l'orientation ou la position associée par rapport à la position de la commande 3d pour chacune des commandes 3d (2) et (4). Les modifications des commandes 3d (2) et (4) sont définies par l'utilisateur grâce à des logiciels ou programmes appropriés et transmises au processeur (8) qui exécutera les étapes du procédé d'interface de contrôle pour traiter les données et les renvoyées vers le dispositif d'affichage (13). Une autre commande de déplacement ou modification (5) permet, elle, de déplacer l'ensemble 10 des commandes 3d (6) en même temps. On peut ainsi déplacer tout le clavier ou panneau de contrôle en un seul geste dès que les mouvements d'un utilisateur ou la position d'objet disposés ou animés par l'utilisateur sont perçus dans l'espace défini de cette commande associée. Seules les commandes associées (1) (3) et (5) sont représentées mais l'utilisateur peut aussi créer 15 des commandes associées supplémentaires afin de pouvoir déplacer les commandes 3d par groupes. Il pourra, si il souhaite, déplacer 9 commandes indépendamment par groupes de 3 par exemple. Par exemple, l'utilisateur peut disposer les commandes 3d dont la commande 3d (2) pour 20 reproduire un clavier. Les commandes de touches étant disposées sur les axes x et y, il pourra saisir des accents é è ë ou ê pour la touche E par exemple. Les différentes saisies (é è ë ou ê) se feront en fonction de la coordonnée de son doigt sur l' axe z à l'intérieur de la commande (2). 25 30 35

Claims (10)

  1. REVENDICATIONS1. Dispositif interface de contrôle d'un terminal de communication, caractérisé par des moyens de commandes 3d, autonomes ou adjoints à un un clavier matériel ou panneau de contrôle matériel, activables, modifiables et repositionnables en temps réel, contrôlés par détections 10 spatiales à l'intérieur d'une zone de détection 3d définie, comportant des moyens de capture, traitement et transmission des données en temps réel entre le terminal de communication et un dispositif d'affichage activable d'un réseau de communication, le dispositif d'affichage activable constituant un retour visuel associé à la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d. 15
  2. 2. Terminal de communication comportant un dispositif interface de contrôle, configure pour piloter un dispositif d'affichage, par des moyens de commandes 3d, autonomes ou adjoints à un clavier matériel ou panneau de contrôle matériel, activables, modifiables et repositionnables en temps réel, contrôlés par détections spatiales à l'intérieur d'une zone de détection 3d définie, qui 20 comporte des moyens de capture, traitement et transmission des données en temps réel entre le terminal de communication et le dispositif d'affichage activable d'un réseau de communication, le dispositif d'affichage activable constitue un retour visuel associé à la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d. 25
  3. 3. Terminal de communication selon la revendication précédente comportant un socle matériel dédié pour visualiser par projection vidéo ou tout autre moyen disponible le retour visuel émit par le dispositif d'affichage activable associé à la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d. 30
  4. 4. Procédé d'interface de contrôle caractérisé par des commandes 3d, autonomes ou adjoints à un clavier matériel ou panneau de contrôle matériel, activables, modifiables et repositionnables en temps réel, contrôlés par détections spatiales à l'intérieur d'une zone de détection 3d définie, comprenant une étape de commande de moyens de capture, traitement et transmission des données en temps réel entre le terminal de communication et un dispositif d'affichage activable 35 d'un réseau de communication, le dispositif d'affichage activable constituant un retour visuel associé à la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d.- 12 -
  5. 5. Procédé d'interface de contrôle selon la revendication précédente comportant : - une activation ou désactivation de l' affichage du retour visuel de la base de la zone de détection 3d - une fonction de modification temps réel de la position et la zone de détection associée pour 5 chaque commande 3d - une fonction de modification temps réel globale pour toutes les commandes 3d et toutes les zones de détections associées - une fonction permettant d'activer ou désactiver un clavier matériel ou surface de contrôle matérielle 10
  6. 6. Programme comportant des instructions de code de programmes pour l'exécution des étapes du procédé d'interface de contrôle selon l'une quelconque des revendications 4 ou 5 lorsque ledit programme est exécuté par un processeur. 15
  7. 7. dispositif d'affichage d'un réseau de communication liée au dispositif interface de contrôle d'un terminal de communication selon la revendication 1 constituant un retour visuel de la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d comportant des moyens d'activation. 20
  8. 8. Procédé de traitement mis en oeuvre par un dispositif d'affichage d'un réseau de communication liée au dispositif interface de contrôle d'un terminal de communication selon la revendication 1 constituant un retour visuel de la base des moyens de commandes 3d à l'intérieur de la zone de détection 3d comportant des moyens d'activation. 25
  9. 9. Programme comprenant des instructions de code de programme pour l'exécution des étapes du procédé de traitement d'un dispositif d'affichage d'un réseau de communication selon la revendication 7 lorsque ledit programme est exécuté par un processeur.
  10. 10. Dispositif interface de contrôle d'un terminal de communication selon la revendication 1 30 caractérisé en ce que les moyens de captures sont des caméras de type 3d, infrarouge ou webcam reliées à un processeur (8). 35
FR1400962A 2014-04-24 2014-04-24 Dispositif et procede interface de controle d'un terminal de communication Withdrawn FR3020480A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1400962A FR3020480A1 (fr) 2014-04-24 2014-04-24 Dispositif et procede interface de controle d'un terminal de communication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1400962A FR3020480A1 (fr) 2014-04-24 2014-04-24 Dispositif et procede interface de controle d'un terminal de communication

Publications (1)

Publication Number Publication Date
FR3020480A1 true FR3020480A1 (fr) 2015-10-30

Family

ID=52465386

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1400962A Withdrawn FR3020480A1 (fr) 2014-04-24 2014-04-24 Dispositif et procede interface de controle d'un terminal de communication

Country Status (1)

Country Link
FR (1) FR3020480A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001059975A2 (fr) * 2000-02-11 2001-08-16 Canesta, Inc. Procede et appareil destines a entrer des donnees a l'aide d'un dispositif d'entree virtuelle
EP1248227A2 (fr) * 2001-04-04 2002-10-09 Matsushita Communication Industrial UK Ltd. Appareil d'interface utilisateur
US20090034713A1 (en) * 2006-07-24 2009-02-05 Plantronics, Inc. Projection Headset

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001059975A2 (fr) * 2000-02-11 2001-08-16 Canesta, Inc. Procede et appareil destines a entrer des donnees a l'aide d'un dispositif d'entree virtuelle
EP1248227A2 (fr) * 2001-04-04 2002-10-09 Matsushita Communication Industrial UK Ltd. Appareil d'interface utilisateur
US20090034713A1 (en) * 2006-07-24 2009-02-05 Plantronics, Inc. Projection Headset

Similar Documents

Publication Publication Date Title
US11221730B2 (en) Input device for VR/AR applications
US9377874B2 (en) Gesture recognition light and video image projector
US8432362B2 (en) Keyboards and methods thereof
Malik et al. Visual touchpad: a two-handed gestural input device
US11775074B2 (en) Apparatuses, systems, and/or interfaces for embedding selfies into or onto images captured by mobile or wearable devices and method for implementing same
US9110563B2 (en) Method and apparatus for user interface of input devices
US8077147B2 (en) Mouse with optical sensing surface
JP2006209563A (ja) インターフェース装置
US20160196692A1 (en) Virtual lasers for interacting with augmented reality environments
US20150363070A1 (en) System and method for interfacing with a device via a 3d display
KR20100106203A (ko) 멀티 텔레포인터, 가상 객체 표시 장치, 및 가상 객체 제어 방법
KR20110066880A (ko) 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 방법 및 시스템
CN101866243A (zh) 三维空间触控操作的方法及其手势
KR20130137069A (ko) 마우스 모의 터치 제어 스크린 조작 방법
JP2019087284A (ja) ユーザインタフェースのための対話方法
Borkowski et al. Spatial control of interactive surfaces in an augmented environment
US9946333B2 (en) Interactive image projection
US9229550B1 (en) Physically modifying a configurable user interface
TWM485448U (zh) 影像式虛擬互動裝置
TWI502468B (zh) 行動電子裝置及其三維操作介面的控制方法
Maiero et al. ForceTab: Visuo-haptic interaction with a force-sensitive actuated tablet
WO2018042923A1 (fr) Système de traitement d'informations, procédé de traitement d'informations, et programme
FR3020480A1 (fr) Dispositif et procede interface de controle d'un terminal de communication
CN106325655B (zh) 应用于触摸终端的3d应用图标交互方法及触摸终端
US11531448B1 (en) Hand control interfaces and methods in virtual reality environments

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20151030

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

ST Notification of lapse

Effective date: 20200108