FR2998686A1 - Systeme de communication pour reproduire une interactivite de type physique entre au moins deux acteurs - Google Patents

Systeme de communication pour reproduire une interactivite de type physique entre au moins deux acteurs Download PDF

Info

Publication number
FR2998686A1
FR2998686A1 FR1261406A FR1261406A FR2998686A1 FR 2998686 A1 FR2998686 A1 FR 2998686A1 FR 1261406 A FR1261406 A FR 1261406A FR 1261406 A FR1261406 A FR 1261406A FR 2998686 A1 FR2998686 A1 FR 2998686A1
Authority
FR
France
Prior art keywords
screen
human finger
computer
programmed
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1261406A
Other languages
English (en)
Other versions
FR2998686B1 (fr
Inventor
Gilbert Nicolas
Herve Denoual
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to FR1261406A priority Critical patent/FR2998686B1/fr
Priority to JP2015544419A priority patent/JP2016509275A/ja
Priority to EP13801493.1A priority patent/EP2926232B1/fr
Priority to US14/648,570 priority patent/US9733738B2/en
Priority to PCT/EP2013/074470 priority patent/WO2014082928A1/fr
Publication of FR2998686A1 publication Critical patent/FR2998686A1/fr
Application granted granted Critical
Publication of FR2998686B1 publication Critical patent/FR2998686B1/fr
Priority to JP2019043694A priority patent/JP2019133690A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • G06F3/0433Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves in which the acoustic waves are either generated by a movable member and propagated within a surface layer or propagated within a surface layer and captured by a movable member
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0441Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using active external devices, e.g. active pens, for receiving changes in electrical potential transmitted by the digitiser, e.g. tablet driving signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04109FTIR in optical digitiser, i.e. touch detection by frustrating the total internal reflection within an optical waveguide due to changes of optical properties or deformation at the touch location

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Position Input By Displaying (AREA)

Abstract

Pour reproduire et décupler une interactivité de type physique entre au moins deux acteurs, le système de communication comprend au moins un écran d'affichage (20, 21, 22) qui comporte un premier dispositif agencé pour détecter au moins une position de doigt humain en mesurant une première grandeur physique qui varie en fonction d'un contact de doigt humain sur ledit écran (20, 21, 22). Notamment, le système comprend un deuxième dispositif agencé pour détecter au moins une position d'un objet (30, 31, 32) équipé de manière à émettre un signal uniforme, en mesurant une deuxième grandeur physique liée à une réception dudit signal uniforme qui varie en fonction de la position de l'objet (30, 31, 32) par rapport à l'écran (20, 21, 22).

Description

SYSTEME DE COMMUNICATION POUR REPRODUIRE UNE INTERACTIVITE DE TYPE PHYSIQUE ENTRE AU MOINS DEUX ACTEURS L'invention concerne un système de communication comprenant un écran d'affichage qui comporte un dispositif agencé pour détecter une position de doigt humain en mesurant une grandeur physique qui varie en fonction d'un contact de doigt humain sur l'écran. Les écran tactiles sont déjà connus sur des appareils de petite taille comme des téléphones mobiles ou des tablettes tactiles communicantes qui offrent une interactivité essentiellement virtuelle à plusieurs acteurs qui communiquent entre eux en manipulant des fonctionnalités de leurs appareils respectifs, dédiés chacun à un utilisateur. Un besoin se fait ressentir pour reproduire une interactivité de type physique entre les acteurs, par exemple l'interactivité apportée par le partage sur un support physique commun, par la possibilité de se libérer d'une focalisation sur un petit appareil et de s'observer en grandeur nature. Ce type d'interactivité existe déjà depuis longtemps dans les salles de classe ou de réunions en s'appuyant sur un grand tableau, sur des planches à papier (paperboard en anglais) de grand format sur lesquels on peut écrire à tour de rôle en échangeant une craie ou un crayon ou sur lesquels on peut encore coller des documents de différentes natures en vrai grandeur. L'état de la technique propose différentes mises en oeuvre de technologies modernes, notamment dans le domaine de l'électronique et de l'informatique pour décupler cette interactivité en lui conservant son aspect physique, mais sans apporter entière satisfaction. Le document US2010/0001963 par exemple divulgue un écran tactile permettant de détecter plusieurs contacts de doigt humain et de capturer des données en provenance d'un crayon électronique pour réserver à ce dernier des fonctions d'écriture. Des motifs quasiment imperceptibles à l'oeil humain sont incrustés sur l'écran. Le crayon électronique est équipé pour détecter les motifs lorsqu'il glisse sur l'écran et les retransmettre par voie de télécommunication à une unité de traitement de l'information de manière à repérer la ou les positions de contact du crayon électronique sur l'écran et à associer des fonctions d'écriture à cette ou ces positions. Cependant les solutions connues de l'état antérieur de la technique présentent de nombreux problèmes. Une incrustation de motifs sur l'écran interfère avec les qualités de transmission de la lumière dans et à travers l'écran. Un équipement de crayon électronique avec des moyens de détection et de télécommunication en augmente la complexité, le coût et les probabilités de panne. Les documents connus ne prévoient généralement pas de positions d'objets sur l'écran autres qu'essentiellement dans le but d'écriture. L'invention a pour objectif de répondre aux problèmes posés par l'état antérieur de la technique, notamment en termes d'efficacité tout en évitant des augmentations de coût et de risque de panne regrettables. Pour atteindre cet objectif, l'invention a pour objet un système de communication pour reproduire et décupler une interactivité de type physique entre au moins deux acteurs, comprenant au moins un écran d'affichage qui comporte un premier dispositif agencé pour détecter au moins une position de doigt humain en mesurant une première grandeur physique qui varie en fonction d'un contact de doigt humain sur ledit écran. Le système est remarquable en ce qu'il comprend un deuxième dispositif agencé pour détecter au moins une position d'un objet équipé de manière à émettre un signal uniforme, en mesurant une deuxième grandeur physique liée à une réception dudit signal uniforme qui varie en fonction de la position de l'objet par rapport à l'écran. Particulièrement, ledit objet est équipé de manière à émettre ledit signal uniforme lorsque l'objet est en contact mécanique avec ledit écran.
Particulièrement aussi, ledit signal est un train continu d'ultrasons à fréquence prédéterminée.
Avantageusement, le système comprend un ordinateur configuré au moins pour recevoir la position du doigt humain détectée par le premier dispositif et la position dudit objet détectée par le deuxième dispositif et ledit ordinateur est programmé au moins pour : - allouer au moins une zone de l'écran à une fonction de commande ; - exécuter ladite fonction de commande lorsque ledit premier dispositif détecte une position de doigt humain ou ledit deuxième dispositif détecte une position dudit objet dans la zone de l'écran allouée à ladite fonction de commande. Avantageusement aussi, le système comprend un ordinateur configuré au moins pour recevoir la position du doigt humain détectée par le premier dispositif et la position dudit objet détectée par le deuxième dispositif et en ce que ledit ordinateur est programmé au moins pour : - allouer une zone de l'écran à l'écriture ; - modifier dans ladite zone allouée à l'écriture un aspect visuel local qui suit la position de l'objet sur l'écran lorsque ledit objet émet ledit signal uniforme ; - faire varier ladite zone allouée à l'écriture en fonction d'un déplacement lié à la position du doigt humain sur l'écran. Plus particulièrement, ladite zone allouée à l'écriture matérialise une petite feuille de papier autoadhésive amovible virtuelle. Dans un mode de réalisation, le système comporte au moins une planche à papier qui comprend ledit écran et ledit premier dispositif est de type capacitif et lié à ladite planche à papier. Alternativement ou en combinaison, le système comporte au moins une tablette personnelle qui comprend ledit écran et ledit premier dispositif est de type capacitif ou résistif et lié à ladite tablette personnelle.
Alternativement ou en combinaison, le système comporte au moins un tableau panoramique qui comprend ledit écran et ledit premier dispositif est de type à détection infrarouge et lié audit tableau panoramique. Alternativement ou en combinaison, le système comporte au moins une table horizontale de travail qui comprend ledit écran et ledit premier dispositif est lié à ladite table de type à détection infrarouge, capacitif ou résistif. De préférence ledit ordinateur est programmé pour : - générer à la demande au moins un exemplaire de petite feuille de papier autoadhésive amovible virtuelle sur l'un des écrans de planche à papier, de tablette personnelle, de tableau panoramique et/ou de table horizontale de travail ; - faire glisser à la demande ledit exemplaire vers l'un des autres écrans de planche à papier, de tablette personnelle, de tableau panoramique et/ou de table horizontale de travail ; - modifier à la demande ledit exemplaire à partir de celui des écrans sur lequel il a été généré et/ou sur lequel il a glissé. Particulièrement, ledit ordinateur est programmé pour insérer dans ladite petite feuille un élément multimédia. Dans un mode de mise en oeuvre du système, ledit ordinateur est connecté à une base de connaissance et il est programmé pour : - accéder à un premier contenu hébergé par ladite base de connaissances en fonction d'actions de requêtes exercées par ledit doigt humain ou par ledit objet sur ledit écran de façon à afficher ledit premier contenu sur ledit écran ; - enrichir ladite base de connaissances avec un deuxième contenu affiché sur ledit écran en fonction d'actions d'expression exercées par ledit doigt humain ou par ledit objet sur ledit écran qui affichent ledit deuxième contenu sur ledit écran. D'autres caractéristiques et avantages apparaîtront à la lecture de la description qui suit, en référence aux dessins annexés dans lesquels : - la figure 1 montre un système de communication conforme à l'invention, - la figure 2 est une vue en perspective éclatée d'un premier mode de réalisation de planche à papiers électronique conforme à l'invention, - les figures 3 et 4 sont des schémas explicatifs du fonctionnement du mode de réalisation illustré par la figure 2, - la figure 5 montre une intégration possible du mode de réalisation illustré par la figure 2, - la figure 6 est une vue en perspective d'un deuxième mode de réalisation de planche à papiers électronique conforme à l'invention, - la figure 7 est une vue en perspective éclatée d'un premier mode de réalisation de tableau panoramique électronique conforme à l'invention, - les figures 8 et 9 sont des schémas explicatifs du fonctionnement du mode de réalisation illustré par la figure 7. Le système de communication représenté sur la figure 1 comprend un écran d'affichage 21 qui matérialise une planche à papiers (paperboard en anglais) virtuelle.
L'écran d'affichage 21 comprend deux dispositifs agencés pour reproduire les fonctionnalités d'une planche à papiers physique classique offertes généralement à un utilisateur. On rappelle qu'une planche à papiers physique comprend habituellement une pile stratifiée de feuilles de papier superposées avec chacune une face présentée sensiblement verticalement. Les feuilles sont reliées entre elles par une arête supérieure de façon à pouvoir être délitées successivement aisément au cours d'une séance de présentation par arrachement ou par retournement de la feuille visible vers l'arrière de la planche. La planche à papiers permet ainsi à un utilisateur de disposer d'une nouvelle feuille vierge sur laquelle il peut s'exprimer. Le ou les utilisateurs préfèrent généralement retourner les feuilles vers l'arrière de façon à pouvoir remémorer une étape précédente en cours de séance si besoin est en retournant une ou plusieurs feuilles vers l'avant. Par rapport au tableau blanc qu'il est nécessaire d'effacer pour continuer à écrire lorsqu'il est surchargé ou de manière à aborder un sujet suivant, la planche à papiers présente un avantage qui est celui de pouvoir garder une trace de la séance en récupérant les feuilles après la clôture.
Par rapport à un écran sur lequel on affiche une présentation préparée à l'avance, éventuellement modifiable par un animateur de séance depuis son ordinateur, la planche à papiers et le tableau blanc présentent un autre avantage qui est celui de dynamiser la séance en faisant participer le corps entier de l'utilisateur généralement debout et qui écrit par des mouvements amples du bras sur une surface généralement suffisamment étendue pour être visible par un groupe de participants. L'intervention possible d'autres participants sur la planche à papiers ou le tableau blanc dynamise encore davantage la séance. En d'autres termes, les objets physiques qui viennent d'être évoqués, permettent de combiner les actions corporelles aux actions cérébrales et ainsi d'enrichir la puissance de réflexion et d'échange des participants. De façon à reproduire les fonctionnalités avantageuses ci-dessus exposées, l'écran d'affichage 21 a des dimensions comparables à celles d'une planche à papiers classique et comporte les deux dispositifs à présent expliqués en référence à la figure 2. Le premier dispositif est agencé pour détecter au moins une position de doigt humain en mesurant une première grandeur physique qui varie en fonction d'un contact de doigt humain sur l'écran 21.
De manière à matérialiser un tableau blanc ou une planche à papiers au moyen de l'écran 21, le premier dispositif lié au tableau blanc ou à la planche à papier, est de préférence de type capacitif. Par exemple, le premier dispositif comprend un capteur tactile capacitif de type PCT (acronyme de l'expression anglaise Projected Capacitive Touch), particulièrement adapté aux surfaces de taille comparable à celle d'une planche à papiers ou d'un petit tableau blanc, généralement comprise entre un et deux mètres de diagonale. L'écran 21 comprend un film constitué typiquement de quatre couches transparentes. La couche 61 contient un réseau de conducteurs électriques orientés selon une première direction, par exemple verticale. La couche 81 contient un réseau de conducteurs électriques orientés selon une deuxième direction, par exemple horizontale. La couche 71, électriquement isolante, est disposée entre les couches 61 et 81. La couche 91, elle aussi électriquement isolante, est disposée sur la face avant de l'écran 21 de façon à créer un espace diélectrique entre les conducteurs de l'écran et les matières vivantes ou inertes en contact avec la face avant de l'écran. Le fonctionnement tactile de l'écran 21 est expliqué maintenant en référence aux figures 3 et 4. Les conducteurs électriques 182, 183, 184 de la couche 81 et les conducteurs électriques 162, 163, 164 de la couche 61, sont représentés en nombre nettement inférieur à la réalité qui est de l'ordre de plusieurs centaines, ceci de façon à en faciliter les explications. De même l'échelle de représentation des conducteurs électriques 182 à 184 et 162 à 164, est volontairement amplifiée. Les conducteurs électriques sont de préférence réalisés au moyen de nanotubes largement espacés les uns des autres dans une matrice transparente et électriquement isolante, de façon à maintenir la transparence des couches 81 et 61. Ils sont par exemple réalisés au moyen de fullerènes. Un circuit électronique 161 génère une tension de charge suivie d'une tension de décharge par rapport à la masse, appliquée successivement à chacun des conducteurs de la couche 61. La tension électrostatique résultante qui apparaît alors sur chacun des conducteurs de la couche 81, est mesurée par un circuit électronique 181 qui transmet le résultat de la mesure à un ordinateur 11. La figure 3 illustre un état de l'écran 21 à l'instant où la tension de charge est appliquée sur le conducteur 162 en absence de matière reliée à la masse et établissant un contact avec la face supérieure de la couche 91. Des lignes de champ électriques partant du conducteur 162, se répartissent de manière régulière dans la couche 71 pour converger sur chacun des conducteurs 182, 183, 184 en suivant un profil de base reproductible dans des conditions identiques au cours du temps. La figure 4 illustre un état de l'écran 21 aussi à l'instant où la tension de charge est appliquée sur le conducteur 162 mais ici en présence de matière reliée à la masse et établissant un contact avec la face supérieure de la couche 91. C'est le cas par exemple d'un doigt qui surplombe le conducteur 162 à proximité des conducteurs 182 et 183. Les lignes de champ électriques partant du conducteur 162, se répartissent alors de manière irrégulière dans la couche 71 pour converger partiellement sur chacun des conducteurs 182, 183 et partiellement sur le doigt en contact avec la couche isolante 91. Les lignes de champ électrique convergeant vers des conducteurs de la couche 81 plus éloignés, ne sont pas perturbées par le contact du doigt et continuent à suivre le profil de base. La perturbation provoquée par le déficit de charge résultant sur un ou plusieurs conducteurs 182, 183, modifie la mesure relative à ces conducteurs dans le circuit électronique 181. Un premier module logiciel de localisation dans l'ordinateur 11, est structuré pour analyser les mesures reçues du circuit électronique 181 de façon à localiser le point de contact du doigt sur l'écran 21. Une série de mesures sur les conducteurs de la couche 81 conforme au profil de base combinée à une tension de charge appliquée sur un conducteur échantillonné de la couche 61, valide une absence de matière reliée à la masse en contact avec les lieux de l'écran 21 qui surplombent le conducteur échantillonné. Une série de mesures sur les conducteurs de la couche 81 perturbée relativement au profil de base pour un ou plusieurs conducteurs, 182, 183 dans l'exemple illustré par la figure 4, combinée à une tension de charge appliquée sur un conducteur échantillonné, 162 dans l'exemple illustré par la figure 4, valide une présence de matière reliée à la masse en contact avec le ou les lieux de l'écran 21 qui surplombent à la fois le conducteur échantillonné, 162 dans l'exemple illustré par la figure 4, et le ou les conducteurs à mesure modifiée, 182, 183 dans l'exemple illustré par la figure 4. Le matériau utilisé pour la couche 91 peut être de nature souple ou rigide. On peut utiliser du poly téréphtalate d'éthylène, (PET) qui a de bonnes qualités de transparence, d'isolation électrique et dont la souplesse permet son adaptation sur des surfaces indifféremment planes ou courbes. On peut encore utiliser du poly méthacrylate de méthyle (PMMA) qui a aussi de bonnes qualités de transparence, d'isolation électrique et dont la rigidité permet d'imposer une surface plane. Il existe notamment des PMMA avec des qualités de transparence rehaussées qui s'apparentent à celles du verre.
Dans le mode de réalisation de l'écran 21 illustré par les figures 2 et 5, on ajoute au film de quatre couches ci-dessus exposé pour réaliser la fonction tactile de l'écran 21, une pellicule 72 translucide de manière à créer une image réelle visible depuis une face avant de l'écran 21 à partir d'une image projetée par un projecteur 41. Le projecteur 41, par exemple de type vidéoprojecteur, comporte de préférence un objectif grand angle à focale courte de façon à pouvoir être placé à courte distance de l'arrière de l'écran et de limiter ainsi l'encombrement nécessaire à sa mise en oeuvre. Le projecteur 41 est connecté à l'ordinateur 11 qui héberge un module logiciel d'affichage structuré pour générer des images sous forme projetable par le projecteur 41. Le mode de réalisation plus particulièrement représenté sur la figure 4, a pour avantage de libérer l'intellect de l'utilisateur en lui masquant la composante informatique du système. Le film tactile et la pellicule translucide sont intégrés dans un cadre encastré affleurant dans une cloison 53 derrière laquelle sont cachés le projecteur 41 et l'ordinateur 11. L'écran 21 se fond ainsi avec le mur de la salle. Une porte 52 permet d'accéder à l'arrière de l'écran 21 pour assurer la mise au point et la maintenance du système. Lorsque la couche 91 à l'avant de l'écran, est réalisée avec un matériau polymère souple tel que le PET, on ajoute à l'arrière de l'écran une lame de matériau transparent rigide par exemple comportant du PMMA, sur laquelle on applique la pellicule translucide et le film tactile de manière à raidir une planéité de l'écran 21. Dans le mode de réalisation de l'écran 21 illustré par la figure 6, on applique le film tactile sur un écran plat 54 par exemple à cristaux liquide (LCD pour Liquid Cristal Display en anglais), à micro-miroirs orientables (DLP pour Digital Light Processing en anglais), à plasma ou autres. Si on dispose d'un écran plat 54 originellement de type tactile offrant une surface de travail suffisante, on peut aussi utiliser directement un tel écran plat sans avoir recours au film tactile exposé ci-dessus. On monte l'écran plat 54, équipé de fonctions tactiles natives ou apportées par le film ci-dessus exposé, sur un chevalet 55 de manière à reproduire une planche à papiers (paper board) amovible qu'il est possible de déplacer dans la salle. Le montage combinant l'écran plat 54 ainsi équipé au chevalet 55, intègre un processeur de communication dédié (non représenté sur la figure) pour échanger en temps réel avec l'ordinateur 11 les données nécessaires d'une part à une restitution de média sensoriels sous forme visuelle, sonore ou autre et d'autre part à une localisation d'au moins un doigt sur l'écran plat 54, en d'autres termes sur l'écran 21. Le processeur de communication dédié intégré au montage de la figure 6, utilise de préférence un protocole de communication sans fil tel que ceux des normes de la famille 802.11 ou de la famille 802.15. Le deuxième dispositif est agencé pour détecter au moins une position d'objet distinctivement de celle d'un doigt humain sur l'écran 21. Le deuxième dispositif comprend un capteur 51 qui permet de mesurer une deuxième grandeur physique différente d'une capacité ou d'une charge électrique. La deuxième grandeur physique est liée à une réception de signal qui varie en fonction de la position de l'objet 31 par rapport à l'écran 21. Le signal est émis par l'objet 31 de manière uniforme, en d'autres termes indépendamment de la position de l'objet sur l'écran. Ceci facilite la réalisation de l'objet 31 car il n'est pas nécessaire de l'équiper avec un capteur, par exemple pour reconnaître une position qu'il pointerait sur l'écran. Le signal est par exemple, à titre purement illustratif et non exhaustif, de type ultrasons, rayon lumineux invisible dans les ultraviolets ou de préférence dans les infrarouges de plus faible niveau énergétique. Pour des ultrasons, le capteur 51 est par exemple un radar à ultrasons. Le signal peut être de tout autre type avec simplement pour contrainte d'être indétectable par les sens humains, de valeur émise indépendante des coordonnées de l'objet sur l'écran et de comporter au moins une composante qui n'interfère pas avec la mesure de la première grandeur physique par le premier dispositif qui reconnaît la position d'un doigt humain sur l'écran 21. Le capteur 51, par exemple disposé au centre d'une arrête supérieure de l'écran 21, est relié à l'ordinateur 11 par un câble dans le cas des figures 2 et 5 ou par liaison sans fil dans le cas de la figure 6. Un deuxième module logiciel de localisation dans l'ordinateur 11, est structuré pour analyser les mesures reçues du capteur 51 de façon à localiser le point de contact de l'objet 31 sur l'écran 21.
De la sorte, le capteur 51 combiné à l'objet 31, constitue un dispositif agencé pour détecter la position sur l'écran 21 d'au moins un objet semblable à l'objet 31 en le distinguant naturellement d'un doigt humain sans avoir à imposer à l'utilisateur de sélectionner un mode d'interprétation ou de reconnaissance par les modules logiciels résidant sur l'ordinateur 11. Dans les modes de réalisation pour lesquels on veut s'assurer que le capteur 51 ne capte un signal en provenance de l'objet 31 que lorsque ce dernier est en contact avec la surface de l'écran 21, plusieurs solutions sont proposées.
Une première solution consiste à installer un capteur 51 directif qui ne capte les signaux de la deuxième grandeur physique, par exemple les ultrasons, que dans une faible épaisseur de plan à proximité de la surface de l'écran 21. Une deuxième solution consiste à combiner au signal relatif à la deuxième grandeur physique, un signal relatif à une troisième grandeur physique, par exemple des rayons infrarouges émis parallèlement à la surface à partir du capteur 51 combinés à des ultrasons émis à partir de l'objet. Une troisième solution consiste à équiper une extrémité de l'objet 31 avec un interrupteur à poussoir de manière à activer l'émission du signal uniforme, notamment un train continu d'ultrasons à fréquence prédéterminée, lorsque l'objet 31 en contact mécanique avec l'écran 21 commute l'interrupteur en appuyant sur le poussoir. Le signal est alors émis uniformément avec par exemple une amplitude et une fréquence constantes prédéterminées pour l'objet 31.
Une autre fréquence, par exemple d'ultrason, peut être prédéterminée pour un autre objet 31 de façon à distinguer différents objets 31 entre eux. Par exemple un premier objet 31 sous forme d'un crayon d'une couleur donnée est paramétré pour émettre le signal à une fréquence donnée qui génère une fonction d'écriture sur l'écran à la couleur du crayon. Un deuxième objet 31 sous forme d'un crayon d'une autre couleur donnée est paramétré pour émettre le signal à une autre fréquence donnée qui génère une fonction d'écriture sur l'écran à la couleur de l'autre crayon. Par exemple encore, un troisième objet 31 sous forme d'un effaceur est paramétré pour émettre le signal à encore une autre fréquence donnée qui génère une fonction d'effacement sur l'écran. De la sorte l'utilisateur peut écrire ou effacer un motif sur l'écran avec l'objet 31 de son choix de la même manière qu'il le ferait avec un crayon ou une gomme classique sur une planche à papier ou sur un tableau blanc classique, favorisant ainsi une interactivité de type physique entre au moins plusieurs acteurs.
Le système de la figure 1 comporte aussi un mur ou tableau panoramique qui comprend un écran d'affichage 20. L'écran d'affichage 20 comprend deux dispositifs agencés pour reproduire les fonctionnalités qu'un mur ou un tableau panoramique peut offrir à un ou plusieurs utilisateurs.
Un mur panoramique classique permet généralement à l'utilisateur d'afficher une ou plusieurs pages arrachées de la planche à papiers à côté éventuellement de notes écrites sur de plus petites feuilles ou de documents divers. Le ou les utilisateurs apprécient de pouvoir écrire ensuite sur les pages affichées pour agrémenter leur discours ou approfondir leur réflexion. De façon à reproduire les fonctionnalités avantageuses ci-dessus exposées, l'écran d'affichage 20 a des dimensions comparables à celles d'un tableau panoramique classique, par exemple de l'ordre de 3m de diagonale ou plus. L'écran d'affichage 20 comporte avantageusement les deux dispositifs à présent expliqués en référence à la figure 7. Le premier dispositif est agencé ici encore, pour détecter au moins 5 une position de doigt humain en mesurant une première grandeur physique qui varie en fonction d'un contact de doigt humain sur l'écran 20. De manière à matérialiser un tableau panoramique au moyen de l'écran 20, le premier dispositif est de préférence de type à détection infrarouge. Par exemple, le premier dispositif comprend un capteur tactile 10 à perturbation de réflexion totale interne de type FTIR (acronyme de l'expression anglaise Frustrated Total Internal Reflexion), particulièrement adapté aux surfaces de grande taille, généralement supérieures à deux mètres de diagonale. L'écran 20 comprend une plaque constituée typiquement d'au 15 moins trois couches transparentes. La couche 60 est réalisée en un matériau transparent à indice optique élevé, par exemple en polyméthacrylate de méthyle (PMMA pour PolyMethyl MethAcrylate en anglais) d'indice de réfraction égal à 1,49. La couche 80 est réalisée en un matériau transparent à indice optique bas, par exemple contenant un 20 fluoropolymère amorphe induisant un indice de réfraction proche de 1,00. La couche 90, réalisée en un matériau translucide par exemple sous forme de film vinyle de préférence blanc satiné, est disposée sur la face avant de l'écran 20 de façon à diffuser un flux lumineux incident pour créer à sa surface des images réelles à partir de lumière projetée. 25 Le fonctionnement tactile de l'écran 20 est expliqué maintenant en référence aux figures 8 et 9. Une pluralité de diodes électroluminescentes 75 réparties sur le pourtour de la couche 60, sont orientées contre la tranche de la couche 60 pour émettre une pluralité de rayons de lumière infrarouge (IR) 76 dans 30 l'épaisseur de la couche 60. On pourrait utiliser des diodes émettant de la lumière sur d'autres longueurs d'onde pour obtenir l'effet technique expliqué ci-après. La lumière infrarouge présente cependant un intérêt par rapport à la lumière visible qui est celui d'être invisible à l'être humain et ainsi de ne pas perturber son observation visuelle de l'écran. La lumière infrarouge présente aussi un intérêt par rapport à d'autres fréquences de lumière invisible, notamment dans le spectre des ultraviolets, qui est celui d'être de faible niveau énergétique et ainsi de ne pas mettre en danger l'utilisateur pendant son observation visuelle de l'écran. L'indice de réfraction de la couche 60, supérieur à celui de la couche 80 sur la face avant de l'écran 20 et à celui de l'air sur la face arrière, donne à la couche 60 des qualités de guide d'onde exploitées comme expliqué ci-dessous. La figure 8 illustre un état de l'écran 20 en absence de matière exerçant une pression sur la face supérieure de la couche 80. Un rayon lumineux 76 émis dans la couche 60 à partir de l'une des diodes électroluminescentes 75 qui atteint la face supérieure ou la face inférieure de la couche 60 avec un angle d'incidence supérieur à l'angle de réfraction respectif donné par la loi de Snell-Descartes, ce qui est le cas de tous les rayons lumineux à une distance suffisamment grande des diodes électroluminescentes 75, est réfléchi vers l'intérieur de la couche 60. La figure 9 illustre un état de l'écran 20 en présence de matière exerçant une pression sur la face supérieure de la couche 80. C'est le cas par exemple d'un doigt en contact avec la couche 90. La pression exercée par le doigt, a pour effet de modifier l'indice de réfraction de la couche 80 et de dévier au moins partiellement le rayon lumineux 76 vers la face inférieure de la couche 60 correspondant à la face arrière de l'écran 20.
Le rayon lumineux 77 issu de la partie déviée du rayon lumineux 76 au point de contact, est capté par une caméra infrarouge 70. La caméra infrarouge 70 est équipée d'un objectif à courte focale de type grand angle de façon à pouvoir capturer une image de la totalité de la face arrière de l'écran 20 en étant placée à courte distance derrière l'écran 20. Pour un écran 20 de grandes dimensions, on peut aussi prévoir plusieurs caméras infrarouges 70, capturant chacune une image infrarouge d'une partie distincte de la face arrière de l'écran 20. Chaque caméra 70 transmet en temps réel ses images infrarouges capturées à un ordinateur 10. Un premier module logiciel de localisation dans l'ordinateur 10, est structuré pour analyser les images infrarouges reçues de la ou des caméras infrarouges 70 de façon à localiser le ou les points de contact d'un ou plusieurs doigts, voire d'un autre objet sur l'écran 20. En effet, la pluralité de diodes 75 disposées en ruban contre la tranche sur l'ensemble du périmètre de la couche 60, génère une pluralité de rayons lumineux 76 dans le plan de la couche 60, non seulement de sens opposés dans les directions perpendiculaires au arrêtes de la couche 60 mais en toutes directions résultant de la largeur du faisceau lumineux émis par chaque diode 75 et de réflexions multiples de chaque faisceau aux frontières de la couche 60. Ainsi, même en cas de contact sur un énième point de l'écran 20 derrière un premier point de contact sur le parcours d'un rayon 76, le énième point de contact dévie tout ou partie d'au moins un autre rayon lumineux provenant d'une autre direction. Ainsi, une pluralité de contacts sur l'écran 20, provoque une pluralité de points d'impact sur l'image infrarouge capturée par la ou l'une des caméras infrarouges 70. Les coordonnées de chaque point d'impact sont calculées par un programme de traitement d'image classique. En cas de pluralité de caméras infrarouges 70, le recollage des images bout à bout est effectué lui aussi par un programme de traitement d'image classique comme on en trouve par exemple dans le domaine de la photographie. Le matériau utilisé pour la couche 90 située à distance de la couche 60, est de préférence traité pour être opaque à la longueur d'onde des rayons lumineux 76 de façon à absorber d'éventuels rayons sur cette longueur d'onde provenant de la salle et d'éviter ainsi que de tels rayons ne perturbe l'image capturée par la caméra 70. La pellicule translucide de la couche 90 permet de créer une image réelle visible depuis une face avant de l'écran 20 à partir d'une image projetée par un projecteur 40. Le projecteur 40, par exemple de type vidéoprojecteur, comporte de préférence un objectif grand angle à focale courte de façon à pouvoir être placé à courte distance de l'arrière de l'écran et de limiter ainsi l'encombrement nécessaire à sa mise en oeuvre. Le projecteur 40 est connecté à l'ordinateur 10 qui héberge un module logiciel d'affichage structuré pour générer des images sous forme projetable par le projecteur 40. On peut aussi mettre en oeuvre un logiciel d'affichage qui permet de gérer plusieurs projecteurs 40 de manière à afficher une image de taille panoramique comme on en utilise par exemple en cinématographie sur écran géant. Le deuxième dispositif est agencé pour détecter au moins une position d'objet distinctivement de celle d'un doigt humain sur l'écran 20. Le deuxième dispositif comprend un capteur 50 qui permet de mesurer une deuxième grandeur physique différente d'un rayon lumineux circulant dans un guide d'onde. La deuxième grandeur physique est liée à une réception de signal qui varie en fonction de la position de l'objet 30 par rapport à l'écran 20. Le signal est émis par l'objet 30 de manière uniforme, de façon semblable à l'objet 31. Le signal émis par l'objet 30 est de même nature que celui émis par l'objet 31 lorsqu'on veut permettre à l'utilisateur d'employer l'objet 30 ou l'objet 31 indifféremment sur l'écran 20 ou l'écran 21. Le signal émis par l'objet 30 est de nature différente de celle du signal émis par l'objet 31 lorsqu'on veut imposer à l'utilisateur d'employer l'objet 30 et l'objet 31 spécifiquement sur l'écran 20 et l'écran 21. . Le capteur 50, par exemple disposé au centre d'une arrête supérieure de l'écran 20, est relié à l'ordinateur 10 par un câble ou par 25 liaison sans fil. Un deuxième module logiciel de localisation dans l'ordinateur 10, est structuré pour analyser les mesures reçues du capteur 50 de façon à localiser le point de contact de l'objet 30 sur l'écran 20. De la sorte, le capteur 50 combiné à l'objet 30, constitue ici encore un dispositif agencé pour détecter la position sur l'écran 20 d'au 30 moins un objet semblable à l'objet 30 en le distinguant naturellement d'un doigt humain sans avoir à imposer à l'utilisateur de sélectionner un mode d'interprétation ou de reconnaissance par les modules logiciels résidant sur l'ordinateur 10. Pour de grandes dimensions de l'écran 20, on peut installer plusieurs capteurs 50, chacun dédié à une portion de l'écran 20.
Le système de la figure 1 comporte aussi une ou plusieurs tablettes personnelles qui comprennent chacune un écran tactile 14, 15, 16 attribué à un participant dans la salle pour laquelle le système est installé. L'écran tactile 14, 15, 16 de chaque tablette est de relativement petite taille, comparable à celle d'un ordinateur portable de sorte qu'un dispositif tactile de type capacitif ou résistif classique lié à la tablette personnelle, convient parfaitement. On peut prévoir de pouvoir écrire sur les tablettes personnelles au moyen d'un stylet du commerce qui ne met pas en oeuvre le deuxième dispositif de l'invention. Les tablettes personnelles sont connectées à un ordinateur central 13 par liaison radio utilisant par exemple un protocole de communication sans fil tel que ceux des normes de la famille 802.11 ou de la famille 802.15. Un écran 22 est associé à une table horizontale de travail, avec dispositif de détection tactile de type à détection infrarouge, capacitif ou résistif d'un doigt ou d'un objet 32. L'objet 32 émet ou n'émet pas un signal comme le font les objets 30 et 31. Dans ce dernier cas l'objet 32 exécute les mêmes fonctions qu'un doigt par exemple à la manière d'une baguette qui prolonge l'action du bras sur une surface de grande dimension. L'écran 22 est connecté à un ordinateur 12.
Les ordinateurs 10, 11, 12, 13, sont interconnectés sur un réseau local 19 et comportent un même système d'exploitation qui permet d'exécuter un même programme installé sur chacun des ordinateurs 10, 11, 12, 13. Le programme est structuré pour détecter automatiquement le ou les écrans associés à l'ordinateur sur lequel il est installé et comment l'ordinateur 10, 11, 12 est configuré pour recevoir des positions de doigt humain détectée par le premier dispositif et des positions d objet 30, 31, 32 détectée par le deuxième dispositif. Le programme comprend plusieurs sous programmes qui communiquent entre eux.
Un sous programme de commande est structuré pour : - allouer au moins une zone d'écran 14, 15, 16, 17, 20, 21, 22 à une fonction de commande ; - exécuter la fonction de commande lorsque le premier dispositif détecte une position de doigt humain ou le deuxième dispositif détecte une position d'objet 30, 31, 32 dans la zone de l'écran 14, 15, 16, 17, 20, 21, 22 allouée à la fonction de commande. Un sous programme d'écriture est structuré pour : - allouer une zone d'écran 14, 15, 16, 17, 20, 21 à l'écriture ; - modifier dans la zone allouée à l'écriture un aspect visuel local qui suit une position d'objet 30, 31 sur l'écran lorsque l'objet émet son signal uniforme ; - faire varier la zone allouée à l'écriture en fonction d'un déplacement lié à la position du doigt humain sur l'écran 14, 15, 16, 17, 20, 21.
Sur les écrans 14, 15, 16, 17, la zone allouée à l'écriture matérialise une petite feuille de papier autoadhésive amovible virtuelle. Une fonction de commande est prévue pour générer à la demande au moins un exemplaire de petite feuille de papier autoadhésive amovible virtuelle sur l'un des écrans de tablette personnelle.
Une autre fonction de commande est prévue pour faire glisser à la demande l'exemplaire généré vers l'un des autres écrans de planche à papier, d'une autre tablette personnelle, de tableau panoramique et/ou de table horizontale de travail. Une fonction d'écriture est prévue pour modifier à la demande ledit exemplaire à partir de celui des écrans sur lequel il a été généré. Une autre fonction de commande est aussi prévue pour accéder à un premier contenu hébergé par la base de connaissances 18 en fonction d'actions de requêtes exercées par le doigt humain ou par l'objet sur l'écran de façon à afficher le premier contenu sur l'écran. Une autre fonction de commande encore est prévue pour enrichir la base de connaissances 18 avec un deuxième contenu affiché sur ledit écran en fonction d'actions d'expression exercées par ledit doigt humain ou par ledit objet sur ledit écran qui affichent ledit deuxième contenu sur ledit écran. Une fonction de commande est prévue pour insérer un élément multimédia dans la petite feuille de papier autoadhésive amovible virtuelle.10

Claims (13)

  1. REVENDICATIONS1. Système de communication pour reproduire et décupler une interactivité de type physique entre au moins deux acteurs, comprenant au moins un écran d'affichage (20, 21, 22) qui comporte un premier dispositif agencé pour détecter au moins une position de doigt humain en mesurant une première grandeur physique qui varie en fonction d'un contact de doigt humain sur ledit écran (20, 21, 22), caractérisé en ce qu'il comprend un deuxième dispositif agencé pour détecter au moins une position d'un objet (30, 31, 32) équipé de manière à émettre un signal uniforme, en mesurant une deuxième grandeur physique liée à une réception dudit signal uniforme qui varie en fonction de la position de l'objet (30, 31, 32) par rapport à l'écran (20, 21, 22).
  2. 2. Système selon la revendication 1, caractérisé en ce que ledit objet (30, 31, 32) est équipé de manière à émettre ledit signal uniforme lorsque l'objet est en contact mécanique avec ledit écran (20, 21, 22).
  3. 3. Système selon l'une des revendications 1 ou 2, caractérisé en ce que ledit signal est un train continu d'ultrasons à fréquence prédéterminée.
  4. 4. Système selon l'une des revendications précédentes, caractérisé en ce qu'il comprend un ordinateur (10, 11, 12) configuré au moins pour recevoir la position du doigt humain détectée par le premier dispositif et la position dudit objet (30, 31, 32) détectée par le deuxième dispositif et en ce que ledit ordinateur est programmé au moins pour : - allouer au moins une zone de l'écran (20, 21, 22) à une fonction de commande ; - exécuter ladite fonction de commande lorsque ledit premier dispositif détecte une position de doigt humain ou ledit deuxièmedispositif détecte une position dudit objet (30, 31, 32) dans la zone de l'écran (20, 21, 22) allouée à ladite fonction de commande.
  5. 5. Système selon l'une des revendications précédentes, caractérisé en ce qu'il comprend un ordinateur (10, 11, 12) configuré au moins pour recevoir la position du doigt humain détectée par le premier dispositif et la position dudit objet détectée par le deuxième dispositif et en ce que ledit ordinateur est programmé au moins pour : - allouer une zone de l'écran (20, 21, 22) à l'écriture ; - modifier dans ladite zone allouée à l'écriture un aspect visuel local qui suit la position de l'objet (20, 21, 22) sur l'écran lorsque ledit objet émet ledit signal uniforme ; - faire varier ladite zone allouée à l'écriture en fonction d'un déplacement lié à la position du doigt humain sur l'écran (20, 21, 22). 15
  6. 6. Système selon la revendication 5, caractérisé en ce que ladite zone allouée à l'écriture matérialise une petite feuille de papier autoadhésive amovible virtuelle. 20
  7. 7. Système selon l'une des revendications précédentes, caractérisé en ce qu'il comporte au moins un tableau blanc qui comprend ledit écran (21) et en ce que ledit premier dispositif est de type capacitif et lié audit écran blanc. 25
  8. 8. Système selon l'une des revendications précédentes, caractérisé en ce qu'il comporte au moins une tablette personnelle qui comprend ledit écran et en ce que ledit premier dispositif est de type capacitif et lié à ladite tablette personnelle. 30
  9. 9. Système selon l'une des revendications précédentes, caractérisé en ce qu'il comporte au moins un mur panoramique quicomprend ledit écran (20) et en ce que ledit premier dispositif est de type à détection infrarouge et lié audit mur panoramique.
  10. 10. Système selon l'une des revendications précédentes, caractérisé en ce qu'il comporte au moins une table horizontale de travail qui comprend ledit écran (22) et en ce que ledit premier dispositif est lié à ladite table et qu'il est de type à détection infrarouge, capacitif ou résistif.
  11. 11. Système selon les revendications 6 à 9, caractérisé en ce que ledit ordinateur (10, 11, 12, 13) est programmé pour : - générer à la demande au moins un exemplaire de petite feuille de papier autoadhésive amovible virtuelle sur l'un des écrans de tableau blanc, de tablette personnelle, de mur panoramique et/ou de table horizontale de travail ; - faire glisser à la demande ledit exemplaire vers l'un des autres écrans de tableau blanc, de tablette personnelle, de mur panoramique et/ou de table horizontale de travail ; - modifier à la demande ledit exemplaire à partir de celui des écrans sur lequel il a été généré et/ou sur lequel il a glissé.
  12. 12. Système selon l'une des revendications 6 ou 11, caractérisé en ce que ledit ordinateur est programmé pour : - insérer dans ladite petite feuille un élément multimédia. 25
  13. 13. Système selon l'une des revendications précédentes, caractérisé en ce que ledit ordinateur (10, 11, 12) est connecté à une base de connaissance (18) et en ce qu'il est programmé pour : - accéder à un premier contenu hébergé par ladite base de 30 connaissances (18) en fonction d'actions de requêtes exercées par ledit doigt humain ou par ledit objet sur ledit écran de façon à afficher ledit premier contenu sur ledit écran ;- enrichir ladite base de connaissances (18) avec un deuxième contenu affiché sur ledit écran en fonction d'actions d'expression exercées par ledit doigt humain ou par ledit objet sur ledit écran qui affichent ledit deuxième contenu sur ledit écran.
FR1261406A 2012-11-29 2012-11-29 Systeme de communication pour reproduire une interactivite de type physique entre au moins deux acteurs Expired - Fee Related FR2998686B1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
FR1261406A FR2998686B1 (fr) 2012-11-29 2012-11-29 Systeme de communication pour reproduire une interactivite de type physique entre au moins deux acteurs
JP2015544419A JP2016509275A (ja) 2012-11-29 2013-11-22 物理的タイプの対話性を再現する通信のシステム及び方法
EP13801493.1A EP2926232B1 (fr) 2012-11-29 2013-11-22 Système et procédé de communication reproduisant une interactivité de type physique
US14/648,570 US9733738B2 (en) 2012-11-29 2013-11-22 System and method for communication reproducing an interactivity of physical type
PCT/EP2013/074470 WO2014082928A1 (fr) 2012-11-29 2013-11-22 Système et procédé de communication reproduisant une interactivité de type physique
JP2019043694A JP2019133690A (ja) 2012-11-29 2019-03-11 物理的タイプの対話性を再現する通信のシステム及び方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1261406A FR2998686B1 (fr) 2012-11-29 2012-11-29 Systeme de communication pour reproduire une interactivite de type physique entre au moins deux acteurs
FR1261406 2012-11-29

Publications (2)

Publication Number Publication Date
FR2998686A1 true FR2998686A1 (fr) 2014-05-30
FR2998686B1 FR2998686B1 (fr) 2018-04-27

Family

ID=47741090

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1261406A Expired - Fee Related FR2998686B1 (fr) 2012-11-29 2012-11-29 Systeme de communication pour reproduire une interactivite de type physique entre au moins deux acteurs

Country Status (1)

Country Link
FR (1) FR2998686B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016146901A1 (fr) 2015-03-16 2016-09-22 Renault S.A.S. Système et procédé de collaboration immersive

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5402151A (en) * 1989-10-02 1995-03-28 U.S. Philips Corporation Data processing system with a touch screen and a digitizing tablet, both integrated in an input device
US6611258B1 (en) * 1996-01-11 2003-08-26 Canon Kabushiki Kaisha Information processing apparatus and its method
EP2228711A2 (fr) * 2009-03-12 2010-09-15 Lg Electronics Inc. Terminal mobile et procédé pour fournir une interface d'utilisateur correspondante
US20110163964A1 (en) * 2010-01-07 2011-07-07 Yen-Lung Tsai & Tsung-Chieh CHO Dual type touch display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5402151A (en) * 1989-10-02 1995-03-28 U.S. Philips Corporation Data processing system with a touch screen and a digitizing tablet, both integrated in an input device
US6611258B1 (en) * 1996-01-11 2003-08-26 Canon Kabushiki Kaisha Information processing apparatus and its method
EP2228711A2 (fr) * 2009-03-12 2010-09-15 Lg Electronics Inc. Terminal mobile et procédé pour fournir une interface d'utilisateur correspondante
US20110163964A1 (en) * 2010-01-07 2011-07-07 Yen-Lung Tsai & Tsung-Chieh CHO Dual type touch display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016146901A1 (fr) 2015-03-16 2016-09-22 Renault S.A.S. Système et procédé de collaboration immersive

Also Published As

Publication number Publication date
FR2998686B1 (fr) 2018-04-27

Similar Documents

Publication Publication Date Title
TWI543038B (zh) 用於實體使用者介面上之影像投影之裝置、系統、及方法
US9274699B2 (en) User interface for a large scale multi-user, multi-touch system
JP6078884B2 (ja) カメラ式マルチタッチ相互作用システム及び方法
EP2619640B1 (fr) Affichage interactif
JP5950130B2 (ja) カメラ式マルチタッチ相互作用装置、システム及び方法
JP6309527B2 (ja) ディスプレイ一体型カメラアレイ
Schöning et al. Building interactive multi-touch surfaces
US20120127128A1 (en) Hover detection in an interactive display device
WO2011029067A2 (fr) Système tactile multipoint et à utilisateurs multiples à grande échelle
EP2457143A1 (fr) Affichage permettant de déterminer des gestes
CN106415439A (zh) 用于镜面反射红外光的投影屏幕
US20120120029A1 (en) Display to determine gestures
JP2019133690A (ja) 物理的タイプの対話性を再現する通信のシステム及び方法
FR2998686A1 (fr) Systeme de communication pour reproduire une interactivite de type physique entre au moins deux acteurs
CN109271070A (zh) 电容触控式短焦投影幕及投影系统
BE1023596B1 (fr) Système interactif basé sur des gestes multimodaux et procédé utilisant un seul système de détection
WO2006136696A1 (fr) Procede et dispositif pour rendre un volume ou une surface interactifs
TWI419017B (zh) 一種具有片狀光層之指標輸入系統
Izadi et al. Experiences with building a thin form-factor touch and tangible tabletop
Teichert et al. Advancing large interactive surfaces for use in the real world
FR2887659A1 (fr) Dispositif pour rendre un volume ou une surface interactifs
Hušek Multi-touch Table with Image Capturing
Kimura et al. A framework for detecting positions of objects in water
TWI438651B (zh) 光學式手寫輸入裝置
CN101923428B (zh) 光学式手写输入装置

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

CA Change of address

Effective date: 20221121

ST Notification of lapse

Effective date: 20230705