CH707346B1 - Procédé et dispositif pour réaliser une surface tactile multipoints à partir d'une surface plane quelconque et pour détecter la position d'un objet sur une telle surface. - Google Patents
Procédé et dispositif pour réaliser une surface tactile multipoints à partir d'une surface plane quelconque et pour détecter la position d'un objet sur une telle surface. Download PDFInfo
- Publication number
- CH707346B1 CH707346B1 CH00521/08A CH5212008A CH707346B1 CH 707346 B1 CH707346 B1 CH 707346B1 CH 00521/08 A CH00521/08 A CH 00521/08A CH 5212008 A CH5212008 A CH 5212008A CH 707346 B1 CH707346 B1 CH 707346B1
- Authority
- CH
- Switzerland
- Prior art keywords
- points
- plane
- impact
- flat surface
- detected
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0428—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
L’invention concerne un procédé et un dispositif pour réaliser une surface tactile multipoints à partir d’une surface plane quelconque et pour détecter un objet sur une telle surface, dans lequel on éclaire ladite surface et l’on détecte la position dudit objet au moyen d’un capteur. Le dispositif (10) comporte une surface plane sensiblement rectangulaire (11) associée à deux sources lumineuses (12) sous la forme d’illuminateurs laser intégré placés dans les angles supérieurs de la surface plane (11) et comportant chacun un capteur acoustique. Une caméra vidéo (16) surplombe la surface plane et est agencée pour la filmer pendant au moins l’intervalle de temps où un objet mobile intercepte ce plan lumineux. La détection de la position de l’objet au moment d’un impact avec la surface plane (11) et la détermination de la position des points d’impact se fait par «projection homographique» ou par interpolation par l’intermédiaire d’un ordinateur (14) ou d’un boîtier de contrôle dédié (15).
Description
[0001] La présente invention concerne un procédé pour réaliser une surface tactile multipoints à partir d’une surface plane quelconque et pour détecter un objet sur une telle surface, dans lequel on éclaire ladite surface et l’on détecte la position dudit objet au moyen d’un capteur.
[0002] Elle concerne également un dispositif pour réaliser une surface tactile multipoints à partir d’une surface plane quelconque et pour détecter un objet sur une telle surface, dans lequel on éclaire ladite surface et l’on détecte la position dudit objet au moyen d’un capteur.
[0003] La détection de la position de contact des doigts ou d’objets allongés tels que des crayons, des baguettes ou similaires avec une surface, notamment une surface plane, est généralement complexe. De surcroît, il est difficile, voire impossible, de détecter simultanément la position de contact de plusieurs objets allongés et de suivre leur déplacement en continu. Enfin, cette détection ne peut habituellement être faite qu’avec des surfaces spécifiques et non en liaison avec n’importe quelle surface plane telle que par exemple, la surface d’une table, d’un mur, d’un écran ou similaire.
[0004] On connaît par le brevet US 7 268 692 B1 un procédé et un dispositif pour détecter la position de la main d’une personne sur une surface plane, ce dispositif comportant des moyens d’éclairage localisés dans un premier angle de la surface bidimensionnelle et au moins un détecteur disposé en avant de la main et qui détecte la lumière réfléchie par la main de la personne en vue de déterminer sa position par rapport à un réseau imaginaire associé à la surface.
[0005] Cette réalisation est complexe et nécessite l’installation d’une surface spéciale avec la création d’une sorte de rideau imaginaire disposé devant la surface et qui permet de localiser les positions de la main.
[0006] Un autre dispositif est décrit par la publication européenne EP 0 982 676 A1 qui utilise deux lasers effectuant un balayage de la surface. Lorsque les rayons interceptent un obstacle, l’angle de chacun des faisceaux laser est mesuré et la position est déterminée par triangulation. Ce dispositif nécessite la présence de deux capteurs disposés juste à côté des émetteurs laser pour détecter les rayons réfléchis par les obstacles.
[0007] La publication européenne EP 1 215 621 A2 a pour objet un dispositif comportant un seul laser d’éclairage destiné à éclairer une surface que l’on veut rendre tactile et qui balaie cette surface environ cinquante fois par seconde. La détection de l’impact d’un obstacle, c’est-à-dire la détermination du moment et de la position de l’impact, s’effectue par la mesure de l’angle et du temps de déplacement du rayon réfléchi. Ce dispositif utilise un miroir articulé qui permet au rayon laser d’effectuer le balayage requis.
[0008] Le brevet américain US 7 215 327 B2 concerne un système à deux lasers dont l’un est disposé en hauteur pour dessiner un clavier sur une surface que l’on souhaite rendre tactile, et dont le second est disposé au raz de la surface pour détecter les touches virtuelles pressées. Comme précédemment, le dispositif utilise des miroirs articulés, sous la forme de miroirs rotatifs à facettes multiples, qui permettent aux rayons laser d’effectuer le balayage de la surface. La position des obstacles est calculée selon un procédé de mesure des différences du temps des deux faisceaux.
[0009] La publication internationale WO 02/054 169 a pour objet un procédé et un dispositif d’entrée de données comportant un illuminateur d’un plan et une caméra et destiné à définir un clavier virtuel dont les dimensions sont bien définies.
[0010] Tous ces dispositifs sont complexes et l’utilisation d’un système de lasers à balayage implique une mécanique compliquée et coûteuse.
[0011] La présente invention se propose de pallier les inconvénients des systèmes connus en réalisant un dispositif simple et efficace pouvant être mis en œuvre facilement et qui permet l’utilisation de surfaces quelconques et de grandes dimensions.
[0012] Ce but est atteint par le procédé selon l’invention tel que défini en préambule et caractérisé en ce que l’on éclaire ladite surface plane au moyen d’au moins une source lumineuse fixe agencée pour générer un plan lumineux sensiblement parallèle à la surface, en ce que l’on filme ladite surface plane au moyen d’au moins une caméra vidéo pendant au moins l’intervalle de temps où un objet mobile intercepte ledit plan lumineux, en ce que l’on détecte la position dudit objet au moment d’un impact avec ladite surface plane, en ce que l’on détermine la position des points d’impact, en ce que l’on transforme la position des points d’impact détectés de façon à établir la correspondance entre les points d’un plan image virtuellement représenté par ladite surface plane et les points du plan physique de cette surface, et en ce que l’on associe audit plan image des actions physiques et/ou programmées.
[0013] Selon un mode de réalisation avantageux, la position des points d’impact détectés est transformée selon un procédé géométrique appelé «projection homographique» ou par interpolation de façon à établir la correspondance entre les points du plan image et les points du plan physique.
[0014] L’on peut utiliser comme source lumineuse fixe au moins un illuminateur laser fixe qui génère un faisceau plat recouvrant ladite surface plane, mais de préférence, l’on utilise comme source lumineuse fixe au moins deux illuminateurs laser fixes disposés à deux angles opposés de ladite surface plane.
[0015] L’on utilise également au moins un capteur acoustique agencé pour déterminer le moment d’un impact de l’objet avec ladite surface plane et l’intensité de cet impact.
[0016] Selon la variante du procédé, l’on peut associer audit plan image des actions physiques du type sonore, notamment musicales ou des actions physiques du type visuel.
[0017] De façon avantageuse, on utilise au moins deux caméras vidéo pour effectuer le calcul de la position des points d’impact sur ladite surface plane par triangulation.
[0018] D’une manière préférentielle, pour filmer, on utilise au moins une caméra vidéo disposée devant ladite surface plane et, lorsque la surface plane est transparente, l’on filme au moyen d’au moins une caméra vidéo disposée derrière ladite surface plane.
[0019] Ce but est également atteint par le dispositif selon l’invention tel que défini en préambule et caractérisé en ce que ledit dispositif comporte au moins une source lumineuse fixe pour éclairer ladite surface plane, ladite source étant agencée pour générer un plan lumineux sensiblement parallèle à la surface plane, au moins une caméra vidéo surplombant ladite surface plane et agencée pour la filmer pendant au moins l’intervalle de temps où un objet mobile intercepte ledit plan lumineux, des moyens agencés pour détecter la position dudit objet au moment d’un impact avec ladite surface plane et pour déterminer la position des points d’impact, des moyens agencés pour transformer la position des points d’impacts détectés de façon à établir la correspondance entre les points d’un plan image virtuellement représenté par ladite surface plane et les points du plan physique de cette surface et des moyens agencés pour associer audit plan image des actions physiques et/ou programmées.
[0020] Dans la forme de réalisation préférée du dispositif, lesdits moyens pour transformer la position des points d’impact détectés de façon à établir la correspondance entre les points du plan image et les points du plan physique comprennent un ordinateur ou un boîtier de contrôle dédié agencé pour appliquer un procédé géométrique appelé «projection homographique» ou pour faire une interpolation, et les moyens agencés pour déterminer le moment d’un impact de l’objet avec ladite surface plane et l’intensité de cet impact comprennent au moins un capteur acoustique.
[0021] De façon avantageuse, ladite source lumineuse fixe du dispositif comporte au moins un illuminateur laser qui génère un faisceau plat recouvrant ladite surface plane.
[0022] Ledit au moins un illuminateur laser peut comprendre un émetteur d’un faisceau laser, ledit au moins un capteur acoustique, au moins un connecteur agencé pour établir la liaison avec l’ordinateur ou le boîtier de contrôle dédié et un micro-miroir réglable agencé pour réfléchir le faisceau laser en vue de le diriger sur un générateur de ligne agencé pour éclairer toute la surface plane.
[0023] De préférence, ledit au moins un illuminateur laser est fixé sur la surface plane de façon à assurer un bon couplage acoustique.
[0024] Dans une forme de réalisation préférée, le dispositif comporte au moins deux illuminateurs laser fixes disposés à deux angles opposés de ladite surface plane.
[0025] Selon la forme de réalisation du dispositif, lesdits moyens pour associer audit plan image des actions physiques sont agencés pour associer des actions du type sonore, notamment musicales ou pour associer des actions du type visuel.
[0026] Dans une autre forme de réalisation, le dispositif comporte au moins deux caméras vidéo surplombant ladite surface plane, et chaque illuminateur laser comporte une caméra intégrée agencée pour déterminer la position des points d’impact sur ladite surface plane par triangulation.
[0027] De façon avantageuse, ladite caméra vidéo est disposée devant ladite surface plane mais, lorsque cette surface plane est transparente, ladite caméra vidéo peut être disposée derrière ladite surface plane.
[0028] La présente invention et ses avantages seront mieux comprise à la lecture de la description détaillée d’une forme de réalisation préférée du dispositif de l’invention, en référence aux dessins annexés, donnés à titre indicatif et non limitatif, dans lesquels:
<tb>la fig. 1<SEP>est une vue générale en plan illustrant une première forme de réalisation du dispositif selon l’invention,
<tb>la fig. 2<SEP>est une vue d’ensemble schématique d’un illuminateur laser et des composants annexes du dispositif de la fig. 1 ,
<tb>les fig. 3A et 3B<SEP>sont des vues schématiques respectivement en élévation et de dessus du dispositif de la fig. 1 ,
<tb>les fig. 4A et 4B<SEP>sont des vues partielles respectivement en plan et latérale d’une seconde forme de réalisation du dispositif selon l’invention, et
<tb>la fig. 5<SEP>est une vue en coupe verticale d’un illuminateur laser équipant le dispositif des fig. 4A et 4B .
[0029] Le procédé selon l’invention par lequel il est possible de réaliser une surface tactile multipoints à partir d’une surface plane quelconque et de détecter un objet sur une telle surface se déroule de la façon suivante. On éclaire la surface plane que l’on souhaite rendre tactile en créant un plan lumineux de faible épaisseur parallèle à cette surface. Un utilisateur déplace alors un objet, par exemple ses doigts, en contact avec la surface rendue tactile, de sorte qu’ils interceptent le plan lumineux, la lumière étant réfléchie vers l’avant en créant des taches lumineuses sur l’extrémité de l’objet ou des doigts. Une caméra vidéo sensible à la lumière utilisée pour éclairer la surface, par exemple à l’infrarouge, filme la scène qui enregistre la position des taches lumineuses. L’image est ensuite filtrée pour isoler les taches lumineuses, par soustraction du fond, filtrage de la couleur, application d’un seuil de luminosité etc. Lorsque les taches sont isolées, un algorithme de détection des taches calcule leur position dans l’image. La position des points d’impacts détectés est transformée selon un procédé géométrique appelé «homographie» ou «projection homographique» ou par interpolation bilinéaire de façon à établir la correspondance entre les points du plan image et les points du plan physique sur la surface.
[0030] La transformation par interpolation bilinéaire consiste en les étapes suivantes:
– pour chaque point dans l’image on cherche les trois points de calibration les plus proches, déterminés au préalable avec une grille de calibration,
– on effectue ensuite le calcul de l’aire du triangle formé par ces trois points ainsi que l’aire des trois sous-triangles de la pyramide formée par ces trois points et le point courant,
– on calcule le rapport entre l’aire totale et celle des sous-triangles,
– on cherche les trois points correspondants dans la grille de calibration et le point réel courant est calculé de façon à ce que le rapport des aires des sous-triangles soit respecté.
[0031] La transformation par interpolation bilinéaire a pour avantage non seulement d’établir la conversion des points images mais également de compenser la distorsion de l’image. Un logiciel permet ensuite de configurer la surface en définissant des zones auxquelles sont associées des actions sonores, visuelles et/ou programmées.
[0032] Différentes variantes de ce procédé sont envisageables. La caméra unique peut être remplacée par deux ou plusieurs caméras vidéo pour diminuer le problème de l’occlusion, l’un des doigts pouvant en masquer un autre. Dans ce cas, le calcul de la position sur le plan physique s’effectue de préférence par triangulation mais peut aussi s’effectuer par interpolation. Ce calcul peut être effectué par un ordinateur personnel ou par un système embarqué. Les caméras peuvent être placées sous la surface plane à condition que cette dernière soit transparente, par exemple une plaque en verre. La détermination temporelle du contact avec la surface plane peut être déterminée de façon encore plus précise en complétant la détection par l’interprétation d’un signal sonore qui définit avec précision le moment et l’intensité de l’impact.
[0033] En vue de diminuer le risque de dommages aux yeux créés par les lasers, ceux-ci peuvent être éteints automatiquement lorsque aucun mouvement des objets n’est constaté dans le champ de la caméra ou s’ils ne sont pas solidarisés convenablement par rapport à la surface. La source lumineuse peut émettre une lumière pulsée synchronisée avec l’image.
[0034] Le dispositif 10, tel que le montre à titre d’exemple la fig. 1 , et destiné à mettre en œuvre le procédé tel que décrit ci-dessus, comporte une surface plane sensiblement rectangulaire 11 que l’on veut rendre interactive en la rendant tactile et qui est associée à au moins une et de préférence au moins deux sources lumineuses 12 qui sont par exemple des illuminateurs avec laser intégré placés dans les angles supérieurs de la surface plane 11. Ces sources lumineuses peuvent également se présenter sous la forme de sources de lumière infrarouge générée par des diodes luminescentes (LED) qui illuminent la surface de façon rasante en créant un plan lumineux 13 parallèle à la surface plane 11 que l’on veut rendre tactile et interactive. Les sources lumineuses 12 sont ensuite connectées à un ordinateur 14 ou à un boîtier de contrôle dédié 15 ou similaire dont la fonction sera définie ci-après.
[0035] Dans la forme de réalisation préférée du dispositif de l’invention, les sources lumineuses 12 sont réalisées sous la forme d’illuminateurs laser. Ces illuminateurs laser intègrent également plusieurs autres fonctions utiles pour le fonctionnement global du dispositif. A cet effet, dans la forme de réalisation représentée par la fig. 2 , un illuminateur 12 constituant une source lumineuse comprend, en plus d’un émetteur de faisceau laser 20, au moins un capteur acoustique 21 qui permet de déterminer le moment précis du contact d’un objet allongé avec la surface et de mesurer l’intensité des impacts lors des contacts. Ce capteur acoustique 21, qui dans la forme de réalisation représentée est au nombre de deux, est par exemple du type piézo-électrique. Les autres composants intégrés sont au moins un connecteur 22, agencé pour établir une liaison avec l’ordinateur 14 ou le boîtier de contrôle dédié 15 et un micro-miroir 23 réglable mécaniquement ou électroniquement, aussi appelé DMD ou Digital Micromirror Device, agencé pour réfléchir le faisceau laser en vue de le diriger sur un générateur de ligne 24 qui permet d’éclairer toute ladite surface plane 11.
[0036] Le dispositif 10, représenté schématiquement par les fig. 3A et 3B , comporte par ailleurs une caméra vidéo 16 surplombant la surface plane 11 qui est conçue pour filmer l’image de la surface et des objets ou des doigts qui entrent en contact avec cette surface. La caméra vidéo 16 est un capteur sensible à la lumière qui est émise par les sources lumineuses 12 et qui est interceptée par les objets mobiles entrant en contact avec ladite surface plane 11.
[0037] Dans cette forme de réalisation du dispositif 10 tel que décrit, les sources lumineuses 12 sont des illuminateurs laser placés dans les angles supérieurs de la surface plane 11 et qui gèrent l’ensemble des fonctions suivantes:
– la connexion de la caméra vidéo et du second illuminateur par au moins un connecteur 22,
– le contrôle de l’alimentation du laser 20 et le réglage de sa puissance,
– la gestion de la sécurité, notamment par l’utilisation de microcontacts (non représentés) disposés sous le boîtier de l’illuminateur 12,
– le contrôle de l’alignement du plan laser par l’utilisation du micro-miroir électronique ou mécanique 23,
– la synchronisation de l’enclenchement du laser 20 avec l’obturateur de la caméra 16,
– la détection des vibrations sur la surface interactive 11 par l’utilisation des capteurs piézo-électriques 21,
– le conditionnement, le filtrage et l’amplification du signal provenant du ou des capteurs piézo-électriques 21,
– la détection de seuil et la mesure de l’intensité du signal acoustique émis par le contact de l’objet, et
– la conversion analogique/numérique du signal acoustique et la transmission par le connecteur 22.
[0038] Pour des raisons pratiques, les illuminateurs laser 12 ont de préférence un faible encombrement pour pouvoir être intégrés dans des produits commerciaux tels qu’une table tactile par exemple et sont équipés de dispositifs d’attache multiple permettant une fixation temporaire ou permanente sur une surface pour assurer un bon couplage acoustique.
[0039] Les illuminateurs, qui sont de préférence au nombre de deux pour assurer un éclairage complet de la surface plane 11, sont agencés, avec leurs composants accessoires, pour illuminer complètement une surface au moyen d’une nappe de lumière plane. La caméra 16 permet de situer un objet sur la surface éclairée et l’ordinateur 14 ou le boîtier de contrôle dédié 15 est agencé pour exécuter les algorithmes permettant de calculer les positions sur le plan physique des points détectés qui constituent des zones tactiles auxquelles sont associées des fonctions. La détection des positions sur le plan image est aussi effectuée par l’ordinateur 14 ou le boîtier de contrôle 15 mais peut également se faire par la caméra en utilisant une caméra pourvue d’un traitement des données intégré.
[0040] Les fig. 4A et 4B illustrent une des vues partielles d’une autre forme de réalisation du dispositif selon l’invention dans laquelle celui-ci comporte au moins deux caméras vidéo (non représentées) conçues pour filmer l’image de la surface plane 11 et des objets qui entrent en contact avec ladite surface. Ce dispositif 10 ́ comporte deux illuminateurs laser 12 ́ disposés verticalement et placés dans les angles supérieurs de la surface plane 11 ́ en faisant un angle de 45° par rapport aux bords de ladite surface.
[0041] Chaque illuminateur 12 ́, représenté plus en détail verticalement en coupe par la fig. 5 , comporte comme l’illuminateur 12 décrit en référence à la fig. 2 , un émetteur de faisceau laser 20 ́ et au moins un capteur acoustique 21 ́ disposé sur la face de l’illuminateur en contact avec la surface plane 11 ́ pour établir un bon couplage acoustique. Il comporte également un micro-miroir 23 ́ agencé pour réfléchir le faisceau laser en vue de le diriger sur un générateur de ligne 24 ́ qui permet d’éclairer toute la surface plane 11. Cet illuminateur 12 ́ est en outre pourvu d’une caméra 25 disposée dans sa partie supérieure et agencée pour permettre un calcul des positions d’impact 26 par triangulation en utilisant l’angle d’incidence pour déterminer quel point correspond à quel point dans chaque image.
[0042] Cette forme de réalisation comportant au moins deux caméras vidéo surplombant la surface plane permet, grâce à l’information sur l’incidence, avec deux caméras seulement de différencier nettement plusieurs points, ce qui ne peut pas être fait lorsque les caméras sont disposées au raz de la surface plane.
[0043] Le dispositif selon l’invention peut être utilisé dans de nombreuses applications. A titre d’exemple d’utilisation, dans le domaine musical, la surface tactile permet de piloter un synthétiseur. Les zones tactiles correspondent à des sons reproduits par des instruments. La surface tactile peut également être associée à la projection d’une image d’un écran pour visualiser la correspondance entre les zones tactiles et des fonctions du dispositif, par exemple la génération de sons musicaux.
Claims (21)
1. Procédé pour réaliser une surface tactile multipoints à partir d’une surface plane quelconque et pour détecter un objet sur une telle surface, dans lequel on éclaire ladite surface et l’on détecte la position dudit objet au moyen d’un capteur, caractérisé en ce que l’on éclaire ladite surface plane (11) au moyen d’au moins une source lumineuse fixe agencée pour générer un plan lumineux sensiblement parallèle à la surface, en ce que l’on filme ladite surface plane au moyen d’au moins une caméra vidéo (16) pendant au moins l’intervalle de temps où un objet mobile intercepte ledit plan lumineux, en ce que l’on détecte la position dudit objet au moment d’un impact avec ladite surface plane, en ce que l’on détermine la position des points d’impact, en ce que l’on transforme la position des points d’impact détectés de façon à établir la correspondance entre les points d’un plan image virtuellement représenté par ladite surface plane (11) et les points du plan physique de cette surface.
2. Procédé selon la revendication 1, caractérisé en ce que la position des points d’impact détectés est transformée selon un procédé géométrique appelé «projection homographique» de façon à établir la correspondance entre les points du plan image et les points du plan physique.
3. Procédé selon la revendication 1, caractérisé en ce que la position des points d’impact détectés est transformée par une interpolation bilinéaire de façon à établir la correspondance entre les points du plan image et les points du plan physique.
4. Procédé selon la revendication 1, caractérisé en ce que l’on utilise comme source lumineuse fixe au moins un illuminateur laser fixe (12; 12 ́) qui génère un faisceau plat recouvrant ladite surface plane (11; 11 ́).
5. Procédé selon la revendication 1, caractérisé en ce que l’on utilise comme source lumineuse fixe au moins deux illuminateurs laser fixes (12; 12 ́) disposés à deux angles opposés de ladite surface plane (11; 11 ́).
6. Procédé selon la revendication 1, caractérisé en ce que l’on utilise également au moins un capteur acoustique (21; 21 ́) agencé pour déterminer le moment d’un impact de l’objet avec ladite surface plane (11; 11 ́) et l’intensité de cet impact.
7. Procédé selon la revendication 1, selon lequel on utilise au moins deux caméras vidéo, caractérisé en ce que l’on effectue le calcul de la position des points d’impact sur ladite surface plane (11 ́) par triangulation.
8. Procédé selon l’une des revendications précédentes, caractérisé en ce que l’on filme au moyen d’au moins une caméra vidéo (16) disposée devant ladite surface plane (11).
9. Procédé selon l’une des revendications précédentes, dans lequel ladite surface plane (11) est transparente, caractérisé en ce que l’on filme au moyen d’au moins une caméra vidéo (16) disposée derrière ladite surface plane.
10. Dispositif pour réaliser une surface tactile multipoints à partir d’une surface plane quelconque et pour détecter un objet sur une telle surface, dans lequel on éclaire ladite surface et l’on détecte la position dudit objet au moyen d’un capteur pour la mise en œuvre du procédé selon la revendication 1, caractérisé en ce que ledit dispositif (10; 10 ́) comporte au moins une source lumineuse fixe (12; 12 ́) pour éclairer ladite surface plane (11; 11 ́), ladite source étant agencée pour générer un plan lumineux sensiblement parallèle à la surface plane, au moins une caméra vidéo (16) surplombant ladite surface plane et agencée pour la filmer pendant au moins l’intervalle de temps où un objet mobile intercepte ledit plan lumineux, des moyens agencés pour détecter la position dudit objet au moment d’un impact avec ladite surface plane (11; 11 ́) et pour déterminer la position des points d’impact, des moyens (14, 15) agencés pour transformer la position des points d’impacts détectés de façon à établir la correspondance entre les points d’un plan image virtuellement représenté par ladite surface plane et les points du plan physique de cette surface et des moyens agencés pour associer audit plan image des actions physiques et/ou programmées.
11. Dispositif selon la revendication 10, caractérisé en ce que lesdits moyens pour transformer la position des points d’impact détectés de façon à établir la correspondance entre les points du plan image et les points du plan physique comprennent un ordinateur (14) ou un boîtier de contrôle dédié (15) agencé pour appliquer un procédé géométrique appelé «projection homographique» ou pour faire une interpolation.
12. Dispositif selon la revendication 10, caractérisé en ce que les moyens agencés pour déterminer le moment d’un impact de l’objet avec ladite surface plane et l’intensité de cet impact comprennent au moins un capteur acoustique (21; 21 ́).
13. Dispositif selon la revendication 10, caractérisé en ce que ladite source lumineuse fixe comporte au moins un illuminateur laser (12; 12 ́) qui génère un faisceau plat recouvrant ladite surface plane (11; 11 ́).
14. Dispositif selon les revendications 10 à 13, caractérisé en ce que ledit au moins un illuminateur laser (12; 12 ́) comprend un émetteur (20; 20 ́) d’un faisceau laser, ledit au mois un capteur acoustique (21; 21 ́), au moins un connecteur (22) agencé pour établir la liaison avec l’ordinateur (14) ou le boîtier de contrôle dédié (15) et un micro-miroir réglable (23; 23 ́) agencé pour réfléchir le faisceau laser en vue de le diriger sur un générateur de ligne (24; 24 ́) agencé pour éclairer toute la surface plane (11; 11 ́).
15. Dispositif selon la revendication 14, caractérisé en ce que ledit au moins un illuminateur laser (12; 12 ́) est fixé sur ladite surface plane (11; 11 ́) de façon à assurer un bon couplage acoustique.
16. Dispositif selon la revendication 10, caractérisé en ce que ladite source lumineuse comporte au moins deux illuminateurs laser (12; 12 ́) disposés à deux angles opposés de ladite surface plane (11; 11 ́).
17. Dispositif selon la revendication 10, caractérisé en ce que lesdits moyens pour associer audit plan image des actions physiques sont agencés pour associer des actions du type sonore, notamment musicales.
18. Dispositif selon la revendication 10, caractérisé en ce que lesdits moyens pour associer audit plan image des actions physiques sont agencés pour associer des actions du type visuel.
19. Dispositif selon les revendications 10 à 18, caractérisé en ce qu’il comporte au moins deux caméras vidéo surplombant ladite surface plane (11 ́), et en ce que chaque illuminateur laser (12 ́) comporte une caméra intégrée (25) agencée pour déterminer la position des points d’impact (26) sur ladite surface plane (11 ́) par triangulation.
20. Dispositif selon l’une des revendications 10 à 19, caractérisé en ce que ladite au moins une caméra vidéo (16) est disposée devant ladite surface plane (11).
21. Dispositif selon l’une des revendications 10 à 20, caractérisé en ce que ladite surface plane est transparente et en ce que ladite au moins une caméra vidéo (16) est disposée derrière ladite surface plane (11).
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CH00521/08A CH707346B1 (fr) | 2008-04-04 | 2008-04-04 | Procédé et dispositif pour réaliser une surface tactile multipoints à partir d'une surface plane quelconque et pour détecter la position d'un objet sur une telle surface. |
PCT/CH2009/000112 WO2009121199A1 (fr) | 2008-04-04 | 2009-04-03 | Procede et dispositif pour realiser une surface tactile multipoints a partir d'une surface plane quelconque et pour detecter la position d'un objet sur une telle surface |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CH00521/08A CH707346B1 (fr) | 2008-04-04 | 2008-04-04 | Procédé et dispositif pour réaliser une surface tactile multipoints à partir d'une surface plane quelconque et pour détecter la position d'un objet sur une telle surface. |
Publications (1)
Publication Number | Publication Date |
---|---|
CH707346B1 true CH707346B1 (fr) | 2014-06-30 |
Family
ID=40020256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CH00521/08A CH707346B1 (fr) | 2008-04-04 | 2008-04-04 | Procédé et dispositif pour réaliser une surface tactile multipoints à partir d'une surface plane quelconque et pour détecter la position d'un objet sur une telle surface. |
Country Status (2)
Country | Link |
---|---|
CH (1) | CH707346B1 (fr) |
WO (1) | WO2009121199A1 (fr) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102628693A (zh) * | 2012-04-16 | 2012-08-08 | 中国航空无线电电子研究所 | 一种用于摄像机主轴与激光束进行平行配准的方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020021287A1 (en) * | 2000-02-11 | 2002-02-21 | Canesta, Inc. | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device |
WO2002054169A2 (fr) * | 2001-01-08 | 2002-07-11 | Vkb Inc. | Dispositif d'entree de donnees |
WO2003046706A1 (fr) * | 2001-11-27 | 2003-06-05 | Canesta, Inc. | Detection, classification et interpretation d'evenements d'entree |
US20040004600A1 (en) * | 2000-02-17 | 2004-01-08 | Seiko Epson Corporation | Input device using tapping sound detection |
US6774889B1 (en) * | 2000-10-24 | 2004-08-10 | Microsoft Corporation | System and method for transforming an ordinary computer monitor screen into a touch screen |
US20060036944A1 (en) * | 2004-08-10 | 2006-02-16 | Microsoft Corporation | Surface UI for gesture-based interaction |
WO2007144014A1 (fr) * | 2006-06-15 | 2007-12-21 | Nokia Corporation | Dispositif mobile avec clavier virtuel |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020061217A1 (en) * | 2000-11-17 | 2002-05-23 | Robert Hillman | Electronic input device |
US7237723B2 (en) * | 2004-02-12 | 2007-07-03 | Grant Isaac W | Coordinate designation interface |
-
2008
- 2008-04-04 CH CH00521/08A patent/CH707346B1/fr not_active IP Right Cessation
-
2009
- 2009-04-03 WO PCT/CH2009/000112 patent/WO2009121199A1/fr active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020021287A1 (en) * | 2000-02-11 | 2002-02-21 | Canesta, Inc. | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device |
US20040004600A1 (en) * | 2000-02-17 | 2004-01-08 | Seiko Epson Corporation | Input device using tapping sound detection |
US6774889B1 (en) * | 2000-10-24 | 2004-08-10 | Microsoft Corporation | System and method for transforming an ordinary computer monitor screen into a touch screen |
WO2002054169A2 (fr) * | 2001-01-08 | 2002-07-11 | Vkb Inc. | Dispositif d'entree de donnees |
WO2003046706A1 (fr) * | 2001-11-27 | 2003-06-05 | Canesta, Inc. | Detection, classification et interpretation d'evenements d'entree |
US20060036944A1 (en) * | 2004-08-10 | 2006-02-16 | Microsoft Corporation | Surface UI for gesture-based interaction |
WO2007144014A1 (fr) * | 2006-06-15 | 2007-12-21 | Nokia Corporation | Dispositif mobile avec clavier virtuel |
Also Published As
Publication number | Publication date |
---|---|
WO2009121199A1 (fr) | 2009-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101410387B1 (ko) | 프로젝션 디스플레이 시스템 및 테이블 컴퓨터 | |
TW511038B (en) | High contrast, low distortion optical acquisition systems for image capturing | |
JP4590015B2 (ja) | 平面放射線ガイドを用いる対話型ディスプレイ | |
KR20100123878A (ko) | 전환가능 방산판을 갖는 대화형 서피스 컴퓨터 | |
EP2335141B1 (fr) | Dispositif d'affichage interactif avec unité de saisie infrarouge | |
JP2012508913A (ja) | 一体型タッチセンシングディスプレー装置およびその製造方法 | |
TW200424497A (en) | Optical film tester | |
TW201220844A (en) | Projector | |
TW201211860A (en) | Optical touch control apparatus and touch sensing method thereof | |
CN108983998A (zh) | 可增加工作表面适用性的轨迹追踪装置 | |
CN106415439A (zh) | 用于镜面反射红外光的投影屏幕 | |
TW201235909A (en) | Optical scanning-type touch apparatus and the operation method | |
WO2009074751A2 (fr) | Procédé de numérisation tridimensionnelle | |
JP2000186920A (ja) | 形状計測装置および形状計測方法 | |
JP2001012909A (ja) | レンジファインダ装置及びカメラ | |
EP0984245A3 (fr) | Procédé et appareil d' inspection des irrégularités de la surface d' une plaque transparente | |
JP4570145B2 (ja) | 位置検出平面外に撮像部を有する光学式位置検出装置 | |
CA2387066A1 (fr) | Ensemble d'interface entre un utilisateur et un dispositif electronique | |
CN111766949B (zh) | 三维图像显示设备、显示方法、电子设备以及存储介质 | |
CH707346B1 (fr) | Procédé et dispositif pour réaliser une surface tactile multipoints à partir d'une surface plane quelconque et pour détecter la position d'un objet sur une telle surface. | |
TW200807282A (en) | Optical mouse | |
TW201128455A (en) | Signaling device position determination | |
JP2003276399A (ja) | 位置検出方法および装置ならびに電子黒板装置 | |
WO2010072912A1 (fr) | Dispositif de numerisation tridimensionnelle a reconstruction dense | |
JP2013533500A (ja) | 投影器、投影面、データ処理システムを備えた投影装置、及び前記投影装置の操作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PL | Patent ceased |