FR3028330A1 - METHOD AND DEVICE FOR CHANGING THE POINT OF VIEW OF A 3D CARD OR IMAGE OF A 3D PHYSICAL OBJECT BY RECOGNIZING A GESTUAL ON A TOUCH SCREEN - Google Patents

METHOD AND DEVICE FOR CHANGING THE POINT OF VIEW OF A 3D CARD OR IMAGE OF A 3D PHYSICAL OBJECT BY RECOGNIZING A GESTUAL ON A TOUCH SCREEN Download PDF

Info

Publication number
FR3028330A1
FR3028330A1 FR1402528A FR1402528A FR3028330A1 FR 3028330 A1 FR3028330 A1 FR 3028330A1 FR 1402528 A FR1402528 A FR 1402528A FR 1402528 A FR1402528 A FR 1402528A FR 3028330 A1 FR3028330 A1 FR 3028330A1
Authority
FR
France
Prior art keywords
camera
fingers
point
current
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1402528A
Other languages
French (fr)
Other versions
FR3028330B1 (en
Inventor
David Arneau
Fabien Richard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR1402528A priority Critical patent/FR3028330B1/en
Priority to PCT/EP2015/074943 priority patent/WO2016071171A1/en
Publication of FR3028330A1 publication Critical patent/FR3028330A1/en
Application granted granted Critical
Publication of FR3028330B1 publication Critical patent/FR3028330B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Un procédé de changement d'un point de vue d'une carte tridimensionnelle (3D) ou d'une image d'un objet physique observé tridimensionnel (3D) par une reconnaissance d'une gestuelle sur un écran tactile multipoints comprend une étape de reconnaissance d'une gestuelle, dans laquelle est déterminé (204) un premier déplacement tactile Dy commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts. Le procédé comprend en outre une étape de commande (206) dans laquelle une commande Cy de modification d'un premier angle azimutal courant du point de vue de l'appareil de prise vues orientable est déterminée en fonction du premier déplacement tactile DY. Un dispositif ou un système de changement d'un point de vue d'une carte tridimensionnelle ou d'une image d'un objet physique observé tridimensionnel (3D) est configuré pour mettre en oeuvre le procédé de changement de point de vue.A method of changing from a point of view of a three-dimensional (3D) map or an image of a three-dimensional observed physical object (3D) by a gesture recognition on a multi-touch screen comprises a recognition step of a gesture, in which is determined (204) a first tactile displacement Dy common slip of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the surface of the touch screen between a beginning of the movement and an end of the movement of the two fingers. The method further comprises a control step (206) in which a control Cy for modifying a first current azimuthal angle from the point of view of the steerable camera is determined according to the first tactile movement DY. A device or system for changing from a point of view of a three-dimensional map or an image of a three-dimensional observed physical object (3D) is configured to implement the point-of-view change method.

Description

Procédé et dispositif de changement de point de vue d'une carte 3D ou d'une image d'un objet physique 3D par reconnaissance d'une gestuelle sur écran tactile La présente invention concerne un procédé et un dispositif ou système de changement de point de vue d'une carte tridimensionnelle (3D) ou d'une image d'un objet physique observé tridimensionnel (3D) par reconnaissance d'une gestuelle sur un écran tactile multipoints. De manière équivalente, l'invention concerne un procédé et un 10 dispositif ou système de changement de point de vue d'un appareil de prise de vues virtuel ou réel dont les angles d'attitude ou d'orientation peuvent être modifiés par des commandés. Un appareil de prise de vues virtuel est par exemple une caméra virtuelle réalisée par un moteur cartographique, et un appareil de prise de vues physique, c'est-à-dire matériel, est par exemple 15 une caméra vidéo, un appareil photographique, ou tout capteur physique d'images d'un rayonnement dont l'orientation peut être commandée et modifiée. Plus particulièrement, l'appareil de prise de vues peut être une caméra vidéo embarquée à bord d'un aéronef visualisant la surface terrestre. L'invention concerne également un programme d'ordinateur ou une 20 configuration d'architecture d'un circuit dédié tel qu'un ASIC ou un FPGA, qui lorsqu'il ou elle est implémenté dans le système de changement de point de vue permet la mise en oeuvre du procédé de changement de point de vue. La plupart des Systèmes d'Informations Géographiques (SIG) permettent l'affichage et la manipulation de cartographies numériques. 25 Certains de ces systèmes SIG permettent l'affichage d'un globe terrestre en trois dimensions, comme par exemple les systèmes Google Earth, Nasa WorldWind, AGI Insight3D. Historiquement, l'interface physique de manipulation de la carte était la souris et permettait de régler le point de vue de la caméra avec le bouton droit et le bouton gauche de la souris. 30 Mais avec la multiplication des interfaces tactiles, il n'y a plus de boutons droits et gauches et de nouvelles interactions gestuelles ont été développées pour s'adapter à ce nouveau support. C'est le cas par exemple de la gestuelle dite du « pinch to zoom » (en français « pincer pour zoomer », où deux doigts s'écartent pour zoomer une zone sur la carte.The present invention relates to a method and a device for changing the point of view of a 3D map or an image of a 3D physical object by recognizing gestures on a touch screen. view of a three-dimensional map (3D) or an image of a three-dimensional observed physical object (3D) by recognition of a gesture on a multi-touch screen. Equivalently, the invention relates to a method and a device or system for changing the point of view of a virtual or real-world camera whose angles of attitude or orientation can be modified by commands. A virtual camera is, for example, a virtual camera made by a map engine, and a physical, ie hardware, camera is, for example, a video camera, a camera, or any physical image sensor of radiation whose orientation can be controlled and modified. More particularly, the camera may be an onboard video camera on board an aircraft visualizing the earth's surface. The invention also relates to a computer program or an architecture configuration of a dedicated circuit such as an ASIC or an FPGA, which when implemented in the point-of-view switching system allows the implementing the method of changing point of view. Most Geographic Information Systems (GIS) allow the display and manipulation of digital mappings. Some of these GIS systems allow the display of a three-dimensional globe, such as Google Earth, Nasa WorldWind, AGI Insight3D. Historically, the physical interface to manipulate the map was the mouse and allowed to adjust the point of view of the camera with the right button and the left mouse button. But with the proliferation of tactile interfaces, there are no more right and left buttons and new gestural interactions have been developed to adapt to this new medium. This is the case for example of the so-called "pinch to zoom" gesture, where two fingers move apart to zoom in on an area on the map.

Dans le domaine technique du développement d'applications cartographiques tridimensionnelles 3D du globe terrestre sur des surfaces tactiles restreintes, par exemple celles d'écran d'une dizaine de pouces, et en environnement turbulent, par exemple dans un cockpit exigu d'avion ou 5 d'hélicoptère soumis à des perturbations atmosphériques ou à un environnement hostile, la mise en place d'une gestuelle spécifique permettant d'orienter rapidement et simplement le point de vue d'une caméra affichant une carte tridimensionnelle est recherchée. Plus précisément, la prise en charge d'une gestuelle d'interaction 10 rapide et simple, sur surface tactile, permettant de régler le point de vue d'une caméra suivant les trois axes d'un repère en changeant les angles du point de vue au travers de la gestuelle, est recherchée. A ce jour, différentes solutions pour résoudre ce problème ont été réalisées ou proposées. 15 Suivant une première solution, le bouton droit de la souris est maintenu enfoncé tout en déplaçant la souris, ce qui permet de gérer les différents angles de vue de la caméra. Toutefois, en raison de l'absence de bouton droit sur une surface tactile, l'usage d'une telle surface d'interface utilisateur requiert que le clic droit de la souris soit effectué par un appui de 20 longue durée sur la surface tactile, de l'ordre de la seconde. Cette seconde d'attente n'est pas compatible d'un usage en environnement turbulent dans un cockpit d'aéronef car elle est trop longue et anti-ergonomique. Suivant une deuxième solution, des gestuelles à 3 doigts ou 4 doigts sur surfaces tactiles ont été développées pour manipuler le point de vue de 25 cartes tridimensionnelles par un utilisateur. Toutefois l'utilisation de plus de deux doigts sur une tablette tactile par un pilote ou un opérateur de bord s'avère peu pratique et anti-ergonomique en environnement embarqué turbulent. Ainsi, l'utilisation d'une gestuelle à un doigt ou deux doigts maximum doit être privilégiée dans le cas d'applications avioniques sur 30 tablettes embarquées dans un cockpit d'un aéronef, ce qui n'est pas le cas actuellement, notamment pour le réglage des angles de point de vue de la caméra. La demande de brevet publiée sous la référence WO 2014/014806 Al décrit un écran tactile multipoints, configuré pour manipuler 35 des images affichées d'un objet tridimensionnel au travers de gestuelles utilisant deux doigts. Le document décrit en particulier une gestuelle de type « pinch to zoom » pour réaliser un zoom de la carte, une gestuelle de glissement vertical de deux doigts maintenus côte à côte pour réaliser un changement de l'angle d'inclinaison de la caméra, et une gestuelle de pivotement glissé de deux doigts autour d'un point sur l'écran pour réaliser un changement de l'angle azimutal du point de vue de la caméra. Toutefois, la gestuelle proposée pour modifier les angles de point de vue de la caméra reste peu ergonomique et compliquée d'emploi dans le cas d'une utilisation en environnement turbulent, comme celui d'un cockpit d'avion ou d'hélicoptère. Le problème technique est de trouver un procédé et un dispositif ou système de changement de point de vue d'une carte tridimensionnelle (3D) au travers du changement des angles d'attitude de l'appareil de prise de vues par reconnaissance d'une gestuelle sur un écran tactile multipoints qui 15 est plus ergonomique, plus simple d'emploi et plus efficace en terme de rapidité dans la commande du changement du point de vue dans le cas d'une utilisation en environnement turbulent, comme celui d'un cockpit d'avion ou d'hélicoptère. A cet effet, l'invention a pour objet un procédé de changement d'un 20 point de vue d'une carte tridimensionnelle (3D) ou d'une image d'un objet tridimensionnel (3D) par une reconnaissance d'une gestuelle sur un écran tactile multipoints, la carte tridimensionnelle ou l'image de l'objet tridimensionnel (3D) étant fournie par un moteur cartographique au travers d'un appareil de prise de vues virtuel ou par un appareil de prise de vues 25 réel, comprenant des étapes consistant en ce que, au travers du suivi d'une première trajectoire et d'une deuxième trajectoire de points de contacts sur l'écran tactile correspondant respectivement aux contacts d'un premier doigt et aux contacts d'un deuxième doigt, dans une première étape de reconnaissance d'une gestuelle, il est déterminé 30 un premier déplacement tactile Dy commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts ; et dans une deuxième étape de commande, une première commande Cy de 35 modification d'un premier angle azimutal courant du point de vue de l'appareil de prise de vues est déterminée en fonction du premier déplacement tactile Dy. Suivant des modes particuliers de réalisation, le procédé de changement de point de vue comprend l'une ou plusieurs des caractéristiques suivantes : .- la première étape de reconnaissance d'une gestuelle comprend une troisième étape au cours de laquelle le début du mouvement de glissement de deux doigts simultanément en contact sur la surface de l'écran tactile est détecté, suivie d'une quatrième étape au cours de laquelle, à partir 10 du début des première et deuxième trajectoires des points de contacts, il est déterminé si le glissement des deux doigts est effectué les deux doigts côte à côte sans s'écarter, suivie dans l'affirmative d'une cinquième étape au cours de laquelle le premier déplacement tactile Dy suivant la première direction prédéterminée Diry de la surface de l'écran tactile est déterminé entre le 15 début du mouvement et une fin du mouvement des deux doigts ; et la deuxième étape de commande est suivie d'une sixième étape au cours de laquelle, à partir de la première commande Cy, reçue par le moteur cartographique ou l'appareil de prise de vues réel, et d'un angle azimutal courant Yc d'attitude de l' appareil de prise de vues réel ou virtuel, l'appareil 20 de prise de vues virtuel du moteur cartographique ou l'appareil de prise de vues réel pivote un point de vue courant d'un premier angle azimutal Ay commandé, fonction de la première commande Cy ; .- dans la première étape de reconnaissance d'un gestuelle, il est également déterminé un deuxième déplacement tactile Dx commun de 25 glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une deuxième direction prédéterminée Dirx sur la surface de l'écran tactile entre le début du mouvement et la fin du mouvement des deux doigts, et dans la deuxième étape de commande, une deuxième commande Cx de modification d'un deuxième angle d'inclinaison courant du 30 point de vue du dispositif de prise de vues est en outre déterminée en fonction du deuxième déplacement tactile Dx; .- le deuxième déplacement tactile Dx suivant la deuxième direction prédéterminée Dirx de la surface de l'écran tactile entre le début du mouvement et la fin du mouvement des deux doigts est déterminé dans la 35 cinquième étape, et au cours de la sixième étape, à partir de la deuxième commande Cx , reçue par le moteur cartographique ou le dispositif de prise de vues réel, et d'un deuxième angle d'inclinaison actuel x d'attitude du dispositif de prise de vues, le dispositif de prise de vues virtuel du moteur cartographique ou le dispositif de prise de vues réel pivote un point de vue courant d'un deuxième angle d'inclinaison Ax commandé, fonction de la deuxième commande Cx ; .- le dispositif de prise de vues virtuel ou réel comporte une rétine avec un centre optique C et un axe optique, et est repéré géométriquement par une position actuelle et une attitude actuelle, la position actuelle étant définie dans un repère sphérique de centre 0 par une longitude, une latitude et une altitude du centre optique C, et l'attitude actuelle étant définie dans un repère local par un premier angle azimutal actuel y et un deuxième angle d'inclinaison actuel x, le premier angle azimutal actuel x étant un angle orienté séparant la projection de l'axe optique dans une orientation actuelle sur un plan de projection azimutal contenant le centre optique C, et tangent à la sphère de centre 0 et contenant le centre optique C, et un axe de référence azimutal, contenu dans le même plan de projection azimutal et dont la direction dépend de la position actuelle de l'appareil de prise de vues, en partant de l'axe de référence azimutal, le deuxième angle d'inclinaison actuel x étant un angle orienté séparant l'axe optique de la rétine dans l'orientation actuelle et l'axe joignant l'axe optique C et le centre 0 du repère sphérique en partant de l'axe optique actuel, l'écran tactile a une surface plane tactile avec une première direction Diry et et la reconnaissance de la gestuelle étant mise en oeuvre par un ou plusieurs calculateurs électroniques ; .- l'axe de référence azimutal est la projection sur le plan de projection azimutal d'un axe joignant le centre optique et un point fixe situé sur une sphère de centre 0 et de rayon inférieur à l'altitude de l'appareil de prise de vues ; .- les cartes tridimensionnelles sont des cartes du globe terrestre, le repère géométrique sphérique est un repère géocentrique tournant avec la Terre, et le point fixe est un point égal au ou voisin du nord géographique ; .- le point fixe est le nord magnétique et l'axe de référence azimutal est l'axe du nord magnétique fourni notamment par un gyrocompas ; .- les cartes tridimensionnelles fournies sont des vues calculées par le moteur cartographique à partir d'une base de données lorsque l'appareil de prise de vues est virtuel, et les images de l'objet tridimensionnel sont des images réelles captées par l'appareil de prise de vues lorsque l'appareil de prise de vues est réel ; .- les déterminations des premier et deuxième déplacements tactiles Dy, Dx sont mises en oeuvre en série ou en parallèle, et/ou les étapes d'exécution des première et deuxième commande Cy, Cx sont exécutées en série ou en parallèle ; .- la première étape est précédée d'une étape d'initialisation au cours de laquelle un état de départ fiable des deux doigts est détecté, et une position de départ de chaque doigt ainsi que la distance séparant les deux doigts et la position centrale entre les deux doigts sont déterminés, la position de départ d'un doigt étant une position moyenne des positions reçues dudit doigt pendant une fenêtre temporelle d'observation initiale ; .- au cours de la troisième étape, le début d'un mouvement de glissement des deux doigts est détecté si la distance parcourue par la position centrale des deux doigts est supérieure à une première valeur seuil E pendant une première fenêtre temporelle de début d'observation des 20 trajectoires, et au cours de la quatrième étape et pendant une première fenêtre temporelle de début d'observation des trajectoires un produit scalaire entre deux vecteurs normalisés des déplacements des deux doigts est calculé, puis comparé à une valeur de seuil positive, de préférence comprise entre 0,75 et 1 ; 25 .- la deuxième étape comprend une étape, mise en oeuvre lorsque le produit scalaire entre les deux vecteurs normalisés des déplacements des deux doigts est supérieure à la deuxième valeur seuil, dans laquelle il est vérifié que les normes des déplacements des deux doigts sont du même ordre de grandeur et décider de modifier au moins le premier angle 30 d'inclinaison de la caméra. L'invention a également pour objet un dispositif ou un système de changement d'un point de vue d'une carte tridimensionnelle (3D) par une reconnaissance d'une gestuelle sur un écran tactile multipoints, comprenant : .- un dispositif de prise de vues réel ou un moteur cartographique avec un 35 appareil de prise de vues virtuel pour fournir une image ou une carte tridimensionnelle d'une scène d'un objet tridimensionnel suivant un point de vue actuelle de l'appareil de prise de vues réel ou virtuel ; .- un écran tactile multipoints pour suivre une première trajectoire et une deuxième trajectoire de points de contacts sur l'écran tactile correspondant 5 respectivement aux contacts d'un premier doigt et aux contacts d'un deuxième doigt, sous la forme d'évènements tactiles ; .- un ou plusieurs calculateur électroniques, configurés pour à partir des évènements tactiles des deux doigts, déterminer dans une première étape de reconnaissance d'une gestuelle un premier déplacement tactile Dy 10 commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts ; et. déterminer dans une deuxième étape de commande, une première commande Cy de modification d'un premier angle 15 azimutal courant du point de vue de la caméra en fonction du premier déplacement tactile Dy. L'invention a également pour objet un produit ou programme d'ordinateur comprenant un ensemble d'instructions configurées pour mettre en oeuvre le procédé défini ci-dessus lorsqu'elles sont chargées dans et exécutées par 20 un ou plusieurs calculateurs du dispositif ou système défini ci-dessus. L'invention sera mieux comprise à la lecture de la description de plusieurs formes de réalisation qui va suivre, donnée uniquement à titre d'exemple et faite en se référant aux dessins sur lesquels : la Figure 1 est une vue d'une architecture d'un premier mode de 25 réalisation d'un dispositif de changement d'angles de point de vue d'un appareil de prise de vues virtuel selon l'invention ; la Figure 2 est une vue d'une architecture d'un deuxième mode de réalisation d'un dispositif de changement d'angles de point de vue d'un appareil de prise de vues réel selon l'invention; 30 la Figure 3 est un ordinogramme d'un premier mode de réalisation d'un procédé de changement d'angles de point de vue selon l'invention ; la Figure 4 est un ordinogramme d'un deuxième mode de réalisation d'un procédé de changement d'angles de point de vue selon 35 l'invention ; la Figure 5 est une vue d'une gestuelle de commande permettant de réaliser le procédé de changement de l'angle azimutal du point de vue selon les procédés décrits dans les Figures 3 et 4; les Figures 6A, 6B, 6C sont respectivement une vue de l'état de départ d'un point de vue d'un appareil de prise de vues et d'une carte terrestre correspondant à un angle azimutal actuel de départ de la caméra, une vue d'un déplacement horizontal de deux doigts sur un écran tactile typique du type de gestuelle décrite à la Figure 5, et une vue de l'état d'arrivée du point de vue correspondant à un angle azimutal d'arrivée de l'appareil de prise de vues en conséquence de l'application du déplacement horizontal ; la Figure 7 est une vue d'une gestuelle de commande supplémentaire à celle décrite da Figure 5 permettant de réaliser un changement de l'angle d'inclinaison du point de vue de l'appareil de prise de vues selon le procédé décrit dans la Figure 4; les Figures 8A, 8B, 8C sont respectivement une vue l'état de départ d'un point de vue de l'appareil de prise de vues et d'une carte terrestre correspondant à un angle d'inclinaison actuel de départ de l'appareil de prise de vues, une vue d'un déplacement vertical de deux doigts sur un écran tactile typique du type de gestuelle décrite à la Figure 7, et une vue de l'état d'arrivée du point de vue correspondant à un angle d'inclinaison d'arrivée de l'appareil de prise de vues résultant de l'application du déplacement vertical vers le bas; la Figure 9 est une vue d'une gestuelle générale de commande de variation de l'angle azimutal et/ou de l'angle d'inclinaison du point de vue de l'appareil de prise de vues convenant au procédé décrit dans la Figure 4; la Figure 10 est un ordinogramme d'un procédé complet de changement de point de vue d'un appareil de prise de vues intégrant le changement des angles de point de vue de l'appareil de prise de vues décrit dans les Figures 3 et 4; la Figure 11 est un ordinogramme détaillé du procédé complet de changement de points de vue décrit dans la Figure 10. Suivant la Figure 1 et un premier mode de réalisation, un dispositif 2 de 35 changement d'un point de vue d'une carte tridimensionnelle (3D) par reconnaissance d'une gestuelle sur un écran tactile multipoints, comprend un écran tactile multipoints 4, un calculateur électronique 6 et une mémoire 8 de sauvegarde de données, reliés entre eux par des liaisons bidirectionnelles 10, 12.In the technical field of developing 3D three-dimensional cartographic applications of the terrestrial globe on restricted tactile surfaces, for example those of screen of about ten inches, and in a turbulent environment, for example in a cramped aircraft cockpit or 5 helicopter subjected to atmospheric disturbances or a hostile environment, the establishment of a specific gesture to quickly and simply direct the point of view of a camera displaying a three-dimensional map is sought. More specifically, the support of a gesture of interaction 10 fast and simple, on a touch surface, to adjust the point of view of a camera along the three axes of a marker by changing the angles from the point of view through the gestures, is sought. To date, various solutions to solve this problem have been realized or proposed. In a first solution, the right mouse button is held down while moving the mouse, which makes it possible to manage the different angles of view of the camera. However, because of the absence of a right button on a touch surface, the use of such a user interface surface requires that the right click of the mouse is made by a long-lasting press on the touch surface, of the order of the second. This second waiting is not compatible with use in a turbulent environment in an aircraft cockpit because it is too long and anti-ergonomic. According to a second solution, 3-finger or 4-finger gestures on tactile surfaces have been developed for manipulating the point of view of three-dimensional cards by a user. However the use of more than two fingers on a touch pad by a driver or an operator is inconvenient and anti-ergonomic turbulent embedded environment. Thus, the use of a gesture to a finger or two fingers maximum should be preferred in the case of avionics applications on 30 tablets embedded in a cockpit of an aircraft, which is not currently the case, especially for the adjustment of the angles of point of view of the camera. The patent application published under the reference WO 2014/014806 A1 describes a multi-touch screen, configured to manipulate displayed images of a three-dimensional object through gestures using two fingers. The document particularly describes a "pinch to zoom" gesture for zooming the map, a vertical sliding gesture of two fingers held side by side to make a change in the angle of inclination of the camera, and a pivot gesture slid two fingers around a point on the screen to make a change in the azimuthal angle from the point of view of the camera. However, the gesture proposed to change the angles of point of view of the camera remains uncomfortable and complicated to use in the case of use in a turbulent environment, such as that of an airplane or helicopter cockpit. The technical problem is to find a method and a device or system for changing the point of view of a three-dimensional (3D) map by changing the attitude angles of the camera by recognizing a gesture on a multi-touch screen which is more ergonomic, easier to use and more efficient in terms of speed in controlling the change of the point of view in the case of use in a turbulent environment, such as that of a cockpit d airplane or helicopter. To this end, the subject of the invention is a method of changing from a point of view of a three-dimensional (3D) map or of an image of a three-dimensional object (3D) by a recognition of a gesture on a multi-touch screen, the three-dimensional map or the image of the three-dimensional object (3D) being provided by a map engine through a virtual camera or by a real-world camera, comprising steps of tracking a first path and a second path of contact points on the touch screen corresponding respectively to the contacts of a first finger and the contacts of a second finger, in a first step of recognizing a gesture, it is determined 30 a first tactile displacement Dy common slip of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the surface the touch screen between a beginning of the movement and an end of the movement of the two fingers; and in a second control step, a first change command Cy of a first current azimuthal angle from the point of view of the camera is determined according to the first touch motion Dy. According to particular embodiments, the method of changing the point of view comprises one or more of the following features: the first step of recognizing a gesture comprises a third step during which the beginning of the sliding movement two fingers simultaneously in contact on the surface of the touch screen is detected, followed by a fourth step during which, from the beginning of the first and second paths of the contact points, it is determined whether the sliding of two fingers are made the two fingers side by side without departing, followed in the affirmative by a fifth step during which the first touch Dy movement according to the first predetermined direction Diry of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers; and the second control step is followed by a sixth step in which, from the first command Cy, received by the map engine or the real-world camera, and a current azimuth angle Yc d the attitude of the real or virtual camera, the virtual camera of the cartographic engine or the real camera rotates a current point of view of a first azimuthal angle Ay controlled, function of the first command Cy; in the first step of recognizing a gesture, it is also determined a second sliding displacement Dx common displacement of the first and second fingers, arranged side by side without departing, in a second predetermined direction Dirx on the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers, and in the second control step, a second command Cx for modifying a second angle of inclination current from the point of view of the device. shooting is further determined according to the second touch displacement Dx; the second tactile displacement Dx in the second predetermined direction Dirx of the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers is determined in the fifth step, and in the sixth step, from the second command Cx, received by the map engine or the real-world camera, and a second current angle of inclination x of attitude of the camera, the virtual camera of the map engine or the real-world camera rotates a current viewpoint of a second controlled angle of inclination Ax, which is a function of the second command Cx; the virtual or real-life camera comprises a retina with an optical center C and an optical axis, and is geometrically marked by a current position and a current attitude, the current position being defined in a spherical coordinate system of center 0 by a longitude, a latitude and an altitude of the optical center C, and the current attitude being defined in a local coordinate system by a first current azimuthal angle y and a second current angle of inclination x, the first current azimuth angle x being an angle an orientation separating the projection of the optical axis in a current orientation on an azimuthal projection plane containing the optical center C, and tangent to the sphere of center 0 and containing the optical center C, and an azimuthal reference axis, contained in the same azimuthal projection plane and whose direction depends on the current position of the camera, starting from the azimuthal reference axis, the second angle of inc current lineage x being an oriented angle separating the optical axis of the retina in the current orientation and the axis joining the optical axis C and the center 0 of the spherical coordinate system starting from the current optical axis, the touch screen has a flat tactile surface with a first Diry direction and and the recognition of the gesture being implemented by one or more electronic computers; the azimuthal reference axis is the projection on the azimuthal projection plane of an axis joining the optical center and a fixed point situated on a sphere of center 0 and of radius less than the altitude of the setting apparatus views; .- the three-dimensional maps are maps of the terrestrial globe, the spherical geometric landmark is a geocentric landmark rotating with the Earth, and the fixed point is a point equal to or near the geographical north; the fixed point is the magnetic north and the azimuthal reference axis is the magnetic north axis provided in particular by a gyrocompass; .- the three-dimensional maps provided are views calculated by the cartographic engine from a database when the camera is virtual, and the images of the three-dimensional object are actual images captured by the camera shooting when the camera is real; the determinations of the first and second tactile displacements Dy, Dx are carried out in series or in parallel, and / or the execution steps of the first and second commands Cy, Cx are executed in series or in parallel; the first step is preceded by an initialization step during which a reliable starting state of the two fingers is detected, and a starting position of each finger as well as the distance separating the two fingers and the central position between the two fingers are determined, the starting position of a finger being an average position of the positions received from said finger during an initial observation time window; in the third step, the beginning of a sliding movement of the two fingers is detected if the distance traveled by the central position of the two fingers is greater than a first threshold value E during a first start time window of observation of the trajectories, and during the fourth step and during a first time window of start of observation of the trajectories a scalar product between two normalized vectors of the displacements of the two fingers is calculated, then compared with a positive threshold value, of preferably between 0.75 and 1; 25 .- the second step comprises a step, implemented when the dot product between the two normalized vectors of the displacements of the two fingers is greater than the second threshold value, in which it is verified that the standards of the movements of the two fingers are the same order of magnitude and decide to change at least the first inclination angle of the camera. The invention also relates to a device or a system for changing from a point of view of a three-dimensional (3D) map by recognizing a gesture on a multi-touch screen, comprising: real-world views or a map engine with a virtual camera for providing a three-dimensional image or map of a scene of a three-dimensional object from a current viewpoint of the real or virtual camera; a multi-point touch screen for following a first trajectory and a second trajectory of contact points on the touch screen respectively corresponding to the contacts of a first finger and the contacts of a second finger, in the form of touch events; ; one or more electronic computers, configured for the tactile events of the two fingers, determining in a first step of recognizing a gesture a first tactile displacement Dy common slip of the first and second fingers, arranged side by side without depart, in a first predetermined direction Diry on the surface of the touch screen between a beginning of the movement and an end of the movement of the two fingers; and. determining in a second control step a first control Cy of modifying a first azimuthal angle current from the point of view of the camera as a function of the first tactile displacement Dy. The invention also relates to a product or computer program comprising a set of instructions configured to implement the method defined above when they are loaded into and executed by one or more computers of the device or system defined. above. The invention will be better understood on reading the description of several embodiments which will follow, given solely by way of example and with reference to the drawings in which: FIG. 1 is a view of an architecture of a first embodiment of a point-of-view angle-changing device of a virtual camera according to the invention; Figure 2 is a view of an architecture of a second embodiment of an angle-change device from the point of view of a real-life camera according to the invention; Fig. 3 is a flow chart of a first embodiment of a point-of-view angle change method according to the invention; Fig. 4 is a flow chart of a second embodiment of a point-of-view angle change method according to the invention; Figure 5 is a view of a control gesture for performing the method of changing the azimuthal angle from the point of view according to the methods described in Figures 3 and 4; FIGS. 6A, 6B, 6C are respectively a view of the starting state from a point of view of a camera and a terrestrial map corresponding to a current starting azimuth angle of the camera, a view of a horizontal movement of two fingers on a touch screen typical of the type of gesture described in Figure 5, and a view of the arrival state of the point of view corresponding to an azimuth angle of arrival of the device shooting as a result of the application of horizontal displacement; 7 is a view of a control gesture additional to that described in FIG. 5 making it possible to change the angle of inclination from the point of view of the camera according to the method described in FIG. 4; FIGS. 8A, 8B, 8C are respectively a view of the starting state from a point of view of the camera and of a terrestrial map corresponding to a current starting angle of inclination of the camera. a view of a vertical movement of two fingers on a touch screen typical of the type of gesture described in Figure 7, and a view of the arrival state of the point of view corresponding to an angle of arrival tilt of the camera resulting from the application of vertical downward motion; Fig. 9 is a view of a general gesture of control of azimuthal angle variation and / or angle of inclination from the point of view of the camera suitable for the method described in Fig. 4 ; Fig. 10 is a flowchart of a complete method of changing the point of view of a camera incorporating the change of viewpoint angles of the camera described in Figs. 3 and 4; Fig. 11 is a detailed flowchart of the complete point-of-view switching method described in Fig. 10. In accordance with Fig. 1 and a first embodiment, a device 2 for changing from a point of view of a three-dimensional map (3D) by recognition of a gesture on a multi-touch screen, includes a multi-touch screen 4, an electronic calculator 6 and a memory 8 for data backup, interconnected by bidirectional links 10, 12.

L'écran tactile multipoints 4 est configuré pour détecter et suivre une première trajectoire 14 et une deuxième trajectoire 16 de points de contacts sur une surface plane 18 de l'écran tactile 4 correspondant respectivement à des contacts 20, 22 d'un premier doigt et à des contacts 24, 26 d'un deuxième doigt, sous la forme d'évènements tactiles, seuls quatre points de contacts 20, 22, 24, 26 de doigts étant représentés sur la Figure 1. Le calculateur électronique 6 comporte un premier module informatique 32, un deuxième module informatique 34 et un troisième module informatique 36 qui mettent en oeuvre un ou plusieurs programmes informatiques.The multi-touch screen 4 is configured to detect and follow a first trajectory 14 and a second trajectory 16 of contact points on a flat surface 18 of the touch screen 4 respectively corresponding to contacts 20, 22 of a first finger and contacts 24, 26 of a second finger, in the form of tactile events, only four contact points 20, 22, 24, 26 of fingers being shown in Figure 1. The electronic calculator 6 comprises a first computer module 32, a second computer module 34 and a third computer module 36 which implement one or more computer programs.

Le premier module informatique 32 est un système d'exploitation de l'écran tactile, configuré pour gérer une interface tactile multipoints et fournir un ensemble d'évènements de contact qui servent à définir les points de contact de chaque trajectoire. En effet, lorsqu'un utilisateur touche la surface tactile 18, des événements de contact sont produits par le système d'exploitation 32. Ces événements sont de nature diverses suivant l'action faite par le doigt, et sont par exemple : .- un évènement dénommé TOUCHE START, créé quand un doigt est posé sur l'écran, .- un évènement dénommé TOUCH END, créé quand un doigt est levé de l'écran, et .- un évènement dénommé TOUCH MOVE, créé quand un doigt se déplace sur l'écran. Pour chaque événement, un certain nombre de paramètres sont également reçus, tels que la position x/y du doigt sur l'écran qui est calculée par le 30 premier module 32 comme la position moyennée sur tous les pixels touchés. Ces événements sont ensuite mis à disposition du troisième module informatique 36 qui sert de contrôleur d'un appareil de prise de vue virtuelle, ici une caméra virtuelle, et serviront à prescrire des consignes de mouvement à la caméra. Quel que soit le système d'exploitation utilisé, notamment Windows®, i0s0, Androïde, Linux®, des évènements tactiles en tant qu'objets seront produits et pourront être exploités. Le premier module informatique 32 est également configuré pour gérer une interface d'affichage graphique et permettre l'affichage sur une 5 surface visible de l'écran tactile de cartes à partir de données cartographiques traitées fournies par le deuxième module informatique 34. Le deuxième module informatique 34 est un moteur cartographique, doté d'une caméra virtuelle et configuré pour calculer sous forme de cartes les vues reçues par la caméra virtuelle à partir de différents points de vue de 10 la caméra et de données brutes cartographiques réelles sur une surface globalement sphérique préalablement observées et enregistrées dans la mémoire électronique. Un point de vue de la caméra virtuelle est caractérisé par une position géométrique de la caméra dans un repère sphérique commun à la caméra et la surface tridimensionnelle observée et une attitude 15 de la caméra dans un repère local adapté, centré sur la caméra virtuelle. La caméra virtuelle comporte de manière classique à l'instar d'une caméra physique une rétine avec un centre optique C et un axe optique. La caméra est repérée géométriquement par une position actuelle et une attitude actuelle. La position actuelle de la caméra virtuelle est définie dans 20 un repère sphérique de centre 0 par une longitude, une latitude et une altitude du centre optique C. L'attitude actuelle de la caméra virtuelle est définie dans un repère local par un premier angle azimutal actuel y et un deuxième angle d'inclinaison actuel x. Le premier angle azimutal actuel y est un angle orienté séparant un 25 axe de référence azimutal et la projection de l'axe optique dans une orientation actuelle sur un plan Paz de projection azimutal, en partant de l'axe de référence azimutal. Le plan de projection azimutal contient le centre optique C de la caméra et il est tangent en C à la sphère de centre 0 ayant pour rayon la distance entre A et C. L'axe de référence azimutal est contenu 30 dans le même plan de projection azimutal Paz et sa direction d'orientation dépend de la position actuelle de la caméra. Le deuxième angle d'inclinaison actuel x est un angle orienté séparant l'axe optique de la rétine dans l'orientation actuelle et l'axe joignant l'axe optique C et le centre 0 du repère sphérique en partant de l'axe optique 35 actuel.The first computer module 32 is a touch screen operating system, configured to manage a multipoint touch interface and provide a set of contact events that serve to define the contact points of each trajectory. Indeed, when a user touches the touch surface 18, contact events are produced by the operating system 32. These events are of various nature depending on the action made by the finger, and are for example: event called TOUCHE START, created when a finger is placed on the screen, .- an event called TOUCH END, created when a finger is raised from the screen, and .- an event called TOUCH MOVE, created when a finger moves on the screen. For each event, a number of parameters are also received, such as the x / y position of the finger on the screen which is calculated by the first module 32 as the averaged position on all the affected pixels. These events are then made available to the third computer module 36 which serves as a controller of a virtual camera, here a virtual camera, and will be used to prescribe motion instructions to the camera. Whatever the operating system used, including Windows®, i0s0, Android, Linux®, touch events as objects will be produced and can be exploited. The first computer module 32 is also configured to manage a graphical display interface and to display on a visible surface of the card touch screen from processed map data provided by the second computer module 34. The second module Computer 34 is a map engine, provided with a virtual camera and configured to map the views received by the virtual camera from different camera views and actual map data on a globally spherical surface. previously observed and recorded in the electronic memory. A virtual camera point of view is characterized by a geometric position of the camera in a spherical coordinate system common to the camera and the observed three-dimensional surface and an attitude of the camera in a suitable local coordinate system, centered on the virtual camera. The virtual camera comprises in a conventional manner, like a physical camera, a retina with an optical center C and an optical axis. The camera is geometrically marked by a current position and a current attitude. The current position of the virtual camera is defined in a spherical coordinate system of center 0 by longitude, latitude and altitude of the optical center C. The current attitude of the virtual camera is defined in a local coordinate system by a first azimuthal angle current y and a second current tilt angle x. The first current azimuthal angle is an oriented angle separating an azimuthal reference axis and the projection of the optical axis in a current orientation on azimuthal projection plane Paz, starting from the azimuthal reference axis. The azimuthal projection plane contains the optical center C of the camera and it is tangent in C to the sphere of center 0 having as radius the distance between A and C. The azimuthal reference axis is contained in the same plane of projection Azimuth Paz and its orientation direction depends on the current position of the camera. The second current angle of inclination x is an oriented angle separating the optical axis of the retina in the current orientation and the axis joining the optical axis C and the center 0 of the spherical coordinate system starting from the optical axis 35 current.

Par exemple, l'axe de référence azimutal est la projection sur le plan de projection azimutal d'un axe joignant le centre optique et un point fixe situé sur une sphère de centre 0 et de rayon inférieur à l'altitude de la caméra.For example, the azimuthal reference axis is the projection on the azimuthal projection plane of an axis joining the optical center and a fixed point on a sphere of center 0 and radius smaller than the altitude of the camera.

De tels systèmes de repérage de la caméra sont utilisés lorsque la cartographie tridimensionnelle concerne une planète ou un de ses satellites, en particulier le globe terrestre. Lorsque les cartes tridimensionnelles sont des cartes du globe terrestre, le repère géométrique sphérique est un repère géocentrique tournant avec la Terre, et le point fixe servant à définir l'axe de référence azimutal est de préférence un point égal au ou voisin du nord géographique. En particulier, ce point de référence pourra être le nord magnétique de la Terre et l'axe de référence azimutal sera alors l'axe du nord magnétique fourni notamment par un gyrocompas. Le troisième module informatique 36 est un contrôleur de caméra configuré pour, à partir d'une suite d'évènements tactiles de deux doigts fournis par le premier module informatique 32, déterminer dans une première étape de reconnaissance d'une gestuelle un premier déplacement tactile Dy commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts. Le troisième module informatique 36 est également configuré pour déterminer dans une deuxième étape de commande, une première commande Cy de modification d'un premier angle azimutal courant du point 25 de vue de la caméra en fonction du premier déplacement tactile Dy. De manière particulière, le troisième module informatique 36 est configuré, lorsqu'il met en oeuvre la première étape de reconnaissance d'une gestuelle, pour détecter dans une troisième étape le début du mouvement de glissement de deux doigts simultanément en contact sur la 30 surface de l'écran tactile, puis dans une quatrième étape et à partir du début des première et deuxième trajectoires des points de contacts, déterminer si le glissement des deux doigts est effectué les deux doigts côte à côte sans s'écarter, et dans l'affirmative, déterminer dans une cinquième étape le premier déplacement tactile Dy suivant la première direction prédéterminée Diry de la surface de l'écran tactile est déterminé entre le début du mouvement et une fin du mouvement des deux doigts. Le moteur cartographique 34 est configuré pour, à partir de la première commande Cy qu'il reçoit du contrôleur de caméra et d'un angle azimutal courant yc d'attitude de la caméra virtuelle, pivoter le point de vue courant de la caméra virtuelle d'un premier angle azimutal Ay commandé, fonction de la première commande Cy. En variante et suivant la Figure 2, le dispositif 2 formant tablette de la Figure 1, dans lequel l'écran tactile, le contrôleur de caméra, et la caméra virtuelle sont physiquement intégrés dans la tablette 2, est remplacé par un système 52 comportant d'une part une tablette 54 intégrant l'écran tactile 4 avec le système d'exploitation 32 et un contrôleur d'appareil de prise de vues réel, identique ou sensiblement identique au contrôleur 36 de la Figure 1, et d'autre part un appareil de prise de vues réel, ici une caméra physique réelle 15 56 avec un organe d'actionnement de son attitude. La caméra réelle 56 et la tablette 54 sont reliées entre elles par un câble de communication 58 au travers duquel la tablette 54 fournit des données de commande d'attitude à la caméra réelle 56 élaborées par le contrôleur de caméra 36, et la caméra réelle 56 fournit à la tablette 54 des données d'image correspondant à l'angle 20 d'attitude azimutal prescrit, ou aux angles d'inclinaison et azimutal du point de vue prescrit. En variante, plusieurs calculateurs électroniques sont configurés pour exécuter les étapes fonctionnelles du contrôleur de caméra et/ou du moteur cartographique. 25 En variante, le gestionnaire de l'interface tactile, le contrôleur de caméra et le moteur cartographique sont chacun des circuits électroniques dédiés différents. Ainsi, le point de vue de la caméra virtuelle ou réelle est modifié rapidement en utilisant une gestuelle ergonomique, simple et efficace, limitée 30 à un seul type de mouvement et à deux doigts. L'opérateur pose ses deux doigts côte à côte sur la surface tactile, et les déplace suivant une direction souhaitée dans le plan de la surface tactile décomposable en une première composante directionnelle par rapport à une première direction fixée et une deuxième composante directionnelle par rapport à une deuxième direction 35 fixée, différente de la première direction. La première composante, par exemple un déplacement horizontal sur la surface tactile correspond à un réglage de l'orientation de l'angle azimutal de la caméra tandis que la deuxième composante, par exemple un déplacement vertical sur la surface tactile correspond à un réglage d'inclinaison de la caméra.Such camera tracking systems are used when three-dimensional mapping concerns a planet or one of its satellites, in particular the terrestrial globe. When the three-dimensional maps are maps of the Earth, the spherical geometric reference is a geocentric landmark rotating with the Earth, and the fixed point for defining the azimuthal reference axis is preferably a point equal to or adjacent to the geographic north. In particular, this reference point may be the magnetic north of the Earth and the azimuthal reference axis will then be the magnetic north axis provided in particular by a gyrocompass. The third computer module 36 is a camera controller configured for, from a series of two-finger tactile events provided by the first computer module 32, to determine in a first step of recognizing a gesture a first tactile displacement Dy common sliding of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the surface of the touch screen between an early movement and an end of the movement of the two fingers. The third computer module 36 is also configured to determine in a second control step, a first command Cy modification of a first azimuth angle current from the point of view of the camera according to the first tactile displacement Dy. In particular, the third computer module 36 is configured, when it implements the first step of recognizing a gesture, to detect in a third step the start of the sliding movement of two fingers simultaneously in contact on the surface. of the touch screen, then in a fourth step and from the beginning of the first and second trajectories of the contact points, determine whether the sliding of the two fingers is performed the two fingers side by side without departing, and in the in the affirmative, determining in a fifth step the first tactile displacement Dy following the first predetermined direction Diry of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers. The map engine 34 is configured to, from the first command Cy it receives from the camera controller and from a current azimuth angle yc of attitude of the virtual camera, rotate the current viewpoint of the virtual camera. a first azimuthal angle Ay controlled, function of the first command Cy. Alternatively and according to Figure 2, the device 2 forming a tablet of Figure 1, wherein the touch screen, the camera controller, and the virtual camera are physically integrated in the tablet 2, is replaced by a system 52 comprising on the one hand a tablet 54 integrating the touch screen 4 with the operating system 32 and a real camera controller identical or substantially identical to the controller 36 of Figure 1, and on the other hand a device actual shooting, here a real physical camera 56 with an actuator of his attitude. The actual camera 56 and the tablet 54 are interconnected by a communication cable 58 through which the tablet 54 provides attitude control data to the actual camera 56 made by the camera controller 36, and the actual camera 56. provides the tablet 54 with image data corresponding to the prescribed azimuthal attitude angle, or the prescribed tilt and azimuthal angles. Alternatively, a plurality of electronic computers are configured to perform the functional steps of the camera controller and / or the map engine. Alternatively, the touch interface manager, the camera controller and the map engine are each different dedicated electronic circuits. Thus, the point of view of the virtual or real camera is changed rapidly using ergonomic, simple and effective gestures, limited to a single type of movement and two fingers. The operator places his two fingers side by side on the touch surface, and moves them in a desired direction in the plane of the tactile surface decomposable into a first directional component with respect to a first fixed direction and a second directional component with respect to a second direction 35 fixed, different from the first direction. The first component, for example a horizontal displacement on the touch surface corresponds to a setting of the orientation of the azimuthal angle of the camera while the second component, for example a vertical displacement on the touch surface corresponds to a setting of tilt of the camera.

Suivant la Figure 3 et un premier mode général de l'invention, un procédé 202 de changement d'un point de vue d'une carte tridimensionnelle (3D) ou d'une image d'un objet tridimensionnel (3D) par reconnaissance d'une gestuelle sur un écran tactile multipoints, la carte tridimensionnelle étant fournie par un moteur cartographique au travers d'un appareil de prise de vues virtuel, ou l'image de l'objet étant fournie par d'un appareil de prise de vues réel, est mis en oeuvre par exemple par le dispositif ou le système des Figures 1 et 2, et comprend une première étape 204 de reconnaissance d'une gestuelle et une deuxième étape 206 de commande. Au travers du suivi d'une première trajectoire et d'une deuxième 15 trajectoire de points de contacts sur l'écran tactile correspondant respectivement aux contacts d'un premier doigt et aux contacts d'un deuxième doigt, dans la première étape 204 de reconnaissance d'une gestuelle, il est déterminé un premier déplacement tactile Dy commun de glissement des premier et deuxième doigts, disposés côte à côte sans 20 s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts. Dans la deuxième étape 206 de commande, une première commande Cy de modification d'un premier angle azimutal courant du point de vue de 25 l'appareil de prise de vues est déterminée en fonction du premier déplacement tactile Dy. La première étape 204 de reconnaissance d'une gestuelle comprend une troisième étape 208, une quatrième étape 210, et une cinquième étape 212. 30 Dans la troisième étape 208, le début du mouvement de glissement de deux doigts simultanément en contact sur la surface de l'écran tactile est détecté. Puis, dans la quatrième étape 210, à partir du début des première et deuxième trajectoires des points de contacts, il est déterminé si le glissement des deux doigts est effectué les deux doigts côte à côte sans s'écarter. Dans 35 l'affirmative, la cinquième étape 212 est exécutée au cours de laquelle le premier déplacement tactile Dy suivant la première direction prédéterminée Diry de la surface de l'écran tactile est déterminé entre le début du mouvement et une fin du mouvement des deux doigts. La deuxième étape 206 de commande est suivie d'une sixième 5 étape 214 au cours de laquelle, à partir de la première commande Cy, reçue par le moteur cartographique ou l'appareil de prise de vues réel, et d'un angle azimutal actuel ou courant y d'attitude de l'appareil de prise de vues, l'appareil de prise de vues virtuel du moteur cartographique ou l'appareil de prise de vues réel pivote le point de vue actuel d'un premier angle azimutal 10 Ay commandé, fonction de la première commande Cy. Suivant la Figure 4, un deuxième mode de réalisation du procédé 252, dérivé du premier mode de réalisation, comprend les mêmes étapes que celles décrites dans la Figure 3 et de nouvelles étapes 254, 256, 262 et 264. La nouvelle première étape 254 est la première étape 204 de 15 reconnaissance d'une gestuelle, dans laquelle il est également déterminé un deuxième déplacement tactile Dx commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une deuxième direction prédéterminée Dirx sur la surface de l'écran tactile entre le début du mouvement et la fin du mouvement des deux doigts. 20 La nouvelle cinquième étape 262 est la cinquième étape 212 dans laquelle le deuxième déplacement tactile Dx suivant la deuxième direction prédéterminée Dirx de la surface de l'écran tactile est déterminé entre le début du mouvement et une fin du mouvement des deux doigts en supplément du premier déplacement Dy. 25 La nouvelle deuxième étape 256 de commande est la deuxième étape de commande 206 dans laquelle une deuxième commande Cx de modification d'un deuxième angle d'inclinaison courant du point de vue de la l'appareil de prise de vues est en outre déterminée en fonction du deuxième déplacement tactile Dx. 30 La nouvelle sixième étape 264 est la sixième étape 214 au cours de laquelle de manière supplémentaire, à partir de la deuxième commande CX, reçue par le moteur cartographique ou l'appareil de prise de vues réel, et d'un deuxième angle d'inclinaison actuel x d'attitude de l'appareil de prise de vues, l'appareil de prise de vues virtuel du moteur cartographique ou l'appareil de prise de vues réel pivote un point de vue courant d'un deuxième angle d'inclinaison Ax commandé, fonction de la deuxième commande Cx. Il est à remarquer que les déterminations des premier et deuxième déplacements tactiles Dy, Dx peuvent être mises en oeuvre en série ou en 5 parallèle, et/ou les étapes d'exécution des première et deuxième commande Cy, Cx peuvent être exécutées en série ou en parallèle. Dans tous les modes de réalisation du procédé décrits ci-dessus la première étape est précédée d'une étape d'initialisation au cours de laquelle un état de départ fiable des deux doigts est détecté, et une position de départ 10 de chaque doigt ainsi que la distance séparant les deux doigts et la position centrale entre les deux doigts sont déterminés, la position de départ d'un doigt étant une position moyenne des positions reçues dudit doigt pendant une fenêtre temporelle d'observation initiale. De manière optionnelle, au cours de la troisième étape le début d'un 15 mouvement de glissement des deux doigts est détecté si la distance parcourue par la position centrale des deux doigts est supérieure à une première valeur seuil E pendant une première fenêtre temporelle de début d'observation des trajectoires. De manière optionnelle, au cours de la quatrième étape et pendant 20 une première fenêtre temporelle de début d'observation des trajectoires un produit scalaire entre deux vecteurs normalisés des déplacements des deux doigts est calculé, puis comparé à une deuxième valeur de seuil positive, de préférence comprise entre 0,75 et 1. De manière optionnelle, la deuxième étape comprend une septième 25 étape, mise en oeuvre lorsque le produit scalaire entre les deux vecteurs normalisés des déplacements des deux doigts est supérieure à la deuxième valeur seuil, dans laquelle il est vérifié que les normes des déplacements des deux doigts sont du même ordre de grandeur et décider de modifier au moins le premier angle d'inclinaison de l'appareil de prise de vues. 30 Ces options sont utiles lorsque la gestuelle à deux doigts de l'invention destinée à modifier les angles de point de vue de la caméra doit être distinguée d'autres gestuelles à deux doigts non désirées ou de gestuelle souhaitée à deux doigts du « pinch to zoom » faisant partie du procédé de changement de point de vue.According to FIG. 3 and a first general mode of the invention, a method 202 of changing from a point of view of a three-dimensional (3D) map or of an image of a three-dimensional (3D) object by recognition of a gesture on a multi-touch screen, the three-dimensional map being provided by a map engine through a virtual camera, or the image of the object being provided by a real camera, is implemented for example by the device or the system of Figures 1 and 2, and comprises a first step 204 of recognition of a gesture and a second step 206 control. Through the tracking of a first trajectory and a second trajectory of contact points on the touch screen respectively corresponding to the contacts of a first finger and the contacts of a second finger, in the first recognition step 204 of a gesture, it is determined a first tactile displacement Dy common sliding of the first and second fingers, arranged side by side without deviating, in a first predetermined direction Diry on the surface of the touch screen between a start of the movement and an end of the movement of the two fingers. In the second control step 206, a first change control Cy of a first current azimuthal angle from the point of view of the camera is determined according to the first touch motion Dy. The first gesture recognition step 204 comprises a third step 208, a fourth step 210, and a fifth step 212. In the third step 208, the beginning of the sliding movement of two fingers simultaneously in contact on the surface of the the touch screen is detected. Then, in the fourth step 210, from the beginning of the first and second trajectories of the contact points, it is determined whether the sliding of the two fingers is carried out the two fingers side by side without departing. If so, the fifth step 212 is executed in which the first tactile shift Dy in the first predetermined direction Diry of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers. . The second control step 206 is followed by a sixth step 214 in which, from the first command Cy, received by the map engine or the real-world camera, and from a current azimuth angle or current of attitude of the camera, the virtual camera of the cartographic engine or the real camera rotates the current point of view of a first azimuthal angle 10 Ay commanded , function of the first command Cy. According to Figure 4, a second embodiment of the method 252, derived from the first embodiment, comprises the same steps as those described in Figure 3 and new steps 254, 256, 262 and 264. The new first step 254 is the first step 204 of 15 gesture recognition, in which a second tactile displacement Dx common of the first and second fingers, arranged side by side without deviating, in a second predetermined Dirx direction on the surface is also determined touch screen between the beginning of the movement and the end of the movement of the two fingers. The new fifth step 262 is the fifth step 212 in which the second tactile displacement Dx along the second predetermined direction Dirx of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers in addition to the first move Dy. The new second control step 256 is the second control step 206 in which a second command Cx modifying a second tilt angle which is current from the point of view of the camera is further determined by function of the second touch Dx movement. The new sixth step 264 is the sixth step 214 during which additionally, from the second command CX, received by the map engine or the real camera, and a second angle of current tilt x of the camera attitude, the virtual camera of the map engine or the real camera rotates a current viewpoint of a second tilt angle Ax ordered, function of the second command Cx. It should be noted that the determinations of the first and second tactile displacements Dy, Dx can be carried out in series or in parallel, and / or the execution steps of the first and second commands Cy, Cx can be executed in series or in parallel. In all the embodiments of the method described above the first step is preceded by an initialization step during which a reliable starting state of the two fingers is detected, and a starting position of each finger as well as the distance separating the two fingers and the central position between the two fingers are determined, the starting position of a finger being an average position of the positions received from said finger during an initial observation time window. Optionally, during the third step the start of a sliding movement of the two fingers is detected if the distance traveled by the central position of the two fingers is greater than a first threshold value E during a first start time window. observation of trajectories. Optionally, during the fourth step and during a first time window of start of observation of the trajectories a scalar product between two normalized vectors of the displacements of the two fingers is calculated, then compared to a second value of positive threshold, of preferably between 0.75 and 1. Optionally, the second step comprises a seventh step, implemented when the scalar product between the two normalized vectors of the displacements of the two fingers is greater than the second threshold value, in which it It is verified that the standards of the movements of the two fingers are of the same order of magnitude and decide to change at least the first angle of inclination of the camera. These options are useful when the two-fingers gesture of the invention intended to modify the angles of point of view of the camera must be distinguished from other gestures with two unwanted fingers or gesture desired two fingers of the "pinch to zoom "as part of the point of view change process.

Suivant la Figure 5, une gestuelle de déplacement glissé de deux doigts disposés côte à côte est représentée dans laquelle le déplacement a lieu le long d'une première direction Diry sur la surface de l'écran tactile, fixée ici horizontale. Le système et le procédé de l'invention suivant les Figure 1 à 4 sont configurés pour modifier l'angle azimutal de l'appareil de prise de vues en fonction d'un déplacement Dy orienté le long de la direction Diry sur la Figure 5. Suivant les Figures 6A, 6B et 6C, l'effet de la gestuelle de la Figure 5 suivant un premier déplacement collectif vers la droite Dy des deux doigts glissés et au travers du procédé de l'invention est représenté. Suivant la partie haute de la Figure 6A, une attitude azimutale actuelle ou courante de départ de l'appareil de prise de vues est représentée dans son plan azimutal par un angle azimutal actuel de départ de valeur nulle entre une composante azimutale actuelle de l'axe optique 270 et la direction Nord de l'axe magnétique Nord de la Terre, formant ici axe de référence angulaire azimutal 272 dans le plan azimutal Paz. Le plan azimutal Paz de la caméra est le plan tangent à la caméra et à la sphère ayant comme centre, le centre 0 de la Terre et comme rayon la distance séparant le centre optique C de l'appareil de prise de vues et le centre 0 de la Terre. L'appareil de prise de vues et plus précisément son centre optique C sont supposés ici être situés dans une position actuelle ou courante au nadir d'un point de l'équateur terrestre à une altitude actuelle ou courante. L'axe optique de l'appareil de prise de vues dans la position de départ ou actuelle de l'appareil de prise de vues est représenté ici dans sa composante azimutale 270 dans le plan azimutal de l'appareil de prise de vues qui est confondu avec le plan de la partie haute de la Figure 6A. La composante azimutale 270 de l'axe optique, c'est-à-dire sa projection dans le plan azimutal Paz, est confondue ici avec l'axe de référence azimutal 272. Suivant la partie basse de la Figure 6A, une vue partielle prise par l'appareil de prise de vues est représentée, ici une carte de la France suivant la direction Sud-Nord. Suivant la Figure 6B, le premier déplacement glissé Dy des extrémités des deux doigts de la main droite, index et majeur, est représenté par une flèche 274. La position de départ des deux doigts et la position d'arrivée des deux doigts le glissement terminé sont respectivement représentées à l'aide d'une main en traits pointillés à gauche sur la figure et d'une main en traits ininterrompus à droite sur la figure. Suivant la partie haute de la Figure 6C, un déplacement angulaire azimutal commandé y de l'attitude azimutale de départ de l'appareil de prise de vues, c'est-à-dire une rotation de la projection azimutale actuelle de l'axe optique 270 correspondant au premier déplacement Dy est représenté dans le même plan azimutal Paz et par rapport au même axe de référence azimutal 272 que ceux décrits dans la Figure 6A. Suivant la partie basse de la Figure 6B, une vue partielle de l'appareil de prise de vues dans le point de vue azimutal modifié de l'appareil de prise de vues est représentée, ici la carte de la France dont l'axe Sud-Nord a tourné, l'angle d'inclinaison de la l'appareil de prise de vues n'ayant fait l'objet d'aucun changement. Suivant la Figure 7, une gestuelle de déplacement glissé de deux doigts disposés côte à côte est représentée dans laquelle le déplacement a lieu le long d'une deuxième direction Dinc surface de l'écran tactile, différente de la première direction Diry, et fixée ici verticale. Le système et le procédé de l'invention suivant les Figures 1, 2 et 4 sont configurés pour modifier l'angle d'inclinaison de l'appareil de prise de vues en fonction d'un déplacement Dx orienté le long de la direction Dirx sur la Figure 7, en supplément d'une modification possible de l'angle azimutal telle que décrite ci-dessus. Suivant les Figures 8A, 8B et 8C, l'effet de la gestuelle de la Figure 7 suivant un deuxième déplacement collectif vertical vers le bas Dx des deux doigts glissés et au travers du procédé de l'invention est représenté.According to Fig. 5, a two-finger sliding movement gesture arranged side by side is shown in which the displacement takes place along a first direction Diry on the surface of the touch screen, fixed here horizontally. The system and method of the invention according to Figs. 1 to 4 are configured to change the azimuthal angle of the camera according to a Dy motion oriented along the Diry direction in Fig. 5. According to FIGS. 6A, 6B and 6C, the effect of the gesture of FIG. 5 following a first collective shift to the right Dy of the two slipped fingers and through the method of the invention is represented. According to the upper part of FIG. 6A, a current or current starting azimuth attitude of the camera is represented in its azimuthal plane by a current azimuth departure angle of zero value between a current azimuth component of the axis Optical 270 and the north direction of the Earth's magnetic north axis, here forming azimuthal angular reference axis 272 in the azimuthal plane Paz. The azimuth plane Paz of the camera is the plane tangent to the camera and the sphere having as a center, the center 0 of the Earth and as radius the distance separating the optical center C of the camera and the center 0 of the earth. The camera and more precisely its optical center C are here supposed to be located in a current or current position nadir of a point of the terrestrial equator at a current or current altitude. The optical axis of the camera in the starting or current position of the camera is represented here in its azimuthal component 270 in the azimuthal plane of the camera which is confused with the plane of the upper part of Figure 6A. The azimuthal component 270 of the optical axis, that is to say its projection in the azimuthal plane Paz, is here merged with the azimuthal reference axis 272. According to the lower part of FIG. 6A, a partial view taken by the camera is represented, here a map of France following the South-North direction. According to FIG. 6B, the first sliding movement Dy of the ends of the two fingers of the right hand, index and middle finger, is represented by an arrow 274. The starting position of the two fingers and the arrival position of the two fingers is complete. are respectively represented with a hand in dashed lines on the left in the figure and a hand in unbroken lines on the right in the figure. According to the upper part of FIG. 6C, a controlled azimuthal angular displacement y of the starting azimuthal attitude of the camera, that is to say a rotation of the current azimuthal projection of the optical axis 270 corresponding to the first displacement Dy is represented in the same azimuthal plane Paz and with respect to the same azimuthal reference axis 272 as those described in FIG. 6A. According to the lower part of FIG. 6B, a partial view of the camera in the modified azimuthal viewpoint of the camera is represented, here the map of France whose South axis is North turned, the tilt angle of the camera was not changed. According to Figure 7, a slid motion gesture of two fingers arranged side by side is shown in which the displacement takes place along a second direction Dinc surface of the touch screen, different from the first direction Diry, and fixed here vertical. The system and method of the invention according to FIGS. 1, 2 and 4 are configured to change the angle of inclination of the camera according to a displacement Dx oriented along the direction Dirx on Figure 7, in addition to a possible modification of the azimuthal angle as described above. According to FIGS. 8A, 8B and 8C, the effect of the gesture of FIG. 7 following a second collective vertical displacement Dx of the two slipped fingers and through the method of the invention is represented.

Suivant la partie haute de la Figure 8A, une attitude d'inclinaison actuelle ou courante de départ de la caméra est représenté par un angle d'inclinaison actuel de départ de valeur nulle entre l'axe optique 280 de l'appareil de prise de vues dans son orientation actuelle de départ et l'axe Nadir 282 traversant le centre optique C de la l'appareil de prise de vues vers le centre 0 de la Terre et formant l'axe de référence de l'angle d'inclinaison. Suivant la partie basse de la Figure 8A, une vue partielle de la caméra est représentée, ici une carte de la France suivant la direction Sud-Nord qui fait supposer que l'angle azimutal actuel ou courant de l'appareil de prise de vues est nul en prenant la même définition de l'angle azimutal que dans celle prise dans la Figure 6A.According to the upper part of FIG. 8A, a current or current starting attitude of the camera is represented by a current starting angle of inclination of zero value between the optical axis 280 of the camera in its current starting orientation and Nadir axis 282 traversing the optical center C of the camera towards the center 0 of the Earth and forming the reference axis of the angle of inclination. Following the lower part of Figure 8A, a partial view of the camera is shown, here a map of France in the South-North direction which suggests that the current or current azimuth angle of the camera is Nil by taking the same definition of the azimuthal angle as in that in Figure 6A.

Suivant la Figure 8B, le deuxième déplacement glissé Dx des extrémités des deux doigts de la main droite, index et majeur, est représenté par une flèche 284 verticale dirigée vers le bas sur la figure. La position de départ des deux doigts et la position d'arrivée des deux doigts le glissement terminé sont respectivement représentées à l'aide d'une main en traits pointillés en haut sur la Figure et d'une main en traits ininterrompus en bas sur la figure. Suivant la partie haute de la Figure 8C, il est représenté un deuxième déplacement angulaire d'inclinaison commandé x de l'appareil de prise de 10 vues, c'est-à-dire une rotation de l'axe optique courant 280 correspondant au deuxième déplacement Dx autour de la normale 286 en C d'un plan d'inclinaison Pincl contenant le centre optique C de l'appareil de prise de vues, la projection azimutale courante 288 de l'axe optique dans le plan azimutal courant et l'axe d'inclinaison de référence 282. 15 Suivant la partie basse de la Figure 8C, une vue partielle de la caméra dans le point de vue d'inclinaison modifié de la caméra est représentée, ici la carte de la France, l'angle azimutal courant de l'appareil de prise de vues restant inchangé. Suivant la Figure 9, une gestuelle de déplacement glissé de deux 20 doigts disposés côte à côte est représentée dans laquelle le déplacement sur la surface tactile a lieu le long d'une direction 290 quelconque décomposable en une première composante de déplacement Dy suivant la première direction Diry, fixée ici horizontale et une deuxième composante de déplacement Dx suivant la deuxième direction Dirx, fixée ici verticale. Le 25 système et le procédé de l'invention suivant les Figures 1, 2 et 4 sont configurés pour modifier l'angle azimutal y et l'angle d'inclinaison x de l'appareil de prise de vues en fonction respectivement de la première composante de déplacement Dy et de la deuxième composante de déplacement Dx. 30 Suivant la Figure 10, un procédé complet 302 de modification du point de vue tridimensionnel d'un appareil de prise de vues par une gestuelle complète et simple de manipulation de cartes géographiques ou d'images d'un objet tridimensionnel est configuré pour exploiter une gestuelle à deux doigts de modification des angles du point de vue tridimensionnel de 35 l'appareil de prise de vues tel que décrit ci-dessus et pour exploiter un ensemble d'autres gestuelles distinctes répondant à des usages différents de manipulation de carte, comme par exemple zoomer, ou déplacer la carte. La gestuelle de modification des angles de point de vue tridimensionnel de l'appareil de prise de vues doit ainsi être complémentaire des autres gestes de manipulation de la carte ou de l'image, afin que l'ensemble de la gestuelle complète forme un tout cohérent et simple d'emploi. Suivant la Figure 10 et le procédé complet 302 de manipulation du point de vue des cartes tridimensionnelles ou d'images d'un objet tridimensionnel est réalisé à l'aide de et à partir de trois gestuelles de base différentes, correspondant à trois réglages de l'appareil de prise de vues affichant la carte ou l'image. Lorsque l'utilisateur interagit avec la surface tactile, un des trois modes suivant doit pouvoir être activé : .- un premier mode 304 dénommé « MODE MOVE », de glissement de la position de l'appareil de prise de vues qui est réalisé avec un seul doigt glissant sur l'écran ; .- un deuxième mode 306 dénommé « MODE ZOOM » pour zoomer ou dézoomer sur la carte qui est réalisé avec deux doigts glissés qui s'écartent sur la surface tactile, cette action étant dénommée en anglais « pinch and zoom » ; et .- un troisième mode 308, dénommé «MODE 3D » de changement des angles de vue 3D de l'appareil de prise de vues (angle azimutal et angle d'inclinaison), qui est réalisé avec deux doigts glissés qui se déplacent dans le même sens horizontalement et/ou verticalement et qui constitue l'objet principal de l'invention décrite ci-dessus.According to FIG. 8B, the second sliding displacement Dx of the ends of the two fingers of the right hand, index and major, is represented by a vertical arrow 284 directed downwards in the figure. The starting position of the two fingers and the position of arrival of the two fingers the finished slip are respectively represented with the help of a hand in dotted lines at the top in the Figure and a hand in unbroken lines down on the Fig. According to the upper part of FIG. 8C, there is shown a second controlled angular displacement x of the camera, that is, a rotation of the current optical axis 280 corresponding to the second displacement Dx around the normal 286 in C of a tilting plane Pincl containing the optical center C of the camera, the current azimuth projection 288 of the optical axis in the current azimuthal plane and the axis Reference inclination 282. In the lower part of FIG. 8C, a partial view of the camera in the modified inclination point of view of the camera is shown, here the map of France, the current azimuthal angle the camera remains unchanged. According to Fig. 9, a two-finger sliding movement gesture is shown in which the displacement on the touch-sensitive surface takes place along any direction 290 decomposable into a first displacement component Dy in the first direction Diry, fixed here horizontal and a second component of displacement Dx following the second direction Dirx, fixed here vertical. The system and method of the invention according to Figures 1, 2 and 4 are configured to change the azimuthal angle y and the tilt angle x of the camera according to the first component respectively. displacement Dy and the second displacement component Dx. According to FIG. 10, a complete method 302 of modifying the three-dimensional point of view of a camera with a complete and simple gesture of manipulation of geographical maps or images of a three-dimensional object is configured to exploit a gesture with two fingers to change the angles of the three-dimensional point of view of the camera as described above and to exploit a set of other distinct gestures for different card manipulation uses, as per example zoom, or move the map. The gesture of modification of the angles of three-dimensional point of view of the camera must thus be complementary to other gestures of manipulation of the card or the image, so that the whole of the complete gesture forms a coherent whole. and easy to use. According to FIG. 10 and the complete method 302 of handling from the point of view of three-dimensional maps or images of a three-dimensional object is realized using and from three different basic gestures, corresponding to three settings of the shooting device displaying the map or image. When the user interacts with the touch-sensitive surface, one of the following three modes must be able to be activated: .- a first mode 304 called "MODE MOVE", of slipping of the position of the camera which is realized with a only finger sliding on the screen; a second mode 306 called "ZOOM MODE" to zoom in or out on the map that is made with two slid fingers that deviate on the touch surface, this action being referred to in English as "pinch and zoom"; and a third mode 308, called "3D MODE" of changing the angles of view of the camera (azimuthal angle and tilt angle), which is made with two slid fingers which move in the direction of the camera. same direction horizontally and / or vertically and which constitutes the main object of the invention described above.

Le choix du mode dans lequel on se trouve, et donc de l'action qui est produite, se fait en fonction du nombre de doigts posés, et des actions de déplacement réalisées au travers des tests 312, 314. Une fois que l'un de ces trois modes 304, 306, 308 a été identifié, les actions de déplacement d'un ou deux doigts provoquent une modification du point de vue de l'appareil de prise de vues en accord avec le mode dans lequel on se trouve actuellement. La sortie du mode actuellement activé n'est effectuée que lorsque les doigts quittent la surface tactile. Un mouvement tactile est une interaction de l'utilisateur réalisée avec un ou plusieurs doigts qui peut se décomposer en trois phases distinctes : - une première phase au cours de laquelle l'utilisateur appuie sur l'écran (PRESS) ; - une deuxième phase au cours de laquelle l'utilisateur effectue un mouvement (MOVE) ; - une troisième phase au cours de laquelle l'utilisateur arrête d'appuyer (RELEASE). La première phase PRESS et la deuxième phase RELEASE sont composées d'un seul et unique évènement. A l'inverse, la deuxième phase MOVE peut avoir lieu autant de fois que l'utilisateur déplace son doigt. En pratique, la deuxième phase MOVE peut se produire si l'utilisateur bouge involontairement le doigt sur une distance très courte, ce qui peut poser problème dans la détection de certains évènements. Si l'utilisateur utilise deux doigts, deux modes d'actions sont possibles : le deuxième mode 306 (MODE ZOOM) et le troisième mode 308 15 (MODE 3D). Dans le deuxième mode 306, le zoom est réalisé par un déplacement opposé des deux doigts, ou par le déplacement d'un doigt alors que le second reste fixe. Dans le troisième mode 308, la rotation azimutale et l'inclinaison de 20 la caméra sont déclenchées par le déplacement parallèle des deux doigts dans une direction de déplacement, le déplacement étant décomposable en un premier déplacement horizontal qui fait tourner suivant une rotation azimutale de l'appareil de prise de vues et un deuxième déplacement vertical qui modifie l'inclinaison de l'appareil de prise de vues. 25 Les modes doivent pouvoir être identifiés l'un de l'autre rapidement, afin que cela soit imperceptible pour l'utilisateur. Suivant la Figure 11, le procédé complet de changement de point de vue de l'appareil de prise de vues qui reconnait la gestuelle aux trois modes décrits dans la Figure 10 est décrit de manière plus détaillé suivant un mode 30 de réalisation particulier. Pour détecter l'un des deux modes parmi les deuxième et troisième modes, MODE ZOOM et MODE 3D, la détection de ces modes à deux doigts et leur distinction 314 se fait en une étape d'initialisation 318 suivie d'une étape de décision 320.The choice of the mode in which we are, and therefore of the action that is produced, is done according to the number of fingers placed, and the displacement actions carried out through the tests 312, 314. Once one of these three modes 304, 306, 308 has been identified, the actions of displacement of one or two fingers cause a change in the point of view of the camera in accordance with the mode in which one is currently. The current mode output is only output when the fingers leave the touch surface. A tactile movement is a user interaction performed with one or more fingers that can be broken down into three distinct phases: - a first phase during which the user presses the screen (PRESS); a second phase during which the user performs a movement (MOVE); - a third phase during which the user stops pressing (RELEASE). The first PRESS phase and the second RELEASE phase consist of a single event. Conversely, the second MOVE phase can occur as many times as the user moves his finger. In practice, the second phase MOVE can occur if the user involuntarily moves the finger for a very short distance, which can be problematic in the detection of certain events. If the user uses two fingers, two modes of action are possible: the second mode 306 (ZOOM MODE) and the third mode 308 15 (3D MODE). In the second mode 306, the zoom is made by an opposite movement of the two fingers, or by the movement of a finger while the second remains fixed. In the third mode 308, the azimuthal rotation and the inclination of the camera are triggered by the parallel movement of the two fingers in a moving direction, the displacement being decomposable into a first horizontal displacement which rotates in azimuth rotation of the camera. camera and a second vertical movement that changes the tilt of the camera. The modes must be able to be identified from each other quickly, so that this is imperceptible to the user. In accordance with Fig. 11, the entire camera-changing point-of-view switching method that recognizes the gestures for the three modes described in Fig. 10 is described in more detail according to a particular embodiment. To detect one of the two modes among the second and third modes, ZOOM MODE and 3D MODE, the detection of these two-finger modes and their distinction 314 is done in an initialization step 318 followed by a decision step 320 .

Dans l'étape d'initialisation 318 visant à obtenir un point de départ fiable, les événements reçus pendant X millisecondes (X étant par exemple égal à 100 ms) sont analysés et on moyenne l'ensemble des positions reçues de chacun des deux doigts. L'une des principales difficultés des contrôles tactiles est la relative imprécision des informations reçues, un doigt touchant plusieurs dizaines voire centaines de pixels. Il s'agit ainsi de connaître le centre réel du contact. Les premiers évènements reçus ne sont donc pas directement traités mais une moyenne sur les premiers évènements est calculée pour obtenir une position de départ de chaque doigt, ainsi que la distance séparant les deux doigts et la position centrale entre les deux doigts. Dans l'étape de décision 320, une tentative de détection d'une gestuelle de rotation azimutale et/ou inclinaison (correspondant au mode 3D) est mise en oeuvre pendant Y millisecondes, Y étant par exemple égale à 200 ms. Si la 15 détection est réussie, le passage dans le troisième mode 308, MODE 3D activé, est effectué. Si la détection est infructueuse, le passage dans le deuxième mode 306, MODE ZOOM activé, est effectué. Les valeurs des durées X et Y des fenêtres d'initialisation et de décision peuvent être comprises entre 0 et 500 ms en fonction des usages 20 des utilisateurs et de la réactivité d'action souhaitée qui est caractérisée par un temps de latence avant démarrage. Plus le temps de latence est long, plus la précision du traitement est juste, mais en contrepartie plus l'effet d'initialisation est perceptible. Dans l'étape de décision 320, pour savoir quel mode parmi le 25 deuxième mode et le troisième mode est souhaité, les deux vecteurs correspondant au déplacement des deux doigts sont calculés ainsi que le produit scalaire de ces deux vecteurs. Un produit scalaire positif indique que les doigts se déplacent dans le même sens et que le troisième mode, MODE 3D, doit être active tandis qu'un produit scalaire négatif indique que les deux 30 doigts se déplacent en sens opposé et que le deuxième mode, MODE ZOOM, doit être activé. Cependant, il n'est pas possible de faire ce calcul sur les deux premiers événements tactiles reçus car il se peut en effet que l'action souhaitée soit l'activation du MODE 3D, mais que les premiers événements 35 donnent une information d'écartement des doigts. Ceci se produit car les premiers appuis sont généralement imprécis et ne correspondent pas forcément à l'action souhaitée par l'utilisateur (on parle alors de « faux positif »). Une temporisation des premières actions et un lissage des calculs dans le temps sont ainsi requis.In the initialization step 318 to obtain a reliable starting point, the events received during X milliseconds (X being for example equal to 100 ms) are analyzed and averaged all the positions received from each of the two fingers. One of the main difficulties of tactile controls is the relative inaccuracy of the information received, a finger touching several tens or even hundreds of pixels. This is to know the real center of contact. The first events received are therefore not directly processed, but an average over the first events is calculated to obtain a starting position of each finger, as well as the distance separating the two fingers and the central position between the two fingers. In the decision step 320, an attempt to detect an azimuth rotation gesture and / or inclination (corresponding to the 3D mode) is carried out for Y milliseconds, Y being for example equal to 200 ms. If the detection is successful, the transition to the third mode 308, 3D MODE enabled, is performed. If the detection is unsuccessful, the passage in the second mode 306, MODE ZOOM activated, is performed. The values of the X and Y durations of the initialization and decision windows may be between 0 and 500 ms depending on the users' uses and the desired action responsiveness which is characterized by a pre-start latency time. The longer the latency, the more accurate the processing is, but in return the more the initialization effect is noticeable. In decision step 320, to determine which mode from the second mode and the third mode is desired, the two vectors corresponding to the displacement of the two fingers are calculated as well as the scalar product of these two vectors. A positive dot product indicates that the fingers are moving in the same direction and that the third mode, 3D MODE, must be active while a negative dot product indicates that the two fingers are moving in opposite directions and that the second mode, ZOOM MODE, must be activated. However, it is not possible to do this calculation on the first two touch events received because it is possible that the desired action is the activation of the 3D MODE, but that the first events 35 give a distance information. fingers. This occurs because the first supports are generally imprecise and do not necessarily correspond to the action desired by the user (we speak of "false positive"). A delay of the first actions and a smoothing of the calculations in the time are thus required.

La décision d'activer le mode de changement des angles de point de vue de l'appareil de prise de vues (MODE 3D) est réalisé de la manière suivante. Chaque évènement reçu est « lissé », c'est dire pondéré par l'évènement initial, afin d'éviter les faux-positifs puis l'espacement des doigts 10 est déduit, le centre du mouvement, et le déplacement de chaque doigt. Afin de vérifier que nous sommes en présence d'un MODE 3D à activer : .- tout d'abord il est vérifié 322 que la distance entre les deux doigts est restée proportionnelle entre le début du mouvement et l'évènement reçu ; 15 puis .- le produit scalaire entre les vecteurs normalisés des deux doigts est calculé, la détection 324 d'un mouvement parallèle dans le même sens exigeant que le produit scalaire soit positif, et même supérieur à 0.75 (en pratique lorsque le produit scalaire est compris entre 1 et 0.75, le mouvement 20 des deux doigts peut être considéré comme parallèle et dans le même sens) ; puis .- il est vérifié également 326 que les vecteurs de chaque doigt soient du même ordre de grandeur. De même, pour ne pas déclencher une décision trop rapide du 25 passage dans le deuxième mode (MODE ZOOM) ou le troisième mode (MODE 3D), n'est accepté dans un premier temps 328 l'activation d'un mode que si la distance parcourue par chacun des deux doigts est suffisante, supérieure à une valeur minimale d'un seuil E. Cette condition n'est pas appliquée sur les derniers évènements car si l'utilisateur réalise un 30 mouvement lent, cette condition peut ne jamais être validée. Si toutes les conditions exigées dans l'étape de décision 320 sont réunies, alors le passage en MODE 3D est réalisé, sinon, à la fin de l'étape de décision, le MODE ZOOM est retenu. Lorsque le troisième mode 308, MODE 3D a été activé, dans ce mode 35 un premier déplacement Dy des deux doigts glissés suivant une première direction fixée ici horizontale et/ou un deuxième déplacement Dx des deux doigts glissés suivant une deuxième direction, fixée ici verticale sont déterminés. Une rotation azimutale du point de vue de la caméra est réalisée 332 5 en fonction du premier déplacement horizontal, par exemple une variation linéaire dans laquelle un mouvement glissé d'un pixel vers la droite crée une rotation de 0.25 degré de la caméra. Une inclinaison du point de vue de la caméra est réalisée 332 en fonction du deuxième déplacement vertical, par exemple une variation 10 linéaire dans laquelle un mouvement glissé d'un pixel vers le bas change l'inclinaison de 0.25 degré de l'appareil de prise de vues. Le procédé 302 décrit ci-dessus permet de changer le point de vue d'un appareil de prise de vues sous toutes ses formes en utilisant des gestes simples et rapides faisant intervenir au plus deux doigts, et de changer en 15 particulier les angles de rotation azimutale et/ou d'inclinaison du point de vue dans unique mode simple et rapide à exécuter. Le contrôle de l'orientation de l'appareil de prise de vues est simple et intuitif à l'aide de la gestuelle proposé sur surface tactile. Un produit ou programme d'ordinateur comprend un ensemble 20 d'instructions, configurées pour mettre en oeuvre les étapes d'un procédé de changement de point de vue tridimensionnel selon l'invention décrit ci-dessus lorsqu'elles sont chargées et exécutées par un ou plusieurs calculateurs électroniques d'un dispositif ou un système de changement de point de vue tridimensionnel. 25 Il est ainsi possible d'imaginer un contrôle d'un appareil de prise de vues « physique » à l'aide d'une surface tactile, en lieu et place du joystick qui est couramment employé de nos jours, par exemple, pour des applications de vidéo surveillance avec des caméras fixes dans le cadre d'activités de police, de sécurité, ou avec caméra embarquée dans un 30 hélicoptère ou avion de patrouille maritime. Le média tactile n'est pas limité à un écran ou une tablette. La même gestuelle peut être appliquée sur tout type de surface tactile telle qu'un « touchpad multitouch », par exemple celui d'un ordinateur portable, ou un touchpad qui remplacerait une souris sur un ordinateur, ou encore un film 35 interactif « multi-touch ».The decision to activate the mode of change of the angles of point of view of the camera (3D MODE) is realized in the following way. Each received event is "smoothed", that is to say, weighted by the initial event, in order to avoid false positives, then the spacing of the fingers 10 is deduced, the center of the movement, and the displacement of each finger. To verify that we are in the presence of a 3D MODE to activate: .- first it is verified 322 that the distance between the two fingers remained proportional between the beginning of the movement and the event received; Then .- the scalar product between the normalized vectors of the two fingers is calculated, the detection 324 of a parallel movement in the same direction requiring that the dot product be positive, and even greater than 0.75 (in practice when the dot product is between 1 and 0.75, the movement of both fingers can be considered parallel and in the same direction); then .- It is verified also 326 that the vectors of each finger are of the same order of magnitude. Likewise, in order not to trigger a decision that is too fast to pass in the second mode (ZOOM MODE) or the third mode (3D MODE), it is initially accepted 328 to activate a mode only if the distance traveled by each of the two fingers is sufficient, greater than a minimum value of a threshold E. This condition is not applied to the latest events because if the user makes a slow movement, this condition may never be validated . If all the conditions required in the decision step 320 are met, then the transition to 3D MODE is performed, otherwise, at the end of the decision step, the ZOOM MODE is retained. When the third mode 308, 3D MODE has been activated, in this mode 35 a first displacement Dy of the two fingers slid in a first direction fixed here horizontal and / or a second displacement Dx of the two fingers slid in a second direction, fixed here vertical are determined. An azimuthal rotation from the camera's point of view is performed 332 as a function of the first horizontal displacement, for example a linear variation in which a movement dragged one pixel to the right creates a 0.25 degree rotation of the camera. An inclination from the camera point of view is made 332 as a function of the second vertical displacement, for example a linear variation in which a downwardly slid motion changes the 0.25 degree tilt of the pickup apparatus. of views. The method 302 described above makes it possible to change the point of view of a camera in all its forms by using simple and rapid gestures involving at most two fingers, and to change in particular the angles of rotation. azimuth and / or tilt point of view in single mode simple and quick to execute. The control of the orientation of the camera is simple and intuitive using the gestures offered on the touch screen. A computer product or program includes a set of instructions, configured to implement the steps of a three-dimensional view change method according to the invention described above when loaded and executed by a user. or several electronic calculators of a device or a three-dimensional point-of-view change system. It is thus possible to imagine a control of a "physical" camera using a tactile surface, in place of the joystick that is commonly used today, for example, for video surveillance applications with fixed cameras in the context of police, security, or with camera activities in a helicopter or maritime patrol aircraft. Touch media is not limited to a screen or tablet. The same gesture can be applied to any type of tactile surface such as a "multitouch touchpad", for example that of a laptop, or a touchpad that would replace a mouse on a computer, or a "multi-touch" interactive movie. touch ".

Cette invention peut être étendue à la manipulation de tout type l'appareil de prise de vues via une interface tactile (écran, mais également touchpad) L'application principale de l'invention est de régler le point de vue d'un appareil de prise de vues virtuel dans une application cartographique 3D mains elle peut être étendue à la manipulation d'appareil de prise de vues réels tels que des caméras physiques dans le cadre d'activités de surveillance par exemple. Un appareil de prises de vue physique ou matériel est par exemple une caméra vidéo, un appareil photographique, ou tout capteur d'image d'un rayonnement dont l'orientation peut être commandée. Plus particulièrement, l'appareil de prise de vue peut être une caméra vidéo embarquée à bord d'un aéronef visualisant la surface terrestre.15This invention can be extended to the handling of any type of camera by touch interface (screen, but also touchpad) The main application of the invention is to adjust the point of view of a camera virtual views in a 3D mapping application hands it can be extended to the manipulation of actual camera apparatus such as physical cameras in the course of monitoring activities for example. A physical or material shooting apparatus is for example a video camera, a camera, or any radiation image sensor whose orientation can be controlled. More particularly, the camera may be an onboard video camera on board an aircraft visualizing the earth's surface.

Claims (15)

REVENDICATIONS1. Procédé de changement d'un point de vue d'une carte tridimensionnelle (3D) ou d'une image d'un objet tridimensionnel (3D) par une reconnaissance d'une gestuelle sur un écran tactile multipoints (4), la carte tridimensionnelle ou l'image de l'objet tridimensionnel (3D) étant fournie par un moteur cartographique au travers d'un appareil de prise de vues virtuel ou par un appareil de prise de vues réel, comprenant des étapes consistant en ce que, au travers du suivi d'une première trajectoire (14) et d'une deuxième trajectoire (16) de points de contacts (20, 22 ; 24, 26) sur l'écran tactile (4) correspondant respectivement aux contacts d'un premier doigt et aux contacts d'un deuxième doigt, . dans une première étape (204; 254) de reconnaissance d'une gestuelle, il est déterminé un premier déplacement tactile Dy commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts, et . dans une deuxième étape de commande (206; 256), une première 20 commande Cy de modification d'un premier angle azimutal courant du point de vue de l'appareil de prise de vues est déterminée en fonction du premier déplacement tactile Dy.REVENDICATIONS1. A method of changing a point of view of a three-dimensional (3D) map or an image of a three-dimensional object (3D) by recognizing a gesture on a multi-touch screen (4), the three-dimensional map or the image of the three-dimensional object (3D) being provided by a map engine through a virtual camera or by a real-world camera, including steps that, through tracking a first trajectory (14) and a second trajectory (16) of contact points (20, 22; 24, 26) on the touch screen (4) respectively corresponding to the contacts of a first finger and to the contacts a second finger,. in a first step (204; 254) of recognition of a gesture, it is determined a first tactile displacement Dy common slip of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the surface of the touch screen between an early movement and an end of the movement of the two fingers, and. in a second control step (206; 256), a first control Cy of changing a first current azimuthal angle from the point of view of the camera is determined according to the first tactile movement Dy. 2. Procédé de changement de point de vue selon la revendication 1 25 dans lequel la première étape (204 ; 254) de reconnaissance d'une gestuelle comprend . une troisième étape (208) au cours de laquelle le début du mouvement de glissement de deux doigts simultanément en contact sur la surface de l'écran tactile est détecté, suivie 30 . d'une quatrième étape (210) au cours de laquelle, à partir du début des première et deuxième trajectoires des points de contacts, il est déterminé si le glissement des deux doigts est effectué les deux doigts côte à côte sans s'écarter, suivie dans l'affirmative . d'une cinquième étape (212; 262) au cours de laquelle le premier 35 déplacement tactile Dy suivant la première direction prédéterminée Diry de lasurface de l'écran tactile est déterminé entre le début du mouvement et une fin du mouvement des deux doigts, et la deuxième étape de commande (206; 256) est suivie d'une sixième étape (214; 264) au cours de laquelle, à partir de la première commande Cy, reçue par le moteur cartographique ou l'appareil de prise de vues réel, et d'un angle azimutal courant Yc d'attitude de l' appareil de prise de vues réel ou virtuel, l'appareil de prise de vues virtuel du moteur cartographique ou l'appareil de prise de vues réel pivote un point de vue courant d'un premier angle azimutal Ly commandé, fonction de la première commande Cy.A method of changing a viewpoint according to claim 1 wherein the first step (204; 254) of gesture recognition comprises. a third step (208) during which the beginning of the sliding movement of two fingers simultaneously in contact on the surface of the touch screen is detected, followed 30. a fourth step (210) during which, from the beginning of the first and second trajectories of the contact points, it is determined whether the sliding of the two fingers is carried out the two fingers side by side without departing, followed in the affirmative . a fifth step (212; 262) in which the first tactile shift Dy in the first predetermined Diry direction of the touch screen surface is determined between the beginning of the movement and an end of the movement of the two fingers, and the second control step (206; 256) is followed by a sixth step (214; 264) in which, from the first command Cy, received by the map engine or the real-world camera, and a current azimuthal angle Yc of attitude of the real or virtual camera, the virtual camera of the cartographic engine or the real camera rotates a current point of view of the camera. a first commanded azimuthal angle Ly, a function of the first command Cy. 3. Procédé de changement de point de vue selon l'une quelconque des revendications 1 à 2 dans lequel dans la première étape (254) de reconnaissance d'un gestuelle, il est également déterminé un deuxième déplacement tactile Dx commun de 15 glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une deuxième direction prédéterminée Dirx sur la surface de l'écran tactile entre le début du mouvement et la fin du mouvement des deux doigts, et dans la deuxième étape de commande (256), une deuxième commande Cx 20 de modification d'un deuxième angle d'inclinaison courant du point de vue du dispositif de prise de vues est en outre déterminée en fonction du deuxième déplacement tactile Dx.3. A method of changing the point of view according to any one of claims 1 to 2 wherein in the first step (254) of recognition of a gesture, it is also determined a second tactile shift Dx common slip of the first and second fingers, arranged side by side without diverging, in a second predetermined direction Dirx on the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers, and in the second control step (256 ), a second command Cx 20 for modifying a second tilt angle that is current from the point of view of the camera is further determined as a function of the second tactile displacement Dx. 4. Procédé de changement de point de vue selon les revendications 2 et 25 3 dans lequel le deuxième déplacement tactile Dx suivant la deuxième direction prédéterminée Dirx de la surface de l'écran tactile entre le début du mouvement et la fin du mouvement des deux doigts est déterminé dans la cinquième étape (262), et 30 au cours de la sixième étape (264), à partir de la deuxième commande Cx, reçue par le moteur cartographique ou le dispositif de prise de vues réel, et d'un deuxième angle d'inclinaison actuel x d'attitude du dispositif de prise de vues, le dispositif de prise de vues virtuel du moteur cartographique ou le dispositif de prise de vues réel pivote un point de vue courant d'un deuxième 35 angle d'inclinaison Lx commandé, fonction de la deuxième commande Cx.A method of changing a viewpoint according to claims 2 and 3 wherein the second tactile displacement Dx in the second predetermined direction Dirx of the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers. is determined in the fifth step (262), and 30 in the sixth step (264), from the second command Cx, received by the map engine or the actual camera, and a second angle current tilt x attitude of the shooting device, the virtual shooting device of the map engine or the actual shooting device pivots a current point of view of a second tilt angle Lx commanded , function of the second command Cx. 5. Procédé de changement de point de vue selon l'une quelconque des revendications 1 à 4, dans lequel le dispositif de prise de vues virtuel ou réel comporte une rétine avec un centre optique C et un axe optique, et est repéré géométriquement par une position actuelle et une attitude actuelle, la position actuelle étant définie dans un repère sphérique de centre 0 par une longitude, une latitude et une altitude du centre optique C, et l'attitude actuelle étant définie dans un repère local par un premier angle azimutal actuel y et un deuxième angle d'inclinaison actuel x, le premier angle azimutal actuel x étant un angle orienté séparant la projection de l'axe optique dans une orientation actuelle sur un plan de projection azimutal contenant le centre optique C, et tangent à la sphère de centre 0 et contenant le centre optique C, et un axe de référence azimutal, contenu dans le même plan de projection azimutal et dont la direction dépend de la position actuelle de l'appareil de prise de vues, en partant de l'axe de référence azimutal, le deuxième angle d'inclinaison actuel x étant un angle orienté séparant l'axe optique de la rétine dans l'orientation actuelle et l'axe joignant l'axe optique 20 C et le centre 0 du repère sphérique en partant de l'axe optique actuel, l'écran tactile a une surface plane tactile avec une première direction Diry et et la reconnaissance de la gestuelle étant mise en oeuvre par un ou plusieurs calculateurs électroniques. 25A method of changing a viewpoint according to any one of claims 1 to 4, wherein the virtual or real-world camera has a retina with an optical center C and an optical axis, and is geometrically marked by a current position and a current attitude, the current position being defined in a spherical coordinate of center 0 by a longitude, a latitude and an altitude of the optical center C, and the current attitude being defined in a local coordinate system by a first current azimuthal angle y and a second current inclination angle x, the first current azimuth angle x being an angled angle separating the projection from the optical axis in a current orientation on an azimuth projection plane containing the optical center C, and tangent to the sphere of center 0 and containing the optical center C, and an azimuthal reference axis, contained in the same azimuth projection plane and whose direction depends on the current position of the camera, starting from the azimuthal reference axis, the second current tilt angle x being an oriented angle separating the optical axis of the retina in the current orientation and the axis joining the optical axis 20 C and the center 0 of the spherical coordinate system starting from the current optical axis, the touch screen has a tactile flat surface with a first Diry direction and and the gesture recognition is implemented by one or more electronic calculators. 25 6. Procédé de changement de point de vue selon la revendication 5 dans lequel l'axe de référence azimutal est la projection sur le plan de projection azimutal d'un axe joignant le centre optique et un point fixe situé sur une sphère de centre 0 et de rayon inférieur à l'altitude de l'appareil de prise de vues. 306. A method of changing point of view according to claim 5 wherein the azimuthal reference axis is the projection on the azimuthal projection plane of an axis joining the optical center and a fixed point on a sphere of center 0 and less than the altitude of the camera. 30 7. Procédé de changement de point de vue selon la revendication 6, dans lequel les cartes tridimensionnelles sont des cartes du globe terrestre, le repère géométrique sphérique est un repère géocentrique tournant avec la Terre, et le point fixe est un point égal au ou voisin du nord géographique. 35A method of changing point of view according to claim 6, wherein the three-dimensional maps are maps of the globe, the spherical geometric landmark is a geocentric landmark rotating with the Earth, and the fixed point is a point equal to or adjacent to from the geographical north. 35 8. Procédé de changement de point de vue selon la revendication 7 dans lequel le point fixe est le nord magnétique et l'axe de référence azimutal est l'axe du nord magnétique fourni notamment par un gyrocompas.8. A method of changing point of view according to claim 7 wherein the fixed point is the magnetic north and the azimuthal reference axis is the magnetic north axis provided in particular by a gyrocompass. 9. Procédé de changement de point de vue selon l'une quelconque des revendications 1 à 8 dans lequel les cartes tridimensionnelles fournies sont des vues calculées par le moteur cartographique à partir d'une base de données lorsque l'appareil de prise de vues est virtuel, et les images de l'objet tridimensionnel sont des images réelles captées par l'appareil de prise de vues lorsque l'appareil de prise de vues est réel.A viewpoint change method according to any one of claims 1 to 8 wherein the provided three-dimensional maps are views computed by the map engine from a database when the camera is virtual, and the images of the three-dimensional object are real images captured by the camera when the camera is real. 10. Procédé de changement point de vue selon la revendication la revendication 3 et l'une quelconque des revendications 4 à 9 dans lequel les déterminations des premier et deuxième déplacements tactiles Dy, Dx 15 sont mises en oeuvre en série ou en parallèle, et/ou les étapes d'exécution des première et deuxième commande Cy, Cx sont exécutées en série ou en parallèle.A method of changing point of view according to claim 3 and any one of claims 4 to 9 wherein the determinations of the first and second tactile displacements Dy, Dx are carried out in series or in parallel, and or the execution steps of the first and second commands Cy, Cx are executed in series or in parallel. 11. Procédé de changement de point de vue selon l'une quelconque des revendications 1 à 10, dans lequel la première étape est précédée d'une 20 étape d'initialisation (318) au cours de laquelle un état de départ fiable des deux doigts est détecté, et une position de départ de chaque doigt ainsi que la distance séparant les deux doigts et la position centrale entre les deux doigts sont déterminés, la position de départ d'un doigt étant une position moyenne des positions reçues dudit doigt pendant une fenêtre temporelle 25 d'observation initiale.A method of changing a viewpoint according to any one of claims 1 to 10, wherein the first step is preceded by an initialization step (318) in which a reliable starting state of the two fingers is detected, and a starting position of each finger as well as the distance separating the two fingers and the central position between the two fingers are determined, the starting position of a finger being an average position of the positions received from said finger during a window temporal 25 initial observation. 12. Procédé de changement de point de vue selon l'une quelconque des revendications 2 à 11, dans lequel au cours de la troisième étape (208; 328) le début d'un mouvement de glissement des deux doigts est détecté si la distance parcourue par la 30 position centrale des deux doigts est supérieure à une première valeur seuil E pendant une première fenêtre temporelle de début d'observation des trajectoires, et au cours de la quatrième étape (210) et pendant une première fenêtre temporelle de début d'observation des trajectoires un produit scalaire entredeux vecteurs normalisés des déplacements des deux doigts est calculé, puis comparé (324) à une valeur de seuil positive, de préférence comprise entre 0,75 et 1.A method of changing a viewpoint according to any one of claims 2 to 11, wherein in the third step (208; 328) the beginning of a sliding movement of the two fingers is detected if the distance traveled. by the central position of the two fingers is greater than a first threshold value E during a first time window of start of observation of the trajectories, and during the fourth step (210) and during a first time window of observation start trajectories a scalar product between two normalized vectors of the displacements of the two fingers is calculated, then compared (324) with a positive threshold value, preferably between 0.75 and 1. 13. Procédé de changement de point de vue selon la revendication 12 dans lequel la deuxième étape (206; 256) comprend une étape, mise en oeuvre lorsque le produit scalaire entre les deux vecteurs normalisés des déplacements des deux doigts est supérieure à la deuxième valeur seuil, dans laquelle il est vérifié (326) que les normes des déplacements des deux doigts sont du même ordre de grandeur et décider de modifier au moins le premier angle d'inclinaison de la caméra.13. A method of changing point of view according to claim 12 wherein the second step (206; 256) comprises a step, implemented when the dot product between the two normalized vectors of the movements of the two fingers is greater than the second value. threshold, wherein it is verified (326) that the standards of the movements of the two fingers are of the same order of magnitude and decide to change at least the first angle of inclination of the camera. 14. Dispositif ou un système de changement d'un point de vue d'une carte 15 tridimensionnelle (3D) par une reconnaissance d'une gestuelle sur un écran tactile multipoints, comprenant un dispositif de prise de vues réel (56) ou un moteur cartographique (34) avec un appareil de prise de vues virtuel pour fournir une image ou une carte tridimensionnelle d'une scène d'un objet tridimensionnel suivant un point de 20 vue actuelle de l'appareil de prise de vues réel ou virtuel ; un écran tactile multipoints (4) pour suivre une première trajectoire (14) et une deuxième trajectoire (16) de points de contacts (20, 22; 24, 26) sur l'écran tactile (4) correspondant respectivement aux contacts d'un premier doigt et aux contacts d'un deuxième doigt, sous la forme d'évènements 25 tactiles ; un ou plusieurs calculateur électroniques (6), configurés pour à partir des évènements tactiles des deux doigts, . déterminer dans une première étape de reconnaissance d'une gestuelle un premier déplacement tactile Dy commun de glissement des premier et 30 deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts, et . déterminer dans une deuxième étape de commande, une première commande Cy de modification d'un premier angle azimutal courant du point 35 de vue de la caméra en fonction du premier déplacement tactile Dy.14. Device or system for changing from a point of view of a three-dimensional (3D) map by recognizing a gesture on a multi-touch screen, comprising a real-life camera (56) or an engine mapping (34) with a virtual camera to provide a three-dimensional image or map of a scene of a three-dimensional object from a current viewpoint of the real or virtual camera; a multi-touch screen (4) for following a first trajectory (14) and a second trajectory (16) of contact points (20, 22; 24, 26) on the touch screen (4) respectively corresponding to the contacts of a first finger and the contacts of a second finger, in the form of tactile events; one or more electronic calculators (6), configured for the tactile events of the two fingers, determining in a first step of recognizing a gesture a first tactile displacement Dy common slip of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the surface of the touch screen between a beginning of the movement and an end of the movement of the two fingers, and. in a second control step, determining a first command Cy for modifying a first current azimuth angle from the point of view of the camera as a function of the first tactile displacement Dy. 15. Produit ou programme d'ordinateur comprenant un ensemble d'instructions configurées pour mettre en oeuvre le procédé défini selon l'une quelconque des revendications 1 à 13 lorsqu'elles sont chargées dans et exécutées par un ou plusieurs calculateurs (6) du dispositif ou système (2; 52) défini selon la revendication 14.A computer product or program comprising a set of instructions configured to implement the method defined in any one of claims 1 to 13 when loaded into and executed by one or more computers (6) of the device. or system (2; 52) defined in claim 14.
FR1402528A 2014-11-07 2014-11-07 METHOD AND DEVICE FOR CHANGING THE POINT OF VIEW OF A 3D CARD OR IMAGE OF A 3D PHYSICAL OBJECT BY RECOGNIZING A GESTUAL ON A TOUCH SCREEN Active FR3028330B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1402528A FR3028330B1 (en) 2014-11-07 2014-11-07 METHOD AND DEVICE FOR CHANGING THE POINT OF VIEW OF A 3D CARD OR IMAGE OF A 3D PHYSICAL OBJECT BY RECOGNIZING A GESTUAL ON A TOUCH SCREEN
PCT/EP2015/074943 WO2016071171A1 (en) 2014-11-07 2015-10-28 Method and device for changing a view point of a three-dimensional map (3d) or of an image of an observed three-dimensional physical object (3d) by recognising a gesture on a multi-point touch screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1402528A FR3028330B1 (en) 2014-11-07 2014-11-07 METHOD AND DEVICE FOR CHANGING THE POINT OF VIEW OF A 3D CARD OR IMAGE OF A 3D PHYSICAL OBJECT BY RECOGNIZING A GESTUAL ON A TOUCH SCREEN

Publications (2)

Publication Number Publication Date
FR3028330A1 true FR3028330A1 (en) 2016-05-13
FR3028330B1 FR3028330B1 (en) 2017-12-08

Family

ID=53008550

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1402528A Active FR3028330B1 (en) 2014-11-07 2014-11-07 METHOD AND DEVICE FOR CHANGING THE POINT OF VIEW OF A 3D CARD OR IMAGE OF A 3D PHYSICAL OBJECT BY RECOGNIZING A GESTUAL ON A TOUCH SCREEN

Country Status (2)

Country Link
FR (1) FR3028330B1 (en)
WO (1) WO2016071171A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109963300A (en) * 2017-12-22 2019-07-02 中国移动通信集团浙江有限公司 Azimuthal determining method, apparatus, electronic equipment and storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110308346B (en) * 2019-06-24 2021-10-26 中国航空无线电电子研究所 Automatic testing method and system for cockpit display system based on image recognition
CN114594899A (en) * 2021-12-31 2022-06-07 北京石头创新科技有限公司 Map display adjusting method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100045666A1 (en) * 2008-08-22 2010-02-25 Google Inc. Anchored Navigation In A Three Dimensional Environment On A Mobile Device
US20100146389A1 (en) * 2008-12-10 2010-06-10 Samsung Electronics Co., Ltd. Method of controlling virtual object or view point on two dimensional interactive display
US20130127825A1 (en) * 2011-07-28 2013-05-23 Pushkar P. Joshi Methods and Apparatus for Interactive Rotation of 3D Objects Using Multitouch Gestures
US20140019917A1 (en) * 1999-01-25 2014-01-16 Apple Inc. Disambiguation of multitouch gesture recognition for 3d interaction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140019917A1 (en) * 1999-01-25 2014-01-16 Apple Inc. Disambiguation of multitouch gesture recognition for 3d interaction
US20100045666A1 (en) * 2008-08-22 2010-02-25 Google Inc. Anchored Navigation In A Three Dimensional Environment On A Mobile Device
US20100146389A1 (en) * 2008-12-10 2010-06-10 Samsung Electronics Co., Ltd. Method of controlling virtual object or view point on two dimensional interactive display
US20130127825A1 (en) * 2011-07-28 2013-05-23 Pushkar P. Joshi Methods and Apparatus for Interactive Rotation of 3D Objects Using Multitouch Gestures

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109963300A (en) * 2017-12-22 2019-07-02 中国移动通信集团浙江有限公司 Azimuthal determining method, apparatus, electronic equipment and storage medium
CN109963300B (en) * 2017-12-22 2022-08-23 中国移动通信集团浙江有限公司 Method and device for determining azimuth angle, electronic equipment and storage medium

Also Published As

Publication number Publication date
FR3028330B1 (en) 2017-12-08
WO2016071171A1 (en) 2016-05-12

Similar Documents

Publication Publication Date Title
US11175726B2 (en) Gesture actions for interface elements
US20210181536A1 (en) Eyewear device with finger activated touch sensor
EP2364470B1 (en) Movement recognition as input mechanism
EP2524294B1 (en) Method for selecting an element of a user interface and device implementing such a method
US9378581B2 (en) Approaches for highlighting active interface elements
US9483113B1 (en) Providing user input to a computing device with an eye closure
JP6275706B2 (en) Text recognition driven functionality
EP2864932B1 (en) Fingertip location for gesture input
US8943582B1 (en) Transferring information among devices using cameras
US8451344B1 (en) Electronic devices with side viewing capability
US20140089097A1 (en) Method and system for providing advertisement based on gaze of user
KR20150130431A (en) Enhancing touch inputs with gestures
US9201585B1 (en) User interface navigation gestures
US9733764B2 (en) Tracking of objects using pre-touch localization on a reflective surface
US9400575B1 (en) Finger detection for element selection
WO2016071171A1 (en) Method and device for changing a view point of a three-dimensional map (3d) or of an image of an observed three-dimensional physical object (3d) by recognising a gesture on a multi-point touch screen
EP3114423A1 (en) Method for controlling a system for detecting and tracking a target
WO2021066989A1 (en) Drag and drop operations on a touch screen display
US10082936B1 (en) Handedness determinations for electronic devices
US9146631B1 (en) Determining which hand is holding a device
US20170147142A1 (en) Dynamic image compensation for pre-touch localization on a reflective surface
US9898183B1 (en) Motions for object rendering and selection
US9507429B1 (en) Obscure cameras as input
US20130201095A1 (en) Presentation techniques
US10809794B2 (en) 3D navigation mode

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20160513

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10