WO2016071171A1 - Method and device for changing a view point of a three-dimensional map (3d) or of an image of an observed three-dimensional physical object (3d) by recognising a gesture on a multi-point touch screen - Google Patents

Method and device for changing a view point of a three-dimensional map (3d) or of an image of an observed three-dimensional physical object (3d) by recognising a gesture on a multi-point touch screen Download PDF

Info

Publication number
WO2016071171A1
WO2016071171A1 PCT/EP2015/074943 EP2015074943W WO2016071171A1 WO 2016071171 A1 WO2016071171 A1 WO 2016071171A1 EP 2015074943 W EP2015074943 W EP 2015074943W WO 2016071171 A1 WO2016071171 A1 WO 2016071171A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
current
fingers
point
angle
Prior art date
Application number
PCT/EP2015/074943
Other languages
French (fr)
Inventor
David Arneau
Fabien RICHARD
Original Assignee
Thales
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales filed Critical Thales
Publication of WO2016071171A1 publication Critical patent/WO2016071171A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to a method and a device or system for changing the point of view of a three-dimensional (3D) map or an image of a three-dimensional observed physical object (3D) by recognizing a gesture on a touch screen multipoint.
  • the invention relates to a method and a device or system for changing the point of view of a virtual or real-world camera whose angles of attitude or orientation can be modified by commands.
  • a virtual camera is, for example, a virtual camera produced by a cartographic engine, and a physical or material camera is, for example, a video camera, a camera, or any other device. physical sensor of radiation images whose orientation can be controlled and modified. More particularly, the camera may be an onboard video camera on board an aircraft visualizing the earth's surface.
  • the invention also relates to a computer program or an architecture configuration of a dedicated circuit such as an ASIC or an FPGA, which when implemented in the point-of-view change system allows the implementation implementation of the method of change of point of view.
  • GIS Geographic Information Systems
  • Some of these GIS systems allow the display of a three-dimensional globe, such as Google Earth, Nasa WorldWind, AGI lnsight3D.
  • Google Earth Historically, the physical interface to manipulate the map was the mouse and allowed to adjust the point of view of the camera with the right button and the left mouse button.
  • the right mouse button is held down while moving the mouse, which makes it possible to manage the different angles of view of the camera.
  • the use of such a user interface surface requires that the right click of the mouse is performed by a long-term support on the touch surface, the order of the second. This second waiting is not compatible with use in a turbulent environment in an aircraft cockpit because it is too long and anti-ergonomic.
  • 3-finger or 4-finger gestures on tactile surfaces have been developed for manipulating the point of view of three-dimensional cards by a user.
  • the use of more than two fingers on a touch pad by a driver or an operator is inconvenient and anti-ergonomic turbulent embedded environment.
  • the use of a gesture to a finger or two fingers maximum should be preferred in the case of avionics applications on tablets embedded in a cockpit of an aircraft, which is not currently the case, especially for the adjustment of the angles of point of view of the camera.
  • the patent application published under the reference WO 2014/014806 A1 describes a multi-touch screen, configured to manipulate displayed images of a three-dimensional object through gestures. using two fingers.
  • the document particularly describes a "pinch to zoom" gesture for zooming the map, a vertical sliding gesture of two fingers held side by side to make a change in the angle of inclination of the camera, and a pivot gesture slid two fingers around a point on the screen to make a change in the azimuthal angle from the point of view of the camera.
  • the gesture proposed to change the angles of point of view of the camera remains uncomfortable and complicated to use in the case of use in a turbulent environment, such as that of an airplane or helicopter cockpit.
  • the technical problem is to find a method and a device or system for changing the point of view of a three-dimensional (3D) map by changing the attitude angles of the camera by recognizing a gesture on a multi-touch screen that is more ergonomic, easier to use and more efficient in terms of speed in order to control the change of the point of view in the case of use in a turbulent environment, such as that of a cockpit. plane or helicopter.
  • the subject of the invention is a method of changing from a point of view of a three-dimensional (3D) map or an image of a three-dimensional object (3D) by a recognition of a gesture on a multi-touch screen, the three-dimensional map or the image of the three-dimensional object (3D) being provided by a map engine through a virtual camera or by a real-life camera, including steps consisting of in that,
  • a first tactile displacement Dy common slip of the first and second fingers arranged side by side without departing, in a first predetermined direction Diry on the surface of the screen tactile between a beginning of the movement and an end of the movement of the two fingers;
  • a first Cy command modifying a first azimuth angle current from the point of view of the camera is determined according to the first tactile movement Dy.
  • the method of changing the point of view comprises one or more of the following features:
  • the first step of recognizing a gesture comprises a third step during which the beginning of the sliding movement of two fingers simultaneously in contact on the surface of the touch screen is detected, followed by a fourth step during from which, from the beginning of the first and second trajectories of the contact points, it is determined whether the sliding of the two fingers is carried out the two fingers side by side without departing, followed in the affirmative by a fifth step at during which the first tactile displacement Dy following the first predetermined direction Diry of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers; and the second control step is followed by a sixth step in which, from the first command Cy, received by the map engine or the real-world camera, and a current azimuth angle Yc d attitude of real or virtual camera, the virtual camera of the cartographic engine or the real camera rotates a current point of view of a first azimuth angle Ay controlled, according to the first command Cy;
  • a second tactile displacement Dx common slip of the first and second fingers arranged side by side without departing, in a second predetermined direction Dirx on the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers, and in the second control step, a second command Cx for modifying a second angle of inclination current from the point of view of the gripping device. views is further determined according to the second touch shift Dx;
  • the second tactile displacement Dx along the second predetermined direction Dirx of the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers is determined in the fifth step, and in the sixth step, from the second command Cx, received by the map engine or the real-world camera, and a second current angle of inclination x of the attitude of the camera, the virtual camera of the cartographic engine or the actual camera rotates a current viewpoint of a second inclination angle ⁇ controlled, a function of the second command Cx;
  • the virtual or real-life camera comprises a retina with an optical center C and an optical axis, and is geometrically marked by a current position and a current attitude, the current position being defined in a spherical coordinate system of center O by a longitude, a latitude and an altitude of the optical center C, and the current attitude being defined in a local coordinate system by a first current azimuthal angle y and a second current angle of inclination x, the first current azimuth angle x being an angle an orientation separating the projection of the optical axis in a current orientation on an azimuthal projection plane containing the optical center C, and tangent to the center sphere O and containing the optical center C, and an azimuthal reference axis, contained in the same azimuthal projection plane and whose direction depends on the current position of the camera, starting from the azimuthal reference axis, the second angle of inc current lineage x being an oriented angle separating the optical axis of the retina in the current orientation and the axis joining the
  • the azimuthal reference axis is the projection on the azimuthal projection plane of an axis joining the optical center and a fixed point situated on a sphere of center O and of radius less than the altitude of the setting apparatus views;
  • the three-dimensional maps are maps of the terrestrial globe, the spherical geometric landmark is a geocentric landmark rotating with the Earth, and the fixed point is a point equal to or near the geographical north;
  • the fixed point is the magnetic north and the azimuthal reference axis is the magnetic north axis provided in particular by a gyrocompass;
  • the three-dimensional maps provided are views calculated by the cartographic engine from a database when the camera is virtual, and the images of the three-dimensional object are actual images captured by the camera shooting when the camera is real;
  • the determinations of the first and second tactile displacements Dy, Dx are implemented in series or in parallel, and / or the execution steps of the first and second commands Cy, Cx are executed in series or in parallel;
  • the first step is preceded by an initialization step during which a reliable starting state of the two fingers is detected, and a starting position of each finger as well as the distance separating the two fingers and the central position between the two fingers are determined, the starting position of a finger being an average position of the positions received from said finger during an initial observation time window;
  • the beginning of a sliding movement of the two fingers is detected if the distance traveled by the central position of the two fingers is greater than a first threshold value ⁇ during a first time window of start of observation of the trajectories, and during the fourth step and during a first time window of start of observation of the trajectories a scalar product between two normalized vectors of the displacements of the two fingers is calculated, then compared to a positive threshold value, preferably between 0.75 and 1;
  • the second step comprises a step, implemented when the scalar product between the two normalized vectors of the displacements of the two fingers is greater than the second threshold value, in which it is verified that the standards of the movements of the two fingers are of the same order of magnitude and decide to change at least the first tilt angle of the camera.
  • the invention also relates to a device or a system for changing from a point of view of a three-dimensional (3D) map by recognizing a gesture on a multi-touch screen, comprising: real views or a map engine with a virtual camera to provide an image or a map three-dimensional view of a scene of a three-dimensional object according to a current viewpoint of the real or virtual camera;
  • a multi-touch screen for following a first trajectory and a second trajectory of contact points on the touch screen respectively corresponding to the contacts of a first finger and the contacts of a second finger, in the form of tactile events;
  • one or more electronic computers configured for starting from the tactile events of the two fingers, determining in a first step of recognizing a gesture a first tactile displacement Dy common sliding of the first and second fingers, arranged side by side without s spacing, in a first predetermined direction Diry on the surface of the touch screen between a beginning of the movement and an end of the movement of the two fingers; and. determining in a second control step, a first command Cy modifying a first azimuth angle current from the point of view of the camera according to the first tactile displacement Dy.
  • the invention also relates to a product or computer program comprising a set of instructions configured to implement the method defined above when they are loaded into and executed by one or more computers of the device or system defined herein. -above.
  • FIG. 1 is a view of an architecture of a first embodiment of a point-of-view angle-change device of a virtual camera according to the invention
  • FIG. 2 is a view of an architecture of a second embodiment of a device for changing angles from the point of view of a real-life camera according to the invention
  • FIG. 3 is a flow chart of a first embodiment of a point-of-view angle change method according to the invention.
  • FIG. 4 is a flow chart of a second embodiment of a point-of-view angle change method according to the invention
  • FIG. 5 is a view of a control gesture making it possible to carry out the method of changing the azimuth angle from the point of view according to the methods described in FIGS. 3 and 4;
  • FIGS. 6A, 6B, 6C are respectively a view of the starting state from a point of view of a camera and a terrestrial map corresponding to a current starting azimuth angle of the camera, a view of a horizontal movement of two fingers on a touch screen typical of the type of gesture described in Figure 5, and a view of the arrival state of the point of view corresponding to an azimuth angle of arrival of the camera as a result of the application of horizontal displacement;
  • FIG. 7 is a view of a control gesture additional to that described in FIG. 5 making it possible to change the angle of inclination from the point of view of the camera according to the method described in FIG. Figure 4;
  • FIGS. 8A, 8B, 8C are respectively a view of the starting state from a point of view of the camera and of a terrestrial map corresponding to a current starting angle of inclination of the camera.
  • camera a view of a vertical movement of two fingers on a touch screen typical of the type of gesture described in Figure 7, and a view of the arrival state of the point of view corresponding to an angle of arrival angle of the camera resulting from the application of vertical downward movement;
  • FIG. 9 is a view of a general gesture of control of variation of the azimuth angle and / or angle of inclination from the point of view of the camera suitable for the method described in FIG. 4;
  • FIG. 10 is a flowchart of a complete method of changing the point of view of a camera incorporating the change of viewing angles of the camera described in FIGS. 3 and 4. ;
  • FIG 11 is a detailed flowchart of the complete point-of-view switching method described in Figure 10.
  • a device 2 for changing from a point of view of a three-dimensional (3D) map by recognition of a gesture on a multi-touch screen includes a multi-touch screen 4, an electronic calculator 6 and a memory 8 for data backup, interconnected by bidirectional links 10, 12.
  • the multi-touch screen 4 is configured to detect and follow a first trajectory 14 and a second trajectory 1 6 of contact points on a flat surface 18 of the touch screen 4 respectively corresponding to contacts 20, 22 of a first finger and contacts 24, 26 of a second finger, in the form of tactile events, only four contact points 20, 22, 24, 26 of fingers being shown in FIG.
  • the electronic computer 6 comprises a first computer module 32, a second computer module 34 and a third computer module 36 which implement one or more computer programs.
  • the first computer module 32 is a touch screen operating system, configured to manage a multi-touch interface and provide a set of contact events that serve to define the contact points of each path. Indeed, when a user touches the touch surface 18, contact events are produced by the operating system 32. These events are of various nature depending on the action made by the finger, and are for example:
  • START KEY an event called START KEY, created when a finger is placed on the screen
  • TOUCH END an event created when a finger is lifted from the screen
  • TOUCH MOVE an event called TOUCH MOVE, created when a finger moves on the screen.
  • a certain number of parameters are also received, such as the x / y position of the finger on the screen which is calculated by the first module 32 as the averaged position on all the affected pixels.
  • the third computer module 36 which serves as a controller of a virtual camera, here a virtual camera, and will be used to prescribe motion instructions to the camera.
  • a virtual camera here a virtual camera
  • touch events will be produced and can be exploited.
  • the first computer module 32 is also configured to manage a graphical display interface and to display on a visible surface of the card touch screen from processed map data provided by the second computer module 34.
  • the second computer module 34 is a cartographic engine, equipped with a virtual camera and configured to calculate in the form of maps the views received by the virtual camera from different points of view of the camera and actual cartographic raw data on a surface globally spherical previously observed and recorded in the electronic memory.
  • a point of view of the virtual camera is characterized by a geometric position of the camera in a spherical coordinate system common to the camera and the observed three-dimensional surface and an attitude of the camera in a suitable local coordinate system, centered on the virtual camera.
  • the virtual camera comprises in a conventional manner, like a physical camera, a retina with an optical center C and an optical axis.
  • the camera is geometrically marked by a current position and a current attitude.
  • the current position of the virtual camera is defined in a spherical coordinate system of center O by a longitude, a latitude and an altitude of the optical center C.
  • the current attitude of the virtual camera is defined in a local coordinate system by a first current azimuth angle y and a second current inclination angle x.
  • the first current azimuthal angle is an angled angle separating an azimuthal reference axis and the projection of the optical axis in a current orientation on an azimuthal projection plane Paz, starting from the azimuthal reference axis.
  • the azimuthal projection plane contains the optical center C of the camera and it is tangent in C to the sphere of center O whose radius is the distance between A and C.
  • the azimuthal reference axis is contained in the same azimuth projection plane Paz and its orientation direction depends on the current position of the camera.
  • the second current angle of inclination x is an oriented angle separating the optical axis of the retina in the current orientation and the axis joining the optical axis C and the center O of the spherical coordinate system starting from the current optical axis .
  • the azimuthal reference axis is the projection on the azimuthal projection plane of an axis joining the optical center and a fixed point located on a sphere of center O and of radius less than the altitude of the camera.
  • Such camera tracking systems are used when three-dimensional mapping concerns a planet or one of its satellites, in particular the terrestrial globe.
  • the spherical geometric reference is a geocentric landmark rotating with the Earth
  • the fixed point for defining the azimuthal reference axis is preferably a point equal to or adjacent to the geographic north.
  • this reference point may be the magnetic north of the Earth and the azimuthal reference axis will then be the magnetic north axis provided in particular by a gyrocompass.
  • the third computer module 36 is a camera controller configured for, from a series of two-finger tactile events provided by the first computer module 32, to determine in a first step of recognizing a gesture a first tactile displacement Dy common sliding of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the surface of the touch screen between an early movement and an end of the movement of the two fingers.
  • the third computer module 36 is also configured to determine in a second control step, a first command Cy modification of a first azimuth angle current from the point of view of the camera according to the first tactile displacement Dy.
  • the third computer module 36 is configured, when it implements the first step of recognizing a gesture, to detect in a third step the beginning of the sliding movement of two fingers simultaneously in contact on the surface of the touch screen, then in a fourth step and from the beginning of the first and second trajectories of the contact points, determine whether the sliding of the two fingers is carried out the two fingers side by side without departing, and if so , in a fifth step, determining the first tactile displacement Dy according to the first predetermined direction Diry of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers.
  • the map engine 34 is configured to, from the first command Cy it receives from the camera controller and from a current azimuth angle yc of attitude of the virtual camera, rotate the current viewpoint of the virtual camera. a first azimuthal angle Ay controlled, function of the first command Cy.
  • the device 2 forming a tablet of Figure 1, wherein the touch screen, the camera controller, and the virtual camera are physically integrated in the tablet 2, is replaced by a system 52 comprising on the one hand a tablet 54 integrating the touch screen 4 with the operating system 32 and a real camera controller identical or substantially identical to the controller 36 of Figure 1, and on the other hand a device actual shooting, here a real physical camera 56 with an actuator of his attitude.
  • the actual camera 56 and the tablet 54 are interconnected by a communication cable 58 through which the tablet 54 provides attitude control data to the actual camera 56 made by the camera controller 36, and the actual camera 56. provides the tablet 54 image data corresponding to the prescribed azimuthal attitude angle, or the prescribed angle of inclination and azimuthal angle.
  • a plurality of electronic computers are configured to perform the functional steps of the camera controller and / or the map engine.
  • the touch interface manager, the camera controller and the map engine are each different dedicated electronic circuits.
  • the point of view of the virtual or real camera is changed quickly using an ergonomic gesture, simple and effective, limited to a single type of movement and two fingers.
  • the operator places his two fingers side by side on the touch surface, and moves them in a desired direction in the plane of the tactile surface decomposable into a first directional component with respect to a first fixed direction and a second directional component with respect to a second fixed direction, different from the first direction.
  • the first component by for example, a horizontal displacement on the touch surface corresponds to a setting of the orientation of the azimuthal angle of the camera while the second component, for example a vertical displacement on the touch surface corresponds to a tilt adjustment of the camera.
  • a method 202 of changing from a point of view of a three-dimensional (3D) map or of an image of a three-dimensional (3D) object by recognition of a gesture on a multi-touch screen, the three-dimensional map being provided by a map engine through a virtual camera, or the image of the object being provided by a real camera, is implemented for example by the device or the system of Figures 1 and 2, and comprises a first step 204 of recognition of a gesture and a second step 206 control.
  • a first tactile displacement Dy common sliding of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the surface of the touch screen between an early movement and an end of the movement of the two fingers.
  • a first control Cy of modifying a first current azimuthal angle from the point of view of the camera is determined according to the first tactile movement Dy.
  • the first gesture recognition step 204 includes a third step 208, a fourth step 210, and a fifth step 212.
  • the beginning of the sliding movement of two fingers simultaneously in contact on the surface of the touch screen is detected.
  • the fourth step 210 from the beginning of the first and second trajectories of the contact points, it is determined whether the sliding of the two fingers is carried out the two fingers side by side without departing. If yes, the fifth step 212 is executed in which the first Dy touch displacement according to the first predetermined Diry direction of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers.
  • the second control step 206 is followed by a sixth step 214 during which, from the first command Cy, received by the cartographic engine or the real camera, and from a current azimuth angle or current of attitude of the camera, the virtual camera of the cartographic engine or the real camera rotates the current point of view of a first azimuth angle Ay controlled, function from there first order Cy.
  • a second embodiment of the method 252 derived from the first embodiment, comprises the same steps as those described in Figure 3 and new steps 254, 256, 262 and 264.
  • the new first step 254 is the first step 204 of recognition of a gesture, in which it is also determined a second tactile displacement Dx common slip of the first and second fingers, arranged side by side without departing, in a second direction Dirx predetermined on the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers.
  • the new fifth step 262 is the fifth step 212 in which the second tactile displacement Dx following the second predetermined direction Dirx of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers in addition to the first moving Dy.
  • the new second control step 256 is the second control step 206 in which a second command Cx for modifying a second tilt angle which is current from the point of view of the camera is further determined according to of the second Dx touch shift.
  • the new sixth step 264 is the sixth step 214 during which additionally, from the second command CX, received by the map engine or the real camera, and a second angle of inclination current x attitude of the camera, the virtual camera of the cartographic engine or the real-world camera pivots a current point of view of a second inclination angle ⁇ controlled, a function of the second command Cx.
  • first and second tactile displacements Dy, Dx can be implemented in series or in parallel, and / or the execution steps of the first and second commands Cy, Cx can be executed in series or in series. parallel.
  • the first step is preceded by an initialization step during which a reliable starting state of the two fingers is detected, and a starting position of each finger as well as the distance separating the two fingers and the central position between the two fingers are determined, the starting position of a finger being an average position of the positions received from said finger during an initial observation time window.
  • the beginning of a sliding movement of the two fingers is detected if the distance traveled by the central position of the two fingers is greater than a first threshold value ⁇ during a first time window of the beginning of observation of trajectories.
  • a scalar product between two normalized vectors of the displacements of the two fingers is calculated, then compared to a second positive threshold value, preferably between 0.75 and 1.
  • the second step comprises a seventh step, implemented when the scalar product between the two normalized vectors of the displacements of the two fingers is greater than the second threshold value, in which it is verified that the standards of the movements of the two fingers are of the same order of magnitude and decide to change at least the first angle of inclination of the camera.
  • Fig. 5 a two-finger sliding movement gesture arranged side by side is shown in which the displacement takes place along a first direction Diry on the surface of the touch screen, fixed here horizontally.
  • the system and method of the invention according to Figs. 1 to 4 are configured to change the azimuthal angle of the camera according to a Dy motion oriented along the Diry direction in Fig. 5.
  • FIGS. 6A, 6B and 6C the effect of the gesture of FIG. 5 following a first collective shift to the right Dy of the two slipped fingers and through the method of the invention is represented.
  • a current or current starting azimuth attitude of the camera is represented in its azimuthal plane by a current azimuth departure angle of zero value between a current azimuth component of the axis Optical 270 and the north direction of the Earth's magnetic north axis, here forming azimuthal angular reference axis 272 in the azimuthal plane Paz.
  • the azimuthal plane Paz of the camera is the plane tangent to the camera and the sphere having as center, the center O of the Earth and as ray the distance separating the optical center C of the camera and the center O of the earth.
  • the camera and more precisely its optical center C are here supposed to be located in a current or current position nadir of a point of the terrestrial equator at a current or current altitude.
  • the optical axis of the camera in the starting or current position of the camera is represented here in its azimuthal component 270 in the azimuthal plane of the camera which is confused with the plane of the upper part of Figure 6A.
  • the azimuthal component 270 of the optical axis that is to say its projection in the azimuthal plane Paz, is here merged with the azimuthal reference axis 272.
  • a partial view taken by the camera is represented, here a map of France following the South-North direction.
  • the first sliding movement Dy of the ends of the two fingers of the right hand, index and middle finger is represented by an arrow 274.
  • the starting position of the two fingers and the arrival position of the two fingers is complete. are respectively represented using a hand in dotted lines on the left in the figure and a hand in unbroken lines on the right in the figure.
  • a controlled azimuthal angular displacement y of the starting azimuthal attitude of the camera that is to say a rotation of the current azimuthal projection of the optical axis 270 corresponding to the first displacement Dy is represented in the same azimuthal plane Paz and with respect to the same azimuthal reference axis 272 as those described in FIG. 6A.
  • a partial view of the camera in the modified azimuthal viewpoint of the camera is represented, here the map of France whose South axis is North turned, the tilt angle of the camera was not changed.
  • FIGS. 1, 2 and 4 a slid motion gesture of two fingers arranged side by side is shown in which the displacement takes place along a second direction Dirx surface of the touch screen, different from the first direction Diry, and fixed here vertical.
  • the system and method of the invention according to FIGS. 1, 2 and 4 are configured to change the angle of inclination of the camera according to a displacement Dx oriented along the direction Dirx on Figure 7, in addition to a possible modification of the azimuthal angle as described above.
  • FIGS. 8A, 8B and 8C the effect of the gesture of FIG. 7 following a second collective vertical displacement Dx of the two slipped fingers and through the method of the invention is represented.
  • a current or current starting attitude of the camera is represented by a current starting angle of inclination of zero value between the optical axis 280 of the camera in its current starting orientation and Nadir axis 282 passing through the optical center C of the camera towards the center O of the Earth and forming the reference axis of the angle of inclination.
  • a partial view of the camera is shown, here a map of France in the South-North direction which suggests that the current or current azimuth angle of the camera is Nil by taking the same definition of the azimuthal angle as in that in Figure 6A.
  • the second sliding displacement Dx of the ends of the two fingers of the right hand, index and major is represented by a vertical arrow 284 directed downwards in the figure.
  • the starting position of the two fingers and the position of arrival of the two fingers the finished slip are respectively represented with the help of a hand in dotted lines at the top in the Figure and a hand in unbroken lines down on the Fig.
  • FIG. 8C there is shown a second angular displacement of controlled tilt x of the camera, that is to say a rotation of the current optical axis 280 corresponding to the second displacement Dx around the normal 286 in C of a tilting plane Pincl containing the optical center C of the camera, the current azimuth projection 288 of the optical axis in the current azimuthal plane and the axis d reference inclination 282.
  • a partial view of the camera in the modified inclination point of view of the camera is represented, here the map of France, the current azimuthal angle of the camera remaining unchanged.
  • a two-finger sliding movement gesture arranged side by side is shown in which the displacement on the tactile surface takes place along any direction 290 decomposable into a first displacement component Dy along the first direction Diry , fixed here horizontal and a second displacement component Dx along the second direction Dirx, here fixed vertical.
  • the system and method of the invention according to Figures 1, 2 and 4 are configured to change the azimuthal angle y and the tilt angle x of the camera according to the first component of displacement Dy and the second displacement component Dx.
  • a complete method 302 for modifying the three-dimensional point of view of an apparatus for shooting with a complete and simple gesture of manipulation of geographical maps or images of a three-dimensional object is configured to use a gesture with two fingers to modify the angles of the three-dimensional point of view of the camera as described above and to exploit a set of other distinct gestures responding to different uses of card manipulation, such as zooming, or moving the card.
  • the gesture of modification of the angles of three-dimensional point of view of the camera must thus be complementary to other gestures of manipulation of the card or the image, so that the whole of the complete gesture forms a coherent whole. and easy to use.
  • a first mode 304 called "MODE MOVE", sliding the position of the camera which is made with a single finger sliding on the screen;
  • ZOOM MODE zoom in or out on the map that is made with two slid fingers that deviate on the touch surface, this action being referred to in English as “pinch and zoom”;
  • 3D MODE a third mode 308, called "3D MODE” of changing the angles of view of the camera (azimuthal angle and angle of inclination), which is made with two slid fingers that move in the same direction horizontally and / or vertically and which constitutes the main object of the invention described above.
  • a tactile movement is a user interaction performed with one or more fingers that can be broken down into three distinct phases: - a first phase during which the user presses the screen (PRESS);
  • the first PRESS phase and the second RELEASE phase are composed of a single event.
  • the second MOVE phase can occur as many times as the user moves his finger.
  • the second MOVE phase can occur if the user involuntarily moves the finger over a very short distance, which can be problematic in the detection of certain events.
  • the second mode 306 ZOOM MODE
  • the third mode 308 3D MODE
  • the zoom is made by an opposite movement of the two fingers, or by the movement of a finger while the second remains fixed.
  • the azimuthal rotation and the inclination of the camera are triggered by the parallel movement of the two fingers in a direction of movement, the displacement being decomposable into a first horizontal displacement which rotates in azimuth rotation of the camera and a second vertical movement that changes the tilt of the camera.
  • the modes must be able to be identified from each other quickly, so that it is imperceptible to the user.
  • the detection of these two-finger modes and their distinction 314 is done in an initialization step 318 followed by a decision step 320 .
  • the initialization step 318 to obtain a reliable starting point, the events received during X milliseconds (X being for example equal to 100 ms) are analyzed and averaged all the positions received from each of the two fingers.
  • X being for example equal to 100 ms
  • One of the main difficulties of tactile controls is the relative inaccuracy of the information received, a finger touching several tens or even hundreds of pixels. This is to know the real center of contact.
  • the first events received are therefore not directly processed but an average on the first events is calculated to obtain a starting position of each finger, as well as the distance separating the two fingers and the central position between the two fingers.
  • an attempt to detect an azimuthal rotation and / or inclination gesture (corresponding to the 3D mode) is implemented for Y milliseconds, Y being for example equal to 200 ms. If the detection is successful, the transition to the third mode 308, 3D MODE activated, is performed. If the detection is unsuccessful, the passage in the second mode 306, MODE ZOOM activated, is performed.
  • the values of the duration X and Y of the windows of initialization and decision can be between 0 and 500 ms according to the uses of the users and the reactivity of desired action which is characterized by a latency time before starting. The longer the latency, the more accurate the processing is, but in return the more the initialization effect is noticeable.
  • the two vectors corresponding to the displacement of the two fingers are calculated as well as the scalar product of these two vectors.
  • a positive scalar product indicates that the fingers move in the same direction and that the third mode, 3D MODE, must be active while a negative dot product indicates that the two fingers are moving in opposite directions and that the second mode, MODE ZOOM, must be enabled.
  • Each received event is “smoothed", that is to say, weighted by the initial event, in order to avoid false-positives then the spacing of the fingers is deduced, the center of the movement, and the displacement of each finger.
  • the scalar product between the normalized vectors of the two fingers is calculated, the detection 324 of a parallel movement in the same direction requiring that the dot product be positive, and even greater than 0.75 (in practice when the dot product is between 1 and 0.75, the movement of the two fingers can be considered as parallel and in the same direction); then
  • An azimuthal rotation from the camera's point of view is performed 332 as a function of the first horizontal displacement, for example a linear variation in which a movement dragged one pixel to the right creates a 0.25 degree rotation of the camera.
  • An inclination from the camera point of view is made 332 as a function of the second vertical displacement, for example a linear variation in which a dragged movement of a pixel downwards changes the 0.25 degree inclination of the camera. views.
  • the method 302 described above makes it possible to change the point of view of a camera in all its forms by using simple and rapid gestures involving at most two fingers, and to change in particular the azimuthal rotation angles. and / or tilt point of view in single fast and simple mode to run.
  • the control of the orientation of the camera is simple and intuitive using the gestures offered on the touch screen.
  • a product or computer program comprises a set of instructions, configured to implement the steps of a three-dimensional view change method according to the invention described above when loaded and executed by one or more several electronic calculators of a device or a system of three-dimensional point of view change.
  • Touch media is not limited to a screen or tablet.
  • the same gesture can be applied to any type of tactile surface such as a "multitouch touchpad", for example that of a laptop, or a touchpad that would replace a mouse on a computer, or an interactive movie "multi-touch”".
  • This invention can be extended to the handling of any type of camera by touch interface (screen, but also touchpad)
  • the main application of the invention is to adjust the point of view of a virtual camera in a 3D map application hands it can be extended to the manipulation of real-world camera such as physical cameras in the context of surveillance activities, for example.
  • a physical or material shooting apparatus is for example a video camera, a camera, or any radiation image sensor whose orientation can be controlled. More particularly, the camera may be an onboard video camera on board an aircraft visualizing the earth's surface.

Abstract

The invention relates to a method for changing a view point of a three-dimensional map (3D) or of an image of an observed three-dimensional physical object by recognising a gesture on a multi-point touch screen, which comprises a step of recognising a gesture, in which is determined (204) a first common touch movement Dy (212) of sliding (208) first and second fingers, arranged side-by-side without separating (210), in a first predetermined direction Diry over the surface of the touch screen between a start of the movement and an end of the movement of the two fingers. The method also includes a control step (214) during which a command Cy to modify a first current azimuth angle of the view point of the adjustable camera is determined (206) in accordance with the first touch movement DY. A device or a system for changing a view point of a three-dimensional map or of an image of an observed three-dimensional physical object is configured such as to implement the method for changing the view point.

Description

PROCEDE ET DISPOSITIF DE CHANGEMENT DE POINT DE VUE D'UNE CARTE TRIDIMENSIONNELLE (3D) OU D'UNE IMAGE D'UN OBJET PHYSIQUE  METHOD AND DEVICE FOR CHANGING THE POINT OF VIEW OF A THREE DIMENSIONAL CARD (3D) OR IMAGE OF A PHYSICAL OBJECT
TRIDIMENSIONNEL (3D) OBSERVE PAR RECONNAISSANCE  THREE-DIMENSIONAL (3D) OBSERVED BY RECOGNITION
D'UNE GESTUELLE SUR UN ECRAN TACTILE MULTI-POINTS  GESTURAL ON A MULTI-POINT TOUCH SCREEN
La présente invention concerne un procédé et un dispositif ou système de changement de point de vue d'une carte tridimensionnelle (3D) ou d'une image d'un objet physique observé tridimensionnel (3D) par reconnaissance d'une gestuelle sur un écran tactile multipoints. The present invention relates to a method and a device or system for changing the point of view of a three-dimensional (3D) map or an image of a three-dimensional observed physical object (3D) by recognizing a gesture on a touch screen multipoint.
De manière équivalente, l'invention concerne un procédé et un dispositif ou système de changement de point de vue d'un appareil de prise de vues virtuel ou réel dont les angles d'attitude ou d'orientation peuvent être modifiés par des commandés. Un appareil de prise de vues virtuel est par exemple une caméra virtuelle réalisée par un moteur cartographique, et un appareil de prise de vues physique, c'est-à-dire matériel, est par exemple une caméra vidéo, un appareil photographique, ou tout capteur physique d'images d'un rayonnement dont l'orientation peut être commandée et modifiée. Plus particulièrement, l'appareil de prise de vues peut être une caméra vidéo embarquée à bord d'un aéronef visualisant la surface terrestre.  Equivalently, the invention relates to a method and a device or system for changing the point of view of a virtual or real-world camera whose angles of attitude or orientation can be modified by commands. A virtual camera is, for example, a virtual camera produced by a cartographic engine, and a physical or material camera is, for example, a video camera, a camera, or any other device. physical sensor of radiation images whose orientation can be controlled and modified. More particularly, the camera may be an onboard video camera on board an aircraft visualizing the earth's surface.
L'invention concerne également un programme d'ordinateur ou une configuration d'architecture d'un circuit dédié tel qu'un ASIC ou un FPGA, qui lorsqu'il ou elle est implémenté dans le système de changement de point de vue permet la mise en œuvre du procédé de changement de point de vue.  The invention also relates to a computer program or an architecture configuration of a dedicated circuit such as an ASIC or an FPGA, which when implemented in the point-of-view change system allows the implementation implementation of the method of change of point of view.
La plupart des Systèmes d'Informations Géographiques (SIG) permettent l'affichage et la manipulation de cartographies numériques. Certains de ces systèmes SIG permettent l'affichage d'un globe terrestre en trois dimensions, comme par exemple les systèmes Google Earth, Nasa WorldWind, AGI lnsight3D. Historiquement, l'interface physique de manipulation de la carte était la souris et permettait de régler le point de vue de la caméra avec le bouton droit et le bouton gauche de la souris.  Most Geographic Information Systems (GIS) allow the display and manipulation of digital mappings. Some of these GIS systems allow the display of a three-dimensional globe, such as Google Earth, Nasa WorldWind, AGI lnsight3D. Historically, the physical interface to manipulate the map was the mouse and allowed to adjust the point of view of the camera with the right button and the left mouse button.
Mais avec la multiplication des interfaces tactiles, il n'y a plus de boutons droits et gauches et de nouvelles interactions gestuelles ont été développées pour s'adapter à ce nouveau support. C'est le cas par exemple de la gestuelle dite du « pinch to zoom » (en français « pincer pour zoomer », où deux doigts s'écartent pour zoomer une zone sur la carte. Dans le domaine technique du développement d'applications cartographiques tridimensionnelles 3D du globe terrestre sur des surfaces tactiles restreintes, par exemple celles d'écran d'une dizaine de pouces, et en environnement turbulent, par exemple dans un cockpit exigu d'avion ou d'hélicoptère soumis à des perturbations atmosphériques ou à un environnement hostile, la mise en place d'une gestuelle spécifique permettant d'orienter rapidement et simplement le point de vue d'une caméra affichant une carte tridimensionnelle est recherchée. But with the proliferation of tactile interfaces, there are no more right and left buttons and new gestural interactions have been developed to adapt to this new medium. This is the case for example of the so-called "pinch to zoom" gesture, where two fingers move apart to zoom in on an area on the map. In the technical field of developing three-dimensional 3D cartographic applications of the terrestrial globe on restricted tactile surfaces, for example those of screens of about ten inches, and in a turbulent environment, for example in a cramped cockpit of an airplane or aircraft. helicopter subjected to atmospheric disturbances or a hostile environment, the establishment of a specific gesture to quickly and simply orient the point of view of a camera displaying a three-dimensional map is sought.
Plus précisément, la prise en charge d'une gestuelle d'interaction rapide et simple, sur surface tactile, permettant de régler le point de vue d'une caméra suivant les trois axes d'un repère en changeant les angles du point de vue au travers de la gestuelle, est recherchée.  More specifically, the support of a fast interaction gesture and simple, on touch surface, to adjust the point of view of a camera along the three axes of a marker by changing the angles from the point of view to through gestures, is sought.
A ce jour, différentes solutions pour résoudre ce problème ont été réalisées ou proposées.  To date, various solutions to solve this problem have been realized or proposed.
Suivant une première solution, le bouton droit de la souris est maintenu enfoncé tout en déplaçant la souris, ce qui permet de gérer les différents angles de vue de la caméra. Toutefois, en raison de l'absence de bouton droit sur une surface tactile, l'usage d'une telle surface d'interface utilisateur requiert que le clic droit de la souris soit effectué par un appui de longue durée sur la surface tactile, de l'ordre de la seconde. Cette seconde d'attente n'est pas compatible d'un usage en environnement turbulent dans un cockpit d'aéronef car elle est trop longue et anti-ergonomique.  In a first solution, the right mouse button is held down while moving the mouse, which makes it possible to manage the different angles of view of the camera. However, because of the absence of a right button on a touch surface, the use of such a user interface surface requires that the right click of the mouse is performed by a long-term support on the touch surface, the order of the second. This second waiting is not compatible with use in a turbulent environment in an aircraft cockpit because it is too long and anti-ergonomic.
Suivant une deuxième solution, des gestuelles à 3 doigts ou 4 doigts sur surfaces tactiles ont été développées pour manipuler le point de vue de cartes tridimensionnelles par un utilisateur. Toutefois l'utilisation de plus de deux doigts sur une tablette tactile par un pilote ou un opérateur de bord s'avère peu pratique et anti-ergonomique en environnement embarqué turbulent. Ainsi, l'utilisation d'une gestuelle à un doigt ou deux doigts maximum doit être privilégiée dans le cas d'applications avioniques sur tablettes embarquées dans un cockpit d'un aéronef, ce qui n'est pas le cas actuellement, notamment pour le réglage des angles de point de vue de la caméra.  According to a second solution, 3-finger or 4-finger gestures on tactile surfaces have been developed for manipulating the point of view of three-dimensional cards by a user. However the use of more than two fingers on a touch pad by a driver or an operator is inconvenient and anti-ergonomic turbulent embedded environment. Thus, the use of a gesture to a finger or two fingers maximum should be preferred in the case of avionics applications on tablets embedded in a cockpit of an aircraft, which is not currently the case, especially for the adjustment of the angles of point of view of the camera.
La demande de brevet publiée sous la référence WO 2014/014806 A1 décrit un écran tactile multipoints, configuré pour manipuler des images affichées d'un objet tridimensionnel au travers de gestuelles utilisant deux doigts. Le document décrit en particulier une gestuelle de type « pinch to zoom » pour réaliser un zoom de la carte, une gestuelle de glissement vertical de deux doigts maintenus côte à côte pour réaliser un changement de l'angle d'inclinaison de la caméra, et une gestuelle de pivotement glissé de deux doigts autour d'un point sur l'écran pour réaliser un changement de l'angle azimutal du point de vue de la caméra. Toutefois, la gestuelle proposée pour modifier les angles de point de vue de la caméra reste peu ergonomique et compliquée d'emploi dans le cas d'une utilisation en environnement turbulent, comme celui d'un cockpit d'avion ou d'hélicoptère. The patent application published under the reference WO 2014/014806 A1 describes a multi-touch screen, configured to manipulate displayed images of a three-dimensional object through gestures. using two fingers. The document particularly describes a "pinch to zoom" gesture for zooming the map, a vertical sliding gesture of two fingers held side by side to make a change in the angle of inclination of the camera, and a pivot gesture slid two fingers around a point on the screen to make a change in the azimuthal angle from the point of view of the camera. However, the gesture proposed to change the angles of point of view of the camera remains uncomfortable and complicated to use in the case of use in a turbulent environment, such as that of an airplane or helicopter cockpit.
Le problème technique est de trouver un procédé et un dispositif ou système de changement de point de vue d'une carte tridimensionnelle (3D) au travers du changement des angles d'attitude de l'appareil de prise de vues par reconnaissance d'une gestuelle sur un écran tactile multipoints qui est plus ergonomique, plus simple d'emploi et plus efficace en terme de rapidité dans la commande du changement du point de vue dans le cas d'une utilisation en environnement turbulent, comme celui d'un cockpit d'avion ou d'hélicoptère.  The technical problem is to find a method and a device or system for changing the point of view of a three-dimensional (3D) map by changing the attitude angles of the camera by recognizing a gesture on a multi-touch screen that is more ergonomic, easier to use and more efficient in terms of speed in order to control the change of the point of view in the case of use in a turbulent environment, such as that of a cockpit. plane or helicopter.
A cet effet, l'invention a pour objet un procédé de changement d'un point de vue d'une carte tridimensionnelle (3D) ou d'une image d'un objet tridimensionnel (3D) par une reconnaissance d'une gestuelle sur un écran tactile multipoints, la carte tridimensionnelle ou l'image de l'objet tridimensionnel (3D) étant fournie par un moteur cartographique au travers d'un appareil de prise de vues virtuel ou par un appareil de prise de vues réel, comprenant des étapes consistant en ce que,  For this purpose, the subject of the invention is a method of changing from a point of view of a three-dimensional (3D) map or an image of a three-dimensional object (3D) by a recognition of a gesture on a multi-touch screen, the three-dimensional map or the image of the three-dimensional object (3D) being provided by a map engine through a virtual camera or by a real-life camera, including steps consisting of in that,
au travers du suivi d'une première trajectoire et d'une deuxième trajectoire de points de contacts sur l'écran tactile correspondant respectivement aux contacts d'un premier doigt et aux contacts d'un deuxième doigt, through tracking a first trajectory and a second trajectory of contact points on the touch screen respectively corresponding to the contacts of a first finger and the contacts of a second finger,
dans une première étape de reconnaissance d'une gestuelle, il est déterminé un premier déplacement tactile Dy commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts ; et in a first step of recognizing a gesture, it is determined a first tactile displacement Dy common slip of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the surface of the screen tactile between a beginning of the movement and an end of the movement of the two fingers; and
dans une deuxième étape de commande, une première commande Cy de modification d'un premier angle azimutal courant du point de vue de l'appareil de prise de vues est déterminée en fonction du premier déplacement tactile Dy. in a second control step, a first Cy command modifying a first azimuth angle current from the point of view of the camera is determined according to the first tactile movement Dy.
Suivant des modes particuliers de réalisation, le procédé de changement de point de vue comprend l'une ou plusieurs des caractéristiques suivantes :  According to particular embodiments, the method of changing the point of view comprises one or more of the following features:
.- la première étape de reconnaissance d'une gestuelle comprend une troisième étape au cours de laquelle le début du mouvement de glissement de deux doigts simultanément en contact sur la surface de l'écran tactile est détecté, suivie d'une quatrième étape au cours de laquelle, à partir du début des première et deuxième trajectoires des points de contacts, il est déterminé si le glissement des deux doigts est effectué les deux doigts côte à côte sans s'écarter, suivie dans l'affirmative d'une cinquième étape au cours de laquelle le premier déplacement tactile Dy suivant la première direction prédéterminée Diry de la surface de l'écran tactile est déterminé entre le début du mouvement et une fin du mouvement des deux doigts ; et la deuxième étape de commande est suivie d'une sixième étape au cours de laquelle, à partir de la première commande Cy, reçue par le moteur cartographique ou l'appareil de prise de vues réel, et d'un angle azimutal courant Yc d'attitude de appareil de prise de vues réel ou virtuel, l'appareil de prise de vues virtuel du moteur cartographique ou l'appareil de prise de vues réel pivote un point de vue courant d'un premier angle azimutal Ay commandé, fonction de la première commande Cy ;  the first step of recognizing a gesture comprises a third step during which the beginning of the sliding movement of two fingers simultaneously in contact on the surface of the touch screen is detected, followed by a fourth step during from which, from the beginning of the first and second trajectories of the contact points, it is determined whether the sliding of the two fingers is carried out the two fingers side by side without departing, followed in the affirmative by a fifth step at during which the first tactile displacement Dy following the first predetermined direction Diry of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers; and the second control step is followed by a sixth step in which, from the first command Cy, received by the map engine or the real-world camera, and a current azimuth angle Yc d attitude of real or virtual camera, the virtual camera of the cartographic engine or the real camera rotates a current point of view of a first azimuth angle Ay controlled, according to the first command Cy;
.- dans la première étape de reconnaissance d'un gestuelle, il est également déterminé un deuxième déplacement tactile Dx commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une deuxième direction prédéterminée Dirx sur la surface de l'écran tactile entre le début du mouvement et la fin du mouvement des deux doigts, et dans la deuxième étape de commande, une deuxième commande Cx de modification d'un deuxième angle d'inclinaison courant du point de vue du dispositif de prise de vues est en outre déterminée en fonction du deuxième déplacement tactile Dx ;  in the first step of recognizing a gesture, it is also determined a second tactile displacement Dx common slip of the first and second fingers, arranged side by side without departing, in a second predetermined direction Dirx on the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers, and in the second control step, a second command Cx for modifying a second angle of inclination current from the point of view of the gripping device. views is further determined according to the second touch shift Dx;
.- le deuxième déplacement tactile Dx suivant la deuxième direction prédéterminée Dirx de la surface de l'écran tactile entre le début du mouvement et la fin du mouvement des deux doigts est déterminé dans la cinquième étape, et au cours de la sixième étape, à partir de la deuxième commande Cx , reçue par le moteur cartographique ou le dispositif de prise de vues réel, et d'un deuxième angle d'inclinaison actuel x d'attitude du dispositif de prise de vues, le dispositif de prise de vues virtuel du moteur cartographique ou le dispositif de prise de vues réel pivote un point de vue courant d'un deuxième angle d'inclinaison Δχ commandé, fonction de la deuxième commande Cx ; the second tactile displacement Dx along the second predetermined direction Dirx of the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers is determined in the fifth step, and in the sixth step, from the second command Cx, received by the map engine or the real-world camera, and a second current angle of inclination x of the attitude of the camera, the virtual camera of the cartographic engine or the actual camera rotates a current viewpoint of a second inclination angle Δχ controlled, a function of the second command Cx;
.- le dispositif de prise de vues virtuel ou réel comporte une rétine avec un centre optique C et un axe optique, et est repéré géométriquement par une position actuelle et une attitude actuelle, la position actuelle étant définie dans un repère sphérique de centre O par une longitude, une latitude et une altitude du centre optique C, et l'attitude actuelle étant définie dans un repère local par un premier angle azimutal actuel y et un deuxième angle d'inclinaison actuel x, le premier angle azimutal actuel x étant un angle orienté séparant la projection de l'axe optique dans une orientation actuelle sur un plan de projection azimutal contenant le centre optique C, et tangent à la sphère de centre O et contenant le centre optique C, et un axe de référence azimutal, contenu dans le même plan de projection azimutal et dont la direction dépend de la position actuelle de l'appareil de prise de vues, en partant de l'axe de référence azimutal, le deuxième angle d'inclinaison actuel x étant un angle orienté séparant l'axe optique de la rétine dans l'orientation actuelle et l'axe joignant l'axe optique C et le centre O du repère sphérique en partant de l'axe optique actuel, l'écran tactile a une surface plane tactile avec une première direction Diry et et la reconnaissance de la gestuelle étant mise en œuvre par un ou plusieurs calculateurs électroniques ;  the virtual or real-life camera comprises a retina with an optical center C and an optical axis, and is geometrically marked by a current position and a current attitude, the current position being defined in a spherical coordinate system of center O by a longitude, a latitude and an altitude of the optical center C, and the current attitude being defined in a local coordinate system by a first current azimuthal angle y and a second current angle of inclination x, the first current azimuth angle x being an angle an orientation separating the projection of the optical axis in a current orientation on an azimuthal projection plane containing the optical center C, and tangent to the center sphere O and containing the optical center C, and an azimuthal reference axis, contained in the same azimuthal projection plane and whose direction depends on the current position of the camera, starting from the azimuthal reference axis, the second angle of inc current lineage x being an oriented angle separating the optical axis of the retina in the current orientation and the axis joining the optical axis C and the center O of the spherical coordinate system starting from the current optical axis, the touch screen has a flat tactile surface with a first Diry direction and and gesture recognition being implemented by one or more electronic computers;
.- l'axe de référence azimutal est la projection sur le plan de projection azimutal d'un axe joignant le centre optique et un point fixe situé sur une sphère de centre O et de rayon inférieur à l'altitude de l'appareil de prise de vues ;  the azimuthal reference axis is the projection on the azimuthal projection plane of an axis joining the optical center and a fixed point situated on a sphere of center O and of radius less than the altitude of the setting apparatus views;
.- les cartes tridimensionnelles sont des cartes du globe terrestre, le repère géométrique sphérique est un repère géocentrique tournant avec la Terre, et le point fixe est un point égal au ou voisin du nord géographique ;  .- the three-dimensional maps are maps of the terrestrial globe, the spherical geometric landmark is a geocentric landmark rotating with the Earth, and the fixed point is a point equal to or near the geographical north;
.- le point fixe est le nord magnétique et l'axe de référence azimutal est l'axe du nord magnétique fourni notamment par un gyrocompas ; .- les cartes tridimensionnelles fournies sont des vues calculées par le moteur cartographique à partir d'une base de données lorsque l'appareil de prise de vues est virtuel, et les images de l'objet tridimensionnel sont des images réelles captées par l'appareil de prise de vues lorsque l'appareil de prise de vues est réel ; the fixed point is the magnetic north and the azimuthal reference axis is the magnetic north axis provided in particular by a gyrocompass; .- the three-dimensional maps provided are views calculated by the cartographic engine from a database when the camera is virtual, and the images of the three-dimensional object are actual images captured by the camera shooting when the camera is real;
.- les déterminations des premier et deuxième déplacements tactiles Dy, Dx sont mises en œuvre en série ou en parallèle, et/ou les étapes d'exécution des première et deuxième commande Cy, Cx sont exécutées en série ou en parallèle ;  the determinations of the first and second tactile displacements Dy, Dx are implemented in series or in parallel, and / or the execution steps of the first and second commands Cy, Cx are executed in series or in parallel;
.- la première étape est précédée d'une étape d'initialisation au cours de laquelle un état de départ fiable des deux doigts est détecté, et une position de départ de chaque doigt ainsi que la distance séparant les deux doigts et la position centrale entre les deux doigts sont déterminés, la position de départ d'un doigt étant une position moyenne des positions reçues dudit doigt pendant une fenêtre temporelle d'observation initiale ;  the first step is preceded by an initialization step during which a reliable starting state of the two fingers is detected, and a starting position of each finger as well as the distance separating the two fingers and the central position between the two fingers are determined, the starting position of a finger being an average position of the positions received from said finger during an initial observation time window;
.- au cours de la troisième étape, le début d'un mouvement de glissement des deux doigts est détecté si la distance parcourue par la position centrale des deux doigts est supérieure à une première valeur seuil ε pendant une première fenêtre temporelle de début d'observation des trajectoires, et au cours de la quatrième étape et pendant une première fenêtre temporelle de début d'observation des trajectoires un produit scalaire entre deux vecteurs normalisés des déplacements des deux doigts est calculé, puis comparé à une valeur de seuil positive, de préférence comprise entre 0,75 et 1 ;  in the third step, the beginning of a sliding movement of the two fingers is detected if the distance traveled by the central position of the two fingers is greater than a first threshold value ε during a first time window of start of observation of the trajectories, and during the fourth step and during a first time window of start of observation of the trajectories a scalar product between two normalized vectors of the displacements of the two fingers is calculated, then compared to a positive threshold value, preferably between 0.75 and 1;
.- la deuxième étape comprend une étape, mise en œuvre lorsque le produit scalaire entre les deux vecteurs normalisés des déplacements des deux doigts est supérieure à la deuxième valeur seuil, dans laquelle il est vérifié que les normes des déplacements des deux doigts sont du même ordre de grandeur et décider de modifier au moins le premier angle d'inclinaison de la caméra.  the second step comprises a step, implemented when the scalar product between the two normalized vectors of the displacements of the two fingers is greater than the second threshold value, in which it is verified that the standards of the movements of the two fingers are of the same order of magnitude and decide to change at least the first tilt angle of the camera.
L'invention a également pour objet un dispositif ou un système de changement d'un point de vue d'une carte tridimensionnelle (3D) par une reconnaissance d'une gestuelle sur un écran tactile multipoints, comprenant : .- un dispositif de prise de vues réel ou un moteur cartographique avec un appareil de prise de vues virtuel pour fournir une image ou une carte tridimensionnelle d'une scène d'un objet tridimensionnel suivant un point de vue actuelle de l'appareil de prise de vues réel ou virtuel ; The invention also relates to a device or a system for changing from a point of view of a three-dimensional (3D) map by recognizing a gesture on a multi-touch screen, comprising: real views or a map engine with a virtual camera to provide an image or a map three-dimensional view of a scene of a three-dimensional object according to a current viewpoint of the real or virtual camera;
.- un écran tactile multipoints pour suivre une première trajectoire et une deuxième trajectoire de points de contacts sur l'écran tactile correspondant respectivement aux contacts d'un premier doigt et aux contacts d'un deuxième doigt, sous la forme d'événements tactiles ; a multi-touch screen for following a first trajectory and a second trajectory of contact points on the touch screen respectively corresponding to the contacts of a first finger and the contacts of a second finger, in the form of tactile events;
.- un ou plusieurs calculateur électroniques, configurés pour à partir des événements tactiles des deux doigts, déterminer dans une première étape de reconnaissance d'une gestuelle un premier déplacement tactile Dy commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts ; et. déterminer dans une deuxième étape de commande, une première commande Cy de modification d'un premier angle azimutal courant du point de vue de la caméra en fonction du premier déplacement tactile Dy.  one or more electronic computers, configured for starting from the tactile events of the two fingers, determining in a first step of recognizing a gesture a first tactile displacement Dy common sliding of the first and second fingers, arranged side by side without s spacing, in a first predetermined direction Diry on the surface of the touch screen between a beginning of the movement and an end of the movement of the two fingers; and. determining in a second control step, a first command Cy modifying a first azimuth angle current from the point of view of the camera according to the first tactile displacement Dy.
L'invention a également pour objet un produit ou programme d'ordinateur comprenant un ensemble d'instructions configurées pour mettre en œuvre le procédé défini ci-dessus lorsqu'elles sont chargées dans et exécutées par un ou plusieurs calculateurs du dispositif ou système défini ci-dessus.  The invention also relates to a product or computer program comprising a set of instructions configured to implement the method defined above when they are loaded into and executed by one or more computers of the device or system defined herein. -above.
L'invention sera mieux comprise à la lecture de la description de plusieurs formes de réalisation qui va suivre, donnée uniquement à titre d'exemple et faite en se référant aux dessins sur lesquels :  The invention will be better understood on reading the description of several embodiments which will follow, given solely by way of example and with reference to the drawings in which:
- la Figure 1 est une vue d'une architecture d'un premier mode de réalisation d'un dispositif de changement d'angles de point de vue d'un appareil de prise de vues virtuel selon l'invention ;  FIG. 1 is a view of an architecture of a first embodiment of a point-of-view angle-change device of a virtual camera according to the invention;
- la Figure 2 est une vue d'une architecture d'un deuxième mode de réalisation d'un dispositif de changement d'angles de point de vue d'un appareil de prise de vues réel selon l'invention ;  FIG. 2 is a view of an architecture of a second embodiment of a device for changing angles from the point of view of a real-life camera according to the invention;
- la Figure 3 est un ordinogramme d'un premier mode de réalisation d'un procédé de changement d'angles de point de vue selon l'invention ;  FIG. 3 is a flow chart of a first embodiment of a point-of-view angle change method according to the invention;
- la Figure 4 est un ordinogramme d'un deuxième mode de réalisation d'un procédé de changement d'angles de point de vue selon l'invention ; - la Figure 5 est une vue d'une gestuelle de commande permettant de réaliser le procédé de changement de l'angle azimutal du point de vue selon les procédés décrits dans les Figures 3 et 4 ; FIG. 4 is a flow chart of a second embodiment of a point-of-view angle change method according to the invention; FIG. 5 is a view of a control gesture making it possible to carry out the method of changing the azimuth angle from the point of view according to the methods described in FIGS. 3 and 4;
- les Figures 6A, 6B, 6C sont respectivement une vue de l'état de départ d'un point de vue d'un appareil de prise de vues et d'une carte terrestre correspondant à un angle azimutal actuel de départ de la caméra, une vue d'un déplacement horizontal de deux doigts sur un écran tactile typique du type de gestuelle décrite à la Figure 5, et une vue de l'état d'arrivée du point de vue correspondant à un angle azimutal d'arrivée de l'appareil de prise de vues en conséquence de l'application du déplacement horizontal ;  FIGS. 6A, 6B, 6C are respectively a view of the starting state from a point of view of a camera and a terrestrial map corresponding to a current starting azimuth angle of the camera, a view of a horizontal movement of two fingers on a touch screen typical of the type of gesture described in Figure 5, and a view of the arrival state of the point of view corresponding to an azimuth angle of arrival of the camera as a result of the application of horizontal displacement;
- la Figure 7 est une vue d'une gestuelle de commande supplémentaire à celle décrite da Figure 5 permettant de réaliser un changement de l'angle d'inclinaison du point de vue de l'appareil de prise de vues selon le procédé décrit dans la Figure 4 ;  7 is a view of a control gesture additional to that described in FIG. 5 making it possible to change the angle of inclination from the point of view of the camera according to the method described in FIG. Figure 4;
- les Figures 8A, 8B, 8C sont respectivement une vue l'état de départ d'un point de vue de l'appareil de prise de vues et d'une carte terrestre correspondant à un angle d'inclinaison actuel de départ de l'appareil de prise de vues, une vue d'un déplacement vertical de deux doigts sur un écran tactile typique du type de gestuelle décrite à la Figure 7, et une vue de l'état d'arrivée du point de vue correspondant à un angle d'inclinaison d'arrivée de l'appareil de prise de vues résultant de l'application du déplacement vertical vers le bas; FIGS. 8A, 8B, 8C are respectively a view of the starting state from a point of view of the camera and of a terrestrial map corresponding to a current starting angle of inclination of the camera. camera, a view of a vertical movement of two fingers on a touch screen typical of the type of gesture described in Figure 7, and a view of the arrival state of the point of view corresponding to an angle of arrival angle of the camera resulting from the application of vertical downward movement;
- la Figure 9 est une vue d'une gestuelle générale de commande de variation de l'angle azimutal et/ou de l'angle d'inclinaison du point de vue de l'appareil de prise de vues convenant au procédé décrit dans la Figure 4 ; FIG. 9 is a view of a general gesture of control of variation of the azimuth angle and / or angle of inclination from the point of view of the camera suitable for the method described in FIG. 4;
- la Figure 10 est un ordinogramme d'un procédé complet de changement de point de vue d'un appareil de prise de vues intégrant le changement des angles de point de vue de l'appareil de prise de vues décrit dans les Figures 3 et 4 ;  FIG. 10 is a flowchart of a complete method of changing the point of view of a camera incorporating the change of viewing angles of the camera described in FIGS. 3 and 4. ;
- la Figure 1 1 est un ordinogramme détaillé du procédé complet de changement de points de vue décrit dans la Figure 10.  Figure 11 is a detailed flowchart of the complete point-of-view switching method described in Figure 10.
Suivant la Figure 1 et un premier mode de réalisation, un dispositif 2 de changement d'un point de vue d'une carte tridimensionnelle (3D) par reconnaissance d'une gestuelle sur un écran tactile multipoints, comprend un écran tactile multipoints 4, un calculateur électronique 6 et une mémoire 8 de sauvegarde de données, reliés entre eux par des liaisons bidirectionnelles 10, 12. According to FIG. 1 and a first embodiment, a device 2 for changing from a point of view of a three-dimensional (3D) map by recognition of a gesture on a multi-touch screen, includes a multi-touch screen 4, an electronic calculator 6 and a memory 8 for data backup, interconnected by bidirectional links 10, 12.
L'écran tactile multipoints 4 est configuré pour détecter et suivre une première trajectoire 14 et une deuxième trajectoire 1 6 de points de contacts sur une surface plane 18 de l'écran tactile 4 correspondant respectivement à des contacts 20, 22 d'un premier doigt et à des contacts 24, 26 d'un deuxième doigt, sous la forme d'événements tactiles, seuls quatre points de contacts 20, 22, 24, 26 de doigts étant représentés sur la Figure 1 .  The multi-touch screen 4 is configured to detect and follow a first trajectory 14 and a second trajectory 1 6 of contact points on a flat surface 18 of the touch screen 4 respectively corresponding to contacts 20, 22 of a first finger and contacts 24, 26 of a second finger, in the form of tactile events, only four contact points 20, 22, 24, 26 of fingers being shown in FIG.
Le calculateur électronique 6 comporte un premier module informatique 32, un deuxième module informatique 34 et un troisième module informatique 36 qui mettent en œuvre un ou plusieurs programmes informatiques.  The electronic computer 6 comprises a first computer module 32, a second computer module 34 and a third computer module 36 which implement one or more computer programs.
Le premier module informatique 32 est un système d'exploitation de l'écran tactile, configuré pour gérer une interface tactile multipoints et fournir un ensemble d'événements de contact qui servent à définir les points de contact de chaque trajectoire. En effet, lorsqu'un utilisateur touche la surface tactile 18, des événements de contact sont produits par le système d'exploitation 32. Ces événements sont de nature diverses suivant l'action faite par le doigt, et sont par exemple :  The first computer module 32 is a touch screen operating system, configured to manage a multi-touch interface and provide a set of contact events that serve to define the contact points of each path. Indeed, when a user touches the touch surface 18, contact events are produced by the operating system 32. These events are of various nature depending on the action made by the finger, and are for example:
.- un événement dénommé TOUCHE START, créé quand un doigt est posé sur l'écran,  .- an event called START KEY, created when a finger is placed on the screen,
.- un événement dénommé TOUCH END, créé quand un doigt est levé de l'écran, et  .- an event called TOUCH END, created when a finger is lifted from the screen, and
.- un événement dénommé TOUCH MOVE, créé quand un doigt se déplace sur l'écran.  .- an event called TOUCH MOVE, created when a finger moves on the screen.
Pour chaque événement, un certain nombre de paramètres sont également reçus, tels que la position x/y du doigt sur l'écran qui est calculée par le premier module 32 comme la position moyennée sur tous les pixels touchés.  For each event, a certain number of parameters are also received, such as the x / y position of the finger on the screen which is calculated by the first module 32 as the averaged position on all the affected pixels.
Ces événements sont ensuite mis à disposition du troisième module informatique 36 qui sert de contrôleur d'un appareil de prise de vue virtuelle, ici une caméra virtuelle, et serviront à prescrire des consignes de mouvement à la caméra. Quel que soit le système d'exploitation utilisé, notamment Windows®, iOs®, Androïd®, Linux®, des événements tactiles en tant qu'objets seront produits et pourront être exploités. These events are then made available to the third computer module 36 which serves as a controller of a virtual camera, here a virtual camera, and will be used to prescribe motion instructions to the camera. Whatever the operating system used, including Windows®, iOs®, Android®, Linux®, touch events as objects will be produced and can be exploited.
Le premier module informatique 32 est également configuré pour gérer une interface d'affichage graphique et permettre l'affichage sur une surface visible de l'écran tactile de cartes à partir de données cartographiques traitées fournies par le deuxième module informatique 34.  The first computer module 32 is also configured to manage a graphical display interface and to display on a visible surface of the card touch screen from processed map data provided by the second computer module 34.
Le deuxième module informatique 34 est un moteur cartographique, doté d'une caméra virtuelle et configuré pour calculer sous forme de cartes les vues reçues par la caméra virtuelle à partir de différents points de vue de la caméra et de données brutes cartographiques réelles sur une surface globalement sphérique préalablement observées et enregistrées dans la mémoire électronique. Un point de vue de la caméra virtuelle est caractérisé par une position géométrique de la caméra dans un repère sphérique commun à la caméra et la surface tridimensionnelle observée et une attitude de la caméra dans un repère local adapté, centré sur la caméra virtuelle.  The second computer module 34 is a cartographic engine, equipped with a virtual camera and configured to calculate in the form of maps the views received by the virtual camera from different points of view of the camera and actual cartographic raw data on a surface globally spherical previously observed and recorded in the electronic memory. A point of view of the virtual camera is characterized by a geometric position of the camera in a spherical coordinate system common to the camera and the observed three-dimensional surface and an attitude of the camera in a suitable local coordinate system, centered on the virtual camera.
La caméra virtuelle comporte de manière classique à l'instar d'une caméra physique une rétine avec un centre optique C et un axe optique. La caméra est repérée géométriquement par une position actuelle et une attitude actuelle. La position actuelle de la caméra virtuelle est définie dans un repère sphérique de centre O par une longitude, une latitude et une altitude du centre optique C. L'attitude actuelle de la caméra virtuelle est définie dans un repère local par un premier angle azimutal actuel y et un deuxième angle d'inclinaison actuel x.  The virtual camera comprises in a conventional manner, like a physical camera, a retina with an optical center C and an optical axis. The camera is geometrically marked by a current position and a current attitude. The current position of the virtual camera is defined in a spherical coordinate system of center O by a longitude, a latitude and an altitude of the optical center C. The current attitude of the virtual camera is defined in a local coordinate system by a first current azimuth angle y and a second current inclination angle x.
Le premier angle azimutal actuel y est un angle orienté séparant un axe de référence azimutal et la projection de l'axe optique dans une orientation actuelle sur un plan Paz de projection azimutal, en partant de l'axe de référence azimutal. Le plan de projection azimutal contient le centre optique C de la caméra et il est tangent en C à la sphère de centre O ayant pour rayon la distance entre A et C. L'axe de référence azimutal est contenu dans le même plan de projection azimutal Paz et sa direction d'orientation dépend de la position actuelle de la caméra.  The first current azimuthal angle is an angled angle separating an azimuthal reference axis and the projection of the optical axis in a current orientation on an azimuthal projection plane Paz, starting from the azimuthal reference axis. The azimuthal projection plane contains the optical center C of the camera and it is tangent in C to the sphere of center O whose radius is the distance between A and C. The azimuthal reference axis is contained in the same azimuth projection plane Paz and its orientation direction depends on the current position of the camera.
Le deuxième angle d'inclinaison actuel x est un angle orienté séparant l'axe optique de la rétine dans l'orientation actuelle et l'axe joignant l'axe optique C et le centre O du repère sphérique en partant de l'axe optique actuel. Par exemple, l'axe de référence azimutal est la projection sur le plan de projection azimutal d'un axe joignant le centre optique et un point fixe situé sur une sphère de centre O et de rayon inférieur à l'altitude de la caméra. The second current angle of inclination x is an oriented angle separating the optical axis of the retina in the current orientation and the axis joining the optical axis C and the center O of the spherical coordinate system starting from the current optical axis . For example, the azimuthal reference axis is the projection on the azimuthal projection plane of an axis joining the optical center and a fixed point located on a sphere of center O and of radius less than the altitude of the camera.
De tels systèmes de repérage de la caméra sont utilisés lorsque la cartographie tridimensionnelle concerne une planète ou un de ses satellites, en particulier le globe terrestre. Lorsque les cartes tridimensionnelles sont des cartes du globe terrestre, le repère géométrique sphérique est un repère géocentrique tournant avec la Terre, et le point fixe servant à définir l'axe de référence azimutal est de préférence un point égal au ou voisin du nord géographique. En particulier, ce point de référence pourra être le nord magnétique de la Terre et l'axe de référence azimutal sera alors l'axe du nord magnétique fourni notamment par un gyrocompas.  Such camera tracking systems are used when three-dimensional mapping concerns a planet or one of its satellites, in particular the terrestrial globe. When the three-dimensional maps are maps of the Earth, the spherical geometric reference is a geocentric landmark rotating with the Earth, and the fixed point for defining the azimuthal reference axis is preferably a point equal to or adjacent to the geographic north. In particular, this reference point may be the magnetic north of the Earth and the azimuthal reference axis will then be the magnetic north axis provided in particular by a gyrocompass.
Le troisième module informatique 36 est un contrôleur de caméra configuré pour, à partir d'une suite d'événements tactiles de deux doigts fournis par le premier module informatique 32, déterminer dans une première étape de reconnaissance d'une gestuelle un premier déplacement tactile Dy commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts.  The third computer module 36 is a camera controller configured for, from a series of two-finger tactile events provided by the first computer module 32, to determine in a first step of recognizing a gesture a first tactile displacement Dy common sliding of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the surface of the touch screen between an early movement and an end of the movement of the two fingers.
Le troisième module informatique 36 est également configuré pour déterminer dans une deuxième étape de commande, une première commande Cy de modification d'un premier angle azimutal courant du point de vue de la caméra en fonction du premier déplacement tactile Dy.  The third computer module 36 is also configured to determine in a second control step, a first command Cy modification of a first azimuth angle current from the point of view of the camera according to the first tactile displacement Dy.
De manière particulière, le troisième module informatique 36 est configuré, lorsqu'il met en œuvre la première étape de reconnaissance d'une gestuelle, pour détecter dans une troisième étape le début du mouvement de glissement de deux doigts simultanément en contact sur la surface de l'écran tactile, puis dans une quatrième étape et à partir du début des première et deuxième trajectoires des points de contacts, déterminer si le glissement des deux doigts est effectué les deux doigts côte à côte sans s'écarter, et dans l'affirmative, déterminer dans une cinquième étape le premier déplacement tactile Dy suivant la première direction prédéterminée Diry de la surface de l'écran tactile est déterminé entre le début du mouvement et une fin du mouvement des deux doigts. In particular, the third computer module 36 is configured, when it implements the first step of recognizing a gesture, to detect in a third step the beginning of the sliding movement of two fingers simultaneously in contact on the surface of the touch screen, then in a fourth step and from the beginning of the first and second trajectories of the contact points, determine whether the sliding of the two fingers is carried out the two fingers side by side without departing, and if so , in a fifth step, determining the first tactile displacement Dy according to the first predetermined direction Diry of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers.
Le moteur cartographique 34 est configuré pour, à partir de la première commande Cy qu'il reçoit du contrôleur de caméra et d'un angle azimutal courant yc d'attitude de la caméra virtuelle, pivoter le point de vue courant de la caméra virtuelle d'un premier angle azimutal Ay commandé, fonction de la première commande Cy.  The map engine 34 is configured to, from the first command Cy it receives from the camera controller and from a current azimuth angle yc of attitude of the virtual camera, rotate the current viewpoint of the virtual camera. a first azimuthal angle Ay controlled, function of the first command Cy.
En variante et suivant la Figure 2, le dispositif 2 formant tablette de la Figure 1 , dans lequel l'écran tactile, le contrôleur de caméra, et la caméra virtuelle sont physiquement intégrés dans la tablette 2, est remplacé par un système 52 comportant d'une part une tablette 54 intégrant l'écran tactile 4 avec le système d'exploitation 32 et un contrôleur d'appareil de prise de vues réel, identique ou sensiblement identique au contrôleur 36 de la Figure 1 , et d'autre part un appareil de prise de vues réel, ici une caméra physique réelle 56 avec un organe d'actionnement de son attitude. La caméra réelle 56 et la tablette 54 sont reliées entre elles par un câble de communication 58 au travers duquel la tablette 54 fournit des données de commande d'attitude à la caméra réelle 56 élaborées par le contrôleur de caméra 36, et la caméra réelle 56 fournit à la tablette 54 des données d'image correspondant à l'angle d'attitude azimutal prescrit, ou aux angles d'inclinaison et azimutal du point de vue prescrit.  Alternatively and according to Figure 2, the device 2 forming a tablet of Figure 1, wherein the touch screen, the camera controller, and the virtual camera are physically integrated in the tablet 2, is replaced by a system 52 comprising on the one hand a tablet 54 integrating the touch screen 4 with the operating system 32 and a real camera controller identical or substantially identical to the controller 36 of Figure 1, and on the other hand a device actual shooting, here a real physical camera 56 with an actuator of his attitude. The actual camera 56 and the tablet 54 are interconnected by a communication cable 58 through which the tablet 54 provides attitude control data to the actual camera 56 made by the camera controller 36, and the actual camera 56. provides the tablet 54 image data corresponding to the prescribed azimuthal attitude angle, or the prescribed angle of inclination and azimuthal angle.
En variante, plusieurs calculateurs électroniques sont configurés pour exécuter les étapes fonctionnelles du contrôleur de caméra et/ou du moteur cartographique.  Alternatively, a plurality of electronic computers are configured to perform the functional steps of the camera controller and / or the map engine.
En variante, le gestionnaire de l'interface tactile, le contrôleur de caméra et le moteur cartographique sont chacun des circuits électroniques dédiés différents.  Alternatively, the touch interface manager, the camera controller and the map engine are each different dedicated electronic circuits.
Ainsi, le point de vue de la caméra virtuelle ou réelle est modifié rapidement en utilisant une gestuelle ergonomique, simple et efficace, limitée à un seul type de mouvement et à deux doigts. L'opérateur pose ses deux doigts côte à côte sur la surface tactile, et les déplace suivant une direction souhaitée dans le plan de la surface tactile décomposable en une première composante directionnelle par rapport à une première direction fixée et une deuxième composante directionnelle par rapport à une deuxième direction fixée, différente de la première direction. La première composante, par exemple un déplacement horizontal sur la surface tactile correspond à un réglage de l'orientation de l'angle azimutal de la caméra tandis que la deuxième composante, par exemple un déplacement vertical sur la surface tactile correspond à un réglage d'inclinaison de la caméra. Thus, the point of view of the virtual or real camera is changed quickly using an ergonomic gesture, simple and effective, limited to a single type of movement and two fingers. The operator places his two fingers side by side on the touch surface, and moves them in a desired direction in the plane of the tactile surface decomposable into a first directional component with respect to a first fixed direction and a second directional component with respect to a second fixed direction, different from the first direction. The first component, by for example, a horizontal displacement on the touch surface corresponds to a setting of the orientation of the azimuthal angle of the camera while the second component, for example a vertical displacement on the touch surface corresponds to a tilt adjustment of the camera.
Suivant la Figure 3 et un premier mode général de l'invention, un procédé 202 de changement d'un point de vue d'une carte tridimensionnelle (3D) ou d'une image d'un objet tridimensionnel (3D) par reconnaissance d'une gestuelle sur un écran tactile multipoints, la carte tridimensionnelle étant fournie par un moteur cartographique au travers d'un appareil de prise de vues virtuel, ou l'image de l'objet étant fournie par d'un appareil de prise de vues réel, est mis en œuvre par exemple par le dispositif ou le système des Figures 1 et 2, et comprend une première étape 204 de reconnaissance d'une gestuelle et une deuxième étape 206 de commande.  According to FIG. 3 and a first general mode of the invention, a method 202 of changing from a point of view of a three-dimensional (3D) map or of an image of a three-dimensional (3D) object by recognition of a gesture on a multi-touch screen, the three-dimensional map being provided by a map engine through a virtual camera, or the image of the object being provided by a real camera, is implemented for example by the device or the system of Figures 1 and 2, and comprises a first step 204 of recognition of a gesture and a second step 206 control.
Au travers du suivi d'une première trajectoire et d'une deuxième trajectoire de points de contacts sur l'écran tactile correspondant respectivement aux contacts d'un premier doigt et aux contacts d'un deuxième doigt, dans la première étape 204 de reconnaissance d'une gestuelle, il est déterminé un premier déplacement tactile Dy commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts.  Through the tracking of a first trajectory and a second trajectory of contact points on the touch screen respectively corresponding to the contacts of a first finger and the contacts of a second finger, in the first step 204 of recognition of a gesture, it is determined a first tactile displacement Dy common sliding of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the surface of the touch screen between an early movement and an end of the movement of the two fingers.
Dans la deuxième étape 206 de commande, une première commande Cy de modification d'un premier angle azimutal courant du point de vue de l'appareil de prise de vues est déterminée en fonction du premier déplacement tactile Dy.  In the second control step 206, a first control Cy of modifying a first current azimuthal angle from the point of view of the camera is determined according to the first tactile movement Dy.
La première étape 204 de reconnaissance d'une gestuelle comprend une troisième étape 208, une quatrième étape 210, et une cinquième étape 212.  The first gesture recognition step 204 includes a third step 208, a fourth step 210, and a fifth step 212.
Dans la troisième étape 208, le début du mouvement de glissement de deux doigts simultanément en contact sur la surface de l'écran tactile est détecté. Puis, dans la quatrième étape 210, à partir du début des première et deuxième trajectoires des points de contacts, il est déterminé si le glissement des deux doigts est effectué les deux doigts côte à côte sans s'écarter. Dans l'affirmative, la cinquième étape 212 est exécutée au cours de laquelle le premier déplacement tactile Dy suivant la première direction prédéterminée Diry de la surface de l'écran tactile est déterminé entre le début du mouvement et une fin du mouvement des deux doigts. In the third step 208, the beginning of the sliding movement of two fingers simultaneously in contact on the surface of the touch screen is detected. Then, in the fourth step 210, from the beginning of the first and second trajectories of the contact points, it is determined whether the sliding of the two fingers is carried out the two fingers side by side without departing. If yes, the fifth step 212 is executed in which the first Dy touch displacement according to the first predetermined Diry direction of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers.
La deuxième étape 206 de commande est suivie d'une sixième étape 214 au cours de laquelle, à partir de la première commande Cy, reçue par le moteur cartographique ou l'appareil de prise de vues réel, et d'un angle azimutal actuel ou courant y d'attitude de l'appareil de prise de vues, l'appareil de prise de vues virtuel du moteur cartographique ou l'appareil de prise de vues réel pivote le point de vue actuel d'un premier angle azimutal Ay commandé, fonction de là première commande Cy.  The second control step 206 is followed by a sixth step 214 during which, from the first command Cy, received by the cartographic engine or the real camera, and from a current azimuth angle or current of attitude of the camera, the virtual camera of the cartographic engine or the real camera rotates the current point of view of a first azimuth angle Ay controlled, function from there first order Cy.
Suivant la Figure 4, un deuxième mode de réalisation du procédé 252, dérivé du premier mode de réalisation, comprend les mêmes étapes que celles décrites dans la Figure 3 et de nouvelles étapes 254, 256, 262 et 264.  According to Figure 4, a second embodiment of the method 252, derived from the first embodiment, comprises the same steps as those described in Figure 3 and new steps 254, 256, 262 and 264.
La nouvelle première étape 254 est la première étape 204 de reconnaissance d'une gestuelle, dans laquelle il est également déterminé un deuxième déplacement tactile Dx commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une deuxième direction prédéterminée Dirx sur la surface de l'écran tactile entre le début du mouvement et la fin du mouvement des deux doigts.  The new first step 254 is the first step 204 of recognition of a gesture, in which it is also determined a second tactile displacement Dx common slip of the first and second fingers, arranged side by side without departing, in a second direction Dirx predetermined on the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers.
La nouvelle cinquième étape 262 est la cinquième étape 212 dans laquelle le deuxième déplacement tactile Dx suivant la deuxième direction prédéterminée Dirx de la surface de l'écran tactile est déterminé entre le début du mouvement et une fin du mouvement des deux doigts en supplément du premier déplacement Dy.  The new fifth step 262 is the fifth step 212 in which the second tactile displacement Dx following the second predetermined direction Dirx of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers in addition to the first moving Dy.
La nouvelle deuxième étape 256 de commande est la deuxième étape de commande 206 dans laquelle une deuxième commande Cx de modification d'un deuxième angle d'inclinaison courant du point de vue de la l'appareil de prise de vues est en outre déterminée en fonction du deuxième déplacement tactile Dx.  The new second control step 256 is the second control step 206 in which a second command Cx for modifying a second tilt angle which is current from the point of view of the camera is further determined according to of the second Dx touch shift.
La nouvelle sixième étape 264 est la sixième étape 214 au cours de laquelle de manière supplémentaire, à partir de la deuxième commande CX, reçue par le moteur cartographique ou l'appareil de prise de vues réel, et d'un deuxième angle d'inclinaison actuel x d'attitude de l'appareil de prise de vues, l'appareil de prise de vues virtuel du moteur cartographique ou l'appareil de prise de vues réel pivote un point de vue courant d'un deuxième angle d'inclinaison Δχ commandé, fonction de la deuxième commande Cx. The new sixth step 264 is the sixth step 214 during which additionally, from the second command CX, received by the map engine or the real camera, and a second angle of inclination current x attitude of the camera, the virtual camera of the cartographic engine or the real-world camera pivots a current point of view of a second inclination angle Δχ controlled, a function of the second command Cx.
Il est à remarquer que les déterminations des premier et deuxième déplacements tactiles Dy, Dx peuvent être mises en œuvre en série ou en parallèle, et/ou les étapes d'exécution des première et deuxième commande Cy, Cx peuvent être exécutées en série ou en parallèle.  It should be noted that the determinations of the first and second tactile displacements Dy, Dx can be implemented in series or in parallel, and / or the execution steps of the first and second commands Cy, Cx can be executed in series or in series. parallel.
Dans tous les modes de réalisation du procédé décrits ci-dessus la première étape est précédée d'une étape d'initialisation au cours de laquelle un état de départ fiable des deux doigts est détecté, et une position de départ de chaque doigt ainsi que la distance séparant les deux doigts et la position centrale entre les deux doigts sont déterminés, la position de départ d'un doigt étant une position moyenne des positions reçues dudit doigt pendant une fenêtre temporelle d'observation initiale.  In all the embodiments of the method described above the first step is preceded by an initialization step during which a reliable starting state of the two fingers is detected, and a starting position of each finger as well as the distance separating the two fingers and the central position between the two fingers are determined, the starting position of a finger being an average position of the positions received from said finger during an initial observation time window.
De manière optionnelle, au cours de la troisième étape le début d'un mouvement de glissement des deux doigts est détecté si la distance parcourue par la position centrale des deux doigts est supérieure à une première valeur seuil ε pendant une première fenêtre temporelle de début d'observation des trajectoires.  Optionally, during the third step the beginning of a sliding movement of the two fingers is detected if the distance traveled by the central position of the two fingers is greater than a first threshold value ε during a first time window of the beginning of observation of trajectories.
De manière optionnelle, au cours de la quatrième étape et pendant une première fenêtre temporelle de début d'observation des trajectoires un produit scalaire entre deux vecteurs normalisés des déplacements des deux doigts est calculé, puis comparé à une deuxième valeur de seuil positive, de préférence comprise entre 0,75 et 1 .  Optionally, during the fourth step and during a first time window of start of observation of the trajectories a scalar product between two normalized vectors of the displacements of the two fingers is calculated, then compared to a second positive threshold value, preferably between 0.75 and 1.
De manière optionnelle, la deuxième étape comprend une septième étape, mise en œuvre lorsque le produit scalaire entre les deux vecteurs normalisés des déplacements des deux doigts est supérieure à la deuxième valeur seuil, dans laquelle il est vérifié que les normes des déplacements des deux doigts sont du même ordre de grandeur et décider de modifier au moins le premier angle d'inclinaison de l'appareil de prise de vues.  Optionally, the second step comprises a seventh step, implemented when the scalar product between the two normalized vectors of the displacements of the two fingers is greater than the second threshold value, in which it is verified that the standards of the movements of the two fingers are of the same order of magnitude and decide to change at least the first angle of inclination of the camera.
Ces options sont utiles lorsque la gestuelle à deux doigts de l'invention destinée à modifier les angles de point de vue de la caméra doit être distinguée d'autres gestuelles à deux doigts non désirées ou de gestuelle souhaitée à deux doigts du « pinch to zoom » faisant partie du procédé de changement de point de vue. Suivant la Figure 5, une gestuelle de déplacement glissé de deux doigts disposés côte à côte est représentée dans laquelle le déplacement a lieu le long d'une première direction Diry sur la surface de l'écran tactile, fixée ici horizontale. Le système et le procédé de l'invention suivant les Figure 1 à 4 sont configurés pour modifier l'angle azimutal de l'appareil de prise de vues en fonction d'un déplacement Dy orienté le long de la direction Diry sur la Figure 5. These options are useful when the two-fingers gesture of the invention intended to modify the angles of point of view of the camera must be distinguished from other gestures with two unwanted fingers or gesture desired two fingers of the "pinch to zoom As part of the point of view change process. According to Fig. 5, a two-finger sliding movement gesture arranged side by side is shown in which the displacement takes place along a first direction Diry on the surface of the touch screen, fixed here horizontally. The system and method of the invention according to Figs. 1 to 4 are configured to change the azimuthal angle of the camera according to a Dy motion oriented along the Diry direction in Fig. 5.
Suivant les Figures 6A, 6B et 6C, l'effet de la gestuelle de la Figure 5 suivant un premier déplacement collectif vers la droite Dy des deux doigts glissés et au travers du procédé de l'invention est représenté.  According to FIGS. 6A, 6B and 6C, the effect of the gesture of FIG. 5 following a first collective shift to the right Dy of the two slipped fingers and through the method of the invention is represented.
Suivant la partie haute de la Figure 6A, une attitude azimutale actuelle ou courante de départ de l'appareil de prise de vues est représentée dans son plan azimutal par un angle azimutal actuel de départ de valeur nulle entre une composante azimutale actuelle de l'axe optique 270 et la direction Nord de l'axe magnétique Nord de la Terre, formant ici axe de référence angulaire azimutal 272 dans le plan azimutal Paz. Le plan azimutal Paz de la caméra est le plan tangent à la caméra et à la sphère ayant comme centre, le centre O de la Terre et comme rayon la distance séparant le centre optique C de l'appareil de prise de vues et le centre O de la Terre. L'appareil de prise de vues et plus précisément son centre optique C sont supposés ici être situés dans une position actuelle ou courante au nadir d'un point de l'équateur terrestre à une altitude actuelle ou courante. L'axe optique de l'appareil de prise de vues dans la position de départ ou actuelle de l'appareil de prise de vues est représenté ici dans sa composante azimutale 270 dans le plan azimutal de l'appareil de prise de vues qui est confondu avec le plan de la partie haute de la Figure 6A. La composante azimutale 270 de l'axe optique, c'est-à-dire sa projection dans le plan azimutal Paz, est confondue ici avec l'axe de référence azimutal 272. Suivant la partie basse de la Figure 6A, une vue partielle prise par l'appareil de prise de vues est représentée, ici une carte de la France suivant la direction Sud-Nord.  According to the upper part of FIG. 6A, a current or current starting azimuth attitude of the camera is represented in its azimuthal plane by a current azimuth departure angle of zero value between a current azimuth component of the axis Optical 270 and the north direction of the Earth's magnetic north axis, here forming azimuthal angular reference axis 272 in the azimuthal plane Paz. The azimuthal plane Paz of the camera is the plane tangent to the camera and the sphere having as center, the center O of the Earth and as ray the distance separating the optical center C of the camera and the center O of the earth. The camera and more precisely its optical center C are here supposed to be located in a current or current position nadir of a point of the terrestrial equator at a current or current altitude. The optical axis of the camera in the starting or current position of the camera is represented here in its azimuthal component 270 in the azimuthal plane of the camera which is confused with the plane of the upper part of Figure 6A. The azimuthal component 270 of the optical axis, that is to say its projection in the azimuthal plane Paz, is here merged with the azimuthal reference axis 272. According to the lower part of FIG. 6A, a partial view taken by the camera is represented, here a map of France following the South-North direction.
Suivant la Figure 6B, le premier déplacement glissé Dy des extrémités des deux doigts de la main droite, index et majeur, est représenté par une flèche 274. La position de départ des deux doigts et la position d'arrivée des deux doigts le glissement terminé sont respectivement représentées à l'aide d'une main en traits pointillés à gauche sur la figure et d'une main en traits ininterrompus à droite sur la figure. According to FIG. 6B, the first sliding movement Dy of the ends of the two fingers of the right hand, index and middle finger, is represented by an arrow 274. The starting position of the two fingers and the arrival position of the two fingers is complete. are respectively represented using a hand in dotted lines on the left in the figure and a hand in unbroken lines on the right in the figure.
Suivant la partie haute de la Figure 6C, un déplacement angulaire azimutal commandé y de l'attitude azimutale de départ de l'appareil de prise de vues, c'est-à-dire une rotation de la projection azimutale actuelle de l'axe optique 270 correspondant au premier déplacement Dy est représenté dans le même plan azimutal Paz et par rapport au même axe de référence azimutal 272 que ceux décrits dans la Figure 6A. Suivant la partie basse de la Figure 6B, une vue partielle de l'appareil de prise de vues dans le point de vue azimutal modifié de l'appareil de prise de vues est représentée, ici la carte de la France dont l'axe Sud-Nord a tourné, l'angle d'inclinaison de la l'appareil de prise de vues n'ayant fait l'objet d'aucun changement.  According to the upper part of FIG. 6C, a controlled azimuthal angular displacement y of the starting azimuthal attitude of the camera, that is to say a rotation of the current azimuthal projection of the optical axis 270 corresponding to the first displacement Dy is represented in the same azimuthal plane Paz and with respect to the same azimuthal reference axis 272 as those described in FIG. 6A. According to the lower part of FIG. 6B, a partial view of the camera in the modified azimuthal viewpoint of the camera is represented, here the map of France whose South axis is North turned, the tilt angle of the camera was not changed.
Suivant la Figure 7, une gestuelle de déplacement glissé de deux doigts disposés côte à côte est représentée dans laquelle le déplacement a lieu le long d'une deuxième direction Dirx surface de l'écran tactile, différente de la première direction Diry, et fixée ici verticale. Le système et le procédé de l'invention suivant les Figures 1 , 2 et 4 sont configurés pour modifier l'angle d'inclinaison de l'appareil de prise de vues en fonction d'un déplacement Dx orienté le long de la direction Dirx sur la Figure 7, en supplément d'une modification possible de l'angle azimutal telle que décrite ci-dessus.  According to Figure 7, a slid motion gesture of two fingers arranged side by side is shown in which the displacement takes place along a second direction Dirx surface of the touch screen, different from the first direction Diry, and fixed here vertical. The system and method of the invention according to FIGS. 1, 2 and 4 are configured to change the angle of inclination of the camera according to a displacement Dx oriented along the direction Dirx on Figure 7, in addition to a possible modification of the azimuthal angle as described above.
Suivant les Figures 8A, 8B et 8C, l'effet de la gestuelle de la Figure 7 suivant un deuxième déplacement collectif vertical vers le bas Dx des deux doigts glissés et au travers du procédé de l'invention est représenté.  According to FIGS. 8A, 8B and 8C, the effect of the gesture of FIG. 7 following a second collective vertical displacement Dx of the two slipped fingers and through the method of the invention is represented.
Suivant la partie haute de la Figure 8A, une attitude d'inclinaison actuelle ou courante de départ de la caméra est représenté par un angle d'inclinaison actuel de départ de valeur nulle entre l'axe optique 280 de l'appareil de prise de vues dans son orientation actuelle de départ et l'axe Nadir 282 traversant le centre optique C de la l'appareil de prise de vues vers le centre O de la Terre et formant l'axe de référence de l'angle d'inclinaison. Suivant la partie basse de la Figure 8A, une vue partielle de la caméra est représentée, ici une carte de la France suivant la direction Sud-Nord qui fait supposer que l'angle azimutal actuel ou courant de l'appareil de prise de vues est nul en prenant la même définition de l'angle azimutal que dans celle prise dans la Figure 6A. Suivant la Figure 8B, le deuxième déplacement glissé Dx des extrémités des deux doigts de la main droite, index et majeur, est représenté par une flèche 284 verticale dirigée vers le bas sur la figure. La position de départ des deux doigts et la position d'arrivée des deux doigts le glissement terminé sont respectivement représentées à l'aide d'une main en traits pointillés en haut sur la Figure et d'une main en traits ininterrompus en bas sur la figure. According to the upper part of FIG. 8A, a current or current starting attitude of the camera is represented by a current starting angle of inclination of zero value between the optical axis 280 of the camera in its current starting orientation and Nadir axis 282 passing through the optical center C of the camera towards the center O of the Earth and forming the reference axis of the angle of inclination. Following the lower part of Figure 8A, a partial view of the camera is shown, here a map of France in the South-North direction which suggests that the current or current azimuth angle of the camera is Nil by taking the same definition of the azimuthal angle as in that in Figure 6A. According to FIG. 8B, the second sliding displacement Dx of the ends of the two fingers of the right hand, index and major, is represented by a vertical arrow 284 directed downwards in the figure. The starting position of the two fingers and the position of arrival of the two fingers the finished slip are respectively represented with the help of a hand in dotted lines at the top in the Figure and a hand in unbroken lines down on the Fig.
Suivant la partie haute de la Figure 8C, il est représenté un deuxième déplacement angulaire d'inclinaison commandé x de l'appareil de prise de vues, c'est-à-dire une rotation de l'axe optique courant 280 correspondant au deuxième déplacement Dx autour de la normale 286 en C d'un plan d'inclinaison Pincl contenant le centre optique C de l'appareil de prise de vues, la projection azimutale courante 288 de l'axe optique dans le plan azimutal courant et l'axe d'inclinaison de référence 282.  According to the upper part of FIG. 8C, there is shown a second angular displacement of controlled tilt x of the camera, that is to say a rotation of the current optical axis 280 corresponding to the second displacement Dx around the normal 286 in C of a tilting plane Pincl containing the optical center C of the camera, the current azimuth projection 288 of the optical axis in the current azimuthal plane and the axis d reference inclination 282.
Suivant la partie basse de la Figure 8C, une vue partielle de la caméra dans le point de vue d'inclinaison modifié de la caméra est représentée, ici la carte de la France, l'angle azimutal courant de l'appareil de prise de vues restant inchangé.  According to the lower part of FIG. 8C, a partial view of the camera in the modified inclination point of view of the camera is represented, here the map of France, the current azimuthal angle of the camera remaining unchanged.
Suivant la Figure 9, une gestuelle de déplacement glissé de deux doigts disposés côte à côte est représentée dans laquelle le déplacement sur la surface tactile a lieu le long d'une direction 290 quelconque décomposable en une première composante de déplacement Dy suivant la première direction Diry, fixée ici horizontale et une deuxième composante de déplacement Dx suivant la deuxième direction Dirx, fixée ici verticale. Le système et le procédé de l'invention suivant les Figures 1 , 2 et 4 sont configurés pour modifier l'angle azimutal y et l'angle d'inclinaison x de l'appareil de prise de vues en fonction respectivement de la première composante de déplacement Dy et de la deuxième composante de déplacement Dx.  According to Fig. 9, a two-finger sliding movement gesture arranged side by side is shown in which the displacement on the tactile surface takes place along any direction 290 decomposable into a first displacement component Dy along the first direction Diry , fixed here horizontal and a second displacement component Dx along the second direction Dirx, here fixed vertical. The system and method of the invention according to Figures 1, 2 and 4 are configured to change the azimuthal angle y and the tilt angle x of the camera according to the first component of displacement Dy and the second displacement component Dx.
Suivant la Figure 10, un procédé complet 302 de modification du point de vue tridimensionnel d'un appareil de prise de vues par une gestuelle complète et simple de manipulation de cartes géographiques ou d'images d'un objet tridimensionnel est configuré pour exploiter une gestuelle à deux doigts de modification des angles du point de vue tridimensionnel de l'appareil de prise de vues tel que décrit ci-dessus et pour exploiter un ensemble d'autres gestuelles distinctes répondant à des usages différents de manipulation de carte, comme par exemple zoomer, ou déplacer la carte. La gestuelle de modification des angles de point de vue tridimensionnel de l'appareil de prise de vues doit ainsi être complémentaire des autres gestes de manipulation de la carte ou de l'image, afin que l'ensemble de la gestuelle complète forme un tout cohérent et simple d'emploi. According to FIG. 10, a complete method 302 for modifying the three-dimensional point of view of an apparatus for shooting with a complete and simple gesture of manipulation of geographical maps or images of a three-dimensional object is configured to use a gesture with two fingers to modify the angles of the three-dimensional point of view of the camera as described above and to exploit a set of other distinct gestures responding to different uses of card manipulation, such as zooming, or moving the card. The gesture of modification of the angles of three-dimensional point of view of the camera must thus be complementary to other gestures of manipulation of the card or the image, so that the whole of the complete gesture forms a coherent whole. and easy to use.
Suivant la Figure 10 et le procédé complet 302 de manipulation du point de vue des cartes tridimensionnelles ou d'images d'un objet tridimensionnel est réalisé à l'aide de et à partir de trois gestuelles de base différentes, correspondant à trois réglages de l'appareil de prise de vues affichant la carte ou l'image. Lorsque l'utilisateur interagit avec la surface tactile, un des trois modes suivant doit pouvoir être activé :  According to FIG. 10 and the complete method 302 of handling from the point of view of three-dimensional maps or images of a three-dimensional object is realized using and from three different basic gestures, corresponding to three settings of the shooting device displaying the map or image. When the user interacts with the touch surface, one of the following three modes must be enabled:
.- un premier mode 304 dénommé « MODE MOVE », de glissement de la position de l'appareil de prise de vues qui est réalisé avec un seul doigt glissant sur l'écran ; a first mode 304 called "MODE MOVE", sliding the position of the camera which is made with a single finger sliding on the screen;
.- un deuxième mode 306 dénommé « MODE ZOOM » pour zoomer ou dézoomer sur la carte qui est réalisé avec deux doigts glissés qui s'écartent sur la surface tactile, cette action étant dénommée en anglais « pinch and zoom » ; et  a second mode 306 called "ZOOM MODE" to zoom in or out on the map that is made with two slid fingers that deviate on the touch surface, this action being referred to in English as "pinch and zoom"; and
.- un troisième mode 308, dénommé « MODE 3D » de changement des angles de vue 3D de l'appareil de prise de vues (angle azimutal et angle d'inclinaison), qui est réalisé avec deux doigts glissés qui se déplacent dans le même sens horizontalement et/ou verticalement et qui constitue l'objet principal de l'invention décrite ci-dessus. a third mode 308, called "3D MODE" of changing the angles of view of the camera (azimuthal angle and angle of inclination), which is made with two slid fingers that move in the same direction horizontally and / or vertically and which constitutes the main object of the invention described above.
Le choix du mode dans lequel on se trouve, et donc de l'action qui est produite, se fait en fonction du nombre de doigts posés, et des actions de déplacement réalisées au travers des tests 312, 314. Une fois que l'un de ces trois modes 304, 306, 308 a été identifié, les actions de déplacement d'un ou deux doigts provoquent une modification du point de vue de l'appareil de prise de vues en accord avec le mode dans lequel on se trouve actuellement. La sortie du mode actuellement activé n'est effectuée que lorsque les doigts quittent la surface tactile.  The choice of the mode in which we are, and therefore of the action that is produced, is done according to the number of fingers placed, and the displacement actions carried out through the tests 312, 314. Once one of these three modes 304, 306, 308 has been identified, the actions of displacement of one or two fingers cause a change in the point of view of the camera in accordance with the mode in which one is currently. The current mode output is only output when the fingers leave the touch surface.
Un mouvement tactile est une interaction de l'utilisateur réalisée avec un ou plusieurs doigts qui peut se décomposer en trois phases distinctes : - une première phase au cours de laquelle l'utilisateur appuie sur l'écran (PRESS) ; A tactile movement is a user interaction performed with one or more fingers that can be broken down into three distinct phases: - a first phase during which the user presses the screen (PRESS);
- une deuxième phase au cours de laquelle l'utilisateur effectue un mouvement (MOVE) ;  a second phase during which the user performs a movement (MOVE);
- une troisième phase au cours de laquelle l'utilisateur arrête d'appuyer (RELEASE). - a third phase during which the user stops pressing (RELEASE).
La première phase PRESS et la deuxième phase RELEASE sont composées d'un seul et unique événement. A l'inverse, la deuxième phase MOVE peut avoir lieu autant de fois que l'utilisateur déplace son doigt. En pratique, la deuxième phase MOVE peut se produire si l'utilisateur bouge involontairement le doigt sur une distance très courte, ce qui peut poser problème dans la détection de certains événements.  The first PRESS phase and the second RELEASE phase are composed of a single event. Conversely, the second MOVE phase can occur as many times as the user moves his finger. In practice, the second MOVE phase can occur if the user involuntarily moves the finger over a very short distance, which can be problematic in the detection of certain events.
Si l'utilisateur utilise deux doigts, deux modes d'actions sont possibles : le deuxième mode 306 (MODE ZOOM) et le troisième mode 308 (MODE 3D).  If the user uses two fingers, two modes of action are possible: the second mode 306 (ZOOM MODE) and the third mode 308 (3D MODE).
Dans le deuxième mode 306, le zoom est réalisé par un déplacement opposé des deux doigts, ou par le déplacement d'un doigt alors que le second reste fixe.  In the second mode 306, the zoom is made by an opposite movement of the two fingers, or by the movement of a finger while the second remains fixed.
Dans le troisième mode 308, la rotation azimutale et l'inclinaison de la caméra sont déclenchées par le déplacement parallèle des deux doigts dans une direction de déplacement, le déplacement étant décomposable en un premier déplacement horizontal qui fait tourner suivant une rotation azimutale de l'appareil de prise de vues et un deuxième déplacement vertical qui modifie l'inclinaison de l'appareil de prise de vues.  In the third mode 308, the azimuthal rotation and the inclination of the camera are triggered by the parallel movement of the two fingers in a direction of movement, the displacement being decomposable into a first horizontal displacement which rotates in azimuth rotation of the camera and a second vertical movement that changes the tilt of the camera.
Les modes doivent pouvoir être identifiés l'un de l'autre rapidement, afin que cela soit imperceptible pour l'utilisateur.  The modes must be able to be identified from each other quickly, so that it is imperceptible to the user.
Suivant la Figure 1 1 , le procédé complet de changement de point de vue de l'appareil de prise de vues qui reconnaît la gestuelle aux trois modes décrits dans la Figure 10 est décrit de manière plus détaillé suivant un mode de réalisation particulier.  In accordance with FIG. 11, the complete method of changing the point of view of the camera which recognizes the gesture to the three modes described in FIG. 10 is described in more detail according to a particular embodiment.
Pour détecter l'un des deux modes parmi les deuxième et troisième modes, MODE ZOOM et MODE 3D, la détection de ces modes à deux doigts et leur distinction 314 se fait en une étape d'initialisation 318 suivie d'une étape de décision 320. Dans l'étape d'initialisation 318 visant à obtenir un point de départ fiable, les événements reçus pendant X millisecondes (X étant par exemple égal à 100 ms) sont analysés et on moyenne l'ensemble des positions reçues de chacun des deux doigts. L'une des principales difficultés des contrôles tactiles est la relative imprécision des informations reçues, un doigt touchant plusieurs dizaines voire centaines de pixels. Il s'agit ainsi de connaître le centre réel du contact. Les premiers événements reçus ne sont donc pas directement traités mais une moyenne sur les premiers événements est calculée pour obtenir une position de départ de chaque doigt, ainsi que la distance séparant les deux doigts et la position centrale entre les deux doigts. To detect one of the two modes among the second and third modes, ZOOM MODE and 3D MODE, the detection of these two-finger modes and their distinction 314 is done in an initialization step 318 followed by a decision step 320 . In the initialization step 318 to obtain a reliable starting point, the events received during X milliseconds (X being for example equal to 100 ms) are analyzed and averaged all the positions received from each of the two fingers. One of the main difficulties of tactile controls is the relative inaccuracy of the information received, a finger touching several tens or even hundreds of pixels. This is to know the real center of contact. The first events received are therefore not directly processed but an average on the first events is calculated to obtain a starting position of each finger, as well as the distance separating the two fingers and the central position between the two fingers.
Dans l'étape de décision 320, une tentative de détection d'une gestuelle de rotation azimutale et/ou inclinaison (correspondant au mode 3D) est mise en œuvre pendant Y millisecondes, Y étant par exemple égale à 200 ms. Si la détection est réussie, le passage dans le troisième mode 308, MODE 3D activé, est effectué. Si la détection est infructueuse, le passage dans le deuxième mode 306, MODE ZOOM activé, est effectué.  In the decision step 320, an attempt to detect an azimuthal rotation and / or inclination gesture (corresponding to the 3D mode) is implemented for Y milliseconds, Y being for example equal to 200 ms. If the detection is successful, the transition to the third mode 308, 3D MODE activated, is performed. If the detection is unsuccessful, the passage in the second mode 306, MODE ZOOM activated, is performed.
Les valeurs des durées X et Y des fenêtres d'initialisation et de décision peuvent être comprises entre 0 et 500 ms en fonction des usages des utilisateurs et de la réactivité d'action souhaitée qui est caractérisée par un temps de latence avant démarrage. Plus le temps de latence est long, plus la précision du traitement est juste, mais en contrepartie plus l'effet d'initialisation est perceptible.  The values of the duration X and Y of the windows of initialization and decision can be between 0 and 500 ms according to the uses of the users and the reactivity of desired action which is characterized by a latency time before starting. The longer the latency, the more accurate the processing is, but in return the more the initialization effect is noticeable.
Dans l'étape de décision 320, pour savoir quel mode parmi le deuxième mode et le troisième mode est souhaité, les deux vecteurs correspondant au déplacement des deux doigts sont calculés ainsi que le produit scalaire de ces deux vecteurs. Un produit scalaire positif indique que les doigts se déplacent dans le même sens et que le troisième mode, MODE 3D, doit être active tandis qu'un produit scalaire négatif indique que les deux doigts se déplacent en sens opposé et que le deuxième mode, MODE ZOOM, doit être activé.  In the decision step 320, to know which mode from the second mode and the third mode is desired, the two vectors corresponding to the displacement of the two fingers are calculated as well as the scalar product of these two vectors. A positive scalar product indicates that the fingers move in the same direction and that the third mode, 3D MODE, must be active while a negative dot product indicates that the two fingers are moving in opposite directions and that the second mode, MODE ZOOM, must be enabled.
Cependant, il n'est pas possible de faire ce calcul sur les deux premiers événements tactiles reçus car il se peut en effet que l'action souhaitée soit l'activation du MODE 3D, mais que les premiers événements donnent une information d'écartement des doigts. Ceci se produit car les premiers appuis sont généralement imprécis et ne correspondent pas forcément à l'action souhaitée par l'utilisateur (on parle alors de « faux positif »). Une temporisation des premières actions et un lissage des calculs dans le temps sont ainsi requis. However, it is not possible to make this calculation on the first two tactile events received because it is possible that the desired action is the activation of the 3D MODE, but that the first events give a spread information of the fingers. This happens because the first supports are generally imprecise and do not necessarily correspond to the action desired by the user (it is called "false positive"). A delay of the first actions and a smoothing of the calculations in the time are thus required.
La décision d'activer le mode de changement des angles de point de vue de l'appareil de prise de vues (MODE 3D) est réalisé de la manière suivante.  The decision to activate the mode of change of the angles of point of view of the camera (3D MODE) is realized in the following way.
Chaque événement reçu est « lissé », c'est dire pondéré par l'événement initial, afin d'éviter les faux-positifs puis l'espacement des doigts est déduit, le centre du mouvement, et le déplacement de chaque doigt.  Each received event is "smoothed", that is to say, weighted by the initial event, in order to avoid false-positives then the spacing of the fingers is deduced, the center of the movement, and the displacement of each finger.
Afin de vérifier que nous sommes en présence d'un MODE 3D à activer :  To verify that we are in the presence of a 3D MODE to activate:
.- tout d'abord il est vérifié 322 que la distance entre les deux doigts est restée proportionnelle entre le début du mouvement et l'événement reçu ; puis  first, it is verified that the distance between the two fingers has remained proportional between the beginning of the movement and the event received; then
.- le produit scalaire entre les vecteurs normalisés des deux doigts est calculé, la détection 324 d'un mouvement parallèle dans le même sens exigeant que le produit scalaire soit positif, et même supérieur à 0.75 (en pratique lorsque le produit scalaire est compris entre 1 et 0.75, le mouvement des deux doigts peut être considéré comme parallèle et dans le même sens) ; puis  the scalar product between the normalized vectors of the two fingers is calculated, the detection 324 of a parallel movement in the same direction requiring that the dot product be positive, and even greater than 0.75 (in practice when the dot product is between 1 and 0.75, the movement of the two fingers can be considered as parallel and in the same direction); then
.- il est vérifié également 326 que les vecteurs de chaque doigt soient du même ordre de grandeur.  It is also verified that the vectors of each finger are of the same order of magnitude.
De même, pour ne pas déclencher une décision trop rapide du passage dans le deuxième mode (MODE ZOOM) ou le troisième mode (MODE 3D), n'est accepté dans un premier temps 328 l'activation d'un mode que si la distance parcourue par chacun des deux doigts est suffisante, supérieure à une valeur minimale d'un seuil ε. Cette condition n'est pas appliquée sur les derniers événements car si l'utilisateur réalise un mouvement lent, cette condition peut ne jamais être validée.  Similarly, not to trigger a decision too fast passage in the second mode (ZOOM MODE) or the third mode (3D MODE), is initially accepted 328 the activation of a mode that if the distance traveled by each of the two fingers is sufficient, greater than a minimum value of a threshold ε. This condition is not applied on the latest events because if the user performs a slow motion, this condition may never be validated.
Si toutes les conditions exigées dans l'étape de décision 320 sont réunies, alors le passage en MODE 3D est réalisé, sinon, à la fin de l'étape de décision, le MODE ZOOM est retenu.  If all the conditions required in the decision step 320 are met, then the transition to 3D MODE is performed, otherwise, at the end of the decision step, the ZOOM MODE is retained.
Lorsque le troisième mode 308, MODE 3D a été activé, dans ce mode un premier déplacement Dy des deux doigts glissés suivant une première direction fixée ici horizontale et/ou un deuxième déplacement Dx des deux doigts glissés suivant une deuxième direction, fixée ici verticale sont déterminés. When the third mode 308, 3D MODE has been activated, in this mode a first displacement Dy of the two fingers slipped in a first direction fixed here horizontal and / or a second displacement Dx of the two fingers slid in a second direction, fixed here vertical are determined.
Une rotation azimutale du point de vue de la caméra est réalisée 332 en fonction du premier déplacement horizontal, par exemple une variation linéaire dans laquelle un mouvement glissé d'un pixel vers la droite crée une rotation de 0.25 degré de la caméra.  An azimuthal rotation from the camera's point of view is performed 332 as a function of the first horizontal displacement, for example a linear variation in which a movement dragged one pixel to the right creates a 0.25 degree rotation of the camera.
Une inclinaison du point de vue de la caméra est réalisée 332 en fonction du deuxième déplacement vertical, par exemple une variation linéaire dans laquelle un mouvement glissé d'un pixel vers le bas change l'inclinaison de 0.25 degré de l'appareil de prise de vues.  An inclination from the camera point of view is made 332 as a function of the second vertical displacement, for example a linear variation in which a dragged movement of a pixel downwards changes the 0.25 degree inclination of the camera. views.
Le procédé 302 décrit ci-dessus permet de changer le point de vue d'un appareil de prise de vues sous toutes ses formes en utilisant des gestes simples et rapides faisant intervenir au plus deux doigts, et de changer en particulier les angles de rotation azimutale et/ou d'inclinaison du point de vue dans unique mode simple et rapide à exécuter. Le contrôle de l'orientation de l'appareil de prise de vues est simple et intuitif à l'aide de la gestuelle proposé sur surface tactile.  The method 302 described above makes it possible to change the point of view of a camera in all its forms by using simple and rapid gestures involving at most two fingers, and to change in particular the azimuthal rotation angles. and / or tilt point of view in single fast and simple mode to run. The control of the orientation of the camera is simple and intuitive using the gestures offered on the touch screen.
Un produit ou programme d'ordinateur comprend un ensemble d'instructions, configurées pour mettre en œuvre les étapes d'un procédé de changement de point de vue tridimensionnel selon l'invention décrit ci-dessus lorsqu'elles sont chargées et exécutées par un ou plusieurs calculateurs électroniques d'un dispositif ou un système de changement de point de vue tridimensionnel.  A product or computer program comprises a set of instructions, configured to implement the steps of a three-dimensional view change method according to the invention described above when loaded and executed by one or more several electronic calculators of a device or a system of three-dimensional point of view change.
II est ainsi possible d'imaginer un contrôle d'un appareil de prise de vues « physique » à l'aide d'une surface tactile, en lieu et place du joystick qui est couramment employé de nos jours, par exemple, pour des applications de vidéo surveillance avec des caméras fixes dans le cadre d'activités de police, de sécurité, ou avec caméra embarquée dans un hélicoptère ou avion de patrouille maritime.  It is thus possible to imagine a control of a "physical" camera using a tactile surface, in place of the joystick that is commonly used today, for example, for applications video surveillance with stationary cameras in the context of police, security, or with a camera embedded in a helicopter or maritime patrol aircraft.
Le média tactile n'est pas limité à un écran ou une tablette. La même gestuelle peut être appliquée sur tout type de surface tactile telle qu'un « touchpad multitouch », par exemple celui d'un ordinateur portable, ou un touchpad qui remplacerait une souris sur un ordinateur, ou encore un film interactif « multi-touch ». Cette invention peut être étendue à la manipulation de tout type l'appareil de prise de vues via une interface tactile (écran, mais également touchpad) Touch media is not limited to a screen or tablet. The same gesture can be applied to any type of tactile surface such as a "multitouch touchpad", for example that of a laptop, or a touchpad that would replace a mouse on a computer, or an interactive movie "multi-touch"". This invention can be extended to the handling of any type of camera by touch interface (screen, but also touchpad)
L'application principale de l'invention est de régler le point de vue d'un appareil de prise de vues virtuel dans une application cartographique 3D mains elle peut être étendue à la manipulation d'appareil de prise de vues réels tels que des caméras physiques dans le cadre d'activités de surveillance par exemple.  The main application of the invention is to adjust the point of view of a virtual camera in a 3D map application hands it can be extended to the manipulation of real-world camera such as physical cameras in the context of surveillance activities, for example.
Un appareil de prises de vue physique ou matériel est par exemple une caméra vidéo, un appareil photographique, ou tout capteur d'image d'un rayonnement dont l'orientation peut être commandée. Plus particulièrement, l'appareil de prise de vue peut être une caméra vidéo embarquée à bord d'un aéronef visualisant la surface terrestre.  A physical or material shooting apparatus is for example a video camera, a camera, or any radiation image sensor whose orientation can be controlled. More particularly, the camera may be an onboard video camera on board an aircraft visualizing the earth's surface.

Claims

REVENDICATIONS
1 . Procédé de changement d'un point de vue d'une carte tridimensionnelle (3D) ou d'une image d'un objet tridimensionnel (3D) par une reconnaissance d'une gestuelle sur un écran tactile multipoints (4), la carte tridimensionnelle ou l'image de l'objet tridimensionnel (3D) étant fournie par un moteur cartographique au travers d'un appareil de prise de vues virtuel ou par un appareil de prise de vues réel, 1. A method of changing a point of view of a three-dimensional (3D) map or an image of a three-dimensional object (3D) by recognizing a gesture on a multi-touch screen (4), the three-dimensional map or the image of the three-dimensional object (3D) being provided by a cartographic engine through a virtual camera or by a real camera,
Le procédé de changement de point de vue comprenant des étapes consistant en ce que, au travers du suivi d'une première trajectoire (14) et d'une deuxième trajectoire (1 6) de points de contacts (20, 22 ; 24, 26) sur l'écran tactile (4) correspondant respectivement aux contacts d'un premier doigt et aux contacts d'un deuxième doigt,  The method of changing a point of view comprising steps of tracking a first trajectory (14) and a second trajectory (1 6) of contact points (20, 22; 24, 26). ) on the touch screen (4) respectively corresponding to the contacts of a first finger and the contacts of a second finger,
. dans une première étape (204 ; 254) de reconnaissance d'une gestuelle, il est déterminé un premier déplacement tactile Dy commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts, et  . in a first step (204; 254) of recognition of a gesture, it is determined a first tactile displacement Dy common slip of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the touch screen surface between a beginning of the movement and an end of the movement of the two fingers, and
. dans une deuxième étape de commande (206 ; 256), une première commande Cy de modification d'un premier angle actuel du point de vue de l'appareil de prise de vues est déterminée en fonction du premier déplacement tactile Dy ; . in a second control step (206; 256), a first change command Cy of a first current angle from the point of view of the camera is determined according to the first tactile movement Dy;
le procédé étant caractérisé en ce que the method being characterized in that
.- le dispositif de prise de vues virtuel ou réel comporte une rétine avec un centre optique C et un axe optique, et est repéré géométriquement par une position actuelle et une attitude actuelle, la position actuelle étant définie dans un repère sphérique de centre O par une longitude, une latitude et une altitude du centre optique C, et l'attitude actuelle étant définie dans un repère local par un premier angle azimutal actuel y et un deuxième angle d'inclinaison actuel x,  the virtual or real-life camera comprises a retina with an optical center C and an optical axis, and is geometrically marked by a current position and a current attitude, the current position being defined in a spherical coordinate system of center O by a longitude, a latitude and an altitude of the optical center C, and the current attitude being defined in a local coordinate system by a first current azimuthal angle y and a second current angle of inclination x,
le premier angle azimutal actuel y étant un angle orienté séparant la projection de l'axe optique dans une orientation actuelle sur un plan de projection azimutal contenant le centre optique C, et tangent à la sphère de centre O et contenant le centre optique C, et un axe de référence azimutal, contenu dans le même plan de projection azimutal et dont la direction dépend de la position actuelle de l'appareil de prise de vues, en partant de l'axe de référence azimutal, et the current first azimuth angle being an angled angle separating the projection from the optical axis in a current orientation on an azimuth projection plane containing the optical center C, and tangent to the sphere of center O and containing the optical center C, and an azimuthal reference axis contained in the same azimuthal projection plane and whose direction depends on the current position of the camera, starting from the azimuthal reference axis, and
le deuxième angle d'inclinaison actuel x étant un angle orienté séparant l'axe optique de la rétine dans l'orientation actuelle et l'axe joignant l'axe optique C et le centre O du repère sphérique en partant de l'axe optique actuel ; et .- le premier angle actuel y du point de vue de l'appareil de prise de vues modifié par la commande déterminée dans la deuxième étape (206 ; 256) est ledit premier angle azimutal actuel y. the second current angle of inclination x being an oriented angle separating the optical axis of the retina in the current orientation and the axis joining the optical axis C and the center O of the spherical coordinate system starting from the current optical axis ; and .- the first current angle y from the point of view of the camera modified by the command determined in the second step (206; 256) is said first current azimuthal angle y.
2. Procédé de changement de point de vue selon la revendication 1 dans lequel The method of changing the point of view of claim 1 wherein
la première étape (204 ; 254) de reconnaissance d'une gestuelle comprend . une troisième étape (208) au cours de laquelle le début du mouvement de glissement de deux doigts simultanément en contact sur la surface de l'écran tactile est détecté, suivie the first step (204; 254) of gesture recognition comprises. a third step (208) during which the beginning of the sliding movement of two fingers simultaneously in contact on the surface of the touch screen is detected, followed
. d'une quatrième étape (210) au cours de laquelle, à partir du début des première et deuxième trajectoires des points de contacts, il est déterminé si le glissement des deux doigts est effectué les deux doigts côte à côte sans s'écarter, suivie dans l'affirmative  . a fourth step (210) during which, from the beginning of the first and second trajectories of the contact points, it is determined whether the sliding of the two fingers is carried out the two fingers side by side without departing, followed in the affirmative
. d'une cinquième étape (212 ; 262) au cours de laquelle le premier déplacement tactile Dy suivant la première direction prédéterminée Diry de la surface de l'écran tactile est déterminé entre le début du mouvement et une fin du mouvement des deux doigts, et . a fifth step (212; 262) during which the first tactile displacement Dy in the first predetermined direction Diry of the surface of the touch screen is determined between the beginning of the movement and an end of the movement of the two fingers, and
la deuxième étape de commande (206 ; 256) est suivie d'une sixième étape (214 ; 264) au cours de laquelle, à partir de la première commande Cy, reçue par le moteur cartographique ou l'appareil de prise de vues réel, et d'un angle azimutal courant Yc d'attitude de Γ appareil de prise de vues réel ou virtuel, l'appareil de prise de vues virtuel du moteur cartographique ou l'appareil de prise de vues réel pivote un point de vue courant d'un premier angle azimutal Ay commandé, fonction de la première commande Cy.  the second control step (206; 256) is followed by a sixth step (214; 264) in which, from the first command Cy, received by the map engine or the real-world camera, and a current azimuthal angle Yc of attitude of the real or virtual camera, the virtual camera of the cartographic engine or the real camera rotates a current point of view of a first azimuthal angle Ay controlled, function of the first command Cy.
3. Procédé de changement de point de vue selon l'une quelconque des revendications 1 à 2 dans lequel A method of changing a point of view according to any one of claims 1 to 2 wherein
dans la première étape (254) de reconnaissance d'un gestuelle, il est également déterminé un deuxième déplacement tactile Dx commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une deuxième direction prédéterminée Dirx sur la surface de l'écran tactile entre le début du mouvement et la fin du mouvement des deux doigts, et in the first step (254) of recognizing a gesture, it is also determined a second tactile displacement Dx common of sliding the first and second fingers, arranged side by side without departing, in a second predetermined direction Dirx on the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers, and
dans la deuxième étape de commande (256), une deuxième commande Cx de modification d'un deuxième angle d'inclinaison actuel du point de vue du dispositif de prise de vues est en outre déterminée en fonction du deuxième déplacement tactile Dx. in the second control step (256), a second command Cx for modifying a second current angle of inclination from the point of view of the camera is further determined as a function of the second tactile displacement Dx.
4. Procédé de changement de point de vue selon les revendications 2 et 3 dans lequel 4. A method of changing point of view according to claims 2 and 3 wherein
le deuxième déplacement tactile Dx suivant la deuxième direction prédéterminée Dirx de la surface de l'écran tactile entre le début du mouvement et la fin du mouvement des deux doigts est déterminé dans la cinquième étape (262), et the second tactile displacement Dx in the second predetermined direction Dirx of the surface of the touch screen between the beginning of the movement and the end of the movement of the two fingers is determined in the fifth step (262), and
au cours de la sixième étape (264), à partir de la deuxième commande Cx , reçue par le moteur cartographique ou le dispositif de prise de vues réel, et d'un deuxième angle d'inclinaison actuel x d'attitude du dispositif de prise de vues, le dispositif de prise de vues virtuel du moteur cartographique ou le dispositif de prise de vues réel pivote un point de vue courant d'un deuxième angle d'inclinaison Δχ commandé, fonction de la deuxième commande Cx. in the sixth step (264), from the second command Cx, received by the map engine or the actual camera, and a second current tilt angle x of the attitude of the take-up device the virtual camera of the cartographic engine or the real-world camera pivots a current point of view of a second angle of inclination Δχ controlled, a function of the second command Cx.
5. Procédé de changement de point de vue selon l'une quelconque des revendications 1 à 4 dans lequel l'axe de référence azimutal est la projection sur le plan de projection azimutal d'un axe joignant le centre optique et un point fixe situé sur une sphère de centre O et de rayon inférieur à l'altitude de l'appareil de prise de vues. 5. A method of changing the point of view according to any one of claims 1 to 4 wherein the azimuthal reference axis is the projection on the azimuthal projection plane of an axis joining the optical center and a fixed point located on a sphere of center O and radius less than the altitude of the camera.
6. Procédé de changement de point de vue selon la revendication 5, dans lequel les cartes tridimensionnelles sont des cartes du globe terrestre, le repère géométrique sphérique est un repère géocentrique tournant avec la Terre, et le point fixe est un point égal au ou voisin du nord géographique. 6. A method of changing point of view according to claim 5, wherein the three-dimensional maps are maps of the terrestrial globe, the spherical geometric reference is a geocentric landmark rotating with the Earth, and the fixed point is a point equal to or adjacent to from the geographical north.
7. Procédé de changement de point de vue selon la revendication 6 dans lequel le point fixe est le nord magnétique et l'axe de référence azimutal est l'axe du nord magnétique fourni notamment par un gyrocompas. 7. A method of changing point of view according to claim 6 wherein the fixed point is the magnetic north and the azimuthal reference axis is the magnetic north axis provided in particular by a gyrocompass.
8. Procédé de changement de point de vue selon l'une quelconque des revendications 1 à 7 dans lequel les cartes tridimensionnelles fournies sont des vues calculées par le moteur cartographique à partir d'une base de données lorsque l'appareil de prise de vues est virtuel, et les images de l'objet tridimensionnel sont des images réelles captées par l'appareil de prise de vues lorsque l'appareil de prise de vues est réel. A viewpoint change method according to any one of claims 1 to 7 wherein the provided three-dimensional maps are views computed by the map engine from a database when the camera is virtual, and the images of the three-dimensional object are real images captured by the camera when the camera is real.
9. Procédé de changement point de vue selon la revendication 3 et l'une quelconque des revendications 4 à 8 dans lequel 9. A method of changing point of view according to claim 3 and any one of claims 4 to 8 wherein
les déterminations des premier et deuxième déplacements tactiles Dy, Dx sont mises en œuvre en série ou en parallèle, et/ou les étapes d'exécution des première et deuxième commande Cy, Cx sont exécutées en série ou en parallèle. the determinations of the first and second tactile displacements Dy, Dx are implemented in series or in parallel, and / or the execution steps of the first and second commands Cy, Cx are executed in series or in parallel.
10. Procédé de changement de point de vue selon l'une quelconque des revendications 1 à 9, dans lequel la première étape est précédée d'une étape d'initialisation (318) au cours de laquelle un état de départ fiable des deux doigts est détecté, et une position de départ de chaque doigt ainsi que la distance séparant les deux doigts et la position centrale entre les deux doigts sont déterminés, la position de départ d'un doigt étant une position moyenne des positions reçues dudit doigt pendant une fenêtre temporelle d'observation initiale. A method of changing a viewpoint according to any of claims 1 to 9, wherein the first step is preceded by an initialization step (318) in which a reliable starting state of the two fingers is detected, and a starting position of each finger as well as the distance separating the two fingers and the central position between the two fingers are determined, the starting position of a finger being an average position of the positions received from said finger during a time window initial observation.
1 1 . Procédé de changement de point de vue selon l'une quelconque des revendications 2 à 10, dans lequel 1 1. A viewpoint change method according to any one of claims 2 to 10, wherein
au cours de la troisième étape (208 ; 328) le début d'un mouvement de glissement des deux doigts est détecté si la distance parcourue par la position centrale des deux doigts est supérieure à une première valeur seuil ε pendant une première fenêtre temporelle de début d'observation des trajectoires, et during the third step (208; 328) the beginning of a sliding movement of the two fingers is detected if the distance traveled by the central position of the two fingers is greater than a first threshold value ε during a first start time window trajectory observation, and
au cours de la quatrième étape (210) et pendant une première fenêtre temporelle de début d'observation des trajectoires un produit scalaire entre deux vecteurs normalisés des déplacements des deux doigts est calculé, puis comparé (324) à une valeur de seuil positive, de préférence comprise entre 0,75 et 1 . during the fourth step (210) and during a first time window of start of observation of the trajectories a dot product between two normalized vectors of the displacements of the two fingers is calculated, then compared (324) with a positive threshold value, preferably between 0.75 and 1.
12. Procédé de changement de point de vue selon la revendication 1 1 dans lequel la deuxième étape (206 ; 256) comprend une étape, mise en œuvre lorsque le produit scalaire entre les deux vecteurs normalisés des déplacements des deux doigts est supérieure à la deuxième valeur seuil, dans laquelle il est vérifié (326) que les normes des déplacements des deux doigts sont du même ordre de grandeur et décider de modifier au moins le premier angle d'inclinaison de la caméra. 12. A method of changing the point of view of claim 1 1 wherein the second step (206; 256) comprises a step, implemented when the dot product between the two normalized vectors of the movements of the two fingers is greater than the second. threshold value, in which it is verified (326) that the standards of the movements of the two fingers are of the same order of magnitude and decide to modify at least the first angle of inclination of the camera.
13. Dispositif ou un système de changement d'un point de vue d'une carte tridimensionnelle (3D) par une reconnaissance d'une gestuelle sur un écran tactile multipoints, comprenant 13. Device or system for changing from a point of view of a three-dimensional (3D) map by recognizing a gesture on a multi-touch screen, comprising
un dispositif de prise de vues réel (56) ou un moteur cartographique (34) avec un appareil de prise de vues virtuel pour fournir une image ou une carte tridimensionnelle d'une scène d'un objet tridimensionnel suivant un point de vue actuelle de l'appareil de prise de vues réel ou virtuel ; a real-life camera (56) or a map engine (34) with a virtual camera for providing a three-dimensional image or map of a scene of a three-dimensional object from a current viewpoint of the real or virtual camera;
un écran tactile multipoints (4) pour suivre une première trajectoire (14) et une deuxième trajectoire (1 6) de points de contacts (20, 22 ; 24, 26) sur l'écran tactile (4) correspondant respectivement aux contacts d'un premier doigt et aux contacts d'un deuxième doigt, sous la forme d'événements tactiles ; a multi-touch screen (4) for following a first trajectory (14) and a second trajectory (1 6) of contact points (20, 22; 24, 26) on the touch screen (4) respectively corresponding to the contacts of a first finger and the contacts of a second finger, in the form of tactile events;
un ou plusieurs calculateur électroniques (6), configurés pour à partir des événements tactiles des deux doigts, one or more electronic computers (6), configured for the tactile events of the two fingers,
. déterminer dans une première étape de reconnaissance d'une gestuelle un premier déplacement tactile Dy commun de glissement des premier et deuxième doigts, disposés côte à côte sans s'écarter, suivant une première direction prédéterminée Diry sur la surface de l'écran tactile entre un début du mouvement et une fin du mouvement des deux doigts, et  . determining in a first step of recognizing a gesture a first tactile displacement Dy common sliding of the first and second fingers, arranged side by side without departing, in a first predetermined direction Diry on the surface of the touch screen between a beginning of the movement and an end of the movement of the two fingers, and
. déterminer dans une deuxième étape de commande, une première commande Cy de modification d'un premier angle azimutal actuel du point de vue de la caméra en fonction du premier déplacement tactile Dy,  . determining in a second control step, a first command Cy modifying a first current azimuthal angle from the point of view of the camera according to the first tactile displacement Dy,
Le dispositif ou système de changement de point de vue étant caractérisé en ce que The device or system for changing point of view being characterized in that
.- le dispositif de prise de vues virtuel ou réel comporte une rétine avec un centre optique C et un axe optique, et est repéré géométriquement par une position actuelle et une attitude actuelle, la position actuelle étant définie dans un repère sphérique de centre O par une longitude, une latitude et une altitude du centre optique C, et l'attitude actuelle étant définie dans un repère local par un premier angle azimutal actuel y et un deuxième angle d'inclinaison actuel x, the virtual or real-life camera comprises a retina with an optical center C and an optical axis, and is geometrically marked by a current position and a current attitude, the current position being defined in a spherical coordinate system of center O by a longitude, a latitude and an altitude of the optical center C, and the current attitude being defined in a local coordinate system by a first current azimuthal angle y and a second current angle of inclination x,
le premier angle azimutal actuel y étant un angle orienté séparant la projection de l'axe optique dans une orientation actuelle sur un plan de projection azimutal contenant le centre optique C, et tangent à la sphère de centre O et contenant le centre optique C, et un axe de référence azimutal, contenu dans le même plan de projection azimutal et dont la direction dépend de la position actuelle de l'appareil de prise de vues, en partant de l'axe de référence azimutal, the current first azimuth angle being an angled angle separating the projection from the optical axis in a current orientation on an azimuth projection plane containing the optical center C, and tangent to the sphere of center O and containing the optical center C, and an azimuthal reference axis contained in the same azimuthal projection plane and whose direction depends on the current position of the camera, starting from the azimuthal reference axis,
le deuxième angle d'inclinaison actuel x étant un angle orienté séparant l'axe optique de la rétine dans l'orientation actuelle et l'axe joignant l'axe optique C et le centre O du repère sphérique en partant de l'axe optique actuel ; et en ce que the second current angle of inclination x being an oriented angle separating the optical axis of the retina in the current orientation and the axis joining the optical axis C and the center O of the spherical coordinate system starting from the current optical axis ; and in that
.- le premier angle actuel y du point de vue de l'appareil de prise de vues modifié par la commande déterminée dans la deuxième étape (206 ; 256) est ledit premier angle azimutal actuel y.  the first current angle y from the point of view of the camera modified by the command determined in the second step (206; 256) is said first current azimuthal angle y.
14. Produit ou programme d'ordinateur comprenant un ensemble d'instructions configurées pour mettre en œuvre le procédé défini selon l'une quelconque des revendications 1 à 12 lorsqu'elles sont chargées dans et exécutées par un ou plusieurs calculateurs (6) du dispositif ou système (2 ; 52) défini selon la revendication 13. A computer product or program comprising a set of instructions configured to implement the method defined in any one of claims 1 to 12 when loaded into and executed by one or more computers (6) of the device. or system (2; 52) defined in accordance with claim 13.
PCT/EP2015/074943 2014-11-07 2015-10-28 Method and device for changing a view point of a three-dimensional map (3d) or of an image of an observed three-dimensional physical object (3d) by recognising a gesture on a multi-point touch screen WO2016071171A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR14/02528 2014-11-07
FR1402528A FR3028330B1 (en) 2014-11-07 2014-11-07 METHOD AND DEVICE FOR CHANGING THE POINT OF VIEW OF A 3D CARD OR IMAGE OF A 3D PHYSICAL OBJECT BY RECOGNIZING A GESTUAL ON A TOUCH SCREEN

Publications (1)

Publication Number Publication Date
WO2016071171A1 true WO2016071171A1 (en) 2016-05-12

Family

ID=53008550

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/074943 WO2016071171A1 (en) 2014-11-07 2015-10-28 Method and device for changing a view point of a three-dimensional map (3d) or of an image of an observed three-dimensional physical object (3d) by recognising a gesture on a multi-point touch screen

Country Status (2)

Country Link
FR (1) FR3028330B1 (en)
WO (1) WO2016071171A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110308346A (en) * 2019-06-24 2019-10-08 中国航空无线电电子研究所 Cockpit display system automatic test approach and system based on image recognition
WO2023124014A1 (en) * 2021-12-31 2023-07-06 北京石头创新科技有限公司 Map display adjustment method and apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109963300B (en) * 2017-12-22 2022-08-23 中国移动通信集团浙江有限公司 Method and device for determining azimuth angle, electronic equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100045666A1 (en) * 2008-08-22 2010-02-25 Google Inc. Anchored Navigation In A Three Dimensional Environment On A Mobile Device
US20100146389A1 (en) * 2008-12-10 2010-06-10 Samsung Electronics Co., Ltd. Method of controlling virtual object or view point on two dimensional interactive display
US20130127825A1 (en) * 2011-07-28 2013-05-23 Pushkar P. Joshi Methods and Apparatus for Interactive Rotation of 3D Objects Using Multitouch Gestures
US20140019917A1 (en) * 1999-01-25 2014-01-16 Apple Inc. Disambiguation of multitouch gesture recognition for 3d interaction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140019917A1 (en) * 1999-01-25 2014-01-16 Apple Inc. Disambiguation of multitouch gesture recognition for 3d interaction
US20100045666A1 (en) * 2008-08-22 2010-02-25 Google Inc. Anchored Navigation In A Three Dimensional Environment On A Mobile Device
US20100146389A1 (en) * 2008-12-10 2010-06-10 Samsung Electronics Co., Ltd. Method of controlling virtual object or view point on two dimensional interactive display
US20130127825A1 (en) * 2011-07-28 2013-05-23 Pushkar P. Joshi Methods and Apparatus for Interactive Rotation of 3D Objects Using Multitouch Gestures
WO2014014806A1 (en) 2012-07-15 2014-01-23 Apple Inc. Disambiguation of multitouch gesture recognition for 3d interaction

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Coordonnées géographiques", 23 September 2014 (2014-09-23), XP055239096, Retrieved from the Internet <URL:https://fr.wikipedia.org/w/index.php?title=Coordonn%C3%A9es_g%C3%A9ographiques&oldid=107693869> [retrieved on 20160107] *
"Produit scalaire", 21 October 2014 (2014-10-21), XP055239010, Retrieved from the Internet <URL:https://fr.wikipedia.org/w/index.php?title=Produit_scalaire&oldid=108398543> [retrieved on 20160106] *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110308346A (en) * 2019-06-24 2019-10-08 中国航空无线电电子研究所 Cockpit display system automatic test approach and system based on image recognition
CN110308346B (en) * 2019-06-24 2021-10-26 中国航空无线电电子研究所 Automatic testing method and system for cockpit display system based on image recognition
WO2023124014A1 (en) * 2021-12-31 2023-07-06 北京石头创新科技有限公司 Map display adjustment method and apparatus

Also Published As

Publication number Publication date
FR3028330B1 (en) 2017-12-08
FR3028330A1 (en) 2016-05-13

Similar Documents

Publication Publication Date Title
US11175726B2 (en) Gesture actions for interface elements
US20210181536A1 (en) Eyewear device with finger activated touch sensor
US9378581B2 (en) Approaches for highlighting active interface elements
EP2524294B1 (en) Method for selecting an element of a user interface and device implementing such a method
US9304583B2 (en) Movement recognition as input mechanism
JP6275706B2 (en) Text recognition driven functionality
US9483113B1 (en) Providing user input to a computing device with an eye closure
US9542005B2 (en) Representative image
US8943582B1 (en) Transferring information among devices using cameras
US20140089097A1 (en) Method and system for providing advertisement based on gaze of user
JP6404120B2 (en) Full 3D interaction on mobile devices
US8451344B1 (en) Electronic devices with side viewing capability
US9201585B1 (en) User interface navigation gestures
KR20150130431A (en) Enhancing touch inputs with gestures
EP2956846B1 (en) Method, device and storage medium for navigating in a display screen
WO2012093394A2 (en) Computer vision based two hand control of content
US9411412B1 (en) Controlling a computing device based on user movement about various angular ranges
US9400575B1 (en) Finger detection for element selection
WO2016071171A1 (en) Method and device for changing a view point of a three-dimensional map (3d) or of an image of an observed three-dimensional physical object (3d) by recognising a gesture on a multi-point touch screen
US10082936B1 (en) Handedness determinations for electronic devices
US10585485B1 (en) Controlling content zoom level based on user head movement
US9898183B1 (en) Motions for object rendering and selection
US20170038947A1 (en) Zooming and panning within a user interface
US20130201095A1 (en) Presentation techniques
EP3126950A1 (en) Three-part gesture

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15786950

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15786950

Country of ref document: EP

Kind code of ref document: A1