WO2011067494A2 - Balise de jalonnement pour l'orientation et la navigation a vue d'un drone - Google Patents
Balise de jalonnement pour l'orientation et la navigation a vue d'un drone Download PDFInfo
- Publication number
- WO2011067494A2 WO2011067494A2 PCT/FR2010/052406 FR2010052406W WO2011067494A2 WO 2011067494 A2 WO2011067494 A2 WO 2011067494A2 FR 2010052406 W FR2010052406 W FR 2010052406W WO 2011067494 A2 WO2011067494 A2 WO 2011067494A2
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- beacon
- tag
- marking
- staking
- drone
- Prior art date
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H27/00—Toy aircraft; Other flying toys
- A63H27/12—Helicopters ; Flying tops
Definitions
- the invention relates to remote controlled drones used in the context of gaming systems in which these UAVs operate in a predefined gaming zone.
- the invention relates to such drones whose piloting is a visual piloting performed by means of an onboard camera visualizing the scene located in front of the drone, that is to say the scene towards which it is oriented and progresses.
- the image produced by this camera is transmitted to the user's remote control box for display and allows the user to watch the scene as if it were in the drone.
- This image can also be analyzed at the level of the drone and / or the remote control unit by means of circuits and algorithms making it possible, by means of pattern recognition or similar techniques, to automatically recognize singular picture elements in the image, for example a target to attack in a hunting game, or a reference linked to an absolute reference coordinate, namely the terrestrial fixed reference of the area flown by the drone.
- WO 2008/056049 A1 (Parrot) describes such a game system in which remote controlled toys, including remote-controlled drones, evolve in a previously defined game area.
- the game is executed by driving at sight of the drone, for example along a virtual circuit whose image is superimposed on the real image captured by the camera of the drone.
- Virtual points of passage can be defined and visualized for example in the form of virtual rings floating in the void which define the doors that the drone must cross.
- this document notably provides for the use of a pylon provided with flashing LEDs or reflective elements, serving as significant points for the recognition of the pylon and therefore the positioning. of the drone compared to the frame of reference to which this pylon is attached.
- WO 2009/038797 A2 (Evolution Robotics) proposes to use, for comparable purposes, active tags equipped with radio or infrared transmitters.
- the WO 2008/1 16982 A1 (Parrot) describes a game system of the same type, involving remote-controlled vehicles provided with automatic object recognition means for identifying in the image captured by the vehicle a target, for example a drone piloted by another player, that the first player will try to shoot.
- the drone can be identified in the image by various methods, for example by shape recognition or identification of the blinking of LEDs arranged on the drone.
- a first difficulty of these drone games lies in the determination of the absolute position and orientation of the drone with respect to a known fixed repository, namely the playing field. Indeed, to the extent that virtual elements are added to the real scene, it is essential to place these virtual elements exactly in relation to the known fixed reference system, and thus to be able to determine in a very precise way the position and orientation of the mobile repository of the drone with respect to the terrestrial fixed reference system.
- the drone in the case of a circuit defined for example by a succession of points of passage, the drone must be able to know exactly the absolute position of these points of passage in the terrestrial fixed reference, in order to be able to adapt the navigation in consequently and present to the user on his remote control box for example a circuit map where appear both the position of the drone (movable marker) and that of the points of passage (fixed mark).
- positioning by GPS even corrected by the information of the inertial unit resulting from the gyrometers and accelerometers, does not allow to obtain a sufficient precision when it is necessary to evolve in a zone of play of dimensions restricted, of the order of a few tens of meters at most, as is the case in a garden or, even more, indoors.
- One of the aims of the invention is to propose an accessory that can be used in such a remotely controlled drone game, which makes it possible to solve in a very simple, very precise and very economical way the problems described above relating to the use and positioning a drone with respect to a fixed marker, in particular a marker positioned and oriented in known manner relative to the terrestrial fixed reference.
- the invention also aims to provide a method of orientation and navigation of the drone, implementing this accessory.
- This accessory according to the invention is a staking marker for the orientation and visual navigation of a drone.
- This beacon is adapted to be placed on the ground and comprises a body with a circumferential side wall. It comprises (i) a first optical marking formed on the lateral wall, this first marking being an isotropic marking of beacon discrimination, able to be recognized remotely by the drone at a low incidence in location relative to the beacon, and ii) a second optical marking, this second marking being a non-isotropic telemetry and / or azimuth orientation marking relative to the beacon, able to be recognized remotely by the drone at a higher incidence in location relative to the the tag.
- the body of the beacon is a truncated body with a substantially flat and horizontal upper surface when the beacon is placed on the ground, the second optical marking being formed on this upper face;
- the body of the beacon is inscribed in an envelope defining a frustoconical volume of revolution;
- the lateral wall of the beacon comprises faces, the body of the beacon being of tetrahedral or pyramidal shape;
- the first optical marking comprises a series of horizontal parallel strips of colors or respective contrasting tones
- the second optical marking comprises a series of pellets distributed according to a predefined geometry, preferably non-symmetrical with respect to horizontal coordinate axes, and presenting colors or shades that are contrasted with respect to the color or the background tone of the face on which are formed these pellets;
- the lateral wall of the beacon comprises faces, and the pellets are formed on the same face (s) as the first optical marking;
- the non-symmetrical arrangement of the pellets may be different on each of the faces so as to identify the faces one by contribution to the others;
- the beacon further comprises a third optical marking formed on the body of the beacon, this third marking being an individual identification marking of the beacon;
- the body of the beacon is a truncated body with a substantially flat and horizontal upper face when the beacon is placed on the ground, the third optical marking being formed on this upper face;
- the lateral wall of the beacon comprises faces, the third optical marking being formed on these faces;
- the third optical marking comprises a two-dimensional bar code
- the body is a hollow body defining a receiving volume of a ballast, and advantageously closed by a removable cover.
- the invention also relates to a method of orientation and visual navigation of a drone by means of a staking tag as explained above, this method comprises the following consecutive steps, performed by analysis of an image of a scene captured by a camera embedded by the drone:
- This method may furthermore comprise a final step of:
- Figure 1 is a schematic view showing the drone and various staggering beacons likely to be seen by the on-board camera of this drone.
- Figure 2 explains the two modes of analysis of the coded information of the beacon, according to the greater or lesser distance between the drone and the beacon.
- Figures 3a to 3g show several possible embodiments of a beacon according to the invention, with various variants of coding marks carried by it.
- Figure 4 shows, in exploded view, a particular embodiment of the beacon of the invention from separate elements.
- Figure 5 is the counterpart of Figure 4 with the various assembled elements.
- Figure 6 shows how a plurality of tags can be stacked.
- Figure 7 illustrates how to use the beacon to obtain the GPS coordinates associated with the position of the beacon.
- Figure 8 shows the beacon overflown by a drone to obtain a survey of geographic coordinates without the need for a GPS equipment embedded in this drone.
- the reference 10 generally denotes a drone, which in this example is a quadrocopter type rotary wing drone.
- This type of drone is particularly interesting because it allows very complex and very fast evolutions while keeping the possibility of a stationary hover, for example when the drone is on the lookout in a hunting game.
- the drone 10 is provided with a front camera with a relatively wide angle, with an opening angle marked at 14, typically at least 30 ° in the vertical direction.
- This camera 12 makes it possible to visualize the scene in front of the drone, in the direction in which the latter is oriented and therefore from which it can approach.
- This scene includes a number of characteristic elements, in particular one or more staking tags 16, which constitute characteristic points whose position is predetermined in a fixed terrestrial reference frame Oxyz.
- the staking tag 16 is designed so that, from the image captured by the camera 12 of the drone 10, an analysis algorithm of this image can proceed quickly and reliably to the following successive operations:
- the tag 16 comprises for this purpose several different specific optical markings, to perform these successive steps a) to d) very reliably and very simple.
- the beacon 16 (whose own structure will be described in more detail with reference to FIGS. 3a to 3g) comprises on its circumferential side wall a first optical marking 18 that is remotely recognizable by the drone 10 at a low angle of incidence. in site with respect to the beacon (seen from the top of Figure 2), for example an angle less than 15 °.
- This first marking is isotropic, that is to say that it is substantially identical throughout the circumference of the side wall of the beacon 16, in order to be recognized in the same way whatever the orientation in azimuth of the drone relative to the beacon.
- This first marking comprises, for example, a series of horizontal parallel strips of colors or respective contrasting tones, which can be easily identified from afar using techniques that are themselves well known.
- US 6 453 055 B1 for example describes a system for identifying objects having parallel bands of different colors, with a unique color coding for each object, with a camera analyzing the image of the scene and associated with a recognition system of color.
- the color coding can be reduced to its simple expression, for example a horizontal strip on a background of a contrasting color, or a dark band on a light background, the colors and contrasts being chosen to avoid as much ambiguity with objects that may be present in the scene that would not be tags.
- steps b) to d) will be performed by analysis of another optical marking, different from the first optical marking 16.
- This other optical marking 20 is formed on the substantially flat and horizontal upper face of the beacon, and / or on the lateral wall, and may in particular comprise (i) a second optical marking 20 making it possible to estimate the orientation and the distance between the beacon and the drone (steps b) and c)), and (ii) a third optical marking 28 serving individual identification of the tag among several (step d)).
- the beacon 16 is represented in the form of an element substantially inscribed in a frustoconical envelope, for example with a central half-angle of between 15 and 45 °, with on the one hand a lateral wall carrying the first optical marking. 18 and on the other hand a substantially flat and horizontal upper face carrying the second marking 20.
- the beacon is represented as a tetrahedron (triangular base) or a pyramid (polygonal base of at least four sides, for example square base).
- the first marking 18, the second marking 20, and the third marking appear on the same face of the tetrahedron or pyramid.
- the beacon is represented as a truncated tetrahedron or pyramid.
- the optical markings 20 and 18 appear on the same face and the third marking 28 appears at the top of the truncated pyramid.
- FIGS 3f and 3g illustrate still other variants, with different combinations of beacon characteristics.
- the first marking 18 consists, for example, of a band 24 whose color and / or tone contrast with the bands 22 flanking this band 24, this with a configuration which is substantially the same over the entire periphery of the tag, so that to make this marking isotropic, that is to say identical in all directions of the xOy plane.
- the second optical marking 20 consists for example of a set of pellets 26 arranged in a predetermined configuration on one or more faces, in particular with a respective geometry and distances between known and predefined pellets.
- pellets makes it possible, in particular, once they are visible in the image of the scene captured by the camera of the drone, to determine the distance between the drone and the beacon by triangulation methods applied to the image. analyzed.
- this determination is made by first estimating the angle that is made with the focal plane of the drone camera the plane defined by the pellets 26.
- This plane which is viewed from the side in the image of the scene by the camera of the drone, is known by construction: it is either a horizontal plane when the pellets are at the top of the beacon, or a plane whose angle with the horizontal plane is known when the pellets are located on one of the faces of the beacon.
- the aforementioned angle is estimated from the projection defined by the pellets 26. The distance of the pellets between them in the image, and their known geometric configuration, then makes it possible to estimate their distance from the drone.
- This type of processing is in itself well known, it can be for example implemented by algorithmic bricks such as those of the open source ORFEO Toolbox (OTB) image processing library developed and distributed by the National Center for Computer Science. 'Etudes Spatiales (CNES), which includes all the software elements to perform the required functions.
- OTB ORFEO Toolbox
- CNES 'Etudes Spatiales
- An advantageous variant, illustrated in FIG. 3b, consists in arranging the pellets 26 in a non-symmetrical geometric configuration with respect to horizontal coordinate axes xx and yy.
- This feature allows the image analysis software to determine not only the distance between the drone and the beacon, but also the azimuth orientation, that is, the orientation in the xOy plane of the projection. of the line connecting the beacon to the drone. It is thus possible to know the orientation of the drone relative to the beacon, so compared to a terrestrial reference if the user has taken care to orient the beacon first, for example in a North / South direction.
- This characteristic of non-symmetry also has the advantage of being able to lift the indeterminacy of position relative to the beacon ( forward / backward, left / right), which will allow the drone, for example, to turn around the beacon without compromising positioning calculations.
- the pellets are placed with a different symmetry on each of the faces, so as to determine the orientation of the beacon when the drone rotates around the latter.
- FIGS. 3c to 3g it is furthermore illustrated, in addition to the preceding markings 16 and 20, a third optical marking 28 which makes it possible to uniquely and individually identify the beacon after this beacon has been isolated in the light. image and geometrically located relative to the drone.
- tags will therefore be identified by a number, the sequence of numbers defining an order of progression along the circuit from one tag to the next.
- This identifier can be realized in the form of a barcode, in particular a standard two-dimensional barcode such as a DataMatrix or Aztec code, or a simple matrix of black and white squares large enough to be recognized remotely (concretely eight bits of coding information are sufficient, which can be obtained with a 3x3 matrix).
- a barcode in particular a standard two-dimensional barcode such as a DataMatrix or Aztec code, or a simple matrix of black and white squares large enough to be recognized remotely (concretely eight bits of coding information are sufficient, which can be obtained with a 3x3 matrix).
- a body 30 for example obtained by thermoforming a plastic material, in the form of a pyramid height of about 30 cm with a central volume 32.
- the central volume 32 may especially be used for ballasting of the tag, by filling it with sand or gravel, to hold the ground during the game.
- the upper portion 34 of the body 30 is provided with slides 36 receiving a cover 38, in this example a square-shaped cover approximately 15x15 cm carrying on its front the second and third optical markings constituted by the pellets 26 and the two-dimensional bar code 28.
- the first optical marking 24 is obtained meanwhile by means of a colored label 40 applied to the body 20.
- the back of the cover 38 which is for example a simple sheet of cardboard or plastic, can be used to carry various indications such as the instructions for use, or the clear value of the tag number identified by the two-dimensional barcode 28.
- each individual beacon identified by its unique number, an absolute geographical position in GPS coordinates (Geo-Positioning by Satellites).
- GPS coordinates Geo-Positioning by Satellites.
- the user 42 visualizes the latter by means of the camera of a mobile phone 44 or comparable apparatus provided with GPS functionalities, that is, say who can deliver the coordinates (latitude, longitude) corresponding to the geographical position of the telephone 44, and therefore of the beacon 16, in an absolute terrestrial reference frame from information provided by a constellation of satellites 46.
- These coordinates may be supplemented by the orientation of the beacon in the NS / EW mark, which can be determined by a magnetometer located in the mobile phone 44, with correction of the projection detected by the camera of the phone.
- the apparatus 44 will associate these coordinates with a specific beacon number decoded from the image provided by the camera of the apparatus, which number may then be used by the game system.
- a variant to overcome the reading of tags with the mobile phone can be achieved by including in each beacon a GPS receiver and or a magnetometer and a wireless radio transmitter for example WiFi. In this way each beacon can determine its position and transmit it to the drone.
- a drone 10 flying over the beacon 16 and identifying it, for example by means of a camera 46 turned towards the ground, will be able to determine its absolute geographical position (latitude and longitude in a terrestrial reference) only from the tag identification number.
- This position information coupled with altitude information provided by an ultrasound altimeter 48, may especially be used for resetting the inertial unit of the drone.
- This technique therefore avoids providing the drone with a GPS function and makes it possible to overcome the associated disadvantages, in particular the need for significant computing resources if it is desired to have information that can actually be used in real time for the piloting and control of the aircraft. navigation.
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
Cette balise (16) comprend un corps de forme tronquée avec une paroi latérale circonférentielle et une face supérieure sensiblement plane et horizontale lorsque la balise est posée au sol. Sur la paroi latérale est formé un premier marquage optique isotrope (18) de discrimination de balise, apte à être reconnu à distance par le drone sous faible incidence en site par rapport à la balise, par exemple une série de bandes parallèles horizontales (22, 24, 22) de couleurs ou de tons respectifs contrastés. Sur la face supérieure est formé un deuxième marquage optique non isotrope (20) de télémétrie et/ou d'orientation en azimut par rapport à la balise, apte à être reconnu à distance par le drone sous plus forte incidence en site, par exemple une série de pastilles (26) réparties selon une géométrie prédéfinie, non symétrique. Un troisième marquage optique (28) permet en outre l'identification individuelle de la balise.
Description
Balise de jalonnement pour l'orientation
et la navigation à vue d'un drone
L'invention concerne les drones télécommandés utilisés dans le cadre de systèmes de jeu dans lesquels ces drones évoluent dans une zone de jeu prédéfinie.
Plus précisément, l'invention concerne de tels drones dont le pilotage est un pilotage à vue effectué par l'intermédiaire d'une caméra embarquée visualisant la scène située face au drone, c'est-à-dire la scène vers laquelle celui-ci est orienté et progresse.
L'image produite par cette caméra est transmise au boîtier de télécommande de l'utilisateur pour y être affichée et permettre à ce dernier d'observer la scène comme s'il se trouvait dans le drone. Cette image peut également être analysée au niveau du drone et/ou du boîtier de télécommande par des circuits et des algorithmes permettant, par des techniques de type reconnaissance de forme ou analogues, de reconnaître automatiquement dans l'image des éléments d'image singuliers, par exemple une cible à attaquer dans un jeu de chasse, ou bien un repère lié à un référentiel absolu de coordonnées, à savoir le référentiel fixe terrestre de la zone survolée par le drone.
Le WO 2008/056049 A1 (Parrot) décrit un tel système de jeu dans lequel des jouets télécommandés, notamment des drones télécommandés, évoluent dans une zone de jeu préalablement définie. Le jeu s'exécute par pilotage à vue du drone, par exemple le long d'un circuit virtuel dont l'image est superposée à l'image réelle captée par la caméra du drone. Des points de passage virtuels peuvent être définis et visualisés par exemple sous forme d'anneaux virtuels flottant dans le vide qui définissent des portes que le drone doit traverser. Par ailleurs, pour le positionnement sans ambiguïté du drone dans un référentiel connu ce document prévoit notamment d'utiliser un pylône pourvu de diodes électroluminescentes (LEDs) clignotantes ou d'éléments réfléchissants, servant de points significatifs pour la reconnaissance du pylône et donc le positionnement du drone par rapport au référentiel auquel ce pylône est rattaché.
Le WO 2009/038797 A2 (Evolution Robotics) propose d'utiliser à des fins comparables des balises actives munies d'émetteurs radio ou infrarouge.
Le WO 2008/1 16982 A1 (Parrot) décrit un système de jeu du même type, impliquant des véhicules télécommandés pourvus de moyens de reconnaissance automatique d'objets permettant d'identifier dans l'image captée par le véhicule une cible, par exemple un drone piloté par un autre joueur, que le premier joueur va tenter d'abattre. Le drone peut être identifié dans l'image par divers procédés, par exemple par reconnaissance de forme ou par identification du clignotement de LEDs disposées sur le drone.
Une première difficulté de ces jeux de drone réside dans la détermination de la position absolue et de l'orientation du drone par rapport à un référentiel fixe connu, à savoir le terrain de jeu. En effet, dans la mesure où des éléments virtuels sont ajoutés à la scène réelle, il est indispensable de placer exactement ces éléments virtuels par rapport au référentiel fixe connu, et donc de pouvoir déterminer de façon très précise la position et l'orientation du référentiel mobile du drone par rapport au référentiel fixe terrestre.
De la même façon, dans le cas d'un circuit défini par exemple par une succession de points de passage, le drone doit pouvoir connaître exactement la position absolue de ces points de passage dans le repère fixe terrestre, afin de pouvoir adapter la navigation en conséquence et présenter à l'utilisateur sur son boîtier de télécommande par exemple une carte du circuit où apparaissent à la fois la position du drone (repère mobile) et celle des points de passage (repère fixe).
Dans le WO 2008/056049 précité, il est proposé de munir chaque drone participant au jeu d'un système de positionnement par satellite de type GPS, ainsi que de divers capteurs de navigation inertielle tels que gyro- mètres et accéléromètres, afin de connaître à tout moment la position du drone dans un repère absolu, cette position étant transmise au boîtier de télécommande pour y être traitée.
Cette technique est toutefois complexe à mettre en œuvre, car non seulement elle requiert des composants embarqués relativement coûteux, mais elle permet difficilement d'obtenir des résultats exploitables en temps réel. En effet, la position calculée par un GPS est mise à jour relativement lentement par rapport à l'évolution d'un drone miniature. Ceci constitue un inconvénient particulièrement rédhibitoire si l'on veut utiliser cette informa-
tion pour le pilotage direct d'un tel drone, qui requiert une capacité de réponse très rapide.
De plus, le positionnement par GPS, même corrigé par les informations de la centrale inertielle issue des gyromètres et accéléromètres, ne per- met pas d'obtenir une précision suffisante lorsqu'il s'agit d'évoluer dans une zone de jeu de dimensions restreintes, de l'ordre de quelques dizaines de mètres au plus, comme cela est le cas dans un jardin ou, à plus forte raison, en intérieur.
L'un des buts de l'invention est de proposer un accessoire utilisable dans un tel jeu de drone télécommandé, qui permette de résoudre de façon très simple, très précise et très économique les problèmes exposés ci- dessus relatifs à l'utilisation et au positionnement d'un drone par rapport à un repère fixe, notamment un repère positionné et orienté de façon connue par rapport au référentiel fixe terrestre.
L'invention a également pour objet de proposer un procédé d'orientation et de navigation du drone, mettant en œuvre cet accessoire.
Cet accessoire selon l'invention est une balise de jalonnement pour l'orientation et la navigation à vue d'un drone.
Cette balise est apte à être posée sur le sol et comprend un corps avec une paroi latérale circonférentielle. Elle comprend (i) un premier marquage optique formé sur la paroi latérale, ce premier marquage étant un marquage isotrope de discrimination de balise, apte à être reconnu à distance par le drone sous une faible incidence en site par rapport à la balise, et (ii) un deuxième marquage optique, ce deuxième marquage étant un marquage non isotrope de télémétrie et/ou d'orientation en azimut par rapport à la balise, apte à être reconnu à distance par le drone sous une plus forte incidence en site par rapport à la balise.
Selon diverses caractéristiques subsidiaires avantageuses :
- le corps de la balise est un corps de forme tronquée avec une face su- périeure sensiblement plane et horizontale lorsque la balise est posée au sol, le deuxième marquage optique étant formé sur cette face supérieure ;
- le corps de la balise est inscrit dans une enveloppe définissant un volume tronconique de révolution ;
- la paroi latérale de la balise comprend des faces, le corps de la balise étant de forme tétraédrique ou pyramidale ;
- le premier marquage optique comporte une série de bandes parallèles horizontales de couleurs ou de tons respectifs contrastés ;
- le deuxième marquage optique comporte une série de pastilles réparties selon une géométrie prédéfinie, de préférence non symétrique par rapport à des axes de coordonnées horizontaux, et présentant des couleurs ou des tons contrastés par rapport à la couleur ou au ton de fond de la face sur la quelle sont formées ces pastilles ;
- la paroi latérale de la balise comprend des faces, et les pastilles sont formées sur la(les) même(s) face(s) que le premier marquage optique ;
- dans ce dernier cas, la disposition non symétrique des pastilles peut être différente sur chacune des faces de manière à identifier les faces les unes par apport aux autres ;
- la balise comprend en outre un troisième marquage optique formé sur le corps de la balise, ce troisième marquage étant un marquage d'identification individuelle de la balise ;
- le corps de la balise est un corps de forme tronquée avec une face supérieure sensiblement plane et horizontale lorsque la balise est posée au sol, le troisième marquage optique étant formé sur cette face supérieure ;
- la paroi latérale de la balise comprend des faces, le troisième marquage optique étant formé sur ces faces ;
- le troisième marquage optique comporte un code-barres bidimension- nel ;
- le corps est un corps creux définissant un volume de réception d'un lest, et avantageusement fermé par un couvercle amovible.
L'invention a également pour objet un procédé d'orientation et de navigation à vue d'un drone au moyen d'une balise de jalonnement telle qu'exposée ci-dessus, ce procédé comprend les étapes consécutives suivantes, exécutées par analyse d'une image d'une scène captée par une caméra embarquée par le drone :
a) recherche d'une balise dans l'image de la scène par recherche, dans cette image, d'un marquage optique de discrimination de balise ;
b) sur reconnaissance d'une balise présente dans l'image de la scène, activation d'une recherche, dans une sous-région de l'image voisine de la balise ainsi reconnue, d'un marquage optique de télémétrie et/ou d'orientation de cette balise ; et
c) sur reconnaissance dudit marquage optique de télémétrie et/ou d'orientation ainsi recherché, calcul de la distance et/ou de l'orientation en azimut du drone par rapport à la balise.
Ce procédé peut en outre comprendre en outre une étape finale de :
d) individualisation de la balise par recherche, dans une sous-région de l'image voisine du marquage de télémétrie et/ou d'orientation, d'un marquage optique d'identification individuelle formé sur le corps de la balise.
0 On va maintenant décrire un exemple de réalisation de l'invention, en référence aux dessins annexés où les mêmes références numériques désignent d'une figure à l'autre des éléments identiques ou fonctionnellement semblables.
La Figure 1 est une vue schématique montrant le drone et diverses bali- ses de jalonnement susceptibles d'être vues par la caméra embarquée de ce drone.
La Figure 2 explicite les deux modes d'analyse des informations codées de la balise, selon la distance plus ou moins grande entre le drone et la balise.
Les Figures 3a à 3g montrent plusieurs modes de réalisation possibles d'une balise selon l'invention, avec diverses variantes de codage des marques portées par celle-ci.
La Figure 4 montre, en vue éclatée, un exemple particulier de réalisation de la balise de l'invention à partir d'éléments distincts.
La Figure 5 est homologue de la Figure 4 avec les différents éléments assemblés.
La Figure 6 montre la manière dont peuvent être empilées une pluralité de balises.
La Figure 7 illustre la manière d'utiliser la balise pour obtenir les coordon- nées GPS associées à la position de celle-ci.
La Figure 8 montre la balise survolée par un drone pour obtenir un relevé de coordonnées géographiques sans qu'il soit besoin de disposer d'un équipement GPS embarqué dans ce drone.
0
Sur la Figure 1 , la référence 10 désigne de façon générale un drone, qui dans cet exemple est un drone à voilure tournante de type quadricoptère. Ce type de drone est particulièrement intéressant, car il autorise des évolutions très complexes et très rapides tout en gardant la possibilité d'un maintien en vol stationnaire, par exemple lorsque le drone est à l'affût dans un jeu de chasse.
Le drone 10 est muni d'une caméra frontale à relativement grand angle, avec un angle d'ouverture matérialisé en 14, typiquement d'au moins 30° en direction verticale. Cette caméra 12 permet de visualiser la scène se trouvant devant le drone, dans la direction de laquelle ce dernier est orienté et donc de laquelle il peut se rapprocher. Cette scène inclut un certain nombre d'éléments caractéristiques, en particulier une ou plusieurs balises de jalonnement 16, qui constituent des points caractéristiques dont la position est prédéterminée dans un référentiel terrestre fixe Oxyz.
La balise de jalonnement 16 est conçue pour que, à partir de l'image captée par la caméra 12 du drone 10, un algorithme d'analyse de cette image puisse procéder de façon rapide et fiable aux opérations successives suivantes :
a) discrimination de la balise de jalonnement parmi les différents éléments présents dans l'image de la scène, de manière à pouvoir indiquer à l'algorithme la présence d'(au moins) une balise dans l'image ; cette reconnaissance doit pouvoir être opérée le plus tôt possible, c'est-à-dire même lorsque le drone est loin de la balise et que celle-ci n'occupe donc qu'une faible partie de l'image de la scène ;
b) après reconnaissance d'une balise présente, détermination de la distance séparant cette balise du drone ; puis
c) détermination de l'orientation en azimut du drone par rapport à la balise, c'est-à-dire de son orientation en projection sur un plan horizontal ; et enfin
d) individualisation de la balise - par exemple reconnaissance d'un numéro d'identification unique attribué à la balise, notamment dans le cas où plusieurs balises sont présentes.
La balise 16 comporte à cet effet plusieurs marquages optiques différents, spécifiques, permettant d'exécuter ces étapes successives a) à d) de façon très fiable et très simple.
En premier lieu, la balise 16 (dont la structure propre sera décrite plus en détail en référence aux Figures 3a à 3g) comprend sur sa paroi latérale circonférentielle un premier marquage optique 18 reconnaissable à distance par le drone 10 sous un faible angle d'incidence en site a par rapport à la balise (vue du haut de la Figure 2), par exemple un angle inférieur à 15°.
Ce premier marquage est isotrope, c'est-à-dire qu'il se présente de façon sensiblement identique sur toute la circonférence de la paroi latérale de la balise 16, ceci afin d'être reconnu de la même façon quelle que soit l'orientation en azimut du drone par rapport à la balise.
Ce premier marquage comporte par exemple une série de bandes parallèles horizontales de couleurs ou de tons respectifs contrastés, pouvant être aisément identifiées de loin selon des techniques en elles-mêmes bien connues. Le US 6 453 055 B1 décrit par exemple un système pour identifier des objets comportant des bandes parallèles de différentes couleurs, avec un codage de couleurs unique pour chaque objet, avec une caméra analysant l'image de la scène et associée à un système de reconnaissance de couleur.
Dans la mesure où il s'agit seulement, dans le cadre de l'invention, de déterminer (étape a)) la présence d'une balise dans la scène, le codage des couleurs peut être réduit à sa simple expression, par exemple une bande horizontale sur un fond d'une couleur contrastée, ou une bande foncée sur un fond clair, les couleurs et les contrastes étant choisis pour éviter au maximum toute ambiguïté avec des objets éventuellement présents dans la scène qui ne seraient pas des balises.
Lorsque le drone 10 a identifié la présence d'une balise et s'est rapproché de celle-ci, la distance entre drone et balise est moindre, de sorte que l'angle d'incidence en site β est plus grand, et l'image de la balise sera prise par la caméra frontale sous un angle plus élevée.
Les étapes suivantes b) à d) seront exécutées par analyse d'un autre marquage optique, différent du premier marquage optique 16. Cet autre marquage optique 20 est formé sur la face supérieure sensiblement plane et horizontale de la balise, et/ou sur la paroi latérale, et peut notamment comporter (i) un deuxième marquage optique 20 permettant d'estimer l'orientation et la distance entre la balise et le drone (étapes b) et c)), et (ii) un troisième marquage optique 28 servant à l'identification individuelle de la balise parmi plusieurs (étape d)).
Sur les Figures 3a et 3c, on a illustré différentes réalisations possibles de la balise de l'invention, avec plusieurs variantes de marquage. Sur ces Figures, la balise 16 est représentée sous forme d'un élément sensiblement inscrit dans une enveloppe tronconique, par exemple de demi-angle au centre compris entre 15 et 45°, avec d'une part une paroi latérale portant le premier marquage optique 18 et d'autre part une face supérieure sensiblement plane et horizontale portant le second marquage 20.
Sur la Figure 3d, la balise est représentée sous forme d'un tétraèdre (base triangulaire) ou d'une pyramide (à base polygonale d'au moins quatre côtés, par exemple à base carrée). Dans ce cas le premier marquage 18, le second marquage 20, et le troisième marquage apparaissent sur la même face du tétraèdre ou de la pyramide.
Sur la Figure 3e la balise est représenté sous forme d'un tronc de tétraèdre ou de pyramide. Dans ce cas les marquages optiques 20 et 18 apparaissent sur la même face et le troisième marquage 28 apparaît au sommet de la pyramide tronquée.
Ces variantes des Figures 3d et 3e on pour objet de favoriser la détermination l'orientation des balises lorsque le drone vole bas.
Les Figures 3f et 3g illustrent d'autres variantes encore, avec des combinaisons différentes des caractéristiques des balises.
Le premier marquage 18 est par exemple constitué d'une bande 24 dont la couleur et/ou le ton contrastent avec les bandes 22 encadrant cette bande 24, ceci avec une configuration qui est sensiblement la même sur toute la périphérie de la balise, de manière à rendre ce marquage isotrope, c'est-à-dire identique dans toutes les directions du plan xOy.
Le deuxième marquage optique 20 est par exemple constitué d'un ensemble de pastilles 26 disposées selon une configuration prédéterminée
sur une ou plusieurs faces, notamment avec une géométrie respective et des distances entre pastilles connues et prédéfinies.
Cette configuration particulière des pastilles permet en particulier, une fois qu'elles sont visibles dans l'image de la scène captée par la caméra du drone, de déterminer la distance entre le drone et la balise par des méthodes de triangulation appliquées à l'image analysée.
Essentiellement, cette détermination est effectuée en estimant d'abord l'angle que fait avec le plan focal de la caméra du drone le plan défini par les pastilles 26. Ce plan, qui est vu de biais dans l'image de la scène par la caméra du drone, est connu par construction : il s'agit soit d'un plan horizontal lorsque les pastilles sont au sommet de la balise, soit d'un plan dont l'angle avec le plan horizontal est connu lorsque les pastilles sont situées sur l'une des faces de la balise. L'angle précité est estimé à partir de la projection définie par les pastilles 26. La distance des pastilles entre elles dans l'image, et leur configuration géométrique connue, permet ensuite d'estimer leur éloignement par rapport au drone.
Ce type de traitement est en lui-même bien connu, il peut être par exemple mis en œuvre par des briques algorithmiques telles que celles de la librairie open source de traitement d'images ORFEO Toolbox (OTB) développée et distribuée par le Centre National d'Études Spatiales (CNES), qui comporte tous les éléments logiciels permettant de réaliser les fonctions requises.
Une variante avantageuse, illustrée Figure 3b, consiste à disposer les pastilles 26 selon une configuration géométrique non symétrique par rapport à des axes de coordonnées horizontaux xx et yy. Cette caractéristique permet au logiciel d'analyse de l'image de déterminer non seulement la distance entre le drone et la balise, mais également l'orientation en azimut, c'est-à-dire l'orientation dans le plan xOy de la projection de la ligne reliant la balise au drone. Il est ainsi possible de connaître l'orientation du drone par rapport à la balise, donc par rapport à un référentiel terrestre si l'utilisateur a pris soin d'orienter au préalable la balise, par exemple dans une direction Nord/Sud.
Cette caractéristique de non-symétrie présente également l'avantage de pouvoir lever l'indétermination de position par rapport la balise (de-
vant/derrière, gauche/droite), ce qui permettra par exemple au drone de tourner autour de la balise sans nuire aux calculs de positionnement.
Sur la Figure 3e, les pastilles sont placées avec une symétrie différente sur chacune des faces, de manière à pouvoir déterminer l'orientation de la balise lorsque le drone tourne autour de cette dernière.
Sur les Figure 3c à 3g, on a illustré en outre, en supplément des marquages 16 et 20 précédents, un troisième marquage optique 28 qui permet, d'identifier de façon unique et individuelle la balise après que celle-ci ait été isolée dans l'image et localisée géométriquement par rapport au drone.
En effet, par exemple dans un jeu de circuit où les balises de jalonnement sont placées à divers points de passage imposés du trajet du drone, il peut être nécessaire d'utiliser plusieurs dizaines de balises différentes pour définir le circuit. Ces balises seront donc identifiées par un numéro, la succession des numéros définissant un ordre de progression le long du circuit d'une balise à la suivante.
Il est donc indispensable dans ce cas d'attribuer un identifiant individuel, unique à chaque balise. Cet identifiant peut être réalisé sous la forme d'un code-barres, notamment un code-barres bidimensionnel standard tel qu'un code DataMatrix ou Aztec, ou encore une simple matrice de carrés noirs et blancs assez grands pour être reconnu à distance (concrètement, huit bits d'informations de codage sont suffisants, ce qui peut être obtenu avec une matrice 3x3).
Sur les Figures 4 et 5, on a illustré, respectivement sous forme éclatée et sous forme assemblée, les éléments constitutifs d'un exemple de réalisation de la balise 16 selon l'invention.
Celle-ci est réalisée dans cet exemple à partir d'un corps 30 par exemple obtenu par thermoformage d'une matière plastique, en forme de pyramide de hauteur 30 cm environ avec un volume central 32. Le volume central 32 peut notamment servir au lestage de la balise, en remplissant celle-ci de sable ou de gravier, pour bien tenir au sol durant le jeu. La partie supérieure 34 du corps 30 est pourvue de glissières 36 recevant un couvercle 38, dans cet exemple un couvercle de forme carrée d'environ 15x15 cm portant à son recto les deuxième et troisième marquages optiques constitués des pastilles 26 et du code-barres bidimensionnel 28. Le premier
marquage optique 24 est obtenu quant à lui au moyen d'une étiquette colorée 40 appliquée sur le corps 20. Le verso du couvercle 38, qui est par exemple une simple feuille de carton ou de plastique, peut être utilisé pour y porter diverses indications telles que le mode d'emploi, ou encore la valeur en clair du numéro de balise identifiée par le code-barres bidimen- sionnel 28.
Le tout, une fois assemblé, se présente de la manière illustrée Figure 5. Cette forme de réalisation présente l'avantage de pouvoir être aisément montée et démontée, avec notamment possibilité d'emboîter les corps 30 des différentes balises afin de ranger celles-ci plus commodément, comme illustré Figure 6.
Outre les fonctions que l'on vient d'expliciter précédemment, il est possible d'associer à chaque balise individuelle, identifiée par son numéro unique, une position géographique absolue en coordonnées GPS (GéoPosition- nement par Satellites). Pour cela, comme illustré Figure 7, après avoir posé au sol la balise 16, l'utilisateur 42 visualise celle-ci au moyen de la caméra d'un téléphone portable 44 ou appareil comparable pourvu de fonctionnalités GPS, c'est-à-dire qui puisse délivrer les coordonnées (latitude, longitude) correspondant à la position géographique du téléphone 44, et donc de la balise 16, dans un repère terrestre absolu à partir d'informations fournies par une constellation de satellites 46.
Ces coordonnées peuvent être complétées par l'orientation de la balise dans le repère NS/EW, qui peut être déterminée grâce un magnétomètre situé dans le téléphone portable 44, avec correction de la projection relevée par l'appareil photo du téléphone.
L'appareil 44 associera ces coordonnées à un numéro de balise spécifique décodé à partir de l'image fournie par la caméra de l'appareil, numéro qui pourra être ensuite utilisé par le système de jeu.
Une variante permettant de s'affranchir du relevé des balises avec le téléphone mobile peut être réalisée en incluant dans chaque balise un récepteur GPS et ou un magnétomètre et un émetteur radio sans fil par exemple WiFi. De cette manière chaque balise peut déterminer sa position et la transmettre au drone.
Ainsi, comme illustré Figure 8, un drone 10 survolant la balise 16 et identifiant celle-ci par exemple au moyen d'une caméra 46 tournée vers le sol,
pourra déterminer sa position géographique absolue (latitude et longitude dans un repère terrestre) uniquement à partir du numéro d'identification de la balise. Cette information de position, couplée à une information d'altitude fournie par un altimètre à ultrasons 48, pourra notamment servir au recalage de la centrale inertielle du drone.
Cette technique évite donc de munir le drone d'une fonction GPS et permet de s'affranchir des inconvénients associés, notamment le besoin de ressources de calcul importantes si l'on souhaite disposer d'informations effectivement utilisables en temps réel pour le pilotage et la navigation.
Claims
1 . Une balise de jalonnement (16) pour l'orientation et la navigation à vue d'un drone (10), cette balise étant apte à être posée sur le sol et comprenant un corps de forme tronquée avec au moins une paroi latérale cir- conférentielle,
cette balise de jalonnement étant caractérisée en ce qu'elle comprend :
- un premier marquage optique (18) formé sur ladite paroi latérale, ce premier marquage étant un marquage isotrope de discrimination de balise, apte à être reconnu à distance par le drone sous une faible incidence en site (a) par rapport à la balise ; et
- un deuxième marquage optique (20), ce deuxième marquage étant un marquage non isotrope de télémétrie et/ou d'orientation en azimut par rapport à la balise, apte à être reconnu à distance par le drone sous une plus forte incidence en site (β) par rapport à la balise.
2. La balise de jalonnement de la revendication 1 , dans laquelle le corps de la balise est un corps de forme tronquée avec une face supérieure sensiblement plane et horizontale lorsque la balise est posée au sol, le deuxième marquage optique (20) étant formé sur cette face supérieure.
3. La balise de jalonnement de la revendication 1 , dans laquelle le corps de la balise est inscrit dans une enveloppe définissant un volume tronco- nique de révolution.
4. La balise de jalonnement de la revendication 1 , dans laquelle la paroi latérale de la balise comprend des faces, le corps de la balise étant de forme tétraédrique ou pyramidale.
5. La balise de jalonnement de la revendication 1 , dans laquelle le premier marquage optique (18) comporte une série de bandes parallèles horizontales (22, 24, 22) de couleurs ou de tons respectifs contrastés.
6. La balise de jalonnement de la revendication 1 , dans laquelle le deuxième marquage optique (20) comporte une série de pastilles (26) ré- parties selon une géométrie prédéfinie, et présentant des couleurs ou des tons contrastés par rapport à la couleur ou au ton de fond de la face sur la quelle sont formées ces pastilles.
7. La balise de jalonnement de la revendication 6, dans laquelle ladite géométrie prédéfinie est une géométrie non symétrique par rapport à des axes de coordonnées horizontaux (xx, yy).
8. La balise de jalonnement de la revendication 6, dans laquelle la paroi latérale de la balise comprend des faces, et lesdites pastilles sont formées sur la(les) même(s) face(s) que ledit premier marquage optique (18).
9. La balise de jalonnement de la revendication 8, dans laquelle la disposition non symétrique des pastilles est différente sur chacune des faces de manière à identifier les faces les unes par apport aux autres.
10. La balise de jalonnement de la revendication 1 , comprenant en outre : - un troisième marquage optique (28) formé sur le corps de la balise, ce troisième marquage étant un marquage d'identification individuelle de la balise.
1 1 . La balise de jalonnement de la revendication 10, dans laquelle le corps de la balise est un corps de forme tronquée avec une face supérieure sensiblement plane et horizontale lorsque la balise est posée au sol, ledit troisième marquage optique (28) étant formé sur cette face supérieure.
12. La balise de jalonnement de la revendication 10, dans laquelle la paroi latérale de la balise comprend des faces, ledit troisième marquage optique (28) étant formé sur lesdites faces.
13. La balise de jalonnement de la revendication 10, dans laquelle le troisième marquage optique (28) comporte un code-barres bidimensionnel.
14. La balise de jalonnement de la revendication 1 , dans laquelle le corps est un corps creux (30) définissant un volume (32) de réception d'un lest.
15. La balise de jalonnement de la revendication 14, dans laquelle le corps creux (30) est fermé par un couvercle (38) amovible.
16. Un procédé d'orientation et de navigation à vue d'un drone (10) au moyen d'une balise de jalonnement (16) selon l'une des revendications 1 à 15, comprenant les étapes consécutives suivantes, exécutées par analyse d'une image d'une scène captée par une caméra (12) embarquée par le drone :
a) recherche d'une balise (16) dans l'image de la scène par recherche, dans cette image, d'un marquage optique (18) de discrimination de balise ;
b) sur reconnaissance d'une balise (16) présente dans l'image de la scène, activation d'une recherche, dans une sous-région de l'image voisine de la balise ainsi reconnue, d'un marquage optique (20) de télémétrie et/ou d'orientation de cette balise ; et
c) sur reconnaissance dudit marquage optique (20) de télémétrie et/ou d'orientation ainsi recherché, calcul de la distance et/ou de l'orientation en azimut du drone par rapport à la balise.
17. Le procédé de la revendication 16, comprenant en outre une étape finale de :
d) individualisation de la balise par recherche, dans une sous-région de l'image voisine du marquage (20) de télémétrie et/ou d'orientation, d'un marquage optique (28) d'identification individuelle formé sur le corps de la balise.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0958300 | 2009-11-24 | ||
FR0958300A FR2953014B1 (fr) | 2009-11-24 | 2009-11-24 | Balise de jalonnement pour l'orientation et la navigation a vue d'un drone |
Publications (2)
Publication Number | Publication Date |
---|---|
WO2011067494A2 true WO2011067494A2 (fr) | 2011-06-09 |
WO2011067494A3 WO2011067494A3 (fr) | 2011-08-11 |
Family
ID=42289721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/FR2010/052406 WO2011067494A2 (fr) | 2009-11-24 | 2010-11-10 | Balise de jalonnement pour l'orientation et la navigation a vue d'un drone |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR2953014B1 (fr) |
WO (1) | WO2011067494A2 (fr) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PT106723A (pt) * | 2013-01-09 | 2014-07-09 | Far Away Sensing | Sistema e processo de comando remoto de veículos por cópia de orientação espacial compreendendo um subsistema avisador de ordens não executáveis |
JP7435599B2 (ja) * | 2019-04-08 | 2024-02-21 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6453055B1 (en) | 1996-09-30 | 2002-09-17 | Sony Corporation | Identifying apparatus and method, position detecting apparatus and method, robot apparatus and color extracting apparatus |
WO2008056049A1 (fr) | 2006-11-09 | 2008-05-15 | Parrot | Procede de definition de zone de jeux pour un systeme de jeux video |
WO2008116982A2 (fr) | 2007-02-13 | 2008-10-02 | Parrot | Procédé de reconnaissance d'objets dans un jeu de tir pour jouets télécommandés |
WO2009038797A2 (fr) | 2007-09-20 | 2009-03-26 | Evolution Robotics | Systèmes et procédés de jeux robotisés |
-
2009
- 2009-11-24 FR FR0958300A patent/FR2953014B1/fr not_active Expired - Fee Related
-
2010
- 2010-11-10 WO PCT/FR2010/052406 patent/WO2011067494A2/fr active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6453055B1 (en) | 1996-09-30 | 2002-09-17 | Sony Corporation | Identifying apparatus and method, position detecting apparatus and method, robot apparatus and color extracting apparatus |
WO2008056049A1 (fr) | 2006-11-09 | 2008-05-15 | Parrot | Procede de definition de zone de jeux pour un systeme de jeux video |
WO2008116982A2 (fr) | 2007-02-13 | 2008-10-02 | Parrot | Procédé de reconnaissance d'objets dans un jeu de tir pour jouets télécommandés |
WO2009038797A2 (fr) | 2007-09-20 | 2009-03-26 | Evolution Robotics | Systèmes et procédés de jeux robotisés |
Also Published As
Publication number | Publication date |
---|---|
FR2953014A1 (fr) | 2011-05-27 |
FR2953014B1 (fr) | 2011-12-09 |
WO2011067494A3 (fr) | 2011-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240020968A1 (en) | Improving geo-registration using machine-learning based object identification | |
US9986233B1 (en) | Camera calibration using fixed calibration targets | |
US10401872B2 (en) | Method and system for collision avoidance | |
FR3001307A1 (fr) | Procedes pour determiner une trajectoire de vol | |
US11317077B1 (en) | Collection of camera calibration data using augmented reality | |
US10589860B2 (en) | Spherical infrared emitter | |
FR2712251A1 (fr) | Procédé et dispositif d'aide au pilotage d'un aéronef. | |
FR2824132A1 (fr) | Dispositif, et procede associe, apte a determiner la direction d'une cible | |
Flores-de-Santiago et al. | Assessing the effect of flight altitude and overlap on orthoimage generation for UAV estimates of coastal wetlands | |
WO2011067494A2 (fr) | Balise de jalonnement pour l'orientation et la navigation a vue d'un drone | |
Anguiano-Morales et al. | Topographic investigation from a low altitude unmanned aerial vehicle | |
WO2012127312A1 (fr) | Système de surveillance | |
Jawak et al. | Applications of WorldView-2 satellite data for extraction of polar spatial information and DEM of Larsemann Hills, East Antarctica | |
US10447995B1 (en) | Validation of camera calibration data using augmented reality | |
EP3755138B1 (fr) | Procede pour reproduire un motif a marquer sur une zone engazonnee | |
WO2019158880A1 (fr) | Dispositif de cartographie tactique évolutive dans un environnement extérieur, système et procédé associés | |
EP2407953A1 (fr) | Procédé d'aide au pilotage amélioré pour aéronef | |
EP2369297B1 (fr) | Dispositif d'aide au vol pour un aéronef | |
EP0056348B1 (fr) | Procédé et dispositif de navigation par re-localisation d'un mobile sur une carte | |
FR3049144A1 (fr) | Agencement pour, et procede d'analyse d'une couverture de champ de reseau local sans fil (wlan) dans un lieu | |
FR2987151A1 (fr) | Systeme d'aide au sauvetage par helicoptere | |
EP3488257A2 (fr) | Système de guidage pour guider un aéronef le long d'au moins une portion de route aérienne | |
CA3039274A1 (fr) | Procede d'aide a la localisation d'un objectif et dispositif d'observation permettant la mise en oeuvre de ce procede | |
FR2749419A1 (fr) | Procede et dispositif d'identification et de localisation d'objets fixes le long d'un trajet | |
CA3099490A1 (fr) | Procede d'acquisition d'au moins une scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10829317 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10829317 Country of ref document: EP Kind code of ref document: A2 |