WO2021239805A1 - Construction d'images vues du dessus d'un tronçon de route - Google Patents

Construction d'images vues du dessus d'un tronçon de route Download PDF

Info

Publication number
WO2021239805A1
WO2021239805A1 PCT/EP2021/064036 EP2021064036W WO2021239805A1 WO 2021239805 A1 WO2021239805 A1 WO 2021239805A1 EP 2021064036 W EP2021064036 W EP 2021064036W WO 2021239805 A1 WO2021239805 A1 WO 2021239805A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
road
section
constructing
mesh
Prior art date
Application number
PCT/EP2021/064036
Other languages
English (en)
Inventor
Lucien Garcia
David Guerrero
Bertrand Godreau
Marc BELLINGER
Original Assignee
Continental Automotive Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive Gmbh filed Critical Continental Automotive Gmbh
Publication of WO2021239805A1 publication Critical patent/WO2021239805A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/50Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the display information being shared, e.g. external display, data transfer to other traffic participants or centralised traffic controller

Definitions

  • the present invention relates to a construction of images of a section of road.
  • the invention presents a method for constructing images of a section of road seen from above using sensors on board vehicles.
  • the detection of elements present on the road using image processing poses resolution problems.
  • the angle of the camera to the road causes strong perspective effects on the captured images that make them difficult to process.
  • the images of the road captured by the cameras of the vehicles are processed by performing a change of reference mark in order to obtain a “bird-view” type image so as to be able to detect the elements present. at ground level.
  • a transformation from an image to a bird-view image is described in the paper titled "Technical Transformation” by Venkatesh and Vijayakumar in the International Journal of Scientific & Engineering Research, Volume 3, Issue 5, May-2012.
  • the aim of the invention is therefore to at least partially overcome the problems set out above and to propose a method making it possible to constitute an image of the road seen from above with good resolution, making it possible to identify the elements present on the road. and in particular marking on the ground with greater clarity and requiring less processing time than the generation of a “bird-view” image.
  • the subject of the invention is a method of constructing an image of a section of road characterized in that it comprises the following steps:
  • the at least one mobile sensor successively captures a plurality of images at different positions of the road section at a determined frequency and at least one image among the plurality of images taken. successively sees a section of its determined sub-part overlapped by the determined sub-part of the next captured image.
  • the determined frequency of image capture of the at least one mobile sensor is variable depending on the speed of movement of the at least one mobile sensor.
  • the determined sub-part of the at least one image of the road section is determined as a function of the speed at which the at least one mobile sensor is moving.
  • At least one spatial coordinate of each point of the software mesh comprises a three-dimensional GPS position: latitude, longitude and altitude.
  • the method comprises an additional step of assembling the at least one image generated in order to form an image of the section of road from the light intensity and from the at least one spatial coordinate of each. point of the software mesh.
  • several determined sub-parts of images include the same point of the software mesh, the light intensity associated with said point is the light intensity of the point of the captured image closest to the mobile sensor.
  • the subject of the invention is also a system for constructing an image of a section of road comprising a vehicle, the vehicle carrying at least one mobile sensor and a computer, the computer being characterized in that it is adapted to put implementing all the steps of a method as presented above.
  • the system comprises a remote server having a communication interface with a plurality of vehicles, each vehicle carrying at least one mobile sensor and a computer, and the system comprises means for implementing each of the steps of a method such as that presented above.
  • the remote server implements the step of defining the software mesh, and sends it to the plurality of vehicles via the communication interface.
  • the plurality of vehicles implements the steps of capturing, selecting, associating and generating a method as presented by means of their computer and sends the images generated to the remote server which implements the 'additional assembly step to form an image of a section of road.
  • the invention relates to a computer program product, comprising code instructions for implementing a method according to any of the embodiments presented above.
  • the invention makes it possible to produce an image of a section of a road seen from above, corresponding to an alternative to "bird-view" type images.
  • the reconstruction of sections according to the invention is more precise than that of the prior art of the "bird-view” type in the sense that these images have better resolutions since it only considers elements close to the captured images. Thus, these elements do not suffer much from the perspective effect and are of good resolution.
  • the processing time is reduced since the process is not concerned with processing the entire captured image but only a few strategic points.
  • the invention uses to its advantage user vehicles to construct a ground map making it possible to clearly identify the elements present on the road and in particular the road markings, without adding additional sensors dedicated to this function.
  • the method is also applicable to an unconnected vehicle which is thus capable of constructing its own images seen from above of sections of road and in particular of journeys which it makes regularly.
  • Figure 1 shows a data processing system of a road section according to one embodiment.
  • Figure 2 shows a method of processing data of a road section according to one embodiment.
  • FIG. 3 is an explanatory diagram of the method of Figure 2 illustrating a mesh of a road section according to one embodiment. Description of the embodiments
  • FIG. 2 a succession of steps in a process for constructing an image of a section of road is now described.
  • FIG. 1 and to FIG. 3 respectively presenting an embodiment of a system in which the method can be implemented and an embodiment of a mesh of a stretch of road.
  • the first step of the method, step 100 comprises a definition of a software mesh on a section of road 7 (FIG. 3).
  • the software mesh here corresponds to the application of a virtual grid on the road section 7.
  • each point of the mesh is equidistant from the closest points which surround it.
  • each point of the mesh is associated with at least one spatial coordinate making it possible to identify it in space.
  • the at least one spatial coordinate can for example be a three-dimensional spatial coordinate comprising the longitude, the latitude and the altitude for each point of the software mesh.
  • Concerning the precision of the software mesh the latter can for example include a point every centimeter, the virtual grid could therefore be a mesh of one centimeter by one centimeter (1 cm * 1 cm).
  • the second step 110 of the method comprises the capture, by at least one mobile sensor making it possible to create an image of bird-view type on board at least one vehicle 5, of an image 6 of the section of road 7 on which has been defined the software mesh.
  • an advantageous sensor making it possible to create this type of bird-view image is a camera.
  • the term “camera” is understood here to mean any means for capturing an image in a wavelength belonging to the visible domain. Reference will therefore be made to a mobile camera 2 for the mobile sensor in the remainder of the document to facilitate understanding of the method. However, it is understood here that it is simply an example by way of illustration and not limiting. In this sense, the mobile sensor could be a radar sensor or even a lidar sensor.
  • the camera is also said to be mobile since the vehicle 5 on board is moving.
  • the at least one vehicle 5 on board the at least one mobile camera 2 capturing an image 6 is represented by FIG. 1.
  • a mobile camera 2 on board a vehicle 5 for better readability of the image. process, but it is understood that in reality it may be at least one mobile camera 2 on board at least one vehicle 5.
  • the processing of image 6 developed below is the same for each image 6.
  • the mobile camera 2 on board the vehicle 5 can for example be a camera on a windshield or even a camera at the level of a rear view mirror. This involves capturing an image 6 with a mobile camera 2 already present on the vehicle 5. It is not necessary to add cameras to the vehicle 5 in order to carry out the image construction process presented.
  • the capture of each image 6 by a mobile camera 2 is associated with a position of the corresponding mobile camera 2 on the road section 7.
  • a mobile camera 2 can capture a plurality of successive images 6 of the road section 7 at several different positions on the road section 7.
  • the plurality of images 6 taken successively by each mobile camera 2 is captured at a determined frequency so that two successive images 6 present at least in part the same zone of the road section 7.
  • each vehicle 5 traveling on the section of road 7 and comprising at least one mobile camera 2 is used by capturing several images 6 of the section of road 7.
  • the following of the method reports the processing of each captured image 6 and its association with the software mesh defined above.
  • the third step 120 of the method comprises a selection of a determined sub-part 8 of an image 6 captured by a mobile camera 2 in step 110.
  • the determined sub-part 8 of the image 6 comprises a plurality of points of the software mesh among the points of the mesh closest to the mobile camera 2 on image 6.
  • FIG. 3 shows this step for a single mobile camera 2 in three different successive positions.
  • the determined sub-part 8 of the image 6 captured by the mobile camera 2 in each of the three positions 20 on the section 7 is represented each time by a gray area.
  • the captured images 6 are not fully represented in FIG. 3: it is only a matter of illustrating the respective determined sub-part 8 of each image.
  • Each determined sub-part 8 of the image comprises a plurality of points 9 of the software mesh (also represented by crosses).
  • the plurality of points 9 of the software mesh is chosen from among the points closest to the mobile camera 2 in order to benefit from a good resolution. Indeed, the fact that the plurality of points 9 of the software mesh is close to the mobile camera 2 makes it possible to reduce the perspective effect induced by the angle between the axis of the mobile camera 2 and the road section 7. The points of the mesh closest to the mobile camera 2 are thus of good resolution and do not undergo the perspective effect very much.
  • the plurality of points 9 of the software mesh can for example comprise at least 10 points and preferably at least 30 points per image 6 captured.
  • the determined sub-part 8 of the captured image 6 is advantageously rectangular in shape. As shown in FIG. 3, it is advantageous that determined sub-parts 8 of images 6 successively captured by the mobile camera 2 at different positions overlap.
  • the determined sub-part 8 of an image 6 can be of variable size. That is to say that two determined sub-parts 8 of images 6 captured by the same mobile camera 2 can have a different size and include more or less points 9 of the software mesh.
  • the size of the determined sub-part 8 of the image 6 advantageously depends on the speed at which the mobile camera 2 moves.
  • the determined sub-part 8 of the image 6 increases in length.
  • the length is defined here as the direction in which the vehicle 5 is moving. This means that the determined sub-part of the image 8 includes more points 9 of the software mesh towards the horizon of the image 6 captured when the vehicle 5 is at a high speed than when it is at a speed lower. Having a determined sub-part of the image 8 of variable size as a function of the speed of the mobile camera 2 makes it possible to have an easier overlap between the different determined sub-parts 8 of images 6 when these images are taken successively by the mobile camera 2.
  • the frequency of image capture 6 by the mobile camera 2 is variable as a function of the speed of movement of the mobile camera 2 and therefore of the vehicle 5, which makes it possible to have an overlap between the determined sub-parts 8 of images 6 captured successively even if the speed of the vehicle 5 changes a lot between the captures. It is also possible to envisage an embodiment in which both the size of the determined sub-parts 8 of images and at the same time the frequency of capture of the image. mobile camera 2 is variable. Each of the two parameters can be dependent on the speed of movement of the mobile camera 2.
  • This step of the process explores a new paradigm in identifying the elements present on a section of road.
  • elements present on the road section it is understood without limitation the markings on the ground, potholes, speed bumps, etc.
  • only selecting a sub-part of the image corresponding to an area of the road section close to the camera actually consists in identifying the elements present on the road just in front of vehicle 5. It is therefore not a question of no longer identifying the elements present on the road in front of the vehicle 5 in order to process them directly but identifying them for the passage of vehicles which are required to pass on this section of road in the future.
  • These same vehicles will also potentially enrich the database of images relating to said section of road.
  • Image 6 is now processed to contain only a determined sub-part of good resolution comprising points 9 of the software mesh.
  • the fourth step 130 of the method comprises an association of the light intensity of each of the points 9 of the software mesh included in the determined sub-part of the image 8 with their at least one corresponding spatial coordinate.
  • the previous step made it possible to select some interesting points of the software mesh defined in the first step.
  • the present step thus consists in retranscribing the light intensity of the plurality of points 9 of the software mesh of the determined sub-part 8 of the image 6 on the software mesh. It is therefore a matter of obtaining for the software mesh the light intensity of the points 9 coming from the determined sub-part 8 of the image 6 captured in association with their spatial position.
  • the fifth and last step 140 of the method comprises the generation of at least one image from the plurality of points 9 of the software mesh with which a light intensity is associated.
  • the image is generated from the light intensity of the plurality of points 9 of the software mesh and their at least one respective spatial coordinate. It is easily understandable at this stage that it is necessary to have a plurality of images captured by one or more mobile camera (s) to generate an image of a section of road if the latter is not. of the order of a few square centimeters. As specified above, it is a question here of using the cameras of conventional vehicles, without the need for the addition of specific cameras to construct an image of a section of road making it possible to identify with precision the elements present on the road.
  • the image generated of the section of road 7 is not complete, that is to say that it has not yet been associated. at each point 9 of the software mesh a light intensity.
  • the set of determined sub-parts 8 of captured images 6 does not include all of the points 9 of the software mesh.
  • the fifth step 140 will have generated several images corresponding to subsections of the road section 7.
  • the method then comprises an additional step 150 of assembling the subsections to form an image of the road section 7.
  • the assembly of the subsections is not sufficient since there are missing areas of the road section 7 for which the light intensity of the points 9 of the software grid has not been determined.
  • the method loops back to step 110 and waits for other images 6. It is therefore possible to generate an image of the road section 7 in small pieces of subsections like in a puzzle.
  • step 140 is only triggered when all the points of the software mesh have been associated with a light intensity
  • step 140 the second, in which at the end of step 140, at least one point of the software mesh has no associated light intensity, the image of the road section therefore cannot be generated from a single block.
  • An additional step 150 of assembling different images created during steps 140 is then introduced. Then the process loops back to step 110 while waiting for new images generated by step 140 and then assembled by step 150. in a new iteration for associate a light intensity with each hole in the software mesh and construct an image of the section of road 7 like a puzzle.
  • the method does not necessarily include two iterations but can include many more, the idea being to generate an image of the section of road 7 small pieces by small pieces and thus reduce the processing time of generation of the final image. of road section 7.
  • FIG. 1 of the system representing an embodiment allowing the implementation of the method.
  • a plurality of vehicles 5 traveling on the road section 7 and each comprising at least one mobile camera 2 is shown.
  • This plurality of vehicles 5 communicates with a remote server 4 through a communication interface 3 which exchanges information with the vehicles 5.
  • each vehicle 5 must have the same software mesh to allow the generation of an image of the road section 7 using the information received from each of them.
  • the remote server 4 can therefore define the software mesh and send it to the plurality of vehicles 5 via its communication interface 3.
  • a vehicle 5 can simply implement the step 110 of capturing an image by at least one mobile camera 2 that it embeds and then send this image (or this plurality of images in the case of a vehicle with several mobile cameras 2) to the remote server 4.
  • Each image sent by the vehicle 5 is not processed by the vehicle 5 itself but by the remote server 4. The latter thus performs the rest of the sound processing side, namely the steps 120, 130, 140 (and 150 if configured to build section of route 7 in pieces).
  • each vehicle 5 also performs steps 120, 130 and 140 and only sends the remote server 3 the at least one image generated so that the latter constructs the complete image of the road section 7 by taking taking into consideration the images received from the other vehicles 5, the remote server therefore only dealing with the assembly step 150 described above.
  • the steps carried out at the level of the vehicle 5 are implemented by a computer on board the vehicle.
  • this will be a computer already present on the vehicle to avoid adding additional hardware components.
  • a single light intensity can be associated with at least one spatial coordinate on the software mesh.
  • this is the light intensity for which the point of the software mesh is closest to the mobile camera 2 having captured the image among all the determined sub-parts 8 of images 6 which contain this same point of the software mesh. In this way, the light intensity associated with the point of the software mesh will be that of the best resolution.
  • the light intensity associated with the point of the software mesh present in a plurality of determined sub-parts 8 of captured images is equal to the average of the light intensities of the point of the software mesh concerned.
  • This variant thus takes into consideration the differences in brightness between the images 6, the differences between the resolutions of the mobile cameras, the differences between the meteorological conditions in which the images 6 were captured, etc.
  • the method can be implemented by an unconnected vehicle 5 and in this case, all the steps are carried out at the level of the vehicle 5 by a computer on board the vehicle 5.
  • vehicle 5 does not benefit from information from other vehicles 5, it is even capable of constituting images seen from above of stretches of road that he traverses.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

L'invention fait référence à un procédé de traitement de données d'un tronçon de route caractérisé en ce qu'il comprend les étapes suivantes : - définition (100) d'un maillage logiciel d'une taille déterminée sur le tronçon de route, à chaque point du maillage logiciel étant associée au moins une coordonnée spatiale, - capture (110), par au moins un capteur mobile, d'au moins une image du tronçon de route, - sélection (120) d'une sous-partie déterminée de l'au moins une image du tronçon de route comprenant une pluralité de points du maillage logiciel parmi les plus proches de l'au moins un capteur mobile sur l'au moins une image, - association (130) de l'intensité lumineuse de chaque point de la pluralité de points du maillage logiciel de la sous-partie déterminée avec leur au moins une coordonnée spatiale correspondante sur le maillage logiciel, - génération (140) d'au moins une image à partir de la pluralité de points du maillage logiciel de la sous-partie déterminée, de leur intensité lumineuse et de leur au moins une coordonnée spatiale respective.

Description

Description
Titre : Construction d’images vues du dessus d’un tronçon de route
Domaine technique La présente invention concerne une construction d’images d’un tronçon de route. En particulier, l’invention présente un procédé permettant de construire des images d’un tronçon de route vue du dessus en utilisant des capteurs embarqués à bord de véhicules.
Technique antérieure II est connu de nos de jours que les véhicules utilisent de plus en plus d’outils de navigation pour circuler et en particulier des outils de navigation se basant sur le traitement d’images. Ce dernier est particulièrement intéressant pour la détection de véhicules et des différents panneaux de signalisation et autres feux.
En revanche, la détection des éléments présents sur la route utilisant le traitement d’images pose des problèmes de résolutions. L’angle de la caméra par rapport à la route entraîne des effets de perspective importants sur les images capturées qui font que ces dernières sont difficiles à exploiter. Aujourd’hui, les images de la route capturées par les caméras des véhicules sont traitées en effectuant un changement de repère afin d’obtenir une image de type « bird-view » (vue d’oiseau) de façon à pouvoir détecter les éléments présents au niveau du sol. Une transformation d’une image vers une image « bird-view » est décrite par le document intitulé « Transformation Technique » de Venkatesh et Vijayakumar dans l’International Journal of Scientific & Engineering Research, Volume 3, Issue 5, May-2012.
Cependant, les parties de l’image capturée les plus éloignées de la caméra (vers l’horizon) ont une résolution très faible due à la perspective. En effet, les distances sont déformées et l’intensité de l’image n’est pas la même. La transformation de ces images en « bird-view » ne donne pas de résultat satisfaisant dans la détection des éléments présents sur la route et notamment du marquage au sol. Par ailleurs, la transformation d’une image vers une « bird-view » telle que faite actuellement est coûteuse en temps de calcul. Il existe un besoin de générer une image équivalente à l'image « bird-view », de résolution supérieure permettant ainsi une meilleure détection des éléments présents sur la route sans modifier les composants matériels déjà présents sur les véhicules. Il existe également un besoin de réduire le temps de traitement de génération de cette image équivalente à l’image « bird-view ».
Présentation de l’invention
Le but de l'invention est donc de pallier au moins en partie les problématiques exposées ci-dessus et de proposer un procédé permettant de constituer une image de la route vue du dessus de bonne résolution, permettant d’identifier les éléments présents sur la route et notamment le marquage au sol avec davantage de netteté et demandant un temps de traitement inférieur à la génération d’une image « bird- view ».
À cet égard, l’invention a pour objet un procédé de construction d’une image d’un tronçon de route caractérisé en ce qu’il comprend les étapes suivantes :
- définition d’un maillage logiciel d’une taille déterminée sur le tronçon de route, à chaque point du maillage logiciel étant associée au moins une coordonnée spatiale,
- capture, par au moins un capteur mobile, d’au moins une image du tronçon de route,
- sélection d’une sous-partie déterminée de l’au moins une image du tronçon de route comprenant une pluralité de points du maillage logiciel parmi les plus proches de l’au moins un capteur mobile sur l’au moins une image,
- association de l’intensité lumineuse de chaque point de la pluralité de points du maillage logiciel de la sous-partie déterminée de l’au moins une image, avec leur au moins une coordonnée spatiale correspondante sur le maillage logiciel,
- génération d’au moins une image à partir de la pluralité de points du maillage logiciel de la sous-partie déterminée de l’au moins une image, de leur intensité lumineuse et de leur au moins une coordonnée spatiale respective.
Selon un mode de réalisation, l’au moins un capteur mobile capture successivement une pluralité d’images sur des positions différentes du tronçon de route à une fréquence déterminée et au moins une image parmi la pluralité d’images prises successivement voit une section de sa sous-partie déterminée chevauchée par la sous-partie déterminée de l’image capturée suivante.
Selon un mode de réalisation, la fréquence déterminée de capture d’images de l’au moins un capteur mobile est variable en fonction de la vitesse de déplacement de l’au moins un capteur mobile.
Selon un mode de réalisation, la sous-partie déterminée de l’au moins une image du tronçon de route est déterminée en fonction de la vitesse à laquelle l’au moins un capteur mobile se déplace.
Selon un mode de réalisation, l’au moins une coordonnée spatiale de chaque point du maillage logiciel comprend une position GPS en trois dimensions : latitude, longitude et altitude.
Selon un mode de réalisation, le procédé comprend une étape supplémentaire d’assemblage de l’au moins une image générée afin de former une image du tronçon de route à partir de l’intensité lumineuse et de l’au moins une coordonnée spatiale de chaque point du maillage logiciel.
Selon un mode de réalisation, plusieurs sous-parties déterminées d’images comprennent un même point du maillage logiciel, l’intensité lumineuse associée audit point est l’intensité lumineuse du point de l’image capturée la plus proche du capteur mobile.
L’invention a également pour objet un système de construction d’une image d’un tronçon de route comprenant un véhicule, le véhicule embarquant au moins un capteur mobile et un calculateur, le calculateur étant caractérisé en ce qu’il est adapté pour mettre en œuvre l’ensemble des étapes d’un procédé tel que présenté ci-dessus.
Dans un autre mode de réalisation, le système comprend un serveur distant présentant une interface de communication avec une pluralité de véhicules, chaque véhicule embarquant au moins un capteur mobile et un calculateur, et le système comprend des moyens de mise en œuvre de chacune des étapes d’un procédé tel que celui présenté précédemment. Selon un mode de réalisation, le serveur distant met en oeuvre l’étape de définition du maillage logiciel, et l’envoie à la pluralité de véhicules par l’intermédiaire de l’interface de communication.
Selon un mode de réalisation, la pluralité de véhicules met en œuvre les étapes de capture, sélection, association et génération d’un procédé tel que présenté par l’intermédiaire de leur calculateur et envoie les images générées au serveur distant qui met en œuvre l’étape supplémentaire d’assemblage afin de former une image d’un tronçon de route.
Enfin, l’invention a pour objet un produit programme d’ordinateur, comprenant des instructions de code pour la mise en œuvre d’un procédé selon l’un quelconque des modes de réalisation présentés ci-dessus.
Dans cette mesure, l’invention permet de produire une image d’un tronçon d’une route vue du dessus, correspondant à une alternative aux images de type « bird-view ». La reconstruction de tronçons selon l’invention est plus précise que celle de l’art antérieur de type « bird-view » dans le sens où ces images sont de meilleures résolutions puisqu’elle ne considère que les éléments proches des images capturées. Ainsi, ces éléments ne subissent que très peu l’effet de perspective et sont de bonne résolution. Par ailleurs, le temps de traitement est réduit puisque le procédé ne s’intéresse pas aux traitements de l’ensemble de l’image capturée mais à seulement quelques points stratégiques. L’invention utilise à son avantage des véhicules d’utilisateurs pour construire une cartographie du sol permettant d’identifier avec netteté les éléments présents sur la route et notamment le marquage au sol et ce, sans ajouter de capteurs supplémentaires dédiés à cette fonction. Il ne s’agit donc plus d’identifier les éléments de la route devant soi pour les traiter directement mais de les identifier pour le passage des prochains véhicules amenés à traverser ce tronçon de route. Ces mêmes véhicules vont eux aussi potentiellement enrichir la base de données d’images relatives audit tronçon de route.
En outre, le procédé est également applicable à un véhicule non connecté qui est ainsi capable de construire ses propres images vues du dessus de tronçons de route et en particulier de trajets qu’il effectue régulièrement. Brève description des dessins
D’autres caractéristiques, détails et avantages apparaîtront à la lecture de la description détaillée ci-après, et à l’analyse des dessins annexés, sur lesquels :
[Fig. 1] La figure 1 présente un système de traitement de données d’un tronçon de route selon un mode de réalisation.
[Fig. 2] La figure 2 présente un procédé de traitement de données d’un tronçon de route selon un mode de réalisation.
[Fig. 3] La figure 3 est un schéma explicatif du procédé de la figure 2 illustrant un maillage d’un tronçon de route selon un mode de réalisation. Description des modes de réalisation
En référence à la figure 2 est maintenant décrite une succession d’étapes d’un procédé de construction d’une image d’un tronçon de route. Durant la description du procédé, il sera également fait référence à la figure 1 et à la figure 3 présentant respectivement un mode de réalisation d’un système dans lequel le procédé peut être mis en œuvre et un mode de réalisation d’un maillage d’un tronçon de route.
La première étape du procédé, étape 100, comprend une définition d’un maillage logiciel sur un tronçon de route 7 (figure 3). Le maillage logiciel correspond ici à l’application d’une grille virtuelle sur le tronçon de route 7. De préférence, chaque point du maillage est à équidistance des points les plus proches qui l’entourent. Par ailleurs, chaque point du maillage est associé à au moins une coordonnée spatiale permettant de l’identifier dans l’espace. L’au moins une coordonnée spatiale peut par exemple être une coordonnée spatiale à trois dimensions comprenant la longitude, la latitude et l’altitude pour chaque point du maillage logiciel. Concernant la précision du maillage logiciel, ce dernier peut par exemple comprendre un point tous les centimètres, la grille virtuelle pourrait donc être un maillage d’un centimètre par un centimètre (1 cm * 1 cm). Le maillage logiciel est utilisé afin d’identifier une pluralité de points stratégiques du tronçon de route 7. La suite du procédé présentée décrit comment, à partir du maillage logiciel défini dans cette étape, générer une image du tronçon de route 7 vue du dessus. Ainsi, la deuxième étape 110 du procédé comprend la capture, par au moins un capteur mobile permettant de créer une image de type bird-view embarqué à bord d’au moins un véhicule 5, d’une image 6 du tronçon de route 7 sur lequel a été défini le maillage logiciel. En particulier, un capteur avantageux permettant de créer ce type d’image bird-view est une caméra. Par caméra, il est entendu ici tous moyens de capture d’une image dans une longueur d’onde appartenant au domaine du visible. Il sera donc fait référence à une caméra mobile 2 pour le capteur mobile dans la suite du document pour faciliter la compréhension du procédé. Toutefois, il est entendu ici qu’il s’agit simplement d’un exemple à titre illustratif et non limitatif. En ce sens, le capteur mobile pourrait être un capteur radar ou encore un capteur lidar.
La caméra est par ailleurs dite mobile puisque le véhicule 5 qui l’embarque se déplace. L’au moins un véhicule 5 embarquant l’au moins une caméra mobile 2 capturant une image 6 est représenté par la figure 1. Par la suite, il sera fait référence à une caméra mobile 2 embarquée sur un véhicule 5 pour une meilleure lisibilité du procédé mais il est entendu qu’il peut en réalité s’agir d’au moins une caméra mobile 2 embarquée sur au moins un véhicule 5. De la même façon, il est fait référence dans cette étape et dans la suite du procédé à une image 6, mais puisque cette dernière peut être capturée par chaque caméra mobile 2 présente sur chaque véhicule 5, il peut également s’agir d’une pluralité d’images 6 capturées. Toutefois, le traitement de l’image 6 développé ci-après est le même pour chaque image 6.
La caméra mobile 2 embarquée sur le véhicule 5 peut par exemple être une caméra sur un pare-brise ou encore une caméra au niveau d’un rétroviseur. Il s’agit ici de capturer une image 6 avec une caméra mobile 2 déjà présente sur le véhicule 5. Il n’est pas nécessaire de rajouter des caméras au véhicule 5 pour réaliser le procédé de construction d’image présenté. En outre, la capture de chaque image 6 par une caméra mobile 2 est associée à une position de la caméra mobile 2 correspondante sur le tronçon de route 7. Selon un mode de réalisation, durant une même itération du procédé, une caméra mobile 2 peut capturer une pluralité d’images 6 successives du tronçon de route 7 à plusieurs positions différentes sur le tronçon de route 7. Avantageusement, la pluralité d’images 6 prises successivement par chaque caméra mobile 2 est capturée à une fréquence déterminée de telle sorte que deux images 6 successives présentent au moins en partie une même zone du tronçon de route 7.
Ainsi, pour créer une image du tronçon de route 7 vue du dessus, chaque véhicule 5 circulant sur le tronçon de route 7 et comprenant au moins une caméra mobile 2 est mis à contribution en capturant plusieurs images 6 du tronçon de route 7. La suite du procédé fait état du traitement de chaque image 6 capturée et de son association avec le maillage logiciel défini précédemment.
La troisième étape 120 du procédé comprend une sélection d’une sous-partie déterminée 8 d’une image 6 capturée par une caméra mobile 2 à l’étape 110. La sous-partie déterminée 8 de l’image 6 comprend une pluralité de points du maillage logiciel parmi les points du maillage les plus proches de la caméra mobile 2 sur l’image 6. La figure 3 présente cette étape pour une seule caméra mobile 2 dans trois positions 20 successives différentes. La sous-partie déterminée 8 de l’image 6 capturée par la caméra mobile 2 dans chacune des trois positions 20 sur le tronçon 7 est représentée à chaque fois par une zone grisée. Par ailleurs, les images 6 capturées ne sont pas représentées de façon entière sur la figure 3 : il s’agit seulement d’illustrer la sous-partie déterminée 8 respective de chaque image. Chaque sous-partie déterminée 8 d’image comprend une pluralité de points 9 du maillage logiciel (également représenté par des croix). La pluralité de points 9 du maillage logiciel est choisie parmi les points les plus proches de la caméra mobile 2 pour bénéficier d’une bonne résolution. En effet, le fait que la pluralité de points 9 du maillage logiciel soit proche de la caméra mobile 2 permet de réduire l’effet de perspective induit par l’angle entre l’axe de la caméra mobile 2 et le tronçon de route 7. Les points du maillage les plus proches de la caméra mobile 2 sont ainsi de bonne résolution et ne subissent que peu l’effet de perspective. La pluralité de points 9 du maillage logiciel peut par exemple comprendre au moins 10 points et de préférence au moins 30 points par image 6 capturée. En outre, la sous-partie déterminée 8 de l’image 6 capturée est avantageusement de forme rectangulaire. Comme représenté sur la figure 3, il est avantageux que des sous-parties déterminées 8 d’images 6 capturées successivement par la caméra mobile 2 à des positions différentes se chevauchent. De cette façon, il est possible de déterminer, par un algorithme de traitement d’images, la position des différents points 9 du maillage logiciel de la sous-partie déterminée 8 d’une deuxième image 6 lorsqu’elle chevauche la sous-partie déterminée 8 d’une première image 6 dont les points sont déjà localisés sur le maillage logiciel. On veillera de préférence à ce que la sous- partie déterminée 8 de la première image et la sous-partie déterminée 8 de la deuxième image présentent au moins un point 9 du maillage logiciel en commun. En ce sens, la sous-partie déterminée 8 d’une image 6 peut être de taille variable. C’est à dire que deux sous-parties déterminées 8 d’images 6 capturées par une même caméra mobile 2 peuvent avoir une taille différente et comprendre plus ou moins de points 9 du maillage logiciel. Bien entendu, il en va de même pour une pluralité de caméras mobiles 2 différentes. En réalité, la taille de la sous-partie déterminée 8 de l’image 6 dépend avantageusement de la vitesse à laquelle se déplace la caméra mobile 2.
Dans un mode de réalisation, lorsque la vitesse de la caméra mobile 2 augmente, par exemple lorsque le véhicule 5 sur lequel elle est embarquée accélère, la sous- partie déterminée 8 de l’image 6 s’agrandit en longueur. La longueur est définie ici comme étant la direction dans laquelle le véhicule 5 se déplace. Cela signifie que la sous-partie déterminée de l’image 8 comprend davantage de points 9 du maillage logiciel en direction de l’horizon de l’image 6 capturée lorsque le véhicule 5 est à une vitesse élevée que lorsqu’il est à une vitesse moins élevée. Avoir une sous- partie déterminée de l’image 8 de taille variable en fonction de la vitesse de la caméra mobile 2 permet d’avoir un chevauchement plus facile entre les différentes sous-parties déterminées 8 d’images 6 lorsque ces images sont prises successivement par la caméra mobile 2. Dans un autre mode de réalisation, la fréquence de capture des images 6 par la caméra mobile 2 est variable en fonction de la vitesse de déplacement de la caméra mobile 2 et donc du véhicule 5 ce qui permet d’avoir un chevauchement entre les sous-parties déterminées 8 d’images 6 capturées successivement même si la vitesse du véhicule 5 évolue beaucoup entre les captures. II est également envisageable un mode de réalisation dans lequel, à la fois la taille des sous-parties déterminées 8 d’images et à la fois la fréquence de capture de la caméra mobile 2 est variable. Chacun des deux paramètres peut être dépendant de la vitesse de déplacement de la caméra mobile 2.
Cette étape du procédé explore un nouveau paradigme dans l’identification des éléments présents sur un tronçon de route. Par éléments présents sur le tronçon de route, il est entendu de manière non limitative le marquage au sol, les nids-de-poule, les ralentisseurs, etc. En effet, ne sélectionner qu’une sous-partie de l’image correspondant à une zone du tronçon de route proche de la caméra consiste en réalité à identifier les éléments présents sur la route juste devant le véhicule 5. Il ne s’agit donc plus d’identifier les éléments présents sur la route devant le véhicule 5 pour les traiter directement mais de les identifier pour le passage des véhicules étant amenés à passer sur ce tronçon de route dans le futur. Ces mêmes véhicules vont eux aussi potentiellement enrichir la base de données d’images relatives audit tronçon de route.
L’image 6 est désormais traitée pour ne contenir qu’une sous-partie déterminée de bonne résolution comprenant des points 9 du maillage logiciel.
La quatrième étape 130 du procédé comprend une association de l’intensité lumineuse de chacun des points 9 du maillage logiciel compris dans la sous-partie déterminée de l’image 8 avec leur au moins une coordonnée spatiale correspondante. L’étape précédente a permis de sélectionner certains points intéressants du maillage logiciel définis lors de la première étape. La présente étape consiste ainsi à retranscrire l’intensité lumineuse de la pluralité de points 9 du maillage logiciel de la sous-partie déterminée 8 de l’image 6 sur le maillage logiciel. Il s’agit donc d’obtenir pour le maillage logiciel l’intensité lumineuse des points 9 provenant de la sous-partie déterminée 8 de l’image 6 capturée en association avec leur position spatiale.
La cinquième et dernière étape 140 du procédé comprend la génération d’au moins une image à partir de la pluralité de points 9 du maillage logiciel auxquelles est associée une intensité lumineuse. L’image est générée à partir de l’intensité lumineuse de la pluralité de points 9 du maillage logiciel et de leur au moins une coordonnée spatiale respective. Il est aisément compréhensible à ce stade qu’il est nécessaire d'avoir une pluralité d’images capturées par une ou plusieurs caméra(s) mobiles(s) pour générer une image d’un tronçon de route si ce dernier n’est pas de l’ordre de quelques centimètres carrés. Comme précisé plus haut, il s’agit ici d’utiliser les caméras de véhicules classiques, sans nécessité d’ajouts de caméras spécifiques pour construire une image d’un tronçon de route permettant d’identifier avec précision les éléments présents sur la route.
Par ailleurs, il est possible qu’à la fin de la cinquième étape 140 du procédé, l’image générée du tronçon de route 7 ne soit pas complète, c’est-à-dire qu’il n’ait pas encore été associé à chaque point 9 du maillage logiciel une intensité lumineuse. Cela signifie que l’ensemble des sous-parties déterminées 8 d’images 6 capturées ne comprend pas l’ensemble des points 9 du maillage logiciel. Dans ce cas de figure, la cinquième étape 140 aura généré plusieurs images correspondant à des sous- sections du tronçon de route 7. Le procédé comprend alors une étape supplémentaire d’assemblage 150 des sous-sections pour former une image du tronçon de route 7. Cependant, l’assemblage des sous-sections ne suffit pas puisqu’il manque des zones du tronçon de route 7 pour lesquelles l’intensité lumineuse des points 9 du maillage logiciel n’a pas été déterminée. Dans ce cas, le procédé reboucle à l’étape 110 et attend d’autres images 6. Il est donc possible de générer une image du tronçon de route 7 par petits morceaux de sous-sections comme dans un puzzle.
Le procédé comprend donc deux modes de réalisations différents :
- le premier dans lequel, à l’issue de l’étape 140, l’image du tronçon de route 7 est générée d’un bloc. Dans ce mode de réalisation, l’étape 140 n’est déclenchée que lorsqu’on a associé à l’ensemble des points du maillage logiciel une intensité lumineuse ;
- le deuxième, dans lequel à l’issue de l’étape 140, au moins un point du maillage logiciel n’a pas d’intensité lumineuse associée, l’image du tronçon de route ne peut donc pas être générée d’un seul bloc. Est alors introduite une étape supplémentaire d’assemblage 150 de différentes images créées au cours d’étapes 140. Puis le procédé reboucle vers l’étape 110 dans l’attente de nouvelles images générées par l’étape 140 puis assemblées par l’étape 150 dans une nouvelle itération pour associer à chaque trou du maillage logiciel une intensité lumineuse et construire une image du tronçon de route 7 à l’image d’un puzzle. Bien entendu, le procédé ne comprend pas forcément deux itérations mais peut en comprendre bien plus, l’idée étant de générer une image du tronçon de route 7 petits morceaux par petits morceaux et ainsi réduire le temps de traitement de génération de l’image finale du tronçon de route 7.
Ne considérer que les intensités lumineuses des points du maillage logiciel du tronçon de route 7 et leur au moins une coordonnée spatiale associée permet de générer une image vue du dessus du tronçon avec un temps de traitement réduit. D’autant plus lorsque l’image est générée par petits morceaux. En effet, il n’est pas nécessaire de traiter l’ensemble des points de l’image capturée comme dans l’art antérieur mais seulement les points stratégiques du maillage logiciel. Le temps de traitement d’une image s’en trouve de ce fait considérablement réduit.
Revenons maintenant à la figure 1 du système représentant un mode de réalisation permettant la mise en oeuvre du procédé. Une pluralité de véhicules 5 circulant sur le tronçon de route 7 et comprenant chacun au moins une caméra mobile 2 est représentée. Cette pluralité de véhicules 5 communique avec un serveur distant 4 à travers une interface de communication 3 qui échange des informations avec les véhicules 5.
Dans un mode de réalisation considérant une pluralité de véhicules 5, chaque véhicule 5 doit avoir le même maillage logiciel pour permettre la génération d’une image du tronçon de route 7 en utilisant les informations reçues de chacun d’eux. Le serveur distant 4 peut donc définir le maillage logiciel et l’envoyer à la pluralité de véhicules 5 par l’intermédiaire de son interface de communication 3.
En outre, plusieurs niveaux d’informations peuvent être envoyés par chaque véhicule 5 vers le serveur distant 4.
Par exemple, un véhicule 5 peut simplement mettre en œuvre l’étape 110 de capture d’une image par l’au moins une caméra mobile 2 qu’il embarque puis envoyer cette image (ou cette pluralité d’images dans le cas d’un véhicule avec plusieurs caméra mobiles 2) vers le serveur distant 4. Chaque image envoyée par le véhicule 5 n’est pas traitée par le véhicule 5 lui-même mais par le serveur distant 4. Ce dernier effectue ainsi le reste du traitement de son côté, à savoir les étapes 120, 130, 140 (et 150 s’il est configuré pour construire le tronçon de route 7 par morceaux).
Dans un autre mode de réalisation, chaque véhicule 5 effectue également les étapes 120, 130 et 140 et envoie seulement au serveur distant 3 l'au moins une image générée pour que celui-ci construise l’image complète du tronçon de route 7 en prenant en considération les images reçues des autres véhicules 5, le serveur distant s’occupant donc seulement de l’étape d’assemblage 150 décrite précédemment. Dans ce mode de réalisation, les étapes effectuées au niveau du véhicule 5 sont mises en œuvre par un calculateur embarqué sur le véhicule. Avantageusement, il s’agira d’un calculateur déjà présent sur le véhicule pour éviter d’ajouter des composants matériels supplémentaires.
Par ailleurs, lorsque le véhicule 5 et/ou le serveur distant 4 est en présence d’une pluralité d’images capturées par une ou plusieurs caméra(s) mobile(s) 2 et qu’un même point du maillage est présent dans plusieurs sous-parties déterminées 8 d’images 6 capturées, une seule intensité lumineuse peut être associée à l’au moins une coordonnée spatiale sur le maillage logiciel. Avantageusement, il s’agit de l’intensité lumineuse pour laquelle le point du maillage logiciel est le plus proche de la caméra mobile 2 ayant capturé l’image parmi toutes les sous-parties déterminées 8 d’images 6 qui contiennent ce même point du maillage logiciel. De cette façon, l’intensité lumineuse associée au point du maillage logiciel sera celle de meilleure résolution. En variante, l’intensité lumineuse associée au point du maillage logiciel présent dans une pluralité de sous-parties déterminées 8 d’images capturées est égale à la moyenne des intensités lumineuses du point du maillage logiciel concerné. Cette variante prend ainsi en considération les différences de luminosité entre les images 6, les différences entre les résolutions des caméras mobiles, les différences entre les conditions météorologiques dans lesquelles les images 6 ont été capturées, etc.
En outre, le procédé peut être mis en œuvre par un véhicule 5 non connecté et dans ce cas, l’ensemble des étapes est effectué au niveau du véhicule 5 par un calculateur embarqué sur le véhicule 5. Dans ce mode de réalisation, bien que le véhicule 5 ne bénéficie pas des informations des autres véhicules 5, il est tout de même capable de se constituer des images vues du dessus de tronçons de route qu’il parcourt.
Le procédé et le système présentés par la description pour générer une image vue du dessus d'un tronçon de route permettant d’identifier les éléments présents sur la route est donc une alternative à la génération d’une image « bird-view ». L’alternative proposée est par ailleurs de meilleure résolution, ce qui induit une identification des éléments présents sur le tronçon de route améliorée pour un temps de traitement inférieur. Enfin, on utilise ici avantageusement le fait que les véhicules sont désormais presque tous équipés de système de navigation comprenant des capteurs permettant de construire une image de type bird-view (caméra, radar, lidar, etc.) pour construire une cartographie de la route précise sans ajouter de composants matériels supplémentaires.

Claims

Revendications
[Revendication 1] Procédé de construction d’une image d’un tronçon de route (7) caractérisé en ce qu’il comprend les étapes suivantes :
- définition (100) d’un maillage logiciel d’une taille déterminée sur le tronçon de route (7), à chaque point du maillage logiciel étant associée au moins une coordonnée spatiale,
- capture (110), par au moins un capteur mobile (2), d’au moins une image (6) du tronçon de route (7),
- sélection (120) d’une sous-partie déterminée (8) de l’au moins une image (6) du tronçon de route (7) comprenant une pluralité de points du maillage logiciel (9) parmi les plus proches de l’au moins un capteur mobile (2) sur l’au moins une image (6),
- association (130) de l’intensité lumineuse de chaque point de la pluralité de points du maillage logiciel (9) de la sous-partie déterminée (8) de l’au moins une image (6), avec leur au moins une coordonnée spatiale correspondante sur le maillage logiciel, - génération (140) d’au moins une image à partir de la pluralité de points du maillage logiciel (9) de la sous-partie déterminée (8) de l’au moins une image (6), de leur intensité lumineuse et de leur au moins une coordonnée spatiale respective.
[Revendication 2] Procédé de construction d’une image selon la revendication 1 , caractérisé en ce que l’au moins un capteur mobile (2) capture successivement une pluralité d’images (6) sur des positions différentes du tronçon de route (7) à une fréquence déterminée, et en ce qu’au moins une image (6) parmi la pluralité d’images (6) prises successivement par l’au moins un capteur mobile (2) voit une section de sa sous- partie déterminée (8) chevauchée par la sous-partie déterminée (8) de l’image (6) capturée suivante.
[Revendication 3] Procédé de construction d’une image selon la revendication précédente, caractérisé en ce que la fréquence déterminée de capture d’images de l’au moins un capteur mobile (2) est variable en fonction de la vitesse de déplacement de l’au moins un capteur mobile (2).
[Revendication 4] Procédé de construction d’une image selon l’une quelconque des revendications précédentes, caractérisé en ce que la sous-partie déterminée (8) de l'au moins une image (6) du tronçon de route (7) est déterminée en fonction de la vitesse à laquelle l’au moins un capteur mobile (2) se déplace.
[Revendication 5] Procédé de construction d’une image selon l’une quelconque des revendications précédentes, caractérisé en ce que l’au moins une coordonnée spatiale de chaque point du maillage logiciel comprend une position GPS en trois dimensions : latitude, longitude et altitude.
[Revendication 6] Procédé de construction d’une image selon l’une quelconque des revendications précédentes, caractérisé en ce qu’il comprend une étape supplémentaire d’assemblage (150) de l’au moins une image générée à l’issue de l’étape 140 afin de former une image du tronçon de route (7) à partir de l’intensité lumineuse et de l’au moins une coordonnée spatiale de chaque point du maillage logiciel.
[Revendication 7] Procédé de construction d’une image selon l’une quelconque des revendications précédentes, caractérisé en ce que lorsque plusieurs sous- parties déterminées (8) d’images (6) comprennent un même point (9) du maillage logiciel, l’intensité lumineuse associée audit point (9) est l’intensité lumineuse du point (9) de l’image (6) capturée la plus proche du capteur mobile.
[Revendication 8] Système de construction d’une image d’un tronçon de route (7) comprenant un véhicule (5), le véhicule (5) embarquant au moins un capteur mobile (2) et un calculateur, le calculateur étant caractérisé en ce qu’il est adapté pour mettre en œuvre l’ensemble des étapes d’un procédé selon l’une quelconque des revendications précédentes.
[Revendication 9] Système de construction d’une image d’un tronçon de route (7) caractérisé en ce qu’il comprend un serveur distant (4) présentant une interface de communication (3) avec une pluralité de véhicules (5), chaque véhicule embarquant au moins un capteur mobile (2) et un calculateur, et en ce que le système comprend des moyens de mise en œuvre de chacune des étapes d’un procédé selon l’une quelconque des revendications 1 à 7.
[Revendication 10] Système de construction d’une image selon la revendication précédente, caractérisé en ce que le serveur distant (4) met en œuvre l’étape de définition du maillage logiciel (100), et l’envoie à la pluralité de véhicules par l’intermédiaire de l’interface de communication (3).
[Revendication 11] Système de construction d’une image selon l’une quelconque des revendications 9 ou 10, caractérisé en ce que la pluralité de véhicules (5) met en œuvre les étapes de capture (110), sélection (120), association (130) et génération (140) du procédé par l’intermédiaire de leur calculateur et envoie les images générées au serveur distant (4), et en ce que le serveur distant met en œuvre l’étape supplémentaire d’assemblage (150) selon le procédé de la revendication 6. [Revendication 12] Produit programme d’ordinateur, comprenant des instructions de code pour la mise en œuvre du procédé selon l’une quelconque des revendications 1 à 7, quand il est mis en œuvre par un calculateur.
PCT/EP2021/064036 2020-05-26 2021-05-26 Construction d'images vues du dessus d'un tronçon de route WO2021239805A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2005555 2020-05-26
FR2005555A FR3110996B1 (fr) 2020-05-26 2020-05-26 Construction d’images vues du dessus d’un tronçon de route

Publications (1)

Publication Number Publication Date
WO2021239805A1 true WO2021239805A1 (fr) 2021-12-02

Family

ID=72560735

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/064036 WO2021239805A1 (fr) 2020-05-26 2021-05-26 Construction d'images vues du dessus d'un tronçon de route

Country Status (2)

Country Link
FR (1) FR3110996B1 (fr)
WO (1) WO2021239805A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2827259A1 (fr) * 2013-07-16 2015-01-21 Alcatel Lucent Procédé de fourniture de données d'image d'un emplacement
EP3096286A1 (fr) * 2015-05-20 2016-11-23 Kabushiki Kaisha Toshiba Appareil de traitement d'images, procédé de traitement d'images et produit de programme informatique
WO2018104700A1 (fr) * 2016-12-05 2018-06-14 Gaist Solutions Limited Procédé et système de creation d'images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2827259A1 (fr) * 2013-07-16 2015-01-21 Alcatel Lucent Procédé de fourniture de données d'image d'un emplacement
EP3096286A1 (fr) * 2015-05-20 2016-11-23 Kabushiki Kaisha Toshiba Appareil de traitement d'images, procédé de traitement d'images et produit de programme informatique
WO2018104700A1 (fr) * 2016-12-05 2018-06-14 Gaist Solutions Limited Procédé et système de creation d'images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
VENKATESHVIJAYAKUMAR: "Transformation Technique", INTERNATIONAL JOURNAL OF SCIENTIFIC & ENGINEERING RESEARCH, vol. 3, no. 5, May 2012 (2012-05-01)

Also Published As

Publication number Publication date
FR3110996A1 (fr) 2021-12-03
FR3110996B1 (fr) 2022-12-09

Similar Documents

Publication Publication Date Title
EP1868161B1 (fr) Procédé de détermination d'une distance de visibilité pour un conducteur de véhicule
EP2133237B1 (fr) Procédé d'affichage d'aide au parking
WO2006064051A1 (fr) Procede de traitement d'images mettant en oeuvre le georeferencement automatique d'images issues d'un couple d'images pris dans le meme plan focal
WO2013088076A1 (fr) Système de tournage de film vidéo
EP2930659B1 (fr) Procédé de détection de points d'intérêt dans une image numérique
FR2987928A1 (fr) Appareil de surveillance de peripherie de vehicule
WO2005010820A2 (fr) Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d'objets d'un espace, construction de contours et applications
EP1327156B1 (fr) Procede d'individualisation d'un element de circuit integre
WO2021239805A1 (fr) Construction d'images vues du dessus d'un tronçon de route
EP2801075B1 (fr) Procede de traitement d'image d'une camera embarquee sur un vehicule et dispositif de traitement correspondant
FR2979986B1 (fr) Procede et dispositif de reglage de la representation cartographique d'un systeme d'informations de vehicule
EP1387232A1 (fr) Procédé de détermination de la valeur à donner à différents paramètres d'un système
EP3360055B1 (fr) Procede d'optimisation de decomposition d'un signal asynchrone
FR3088754A1 (fr) Methode de creation d’une vue a partir d’une image capturee par une camera grand angle inclinee
WO2012104290A1 (fr) Procédé et dispositif de traitement de séquences d'images d'une scène et système de surveillance d'une scène comportant un tel dispositif
EP3072110B1 (fr) Procédé d'estimation du mouvement d'un objet
CH712678A2 (fr) Procédé d'affichage de données cartographiques.
EP4165591A1 (fr) Correction d'un halo dans une image numérique et dispositif de mise en oeuvre de cette correction
FR3104759A1 (fr) Localisation d’éléments de réseau électrique dans des images aériennes
EP4174779A1 (fr) Procédé de calibration automatique des paramètres extrinsèques d'un réseau de caméras optiques; produit programme d'ordinateur, système de vision par ordinateur et véhicule automobile associés
FR3138944A1 (fr) Dispositif et procédé d'estimation de la traversabilité d'un terrain par un système mobile
WO2023161568A1 (fr) Procédé de calcul de surfaces tridimensionnelles pour véhicule équipé d'un système d'aide à la conduite
FR2994008A1 (fr) Methode de suivi de position 6d monocamera
FR3103291A1 (fr) Méthode de traitement de données reçues de capteurs configurés pour être embaqués dans un véhicule
Deschaud et al. Colorisation et texturation temps r\'eel d'environnements urbains par syst\eme mobile avec scanner laser et cam\'era fish-eye

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21727892

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21727892

Country of ref document: EP

Kind code of ref document: A1