FR2871772A1 - Procede d'aide au guidage d'un vehicule automobile sur la base de donnees d'images - Google Patents

Procede d'aide au guidage d'un vehicule automobile sur la base de donnees d'images Download PDF

Info

Publication number
FR2871772A1
FR2871772A1 FR0551618A FR0551618A FR2871772A1 FR 2871772 A1 FR2871772 A1 FR 2871772A1 FR 0551618 A FR0551618 A FR 0551618A FR 0551618 A FR0551618 A FR 0551618A FR 2871772 A1 FR2871772 A1 FR 2871772A1
Authority
FR
France
Prior art keywords
image data
driving target
vehicle
motor vehicle
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0551618A
Other languages
English (en)
Inventor
Ottmar Gehring
Harro Heilmann
Frederic Holzmann
Andreas Schwarzhaupt
Gernot Spiegelberg
Armin Sulzmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34833290&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=FR2871772(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Publication of FR2871772A1 publication Critical patent/FR2871772A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Dans de nombreuses situations de conduite de tous les jours, le conducteur d'un véhicule automobile doit conduire son véhicule le long d'une trace donnée et l'arrêter à un endroit donné, par exemple sur un emplacement de stationnement ou dans une rampe de chargement. Pour assister un conducteur de véhicule dans de telles situations, l'invention décrit un procédé et un dispositif de mise en oeuvre du procédé avec lesquels un objet cible potentiel est détecté dans les données d'images d'un capteur d'image et identifié comme cible de conduite au cours d'un procédé d'exclusion en plusieurs étapes, au moins une trajectoire décrivant le tracé optimisé en fonction de la cible de conduite la plus proche étant alors calculée. En utilisant le procédé d'exclusion en plusieurs étapes conformes à l'invention, il est possible de reconnaître des cibles de conduites potentielles dans des scènes d'image complexes rien qu'à l'aide de leur forme géométrique, même lorsque les cibles de conduite ne sont pas codées avec des symboles spécifiques.

Description

DESCRIPTION
La présente invention concerne un procédé d'aide à la manoeuvre de véhicules à 5 base de données d'images, notamment pour la manoeuvre de poids lourds dans les stations de chargement, ainsi qu'un dispositif adapté à la mise en oeuvre du procédé.
Dans de nombreuses situations de conduite de tous les jours, le conducteur d'un véhicule automobile doit conduire son véhicule le long d'une trace donnée et l'arrêter à un endroit donné, par exemple sur un emplacement de stationnement ou dans une rampe de chargement. Pour assister un conducteur de véhicule dans de telles situations, le document JP 2001-343 212 A décrit un système basé sur une caméra pour guider l'arrivée sur un emplacement de stationnement dessiné sur la chaussée. Le système est utile en ce que les emplacements de stationnement dessinés sur la chaussée sont généralement délimités à droite et à gauche par des lignes facilement perceptibles optiquement (signatures). Une unité de traitement de l'image identifie ces signatures optiques (lignes de délimitation) dans les données d'images obtenues par la caméra intégrée dans le véhicule et mesure leur orientation. Etant donné que les signatures optiques sont des droites parallèles, elles apparaissent également dans les données d'images de la caméra comme des droites, de sorte que leur position angulaire par rapport aux axes x et y de l'image de la caméra peut être déterminée facilement. La position angulaire des deux segments de droite l'un par rapport à l'autre et la détermination de leur écartement permet de calculer sur la base d'une détermination géométrique simple la distance et l'orientation du véhicule par rapport à l'emplacement de stationnement. Les données d'images sont mises à la disposition du conducteur de véhicule sur un écran, des flèches de direction, indiquant de combien et dans quelle direction le véhicule doit être manoeuvré pour atteindre l'emplacement de stationnement, sont superposées sur la représentation.
Les demandes de brevet japonais JP 2002-172 988 A et JP 2002-172 989 A décrivent de manière correspondante comment un guidage de véhicule au moins en partie autonome peut être réalisé en direction de l'emplacement de stationnement à l'aide du système de traitement de l'image connu du document JP 2001-343 212 A, la trajectoire nécessaire à la manoeuvre étant calculée au préalable. L'analyse des données d'images pour déterminer la position nécessite toutefois des signatures optiques (lignes de délimitation) bien visibles afin de pouvoir déterminer leur position angulaire dans les données d'images. La détermination correcte de la position nécessite notamment de pouvoir déterminer sans équivoque sur la chaussée les points de départ des signatures optiques. Cela n'est toutefois pas toujours possible dans la réalité du fait de saletés recouvrant le marquage de la chaussée ou de son usure.
La demande de brevet allemand intermédiaire DE 103 23 915 A présente une reconnaissance de la position et un réglage de trajectoire pour véhicules automobiles, basés sur une caméra peu sensible aux occultations et aux saletés des signatures optiques. La détermination de la position du véhicule automobile se fait par rapport à une signature optique qui marque la cible visée par le véhicule, sur la base d'une concordance matricielle (Template Matching) d'avec les données d'images obtenues par la caméra à partir de l'environnement du véhicule automobile. Pour cela, le modèle d'une signature optique enregistré dans une mémoire est superposé à la signature optique identifiée dans les données d'images de l'environnement du véhicule. Il est possible de déduire la position du véhicule par rapport à la signature optique notamment à partir des paramètres de compression et de rotation de cette concordance matricielle dès lors que les systèmes de coordonnées présents sont connus. L'utilisation de la concordance matricielle pour le problème précédent est particulièrement avantageuse en raison du fait que ce procédé fonctionne avec un degré de fiabilité élevé, même lorsque la signature optique n'est pas totalement visible dans les données d'images en raison d'occultations ou lorsqu'elle est sale. Comme les autres procédés d'assistance au conducteur d'un véhicule automobile connus dans l'état de la technique permettant d'atteindre une cible de conduite, le système décrit dans le document DE 103 23 915 A nécessite que la cible à atteindre par le conducteur soit munie d'une signature donnée, connue au préalable. La signature optique doit être configurée de manière à pouvoir être différenciée sans équivoque des autres signatures optiques effectivement présentes dans l'environnement ou simplement semblant être présentes, afin qu'elles puissent être identifiées clairement dans les données d'images.
L'objectif de la présente invention est donc de développer un procédé d'aide au guidage de véhicules à base de données d'images, notamment pour manoeuvre de rangement des poids lourds en direction des stations de chargement, ainsi qu'un dispositif apte à la mise en oeuvre du procédé, qui fonctionnent sans nécessiter l'apposition de signatures optiques spécifiques sur la cible de conduite à atteindre.
Dans le système d'aide au guidage d'un véhicule automobile sur la base de données d'images conforme à l'invention, notamment pour des manoeuvres de rangement de poids lourds en direction de stations de chargement, composé d'un procédé et d'un dispositif de mise en oeuvre de ce procédé, on obtient des données d'images sur l'environnement du véhicule automobile au moyen d'un capteur d'images, et on extrait des données d'images ainsi obtenues les paramètres de position relative par rapport au véhicule automobile d'au moins une cible de conduite potentielle. On calcule ensuite une trajectoire décrivant le tracé optimisé pour au moins une des cibles de conduite potentielles afin d'aider à la manoeuvre suivante. Conformément à l'invention, on soumet les données d'images à une détection des contours et une segmentation des contours afin d'extraire les paramètres de position relative de la au moins une cible de conduite potentielle. Pour cela, on découpe les données d'images en différents segments de contour dont les rapports les uns aux autres sont mémorisés dans une structure arborescente mathématique. Lors d'une étape suivante, on recherche dans ces segments de contour la présence d'un objet géométrique qui est semblable à une forme géométrique décrivant de façon typique au moins partiellement une cible de conduite potentielle. Si la cible de conduite typique est par exemple à une station de chargement pour poids lourds dans un entrepôt, la forme géométrique typique correspond essentiellement à un rectangle avec des longueurs latérales sensiblement identiques d'environ 2,5 m. Conformément au procédé de l'invention, on soumet les objets géométriques trouvés correspondant à une forme géométrique typique à un examen de plausibilité au moyen d'un algorithme de concordance (matching algorithm), les objets répertoriés comme plausibles étant ensuite soumis à un examen supplémentaire d'acceptation et partant de la connaissance des propriétés de reproduction du capteur d'images en fonction de l'environnement, on examine la forme de la reproduction des objets dans les données d'images (ainsi, une forme géométrique rectangulaire typique observée depuis un point en hauteur est représentée dans les données d'images sous la forme d'un trapèze se rétrécissant vers le bas). Dans une étape suivante de procédé, on mémorise dans une liste d'objets au moins l'objet déterminé dans le cadre de l'analyse d'acceptation, qui correspond à la cible de conduite la plus proche, avec les données de position relative associées, et on calcule une trajectoire correspondante décrivant un tracé optimisé.
De cette manière, le dispositif selon l'invention et le procédé conforme à l'invention permettent de fournir une aide au conducteur qui calcule toute seule la trajectoire décrivant un tracé optimisé en direction au moins de la cible de conduite la plus proche, en tenant compte de l'aspect géométrique de la cible de conduite, sans qu'il soit nécessaire d'apposer des signes et des marquages spécifiques.
Il est préférable pour la recherche dans les données d'images de la présence d'un objet géométrique qui soit semblable à une forme géométrique décrivant de façon typique au moins partiellement une cible de conduite potentielle de soumettre à un algorithme de parcours d'arbre (Tree Traversai algorithm) la structure arborescente mathématique dans laquelle les segments de contour et leurs rapports entre eux sont mémorisés. En général, l'objet géométrique typique décrivant une cible de conduite potentielle est un rectangle ou un carré. Il est préférable d'utiliser l'algorithme IPC comme algorithme de concordance (matching algorithm) pour l'examen de plausibilité de l'objet géométrique trouvé correspondant à la forme typique. Dans le cas où l'environnement est saisi par le capteur depuis une position surélevée, l'examen d'acceptation prenant en compte les propriétés de représentation du capteur d'images peut rejeter comme cible de conduite potentielle les objets qui ne présentent pas de représentation déformée par rapport aux formes géométriques typiques, une cible de conduite potentielle carrée ou rectangulaire étant représentée dans les données d'images sous la forme d'un trapèze. Il est avantageux lors du calcul de la trajectoire décrivant un tracé optimisé de prendre en considération les propriétés et les possibilités de braquage du véhicule automobile et de rejeter les cibles de conduite qui ne peuvent pas être atteintes si l'on considère les propriétés et les possibilités de braquage du véhicule automobile. Dans un mode privilégié de réalisation de l'invention, le conducteur du véhicule automobile est informé de la position d'au moins une des cibles de conduite potentielles, et notamment du parcours de la trajectoire décrivant le tracé optimisé calculée pour celle-ci. Il est préférable de réaliser sur la base des trajectoires calculées un guidage du véhicule au moins partiellement automatique en direction de la cible de conduite la plus proche. Lors du guidage du véhicule en direction de la cible de conduite la plus proche, le conducteur du véhicule automobile peut être aidé pour respecter la trajectoire décrivant un tracé optimisé par des signaux acoustiques et/ou optiques. La position de l'objet mémorisé comme cible de conduite potentielle dans la liste des objets peut être suivie durant le guidage du véhicule, et dans le cas où la cible de conduite initialement considérée comme la plus proche ne serait plus atteignable sans difficulté en raison des circonstances, il est possible de choisir comme nouvelle cible de conduite la plus proche, la cible de conduite potentielle qui est la plus simple à atteindre en partant de la position actuelle du véhicule et en tenant compte des propriétés et des possibilités de braquage dudit véhicule, et partant de la position actuelle du véhicule automobile de calculer une nouvelle trajectoire décrivant le tracé optimal vers la nouvelle cible de conduite la plus proche.
Un dispositif conforme à l'invention d'aide au guidage d'un véhicule automobile sur la 5 base de données d'images, notamment pour la manoeuvre de rangement de poids lourds en direction de stations de chargement, comprend É un capteur d'images pour saisir des données d'images de l'environnement du véhicule automobile; É une unité de traitement de l'image pour extraire des paramètres de position relative par 10 rapport au véhicule d'au moins une cible de conduite potentielle à partir des données d'images; É une unité de calcul pour calculer au moins une trajectoire décrivant le tracé optimisé menant à la cible de conduite potentielle; et É un système d'assistance pour aider dans la conduite le guidage du véhicule vers une 15 cible de conduite.
Il se caractérisé en outre par le fait que É l'unité de traitement de l'image comprend un détecteur et un segmenteur de contours qui extraient les paramètres de position relative de la au moins une cible de conduite 20 potentielle des données d'images; É que le détecteur et segmenteur de contours sont suivis d'une unité pour trouver dans les données d'images des objets présentant des formes géométriques correspondant de façon typique au moins partiellement à la cible de conduite; É que l'unité de traitement de l'image comprend en outre une unité de comparaison à l'aide de laquelle les objets géométriques trouvés correspondant à la forme géométrique typique sont soumis à un examen de plausibilité au moyen d'un algorithme de concordance (matching algorithm) en les comparant avec des modèles d'objet mémorisés dans une unité de mémoire; É qu'il est prévu une unité pour examiner l'acceptation des objets géométriques sélectionnés au moyen de la comparaison et avec laquelle unité on étudie la forme de la représentation des objets dans les données d'images en partant des connaissances des propriétés de représentation du capteur d'images en fonction de l'environnement; et É que le dispositif est en contact avec une mémoire de données dans laquelle est mémorisé dans une liste d'objets au moins celui des objets géométriques trouvés dans les données d'images qui correspond à la cible de conduite la plus proche, ainsi que les données de position relative correspondantes, et qui transmet à une unité de calcul avec qui elle est en contact ces données pour le calcul de la trajectoire décrivant un tracé optimisé, laquelle met ces données à la disposition d'un système d'assistance pour l'aide au guidage en aval.
En général, le capteur d'images est une caméra, un scanneur laser ou un radar à longueur d'onde millimétrique. Le capteur d'images peut être disposé à un endroit du véhicule d'où il peut, depuis une position surélevée, observer la partie de l'environnement du véhicule importante pour la conduite du véhicule. Le capteur d'images peut être disposé de telle sorte qu'au moins une partie du véhicule automobile est représentée dans les données d'images ainsi saisies. Le dispositif est de préférence en contact avec le dispositif de braquage et/ou le dispositif d'accélération et/ou le dispositif de freinage du véhicule de telle sorte qu'il peut agir sur ces derniers au moins de façon semi-automatique. Il peut en outre disposer de moyens de sortie optiques et/ou acoustiques pour communiquer avec le conducteur du véhicule automobile.
L'invention va être expliquée en détail par la suite à l'aide d'exemples de réalisation avantageux et des figures, lesquelles montrent: Figure 1 un schéma général décrivant le déroulement du procédé ; Figure 2 une représentation schématique d'une disposition de caméra sur un poids lourd conforme à l'invention; et Figure 3 un exemple de données d'images obtenues à l'aide de la disposition de caméra de la figure 2.
Comme le montre clairement la figure 1, le procédé selon l'invention suit pour l'essentiel un déroulement séquentiel, des données d'images étant obtenues à partir de l'environnement d'un véhicule automobile lors d'une première étape au moyen d'un capteur d'image (10). En général, c'est un capteur de caméra qui saisit les données d'images dans le domaine de la lumière visible. Il est toutefois également envisageable que le capteur d'image (22) soit un capteur d'image fonctionnant pour l'essentiel dans une plage de longueurs d'onde non visibles, notamment dans la plage de longueurs d'onde de l'infrarouge ou de l'ultraviolet. L'utilisation d'un tel capteur d'image présente l'avantage que le champ du véhicule automobile à saisir peut être éclairé activement au moyen de projecteurs éclairant dans cette plage de longueurs d'onde, sans que les objets et les personnes se trouvant à cet endroit ne soient aveuglés. Il est en outre possible dans le cadre de l'invention de se servir d'un radar à ondes millimétriques ou d'un lidar comme capteur d'image (10).
Les données d'images générées par le capteur d'image (10) sont ensuite traitées dans une unité de traitement de l'image (11), celle-ci comprenant notamment un détecteur et un segmenteur de contours à l'aide desquels les données d'images sont traitées de manière à pouvoir en extraire les paramètres de position relative pour au moins une cible de conduite potentielle. Il est avantageux de ranger les contours et segments extraits selon une structure arborescente organisée hiérarchiquement une fois leur position et leur orientation connues dans les données d'images. Pour ranger et organiser une telle structure arborescente hiérarchique, l'homme du métier dispose d'un grand nombre de méthodes éprouvées très différentes, on citera ici par exemple le tableau récapitulatif et la discussion autour de différentes structures arborescentes de Robert Sedgewick (R. Sedgewick, Algorithms in C, chapitre 4, Addision-Wesley Pub. Comp. Inc., 1990). Sur la base de la connaissance de la forme géométrique apparente d'une cible de conduite, il est possible de traiter cette structure arborescente hiérarchique dans une unité (12) branchée en aval de l'unité de traitement de l'image (11) pour détecter les formes géométriques correspondant typiquement à la cible de conduite potentielle. Cette analyse de la présence dans les données d'images d'un objet géométrique correspondant typiquement à la cible de conduite potentielle se fait sur la base de la structure arborescente hiérarchique, un algorithme de traverse d'arbre (Tree Traversai) connu dans l'état de la technique pouvant être utilisé ici de manière avantageuse. Dans un algorithme de traverse d'arbre, les différentes branches sont traitées une par une à partir des noeuds de départ de l'arbre (R. Sedgewick, Algorithms in C, Chapitre 5.6, Addision- Wesley Pub. Comp. Inc., 1998). En se fondant sur la connaissance de la forme géométrique typique d'une cible de conduite, les paramètres des contours et des segments rangés dans les branches de l'arbre hiérarchisé sont analysés pour savoir s'ils peuvent être associés aux objets géométriques décrivant les cibles de conduite typiques appropriées. Si la cible de conduite présente par exemple une forme carrée, ne sont regroupés en objet que des éléments ou des segments de contour dont les arêtes adjacentes forment un angle proche de l'angle droit et dont les distances entre au moins une des paires de côtés opposés présentent approximativement la même valeur. En respectant de telles règles élémentaires dans le traitement de la structure arborescente hiérarchique, il est possible, avec cette étape du procédé conforme à l'invention, de limiter la difficulté de traitement ultérieur à relativement peu d'objets plausibles semblables effectivement à une cible de conduite potentielle. De telles règles de sélection utilisées dans le cadre de l'algorithme de traverse d'arbre sont généralement très faciles à déterminer étant donné que les cibles de conduite typiques concernent généralement des objets artificiels, architectoniques présentant généralement une forme rectangulaire, notamment carrée, ou alors ronde.
Les objets géométriques composés au moyen de l'algorithme de traverse d'arbre en ralation avec les règles déduites de la forme géométrique de la cible de conduite sont soumis à une autre analyse supplémentaire d'acceptation. Les données d'images sont comparées à des modèles d'objet décrivant la cible de conduite et mémorisés dans une mémoire (17) dans une unité de comparaison (13) à l'aide d'un algorithme de concordance. Un algorithme de concordance adapté est l'algorithme IPC (Besl, P.J., McKay, N.D., A method for registration of 3-D shapes, IEEE Trans. Pattern Analysis and Machine Intelligence, Vol. 14, No. 2, 1992, pp. 224-231). L'algorithme IPC itératif permet de modifier la taille des objets déterminés au moyen de l'algorithme de traverse d'arbre et de les tourner de manière à minimiser le défaut de quadrature par rapport à la divergence de l'objet par rapport au modèle d'objet idéal de la cible de conduite. Les paramètres résultant de la modification de la taille et de l'orientation (notamment de la rotation) permettent également d'évaluer de façon simple l'éloignement par rapport à la cible de conduite potentielle. Le déroulement itératif de l'algorithme IPC est expliqué rapidement ci-dessous: P désigne la position du modèle d'objet dans l'espace. L'écart entre le modèle d'objet mis en mémoire et les segments détectés au moyen de l'algorithme de traverse d'arbre et groupés en un objet est désigné par e;. Les étapes itératives sont désignées par n. Pour le facteur de correction c; suivant on a donc Pn+1= Pn- c;. La matrice de Jacobi correspondante est définie comme L'approche linéaire donne Ji;* ci= e;. Dans le cadre de l'itération, le vecteur optimal 30 qui décrit la modification de la taille et la rotation nécessaires de l'objet déterminé au moyen de l'algorithme de traverse d'arbre doit correspondre à l'équation 0 JÉc; e; 0 2.
Cet algorithme IPC est stabilisé par les étapes itératives et présente une convergence saturée.
Les objets orientés (tournés) et modifiés dans leur taille dans l'unité de comparaison (13) au moyen de l'algorithme de concordance sont ensuite soumis à une analyse supplémentaire d'acceptation dans l'unité (14). Dans un type d'analyse d'acceptation particulièrement avantageux, les objets qui ne présentent aucune reproduction déformée quant à leurs formes géométriques typiques sont écartés comme cibles de conduite potentielles dans les cas dans lesquels l'environnement est saisi par le capteur situé dans une position surélevée. La déformation se traduit par une forme trapézoïdale dans la reproduction lorsque les formes géométriques de la cible de conduite potentielle sont rectangulaires ou carrées. Dans un autre type d'analyse d'acceptation avantageux basé sur la connaissance de la position habituelle des cibles de conduite dans les données d'images, les objets qui ne correspondent pas à ces indications sont rejetés. Si un objet dont la position relative par rapport au capteur d'images est connue se trouve par exemple dans les données d'images, il est possible, sur la base de sa reproduction dans les données d'images, de déterminer un horizon artificiel à partir duquel est déterminée la position relative des objets connus. Il est ainsi possible d'exclure de la suite du traitement des objets se trouvant dans une position s'écartant de la position habituelle de la cible de conduite.
Des objets géométriques restant après l'analyse d'acceptation et correspondant à une cible de conduite potentielle, sont au moins mis en mémoire dans une unité de mémoire (18) les paramètres (notamment la position et l'éloignement) des objets correspondant à la cible de conduite la plus proche. Il est ensuite possible de calculer, pour cet objet au moins, dans une unité de calcul (15) reliée à l'unité de mémoire (18), la trajectoire décrivant un tracé optimisé en direction de la cible de conduite potentielle. De manière particulièrement avantageuse, il est tenu compte lors du calcul d'une trajectoire décrivant un tracé optimisé des propriétés et possibilités de braquage du véhicule automobile. Le dispositif selon l'invention devrait pour cela disposer d'une mémoire dans laquelle les données nécessaires sont mises en mémoire. D'un autre côté, il serait envisageable de pourvoir le dispositif d'une unité de saisie pour saisir les paramètres décrivant les propriétés et les possibilités de braquage du véhicule. Il serait ainsi facile d'adapter le programme de calcul à différentes configurations (d'autres structures ou remorques). Dans ce cas, il faudrait également, dans le cadre du calcul de la trajectoire décrivant un tracé optimisé, écarter les cibles de conduite potentielles ne pouvant pas être atteintes du fait des propriétés et possibilités de braquage données du véhicule automobile.
Les trajectoires ainsi calculées peuvent alors être mises à la disposition de systèmes d'aide au conducteur (16) qui y sont rattachés. Le procédé conforme à l'invention est configuré ici de manière particulièrement avantageuse du fait que le conducteur du véhicule automobile est informé de la position d'au moins une des cibles de conduite potentielles et notamment du parcours de la trajectoire calculée décrivant un tracé optimisé. Cette information peut être fournie par l'intermédiaire d'une indication sur un écran de la trajectoire idéale, la trajectoire du tracé de conduite planifié étant superposée de manière idéale sur les données d'images de la caméra représentant le champ de vision du conducteur.
Il va de soi que le guidage du véhicule vers la cible de conduite la plus proche peut ensuite être réalisé automatiquement ou tout du moins semiautomatiquement sur la base de la trajectoire calculée. Dans le cas d'un guidage du véhicule manuel ou semi-automatique, il serait par exemple envisageable de signaler tout écartement du véhicule de la trajectoire décrivant le tracé optimal par des moyens acoustiques ou optiques. Cela aiderai de façon simple le conducteur de véhicule à rester dans le tracé.
Pendant le guidage le long du tracé, il est particulièrement avantageux que la trajectoire soit en permanence adaptée (Temporal Updating) à l'aide d'un filtre de Kalman et sur la base d'une analyse continue de l'image afin d'éliminer en grande partie les effets parasites dans les données d'images influant sur le calcul.
De même, il est préférable de suivre en continu, pendant le guidage du véhicule, la position des objets mis en mémoire dans la liste d'objets comme cibles de conduite potentielles de manière à ce que, dans le cas où la cible de conduite la plus proche ne pourrait plus être atteinte sans problème du fait des circonstances, ce soit la cible de conduite potentielle pouvant être atteinte au mieux à partir de la position actuelle du véhicule automobile, en tenant compte de ses propriétés et de ses possibilités de braquage, qui soit la nouvelle cible de conduite la plus proche. Si une nouvelle cible de conduite est ainsi déterminée comme étant la cible la plus proche du véhicule, il faut déterminer une trajectoire décrivant un tracé optimisé en direction de cette cible de conduite à partir de la position actuelle.
La figure 2 montre à titre d'exemple une situation typique de la manière dont pourrait se produire le rangement d'un poids lourd (20) dans une trappe de chargement (26, 32) d'un entrepôt (25, 31). Le capteur d'images (22) est fixé au-dessus de la cabine du conducteur (21) du poids lourd (20). Le capteur d'images (22) est orienté de manière à pouvoir capter dans la direction de conduite (27) du poids lourd (20) la plate-forme de chargement (23, 35) de celui-ci et l'extrémité de la plate-forme de chargement (24, 36) ainsi que l'entrepôt (25, 30) et la trappe de chargement (26, 32) s'y trouvant. Les données d'images (30) résultant d'une saisie de données d'images correspondantes sont représentées schématiquement sur la figure 3. Du fait de la position surélevée du capteur d'image (22), la trappe de chargement (26, 32) présentant une forme rectangulaire prend une forme trapézoïdale dans les données d'images. On suppose par exemple qu'après traitement des données d'images dans l'unité de traitement de l'image (11) et de l'algorithme de traverse d'arbre dans l'unité (12), les objets (32, 33, 34a et 34b) sont identifiés comme des objets géométriques correspondant typiquement à une cible de conduite potentielle. L'objet (32) correspond à la représentation de la trappe de chargement (26) recherchée comme cible de conduite. L'objet (33)correspond à une autre structure rectangulaire, par exemple une fenêtre de l'entrepôt (25, 31). Les objets virtuels (34a, 34b) ne représentent aucun objet réel, mais sont la conséquence de parasites dans les données d'images, qui aboutissent par hasard à des parties et à des segments de contours tels qu'ils deviennent, à travers l'algorithme de traverse d'arbre, un objet cible potentiel. Dans l'unité de comparaison (13), ces objets sont ensuite modifiés dans leur taille et orientés à l'aide d'un algorithme de concordance. Les objets (34a, 34b) sont toutefois écartés au vu de la position de la caméra et de la géométrie de reproduction de la caméra dans le cadre de l'unité d'analyse d'acceptation suivante, étant donné que leur forme n'est pas trapézoïdale. La reproduction de l'extrémité de la plate-forme de chargement (36) peut en outre servir à créer un horizon artificiel lors de l'analyse d'acceptation au vu de sa position relative par rapport à la position de la caméra. Sur la base de cet horizon artificiel, l'objet (33) peut ensuite être écarté étant donné qu'il se trouve dans une position inhabituelle (largement au-dessus de l'horizon) pour la cible de conduite (trappe de chargement). Après le traitement des différentes étapes de procédé conformes à l'invention, il ne reste dans cet exemple qu'un seul objet (32) pouvant servir de cible de conduite potentielle, de sorte que ses paramètres sont mis en mémoire dans la mémoire cible (18) et peuvent être utilisés pour le calcul d'une trajectoire décrivant un trajet optimisé.

Claims (17)

Revendications
1. Procédé d'aide au guidage d'un véhicule automobile sur la base de données d'images, notamment pour la manoeuvre de rangement de poids lourds en direction de stations de chargement, dans lequel É on obtient des données d'images sur l'environnement du véhicule automobile au moyen d'un capteur d'image, É on extrait des données d'images ainsi obtenues les paramètres de position relative par rapport au véhicule automobile d'au moins une cible de conduite potentielle, et É on calcule ensuite une trajectoire décrivant le tracé optimisé pour aider à la manoeuvre suivante pour au moins une des cibles de conduite potentielles, caractérisé en ce que É pour extraire les paramètres de position relative de la au moins une cible de conduite potentielle, on soumet les données d'images à une détection des contours et à une segmentation des contours afin de découper les données d'images en différents segments de contour dont les rapports les uns aux autres sont mémorisés dans une structure arborescente mathématique; É en ce qu'on recherche ensuite dans ces segments de contour la présence d'un objet 20 géométrique qui est semblable à une forme géométrique décrivant de façon typique au moins partiellement une cible de conduite potentielle; É en ce qu'on soumet les objets géométriques trouvés correspondant à une forme géométrique typique à un examen de plausibilité au moyen d'un algorithme de concordance (matching algorithm) ; É en ce qu'on soumet ces objets plausibles à un examen supplémentaire d'acceptation afin qu'en partant de la connaissance des propriétés de reproduction du capteur d'images en fonction de l'environnement, on examine la forme de la reproduction des objets dans les données d'images; et É en ce qu'enfin on mémorise dans une liste d'objets au moins l'objet ainsi accepté, qui 30 correspond à la cible de conduite la plus proche, avec les données de position relative associées, et on calcule une trajectoire correspondante décrivant un tracé optimisé.
2. Procédé selon la revendication 1, caractérisé en ce que la recherche dans les données d'images de la présence d'un objet géométrique qui soit semblable à une forme géométrique décrivant de façon typique au moins partiellement une cible de conduite potentielle est réalisée de telle sorte que la structure arborescente mathématique dans laquelle les segments de contour et leurs rapports entre eux sont mémorisés, est soumise à un algorithme de parcours d'arbre (Tree Traversai algorithm).
3. Procédé selon l'une des revendications précédentes, caractérisé en ce que l'objet géométrique typique décrivant une cible de conduite potentielle est un rectangle ou un carré.
4. Procédé selon l'une des revendications précédentes, caractérisé en ce que l'algorithme IPC est utilisé comme algorithme de concordance (matching algorithm) pour l'examen de plausibilité de l'objet géométrique trouvé correspondant à la forme typique.
5. Procédé selon l'une des revendications précédentes, caractérisé en ce que l'examen d'acceptation prenant en compte les propriétés de représentation du capteur d'images dans le cas où l'environnement est saisi par le capteur depuis une position surélevée, rejette comme cible de conduite potentielle les objets qui ne présentent pas de représentation déformée par rapport aux formes géométriques typiques, une cible de conduite potentielle carrée ou rectangulaire étant représentée dans les données d'images sous la forme d'un trapèze.
6. Procédé selon l'une des revendications précédentes, caractérisé en ce que les propriétés et les possibilités de braquage du véhicule automobile sont prises en considération lors du calcul de la trajectoire décrivant un tracé optimisé.
7. Procédé selon la revendication 6, caractérisé en ce qu'on rejette les cibles de conduite qui ne peuvent pas être atteintes si l'on considère les propriétés et les possibilités de braquage du véhicule automobile.
8. Procédé selon l'une des revendications précédentes, caractérisé en ce que le conducteur du véhicule automobile est informé de la position d'au moins une des cibles de conduite potentielles, et notamment du parcours de la trajectoire décrivant le tracé optimisé calculée pour celle-ci.
9. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'un guidage du véhicule au moins partiellement automatique en direction de la cible de conduite la plus proche est réalisé sur la base des trajectoires calculées.
10. Procédé selon l'une des revendications précédentes, caractérisé en ce que, lors du guidage du véhicule en direction de la cible de conduite la plus proche, le conducteur du véhicule automobile est aidé pour respecter la trajectoire décrivant un tracé optimisé par des signaux acoustiques et/ou optiques.
11. Procédé selon la revendication 9 ou 10, caractérisé en ce que la position de l'objet mémorisé comme cible de conduite potentielle dans la liste des objets est suivie durant le guidage du véhicule, et en ce que dans le cas où la cible de conduite initialement considérée comme la plus proche ne serait plus atteignable sans difficulté en raison des circonstances, on choisit comme nouvelle cible de conduite la plus proche, la cible de conduite potentielle qui est la plus simple à atteindre en partant de la position actuelle du véhicule et en tenant compte des propriétés et des possibilités de braquage dudit véhicule, et en ce que partant de la position actuelle du véhicule automobile on calcule une nouvelle trajectoire décrivant le tracé optimal vers la nouvelle cible de conduite la plus proche.
12. Dispositif d'aide au guidage d'un véhicule automobile sur la base de données d'images, notamment pour la manoeuvre de rangement de poids lourds en direction de stations de chargement, comprenant É un capteur d'images (10, 22) pour saisir des données d'images de l'environnement du véhicule automobile; É une unité de traitement de l'image (11) pour extraire des paramètres de position relative par rapport au véhicule d'au moins une cible de conduite potentielle à partir des données d'images; É une unité de calcul (15) pour calculer au moins une trajectoire décrivant le tracé optimisé menant à la cible de conduite potentielle; et É un système d'assistance (16) pour aider dans la conduite le guidage du véhicule vers une cible de conduite, caractérisé É en ce que l'unité de traitement de l'image (11) comprend un détecteur et un segmenteur de contours qui extraient les paramètres de position relative de la au moins une cible de conduite potentielle des données d'images; É en ce que le détecteur et segmenteur de contours sont suivis d'une unité (12) pour trouver dans les données d'images des objets présentant des formes géométriques correspondant de façon typique au moins partiellement à la cible de conduite; É en ce que l'unité de traitement de l'image comprend en outre une unité de comparaison (13) à l'aide de laquelle les objets géométriques trouvés correspondant à la forme géométrique typique sont soumis à un examen de plausibilité au moyen d'un algorithme de concordance (matching algorithm) en les comparant avec des modèles d'objet mémorisés dans une unité de mémoire (17) ; É en ce qu'il est prévu une unité (14) pour examiner l'acceptation des objets géométriques sélectionnés au moyen de la comparaison et avec laquelle unité on étudie la forme de la représentation des objets dans les données d'images en partant des connaissances des propriétés de représentation du capteur d'images en fonction de l'environnement; et É en ce que le dispositif est en contact avec une mémoire de données (18) dans laquelle est mémorisé dans une liste d'objets au moins celui des objets géométriques trouvés dans les données d'images qui correspond à la cible de conduite la plus proche, ainsi que les données de position relative correspondantes, et qui transmet à une unité de calcul (15) avec qui elle est en contact ces données pour le calcul de la trajectoire décrivant un tracé optimisé, laquelle met ces données à la disposition d'un système d'assistance pour l'aide au guidage (16) en aval.
13. Dispositif selon la revendication 12, caractérisé en ce que le capteur d'images 25 est une caméra, un scanneur laser ou un radar à longueur d'onde millimétrique.
14. Dispositif selon l'une des revendications 12 ou 13, caractérisé en ce que le capteur d'images (10, 22) est disposé à un endroit du véhicule d'où il peut, depuis une position surélevée, observer la partie de l'environnement du véhicule importante pour la conduite du véhicule.
15. Dispositif selon la revendication 14, caractérisé en ce que le capteur d'images est disposé de telle sorte qu'au moins une partie (23, 24) du véhicule automobile est représentée dans les données d'images ainsi saisies.
16. Dispositif selon l'une des revendications 12 à 15, caractérisé en ce qu'il est en contact avec le dispositif de braquage et/ou le dispositif d'accélération et/ou le dispositif de freinage du véhicule de telle sorte qu'il peut agir sur ces derniers au moins de façon semi- automatique.
17. Dispositif selon l'une des revendications 12 à 16, caractérisé en ce qu'il dispose de moyens de sortie optiques et/ou acoustiques pour communiquer avec le conducteur du véhicule automobile.
FR0551618A 2004-06-16 2005-06-15 Procede d'aide au guidage d'un vehicule automobile sur la base de donnees d'images Withdrawn FR2871772A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004028763A DE102004028763A1 (de) 2004-06-16 2004-06-16 Andockassistent

Publications (1)

Publication Number Publication Date
FR2871772A1 true FR2871772A1 (fr) 2005-12-23

Family

ID=34833290

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0551618A Withdrawn FR2871772A1 (fr) 2004-06-16 2005-06-15 Procede d'aide au guidage d'un vehicule automobile sur la base de donnees d'images

Country Status (4)

Country Link
US (1) US7336805B2 (fr)
DE (1) DE102004028763A1 (fr)
FR (1) FR2871772A1 (fr)
GB (1) GB2415252B (fr)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004047214B4 (de) * 2004-09-27 2016-02-25 Still Gmbh Verfahren zur Navigation für Transportfahrzeuge
FI117835B (fi) * 2005-06-22 2007-03-15 Sime Oy Paikoitusmenetelmä
JP4622806B2 (ja) * 2005-10-27 2011-02-02 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
DE102006006377A1 (de) * 2006-02-11 2007-08-16 Continental Teves Ag & Co. Ohg Vorrichtung zur Lenkung eines Kraftfahrzeugs beim Einparken
DE102006025698A1 (de) * 2006-06-01 2007-12-06 Alois Pöttinger Maschinenfabrik Gmbh Verfahren und Vorrichtung zur Steuerung des Anspannens einer Landmaschine an einen Schlepper
DE102006035929B4 (de) * 2006-07-31 2013-12-19 Götting KG Verfahren zum sensorgestützten Unterfahren eines Objekts oder zum Einfahren in ein Objekt mit einem Nutzfahrzeug
DE102008001565A1 (de) * 2008-05-06 2009-11-12 Zf Friedrichshafen Ag Anhänger mit zumindest einer Achse und einer Sattelkupplung zur Aufnahme eines Sattelaufliegers
SE534240C2 (sv) * 2008-12-05 2011-06-14 Datachassi Dc Ab Förfarande och system för tillhandahållande av dockningshjälp
US8938497B1 (en) 2009-10-03 2015-01-20 Frank C. Wang Content delivery system and method spanning multiple data processing systems
US9350799B2 (en) 2009-10-03 2016-05-24 Frank C. Wang Enhanced content continuation system and method
US8412798B1 (en) 2009-10-03 2013-04-02 Frank C. Wang Content delivery system and method
JP5010715B2 (ja) * 2010-06-17 2012-08-29 トヨタ自動車株式会社 車両の駐車支援装置およびそれを備える電動車両
DE102011086391A1 (de) * 2011-11-15 2013-05-16 Robert Bosch Gmbh Vorrichtung und Verfahren zum Verbessern des Ankuppelvorgangs eines Fahrzeugs mit einer Anhängerkupplung
DE102012003992A1 (de) * 2012-02-28 2013-08-29 Wabco Gmbh Zielführungssystem für Kraftfahrzeuge
US9288446B2 (en) 2012-09-10 2016-03-15 Nissan North America, Inc. Vehicle video system
DE102012022336A1 (de) * 2012-11-14 2014-05-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Durchführen eines zumindest semi-autonomen Parkvorgangs eines Kraftfahrzeugs in eine Garage, Parkassistenzsystem und Kraftfahrzeug
US9305364B2 (en) 2013-02-19 2016-04-05 Caterpillar Inc. Motion estimation systems and methods
US9342747B2 (en) * 2014-04-14 2016-05-17 Bendix Commercial Vehicle Systems Llc Vehicle driver assistance apparatus for assisting a vehicle driver in maneuvering the vehicle relative to an object
SE540315C2 (en) * 2016-03-22 2018-06-12 Scania Cv Ab Method and system for facilitating automatic driving of a vehicle to a certain position
US10339392B2 (en) * 2017-06-15 2019-07-02 Blackberry Limited Method and system for rear status detection
DE102018002485A1 (de) 2018-03-26 2018-09-20 Daimler Ag Verfahren zum rückwärtigen Anfahren einer Laderampe
CN110897567A (zh) * 2018-12-13 2020-03-24 成都家有为力机器人技术有限公司 一种基于目标物识别的清洁方法及清洁机器人
US11320820B2 (en) * 2019-03-26 2022-05-03 GM Global Technology Operations LLC Hyperassociation in episode memory
DE102020106304A1 (de) * 2020-03-09 2021-09-09 Zf Cv Systems Global Gmbh Verfahren zum Steuern eines Fahrzeuges auf einem Betriebshof, Fahrt- Steuereinheit und Fahrzeug
DE102020214579A1 (de) 2020-11-19 2022-05-19 Robert Bosch Gesellschaft mit beschränkter Haftung Computer-implementiertes Verfahren und Steuergerät zum sensorgestützten Unterfahren eines Objektes mit einem Nutzfahrzeug mithilfe Methoden künstlicher Intelligenz
DE102022118083A1 (de) 2022-07-19 2022-09-08 Daimler Truck AG Verfahren zur Bestimmung eines Abstands zwischen einem Kraftfahrzeug und einer Laderampe sowie eine elektronische Recheneinrichtung
DE102022118412A1 (de) 2022-07-22 2022-09-29 Daimler Truck AG Verfahren zum Bestimmen eines Abstands eines Kraftfahrzeugs und einer Wand mittels eines Assistenzsystems, sowie Assistenzsystem
DE102023102756A1 (de) 2023-02-06 2023-04-20 Daimler Truck AG Verfahren zur Bestimmung eines Abstands zwischen einem Kraftfahrzeug und einer Laderampe sowie elektronische Recheneinrichtung
DE102023103479A1 (de) 2023-02-14 2023-05-04 Daimler Truck AG Verfahren zur Ermittlung einer Höhe eines Trailers eines Kraftwagens sowie elektronische Recheneinrichtung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001343212A (ja) 2000-05-31 2001-12-14 Aisin Seiki Co Ltd 相対位置検出装置及びその相対位置検出装置を備えた駐車補助装置
JP2002172988A (ja) 2000-12-05 2002-06-18 Mitsubishi Motors Corp 駐車補助装置
JP2002172989A (ja) 2000-12-05 2002-06-18 Mitsubishi Motors Corp 駐車補助装置
US20030044047A1 (en) * 2001-08-27 2003-03-06 Kelly Alonzo J. System and method for object localization
DE10323915A1 (de) 2003-05-23 2005-02-03 Daimlerchrysler Ag Kamerabasierte Positionserkennung für ein Straßenfahrzeug

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6084610A (ja) * 1983-10-17 1985-05-14 Hitachi Ltd 誘導装置
US4906940A (en) * 1987-08-24 1990-03-06 Science Applications International Corporation Process and apparatus for the automatic detection and extraction of features in images and displays
JP2570315B2 (ja) * 1987-09-01 1997-01-08 アイシン精機株式会社 車上距離検出装置
US4970653A (en) * 1989-04-06 1990-11-13 General Motors Corporation Vision method of detecting lane boundaries and obstacles
JPH03201110A (ja) * 1989-12-28 1991-09-03 Toyota Central Res & Dev Lab Inc 自律走行車の位置方位検出装置
US5648901A (en) * 1990-02-05 1997-07-15 Caterpillar Inc. System and method for generating paths in an autonomous vehicle
US5245422A (en) * 1991-06-28 1993-09-14 Zexel Corporation System and method for automatically steering a vehicle within a lane in a road
JP2800531B2 (ja) * 1992-02-28 1998-09-21 三菱電機株式会社 車両用障害物検出装置
US5351044A (en) * 1992-08-12 1994-09-27 Rockwell International Corporation Vehicle lane position detection system
JPH06213660A (ja) * 1993-01-19 1994-08-05 Aisin Seiki Co Ltd 像の近似直線の検出方法
US5487116A (en) * 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置
JP3431962B2 (ja) * 1993-09-17 2003-07-28 本田技研工業株式会社 走行区分線認識装置を備えた自動走行車両
JP3064759B2 (ja) * 1993-09-28 2000-07-12 株式会社日立製作所 車両の周囲を監視する装置、車両の運転支援システムおよび運転支援装置
DE4336288C1 (de) * 1993-10-25 1995-03-30 Daimler Benz Ag Einrichtung zur Überwachung des Rück- bzw. Frontraumes eines einparkenden Kraftfahrzeugs
US7209221B2 (en) * 1994-05-23 2007-04-24 Automotive Technologies International, Inc. Method for obtaining and displaying information about objects in a vehicular blind spot
JP3357749B2 (ja) * 1994-07-12 2002-12-16 本田技研工業株式会社 車両の走行路画像処理装置
FR2743650B1 (fr) * 1996-01-16 1998-02-06 Alsthom Cge Alcatel Procede d'extraction des deux bords d'une route par propagation de contour actif
US5991427A (en) * 1996-07-31 1999-11-23 Aisin Seiki Kabushiki Kaisha Method and apparatus for detecting a lane on a road
US5844505A (en) * 1997-04-01 1998-12-01 Sony Corporation Automobile navigation system
DE29723648U1 (de) 1997-09-30 1999-04-22 Siemens Ag Vorrichtung zur automatisch unterstützten Führung von Luftfahrzeugen zu einer Parkposition und Managementsystem hierfür
EP1019884B1 (fr) * 1997-09-30 2001-08-08 Siemens Aktiengesellschaft Procede et dispositif de guidage a assistance automatique d'aeronefs vers une place de stationnement, et systeme de gestion associe
JP2000161915A (ja) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd 車両用単カメラ立体視システム
US6507660B1 (en) * 1999-05-27 2003-01-14 The United States Of America As Represented By The Secretary Of The Navy Method for enhancing air-to-ground target detection, acquisition and terminal guidance and an image correlation system
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
US6894606B2 (en) * 2000-11-22 2005-05-17 Fred Forbes Vehicular black box monitoring system
US20020130953A1 (en) 2001-03-13 2002-09-19 John Riconda Enhanced display of environmental navigation features to vehicle operator
DE10141464A1 (de) 2001-08-23 2004-03-04 Genprofile Ag I.Ins. Sequenzvarianten des für neuropsychiatrische Krankheiten verantwortlichen Gens 22444 und deren Verwendung
WO2003029046A1 (fr) * 2001-10-03 2003-04-10 Maryann Winter Appareil et procede permettant de detecter l'etat d'occupation des espaces de stationnement dans un parc de stationnement
JP2003123196A (ja) * 2001-10-10 2003-04-25 Denso Corp 車両の周辺監視装置及びプログラム
US6794987B2 (en) * 2002-07-01 2004-09-21 Delphi Technologies, Inc. Object detection system and method of estimating object size
JP3868876B2 (ja) 2002-09-25 2007-01-17 株式会社東芝 障害物検出装置及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001343212A (ja) 2000-05-31 2001-12-14 Aisin Seiki Co Ltd 相対位置検出装置及びその相対位置検出装置を備えた駐車補助装置
JP2002172988A (ja) 2000-12-05 2002-06-18 Mitsubishi Motors Corp 駐車補助装置
JP2002172989A (ja) 2000-12-05 2002-06-18 Mitsubishi Motors Corp 駐車補助装置
US20030044047A1 (en) * 2001-08-27 2003-03-06 Kelly Alonzo J. System and method for object localization
DE10323915A1 (de) 2003-05-23 2005-02-03 Daimlerchrysler Ag Kamerabasierte Positionserkennung für ein Straßenfahrzeug

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"IEEE Trans.Pattern Analysis and Machine Intelligence.", vol. 14, part 2 1992, article BESL,P.J.; MCKAY,N.D.: "A method for registration of 3-D shapes.", pages: 224 - 231
BESL P J ET AL: "A METHOD FOR REGISTRATION OF 3-D SHAPES", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US LNKD- DOI:10.1109/34.121791, vol. 14, no. 2, 1 February 1992 (1992-02-01), pages 239 - 256, XP000248481, ISSN: 0162-8828 *
R.SEDGEWICK.: "Algorithms in C.", vol. 5, part 6 1998, ADDISION-WESLEY PUB.COMP.INC.
R.SEDGEWICK: "Algorithms in C.", vol. 4, 1990, ADDISION-WESLEY PUB.COMP.INC.

Also Published As

Publication number Publication date
GB2415252A (en) 2005-12-21
DE102004028763A1 (de) 2006-01-19
US7336805B2 (en) 2008-02-26
GB0510894D0 (en) 2005-07-06
US20050281436A1 (en) 2005-12-22
GB2415252B (en) 2006-05-17

Similar Documents

Publication Publication Date Title
FR2871772A1 (fr) Procede d'aide au guidage d'un vehicule automobile sur la base de donnees d'images
EP2275971A1 (fr) Procédé de détection d'un obstacle pour véhicule automobile
EP3072108A1 (fr) Procede d'estimation de la vitesse de deplacement d'une camera
EP3332352B1 (fr) Dispositif et procede de detection de place de stationnement libre pour un vehicule automobile
EP2593907A1 (fr) Procédé de détection d'une cible dans des images stéréoscopiques par apprentissage et classification statistique à partir d'une loi de probabilité
WO2015071458A1 (fr) Procede d'estimation de la vitesse de deplacement d'une camera
WO2020052830A1 (fr) Procede de detection de route pour un vehicule automobile muni d'un capteur lidar
EP2432660B1 (fr) Procede et dispositif pour etendre une zone de visibilite
WO2018138064A1 (fr) Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images
FR2897966A1 (fr) Biodetecteur sans contact
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
EP2043044B1 (fr) Procédé et dispositif d'assistance au parcage d'un véhicule automobile
EP2161677A1 (fr) Procédé de détection d'un objet cible pour véhicule automobile
FR2950451A1 (fr) Algorithme de detection des points de contour dans une image
FR2958774A1 (fr) Procede et systeme de detection de pietons adaptee au contexte industriel
FR3083352A1 (fr) Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere
FR2962583A1 (fr) Procede et dispositif d'assistance d'un conducteur de vehicule pour une manoeuvre de conduite
EP2877979B1 (fr) Methode monocamera de determination d'une direction d'un solide
FR2893573A1 (fr) Procede de deection d'obstacles mis en oeuvre au sein d'un vehicule automobile.
WO2021099395A1 (fr) Procédé de détection de pics d'intensité de faisceau lumineux réfléchi de manière spéculaire
FR2688911A1 (fr) Procede de creation de la signature d'un objet represente sur une image numerique, du type consistant a definir au moins un calibre dimensionnel caracteristique dudit objet, et procede correspondant de verification de la signature d'un objet.
WO2017187059A1 (fr) Methode de reglage d'un appareil de prise de vue stereoscopique
EP4212825A1 (fr) Procédé d alignement d'une caméra sur une route
FR3138951A1 (fr) Système et procédé d'aide à la navigation d'un système mobile au moyen d'un modèle de prédiction de traversabilité d'un terrain par le système mobile
WO2022033902A1 (fr) Procédé d'alignement d'au moins deux images formées de points tridimensionnels

Legal Events

Date Code Title Description
CA Change of address
CD Change of name or company name
ST Notification of lapse

Effective date: 20100226