FR2803031A1 - Procede de calibrage d'un systeme de capteur - Google Patents

Procede de calibrage d'un systeme de capteur Download PDF

Info

Publication number
FR2803031A1
FR2803031A1 FR0016887A FR0016887A FR2803031A1 FR 2803031 A1 FR2803031 A1 FR 2803031A1 FR 0016887 A FR0016887 A FR 0016887A FR 0016887 A FR0016887 A FR 0016887A FR 2803031 A1 FR2803031 A1 FR 2803031A1
Authority
FR
France
Prior art keywords
data
vehicle
objects
calibration
rest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0016887A
Other languages
English (en)
Other versions
FR2803031B1 (fr
Inventor
Christoph Stiller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of FR2803031A1 publication Critical patent/FR2803031A1/fr
Application granted granted Critical
Publication of FR2803031B1 publication Critical patent/FR2803031B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4091Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Navigation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)

Abstract

Procédé de calibrage d'un système de capteur par saisie et exploitation des objets dans la trajectoire d'un véhicule (1). Avec le système de capteur (2, 3, 4, 5), on saisit les données caractéristiques des objets (6) et on fournit à une unité de calibrage (7) les données qui, en tenant compte du mouvement propre du véhicule (1) correspondent à des objets (6) au repos ou quasi au repos. L'unité de calibrage (7) mesure la déviation entre les données actuelles et celles d'un modèle des objets (6) pour former un vecteur d'erreur et on minimise la déviation.

Description

Etat de la technique: L'invention concerne un procédé de calibrage d'un
système de capteurs, notamment d'un système de traitement d'image, notamment pour saisir et exploiter des objets de la trajectoire d'un véhicule. Il est déjà connu en soi d'utiliser la prise d'image (ou prise de vue) et d'autres systèmes de capteur comme composants d'un système de sécurité de véhicule pour la circulation routière. Dans ces conditions, les informations concernant la distance et la vitesse relatives du véhicule
par rapport à d'autres objets, c'est-à-dire d'autres véhicu-
les ainsi que des paramètres de la chaussée sont traités en permanence. Les systèmes de prise de vue et le cas échéant également des capteurs radars sont utilisés pour mesurer des
grandeurs géométriques dans le champ du véhicule; les cap-
teurs radars sont connus en soi par exemple selon le document DE 42 42 700 Al. Avec de tels montages connus, on peut par exemple étendre la régulation de vitesse du véhicule pour l'adapter à des véhicules en amont, circulant plus lentement, lorsque ceux-ci sont détectés par le système de capteurs dans la plage de trajectoire prévisible du véhicule. La plage de trajectoire peut par exemple se définir à l'aide de capteurs de vitesse de lacet, de capteurs d'angle de direction (angle de braquage) et de capteurs d'accélération transversale ainsi
qu'avec la vitesse des roues ou avec des systèmes de traite-
ment d'image et de navigation.
Pour avoir un système fonctionnant parfaitement,
il faut en principe un calibrage préalable du système de cap-
teurs ou des différents capteurs dans l'environnement du vé-
hicule pour mesurer ensuite de manière précise les grandeurs géométriques telles que des longueurs, des vitesses, et ce calibrage se fait avant ou après le montage des capteurs dans
le véhicule, dans un environnement analogue à celui d'un la-
boratoire. Les différentes procédures de calibrage nécessi-
tent en général un mouvement précis des capteurs ou des objets détectés. Fréquemment même, il faut prendre en vue un
objet artificiel particulier conçu comme champ de calibrage.
Pour garantir une sécurité de fonctionnement durable, il faut également pouvoir contrôler de manière répétée ultérieurement le calibrage pour déceler d'éventuelles modifications, ce qui
peut devenir très compliqué.
Il est connu en soi selon le document EP 0 602 013 B1 que pour calibrer un système de navigation couplé, il faut utiliser des informations d'environnement
connues par exemple à partir d'une carte routière. Les infor-
mations sont traitées en fonction de l'état propre du véhi-
cule en combinaison avec les informations d'environnement
connues selon la carte.
A cet effet, l'invention concerne un procédé de calibrage du type défini ci-dessus, caractérisé en ce qu' * on saisit les données caractéristiques des objets à l'aide du système de capteurs, et on fournit ces données à une
unité de calibrage, données qui en tenant compte du mouve-
ment propre du véhicule correspondent à des objets consi-
dérés comme au repos ou quasi au repos,
* on détermine la déviation entre les données actuelles me-
surées et les données d'un modèle des objets comme vecteur
d'erreur, et on l'utilise pour corriger les données du mo-
dèle dans le sens d'une réduction au minimum de la dévia-
tion. Les opérations peuvent par exemple se faire par itération. L'invention permet de manière particulièrement avantageuse de calibrer automatiquement un système de capteur
du type de celui défini ci-dessus et d'exécuter en outre ul-
térieurement un contrôle automatique du calibrage obtenu. En dehors des éléments de capteur connus en soi, dans l'environnement du véhicule et de l'unité de traitement ou de
calibrage, il ne faut aucun moyen auxiliaire.
Il n'est pas non plus nécessaire que le véhicule
exécute des mouvements particuliers nécessaires jusqu'à pré-
sent pour le simple calibrage, car selon l'invention, le ca-
librage utilise bien plus le mouvement propre du véhicule en
fonctionnement ainsi que le fait que les objets du monde tri-
dimensionnel sont fréquemment rigides, c'est-à-dire qu'ils se déplacent globalement et que le calibrage des capteurs est
stable à long terme. Le calibrage des capteurs est quasi sta-
tionnaire, c'est-à-dire que dans tous les cas, il ne varie que lentement. Des considérations heuristiques relatives au
comportement typique d'autres automobilistes comme par exem-
ple le respect de la voie de circulation, qui peuvent con- duire à des fonctionnements erronés dans les applications
pratiques, ne sont pas nécessaires pour le présent procédé.
Une caractéristique importante de l'invention est ainsi de permettre un calibrage qui saisit aussi bien que possible les grandeurs mesurables. L'exigence d'un calibrage dit " réel " comme celui pour le calibrage en laboratoire, n'est ici que
d'importance secondaire.
Du point de vue de la fabrication, il est parti-
culièrement avantageux de pouvoir monter des capteurs non ca-
librés, car le calibrage d'un capteur est souvent sensible
vis-à-vis des contraintes mécaniques ou thermiques. Cela sim-
plifie non seulement la fabrication, mais tient également
compte de l'influence ultérieure du montage et d'autres modi-
fications des capteurs ou du véhicule, permettant d'exécuter de manière simple le calibrage. Le calibrage peut également
être vérifié à tout moment.
Suivant une caractéristique particulièrement avantageuse de l'invention:
* après une phase d'initialisation avec des paramètres pré-
déterminés, on effectue une première saisie des données objets enregistrées comme données modèles, et * dans toutes les mesures qui suivent cycliquement, on
traite dans une unité de calibrage les données objets cha-
que fois actuelles avec les données modèles mémorisées, saisies précédemment pour obtenir chaque fois le vecteur d'erreur. Pendant le traitement des données dans l'unité de calibrage, on sélectionne les données objets qui se répètent des mesures précédentes et on n'efface pas les données objets
retrouvées, ni les nouvelles données objets qui s'ajoutent.
Les données objets qui, après de multiples mesures faites à partir de positions différentes du véhicule présentent une
réduction de l'intervalle de confiance respectif, sont carac-
térisées comme concernant des objets au repos ou quasi au re-
pos.
Selon le procédé de l'invention, on peut égale-
ment déterminer à partir de données objets successives, une vitesse relative concordante des objets et en déduire le mou- vement propre du véhicule. Les données objets associées à un
objet ayant la même vitesse relative peuvent être caractéri-
sées comme des données appartenant à un objet au repos ou au quasi repos. De façon avantageuse, comme mouvement propre du véhicule, on peut également déduire un mouvement de rotation
du véhicule par les mouvements de tangage et/ou dans les tra-
jectoires courbes.
Les résultats du calibrage d'un capteur du sys-
tème de capteurs peuvent être transmis de manière simple à un
ou plusieurs autres capteurs du véhicule pour calibrer égale-
ment ceux-ci. Le procédé selon l'invention permet ainsi un calibrage commun de la plupart des capteurs du véhicule après leur mise en place, sans nécessiter de conditions limites particulières. Notamment la combinaison de capteurs tels qu'une caméra, un radar, un capteur radar, un capteur d'accélération est avantageuse dans le cas présent; on peut
également prévoir une application en liaison avec des cap-
teurs Lidar ou à ultra-sons.
Au cas o le ou les capteurs du système de cap-
teurs fournissent des données de mesure contradictoires, on peut par exemple signaler cette situation à une unité
d'exploitation ou au conducteur du véhicule.
L'invention permet ainsi avantageusement d'exé-
cuter un calibrage avec de bons résultats sans dispositif de
calibrage particulier ou sans succession de mouvement de ca-
librage. Le système de capteurs ou système d'exploitation peut être à calibrage total ou très largement automatique et
définir la précision et la fiabilité du calibrage. Les para-
mètres qui ne sont pas calibrés ou ne le sont pas encore sont
caractérisés par une imprécision infinie. On remarque en par-
ticulier que le procédé selon l'invention autorise des varia-
tions grossières du calibrage par exemple à cause de décalage
d'origine thermique ou mécanique.
L'invention peut s'appliquer de manière particu-
lièrement avantageuse si le système de capteurs est un sys-
tème de prise de vue qui saisit et exploite à l'aide d'une caméra électronique dont la caractéristique de conversion n'est pas linéaire, dans des intervalles de prise de vue cha- que fois en série des points image. De nombreux procédés de prise de vue actuels conduisent au calibrage de la caméra par des détours en passant par les matrices fondamentales et c'est pourquoi, nécessitent une prise de vue isochrone des
éléments image (trame d'image cubique) et des données de cap-
teur synchrones. Le procédé selon l'invention fonctionne au
contraire également avec des instants de prise de vue quel-
conques pour les différents points image et avec des données de capteur asynchrones. Le procédé permet ainsi notamment le
calibrage de caméra vidéo à résolution poussée et caractéris-
tiques non linéaires, qui prennent en général des points
image serre.
Dessins: Un procédé selon l'invention de calibrage d'un système de capteur sera décrit ci-après à l'aide d'un exemple de réalisation du procédé dans un système de traitement d'image pour exploiter des objets dans la trajectoire d'un véhicule, comme représenté dans les dessins annexés, dans lesquels: * la figure 1 est une esquisse d'un véhicule équipé d'un capteur et d'un système d'exploitation et de calibrage
pour une application avec un grand nombre de capteurs sé-
parés y compris un système de prise de vue, * la figure 2 montre un premier ordinogramme des étapes de calibrage, * la figure 3 montre un second ordinogramme des étapes de calibrage, * la figure 4 est une présentation d'un modèle de chambre
noire pour la description des relations théoriques
d'obtention d'un vecteur d'erreur dans le système de cali-
brage.
Description de l'exemple de réalisation:
La figure 1 montre une réalisation possible d'un système de capteurs pour la mise en oeuvre d'un autocalibrage d'élément de capteur, intégré dans un système de saisie (ou détection) du champ environnant d'un véhicule 1 comme indiqué
dans le préambule de la présente description. La figure 1
montre seulement à titre d'exemple de capteur, une caméra électronique comme capteur de prise de vue 2, un capteur radar 3, un capteur d'accélération 4 et d'autres capteurs de roues 5. Les capteurs 2 à 5 peuvent être alignés avec leur champ d'émission et les flèches des grandeurs mécaniques à saisir, sur la saisie du mouvement du véhicule et du champ
environnant à l'avant du véhicule.
Pour des paramètres caractéristiques à l'appli-
cation, la plage de saisie ou champ environnant du véhicule contient des objets 6 ou même des groupes d'objets 6 qui se ne déforment pas pour les considérations à long terme, mais se déplacent en tous les cas globalement. A titre d'exemple, il y a notamment la chaussée, les barrières de sécurité ou le
cas échéant également d'autres véhicules. Les données four-
nies par les capteurs 2 à 5 de l'exemple de réalisation de la figure 1 sont appliquées à une ou plusieurs unités
d'exploitation 7 comportant une unité de calibrage et exploi-
tant les informations de l'environnement du véhicule. Ces
unités assurent également le calibrage. L'unité d'exploi-
tation 7 existe en général sans être prévue pour déterminer des informations du champ entourant le véhicule; cette unité
peut ainsi servir à déterminer les paramètres de calibrage.
L'unité d'exploitation 7 nécessite pour effectuer le calibrage des capteurs, des données objets qu'elle peut prendre dans une mémoire 8. Dans l'unité d'exploitation 7, avec l'exploitation des données objets, on perfectionne
l'information de calibrage contenue chaque fois dans la mé-
moire 8 comme cela sera décrit ci-après. L'information con-
cernant le champ entourant le véhicule, et qui est calculée par l'unité d'exploitation 7 en utilisant le calibrage est alors transmise pour agir sur le véhicule par un système d'actionneur 9 et/ou est fournie à titre d'information au conducteur du véhicule 1 par une interface homme-machine 10 par exemple un haut-parleur ou un afficheur. L'ensemble des actionneurs 7 peut traiter par exemple un signal
d'actionnement du frein du véhicule.
La figure 2 montre des étapes de procédé possi-
bles pour l'exécution de l'autocalibrage du système de cap-
teur dans le véhicule 1 représenté à la figure 1. Les
grandeurs mesurées par les éléments de capteur 2 à 5 corres-
pondant à un monde réel sont représentées par les blocs 20, 21; les grandeurs modélisées sont représentées par les blocs 22, 23 en regard des précédents. La différence entre les grandeurs mesurées et les grandeurs modélisées se fait dans
le bloc 24 qui donne un vecteur d'erreur dans le bloc 25.
L'exécution du calibrage dans l'unité d'exploitation 7 se fait ainsi pour que le vecteur d'erreur soit aussi petit que possible, c'est-à-dire pour que le monde modélisé coïncide
aussi bien que possible avec le monde réel.
Les données de calibrage obtenues à partir des données objets fournies par les capteurs 2 à 5 constituent
globalement avec les données modèles du monde modélisé para-
métrique en fonction de la description du champ environnant
le véhicule, également un vecteur paramétrique qui est repré-
senté de manière abstraite dans le bloc 26. Le modèle con-
tient en plus de la description paramétrique du monde
également une image du monde pour les grandeurs mesurables par les éléments de capteur 2 à 5. Pour l'exemple de l'application d'une caméra comme capteur de prise de vue 2, on a la projection du monde sous la forme d'une suite d'images. Les grandeurs mesurables sont alors déterminées à
la fois à partir du monde modélisé paramétrique et sont mesu-
rées par l'élément de capteur 2. La différence entre ces deux informations des grandeurs mesurables est groupée en vecteur d'erreur (bloc 25). Le vecteur paramétrique du bloc 26 est alors réglé par des procédés appropriés caractérisés par le bloc 27 pour que le vecteur d'erreur soit minimum; en
d'autres termes, on le minimise pour que les mesures effecti-
ves et les grandeurs définies par le modèle en liaison avec le vecteur paramétrique actuel, se correspondent aussi bien
que possible.
Pour exécuter un tel procédé de minimisation, connu en soi, on utilise un simple critère pour obtenir une bonne concordance des grandeurs par exemple le carré de la
somme des déviations. On peut trouver un résultat suffi-
samment bon pour le procédé de minimisation par exemple par l'application du procédé du moindre carré ou encore on peut utiliser d'autres procédés d'évaluation solides comme par
exemple un filtre Kalman étendu ou des applications analo-
gues. Tous ces procédés considérés comme connus en soi per-
mettent de déterminer la précision et la fiabilité des
paramètres et des mesures.
Comme indiqué ci-dessus, le procédé selon l'invention repose sur l'hypothèse que des objets rigides 6 ou des groupes de tels objets 6 existent dans le champ autour du véhicule (environnement du véhicule). Leur mouvement peut
se décrire ainsi complètement par trois paramètres de rota-
tion et trois paramètres de translation. On suppose en outre qu'au moins certains des objets 6 se déplacent par rapport au
véhicule 1 par exemple à cause du mouvement propre du véhi-
cule 1. Ces conditions sont satisfaites suffisamment fréquem-
ment pour permettre un calcul ou un contrôle du calibrage à
des intervalles courts.
La figure 3 montre un autre ordinogramme possible pour l'exécution du procédé selon l'invention pour l'exploitation des données objets; ce procédé sera décrit en liaison avec le modèle dit à chambre noire à sténopé selon la figure 4. A l'aide de l'ordinogramme de la figure 3, on
exposera une mise en oeuvre simple de l'exploitation des don-
nées objets. Le système de capteur de base comprend nécessai-
rement seulement une caméra (capteur 2) et les capteurs
radars 3. La description détaillée de l'ordinogramme de la
figure 3 sera faite après la description de la figure 4.
La figure 4 montre à titre d'exemple un modèle d'image, simple connu pour le capteur 2 appelé modèle de chambre noire dite à sténopé et sert ainsi uniquement à la
définition des concepts. Les paramètres de calibrage des cap-
teurs 2, 3 sont décrits en commun avec les grandeurs modèles
du monde paramétrique modélisé comme description de
l'environnement du véhicule comme cela a été décrit à propos
de la figure 2 pour être réunis dans un vecteur paramétrique.
Le modèle selon la figure 4 contient en plus la description
paramétrique du monde également une image du monde à partir des grandeurs mesurables par les capteurs 2 et 3. Pour
l'exemple de la caméra 2 ou de la chambre noire selon la fi-
gure 4, il s'agit de la projection du monde sur la succession des images. Les grandeurs mesurables sont alors définies à la
fois à partir du monde paramétrique modélisé et aussi mesu-
rées à partir des capteurs. La différence entre ces deux dé-
finitions des grandeurs mesurables est groupée en un vecteur d'erreur. Le vecteur paramétrique est établi par un procédé
approprié pour que le vecteur d'erreur soit minimum, c'est-à-
dire pour que les mesures effectives et les grandeurs défi-
nies par le modèle en liaison avec le vecteur paramétrique
actuel se correspondent aussi bien que possible.
A la figure 4, le point C décrit le centre de
projection par lequel passent tous les rayons images du cap-
teur 2. La perpendiculaire au plan image par le centre de projection C est appelée axe optique (axe Z). L'axe Z coupe le plan image B au point principal image PBH. Le point image
principal PBH correspondant à (xh, y h) présente les coor-
données (x_r, y_r) dans le système de coordonnées de calcula-
teur défini par les lignes et les colonnes de l'image. L'axe
X et l'axe Y du système de coordonnées de la caméra sont pa-
rallèles aux axes du système de coordonnées du calculateur.
Comme constante de caméra c, on divise ici la distance du centre de projection par rapport au point image principal PBH
par la distance entre deux points images d'une colonne image.
Enfin, le rapport de la distance de deux points images dans
une colonne image est appelé distance à l'intérieur d'une li-
gne image comme rapport d'axe s. Pour le modèle de chambre noire selon la figure 4, les quatre paramètres (x_h, yh, c, s) représentent les paramètres intrinsèques du calibrage. On obtient ainsi la projection d'un point objet PO dans le plan image (point image PB) selon les relations suivantes x r = x-h + s*c*X / Z y r = y h + c*Y / Z (1) On suppose en outre que pour la caméra (capteur 2), on a un modèle de chambre noire simple selon la figure 4 dont le calibrage intrinsèque comprend les paramètres points
images principaux PBH, la constante de caméra c et le cali-
brage de l'axe image. Pour le capteur radar 3, il faut cali-
brer en outre le vecteur de décalage T et la rotation R entre
le système de coordonnées du radar et le système de coordon-
nées de la caméra. On obtient ainsi la relation entre le sys-
tème de coordonnées de caméra (X, Y, Z) et le système de coordonnées du radar (XR, YR, ZR):
(X,Y,Z) = R * ((XR, YR, ZR) - T) (2)
Les paramètres de calibrage des capteurs 2 et 3
forment alors le vecteur de calibrage recherché pk.
Comme grandeurs mesurables pour la caméra (cap-
teur 2), on a les coordonnées images de points caractéristi-
ques au repos sur l'objet 6 (entre autres les coins) et pour
le capteur radar 3, l'éloignement, l'angle et la vitesse re-
lative des objets au repos 6 dans le système de coordonnées du radar. Les paramètres géométriques à partir desquels on
détermine les grandeurs mesurables à l'aide du calibrage ap-
pliqué au modèle d'image, selon la figure 4 sont appelés ici paramètres de modèle pm. Pour l'exemple choisi, il s'agit des coordonnées (de caméra) des points caractéristiques ainsi que des coordonnées et de la vitesse relative des objets. Le modèle image est donné pour la caméra (capteur 2) par l'équation (1) et pour le capteur radar 3, par l'équation (2). Les paramètres modèles p_m forment en commun avec les paramètres de calibrage p_k, le vecteur paramétrique p (voir
le bloc 26 de la figure 2).
Selon l'ordinogramme de la figure 3, on initia-
lise tout d'abord le vecteur paramétrique p (bloc 30); par exemple, on fixe le point image principal PBH arbitrairement au centre de l'image; pour la constante de caméra c et le
rapport d'axes, on utilise les valeurs grossières comme cel-
les indiquées par exemple par le fabricant de caméras. Le
vecteur de décalage T et le vecteur de rotation R sont mesu-
1l rés grossièrement par exemple à l'échelle du mètre. Comme
jusqu'alors ni les points images caractéristiques, ni les ob-
jets n'ont été mesurés, le vecteur paramétrique modèle pm ne
contient pas de paramètres et l'ensemble des grandeurs mesu-
rables est initialisé comme étant vide.
Dans une étape ultérieure, les capteurs 2, 3 ef-
fectuent des mesures (bloc 31); on cherche de nouveau en particulier les grandeurs mesurables obtenues déjà dans les mesures antérieures, dans le bloc 32, c'est-à-dire en faisant
une localisation. L'ensemble des grandeurs mesurables exis-
tant actuellement est alors étendu selon le bloc 33 à de nou-
velles grandeurs mesurables, ajoutées comme par exemple de nouveaux points caractéristiques arrivant dans l'image. Les
grandeurs mesurables qui ne sont pas retrouvées par la loca-
lisation sont alors enlevées de l'ensemble des grandeurs me-
surables. Pour toutes les grandeurs mesurables, on définit les paramètres modèles p_m et le mouvement propre du véhicule
par rapport à l'instant de mesure précédent avec les inter-
valles de confiance correspondants à l'aide de procédés
usuels connus. Après avoir mesuré un point objet caractéris-
tique PO, la première fois, l'intervalle de confiance con-
tient ainsi au moins une droite. Après plusieurs mesures du même point objet caractéristique Po à partir de positions différentes, on obtient une mesure de plus en plus précise
des paramètres modèles p_m et du mouvement propre du véhi-
cule, de sorte que l'intervalle de confiance correspondant diminue. Les points objets Po avec un petit intervalle de
confiance et des coordonnées stables dans le temps sont ca-
ractérisés comme appartenant à des objets au repos 6 et sont reçus dans le vecteur du paramètre modèle. Inversement, les points qui ne sont pas ou qui ne sont plus au repos à cause
de coordonnées variables sont éliminés du vecteur paramétri-
que modèle. De façon analogue, on détermine le mouvement pro-
pre du véhicule par un procédé d'évaluation grossier à partir des vitesses relatives de tous les objets 6, mesurées par le capteur radar 3; seuls les objets qui se déplacent à cette vitesse relative sont acceptés comme étant en repos et leur
position est associée au vecteur paramétrique modèle.
Contrairement au procédé du domaine de la vision active, pour l'invention décrite à l'aide de l'exemple, il n'est pas nécessaire que le véhicule 1 exécute un mouvement
commandé; au contraire, on détermine et on utilise le mouve-
* ment actuel du véhicule 1. A l'aide des équations d'image (1) et (2) présentées ci-dessus, on détermine alors les grandeurs mesurables du monde modélisé à partir du vecteur paramétrique
p selon le bloc 34 de la figure 3. La différence entre la va-
leur des grandeurs mesurables du fait de la mesure par cap-
teur et de la modélisation est appelée vecteur d'erreur (bloc ); le vecteur d'erreur dépend également des paramètres de
calibrage, car les valeurs modélisées dépendent du calibrage.
Par un calcul de compensation déjà évoqué, on peut alors modifier le vecteur paramétrique p selon le bloc 36 pour diminuer le vecteur d'erreur en utilisant par exemple le procédé des moindres carrés. Puis, on exécute de nouvelles mesures avec les capteurs 2 et 3 pour obtenir globalement un procédé de calibrage itératif (bloc 37). Dans l'exécution des
étapes de procédé décrites, on a ainsi une convergence rela-
tivement rapide des paramètres de calibrage pour de bonnes valeurs par des mesures géométriques. Il est particulièrement avantageux pour la qualité du calibrage de prendre en compte
les mouvements de rotation du véhicule comme ceux qui se pro-
duisent en pratique et qui correspondent aux mouvements de
tangage ou au déplacement en courbe.

Claims (7)

R E V E N D I C A T I ON S
1 ) Procédé de calibrage d'un système de capteur pour saisir et exploiter des objets dans la trajectoire d'un véhicule (1) caractérisé en ce que on saisit les données caractéristiques des objets (6) à l'aide du système de capteurs (2, 3, 4, 5), et on fournit
ces données à une unité de calibrage, données qui en te-
nant compte du mouvement propre du véhicule (1) correspon-
dent à des objets (6) considérés comme au repos ou quasi au repos, et
* on détermine (25; 35) la déviation entre les données ac-
tuelles mesurées et les données d'un modèle des objets (6) comme vecteur d'erreur, et on l'utilise pour corriger les données du modèle dans le sens d'une réduction au minimum
de la déviation (26, 27; 36, 37).
2 ) Procédé selon la revendication 1, caractérisé en ce que * après une phase d'initialisation (30) avec des paramètres prédéterminés, on effectue une première saisie (20, 21;
31, 32) des données objets enregistrées comme données mo-
dèles (22; 33) et * dans toutes les mesures qui suivent cycliquement, on traite dans une unité de calibrage (25, 26;34, 35) les
données objets chaque fois actuelles avec les données mo-
dèles mémorisées, saisies précédemment pour obtenir chaque
fois le vecteur d'erreur.
3 ) Procédé selon la revendication 2, caractérisé en ce que
* pendant le traitement des données dans l'unité de cali-
brage (7), on sélectionne les données objets obtenues dans les mesures précédentes, on efface les données objets non
retrouvées et on reçoit les données objets nouvelles ra-
joutées, et
* on caractérise les données objets qui, après plusieurs me-
sures pour des positions différentes du véhicule, corres-
pondent à une réduction de l'intervalle de confiance
respectif, comme données appartenant à un objet (6) au re-
pos ou quasi au repos.
4 ) Procédé selon la revendication 2 ou 3, caractérisé en ce que * à partir de données objets successives, on détermine une vitesse relative concordante des objets et à partir de là le mouvement propre du véhicule (1), et * on caractérise les données objets associées à un objet (6) avec la même vitesse relative comme données appartenant à
un objet (6) au repos ou quasi au repos.
) Procédé selon l'une quelconque des revendications 1 à 4,
caractérisé en ce que
comme mouvement propre du véhicule (1), on déduit un mouve-
ment de rotation du véhicule (1) par les mouvements de tan-
gage et/ou dans un passage en courbe.
6 ) Procédé selon l'une quelconque des revendications 1 à 5,
caractérisé en ce que le système de capteur contient un système de prise de vue
comme capteur (2) dans lequel à l'aide d'une caméra électro-
nique à caractéristique de conversion non linéaire dans les intervalles de prise de vue, on saisit chaque fois en série
des points images et on les exploite.
7 ) Procédé selon l'une quelconque des revendications 1 à 6,
caractérisé en ce qu' on transpose les résultats du calibrage d'un capteur (2) du système de capteur à un ou plusieurs autres capteurs (3, 4, ) du véhicule (1) pour calibrer également ces capteurs.
8 ) Procédé selon l'une quelconque des revendications 1 à 7,
caractérisé en ce qu' au cas o les capteurs (2, 3, 4, 5) du système de capteur
fournissent des données de mesure contradictoires, on le si-
gnale à l'unité d'exploitation ou au conducteur du véhicule ( 1)
FR0016887A 1999-12-24 2000-12-22 Procede de calibrage d'un systeme de capteur Expired - Fee Related FR2803031B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19962997A DE19962997B4 (de) 1999-12-24 1999-12-24 Verfahren zur Kalibrierung eines Sensorsystems

Publications (2)

Publication Number Publication Date
FR2803031A1 true FR2803031A1 (fr) 2001-06-29
FR2803031B1 FR2803031B1 (fr) 2007-09-14

Family

ID=7934494

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0016887A Expired - Fee Related FR2803031B1 (fr) 1999-12-24 2000-12-22 Procede de calibrage d'un systeme de capteur

Country Status (5)

Country Link
US (1) US6778928B2 (fr)
JP (1) JP2001227982A (fr)
DE (1) DE19962997B4 (fr)
FR (1) FR2803031B1 (fr)
IT (1) IT1319376B1 (fr)

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7310440B1 (en) * 2001-07-13 2007-12-18 Bae Systems Information And Electronic Systems Integration Inc. Replacement sensor model for optimal image exploitation
US7774113B2 (en) * 2002-04-10 2010-08-10 Trw Limited Cameras to determine vehicle heading
JP3511606B2 (ja) * 2002-04-22 2004-03-29 三菱電機株式会社 車載レーダ装置の位置調整装置および位置調整方法
DE10218228A1 (de) * 2002-04-24 2003-11-06 Volkswagen Ag Verfahren und Einrichtung zur Funktionskontrolle einer Videokamera in einem Fahrzeug
DE10229336A1 (de) * 2002-06-29 2004-01-15 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung von Bildsensorsystemen
DE10229334B4 (de) 2002-06-29 2010-09-23 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung von Sensoren im Kraftfahrzeug mittels eines Kalibrierobjekts mit Triple-Spiegel als Bezugsmerkmal
DE10246067B4 (de) * 2002-10-02 2008-01-03 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug
DE10246066B4 (de) * 2002-10-02 2007-11-22 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug
JP4019933B2 (ja) * 2002-12-26 2007-12-12 日産自動車株式会社 車両用レーダ装置およびレーダの光軸調整方法
DE10323915A1 (de) * 2003-05-23 2005-02-03 Daimlerchrysler Ag Kamerabasierte Positionserkennung für ein Straßenfahrzeug
DE102004028090A1 (de) * 2004-06-09 2005-12-29 Robert Bosch Gmbh Verfahren zur Kalibrierung einer Sensorik zur Fahrzeuginnenraumüberwachung
US7720580B2 (en) 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
DE102005014954A1 (de) * 2005-04-01 2006-10-05 Audi Ag Korrektur der Messfehler des Gierwinkels bei Sensoren zur Fahrspurerkennung
US7287699B2 (en) * 2005-08-05 2007-10-30 Honeywell International Inc. Sensor calibration method and systems
US7706978B2 (en) * 2005-09-02 2010-04-27 Delphi Technologies, Inc. Method for estimating unknown parameters for a vehicle object detection system
US8095233B1 (en) * 2005-10-11 2012-01-10 American Grid, Inc. Interconnected premises equipment for energy management
US20070182623A1 (en) * 2006-02-03 2007-08-09 Shuqing Zeng Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
DE102007008798A1 (de) * 2007-02-22 2008-09-04 Götting jun., Hans-Heinrich Anordnung zur Überprüfung eines berührungslos wirkenden Schutzsensors
US20090228172A1 (en) * 2008-03-05 2009-09-10 Gm Global Technology Operations, Inc. Vehicle-to-vehicle position awareness system and related operating method
DE102008025459B4 (de) 2008-05-28 2020-03-26 HELLA GmbH & Co. KGaA Verfahren und Vorrichtung zur Kalibrierung einer durch einen Frontscheinwerfer eines Fahrzeugs erzeugten vertikalen Hell-Dunkel-Grenze
DE102008025458B4 (de) 2008-05-28 2020-03-12 HELLA GmbH & Co. KGaA Verfahren und Vorrichtung zur Kalibrierung einer durch einen Frontscheinwerfer eines Fahrzeugs erzeugten horizontalen Hell-Dunkel-Grenze
US8155433B2 (en) 2008-07-10 2012-04-10 Goodrich Corporation Method of object location in airborne imagery using recursive quad space image processing
DE102008045618B4 (de) 2008-09-03 2010-07-08 Daimler Ag Verfahren und Vorrichtung zur Kalibrierung von Sensoren eines Fahrzeuges
DE102008042018A1 (de) * 2008-09-12 2010-03-18 Robert Bosch Gmbh Verfahren zum Justieren oder Kalibrieren eines Fahrzeugumfeldsensors sowie Fahrzeugumfeldsensor-Justier- oder Kalibrier-Anordnung
US9279882B2 (en) * 2008-09-19 2016-03-08 Caterpillar Inc. Machine sensor calibration system
US9105080B2 (en) 2008-10-01 2015-08-11 Hi-Key Limited Method and a system for calibrating an image capture device
EP2179892A1 (fr) 2008-10-24 2010-04-28 Magna Electronics Europe GmbH & Co. KG Procédé de calibrage automatique d'une caméra virtuelle
JP5051468B2 (ja) * 2008-12-25 2012-10-17 トヨタ自動車株式会社 センサ校正装置、及び、センサ校正方法
US20100235129A1 (en) * 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
US9150155B2 (en) 2010-01-13 2015-10-06 Magna Electronics Inc. Vehicular camera and method for periodic calibration of vehicular camera
DE102010049047A1 (de) 2010-10-18 2012-04-19 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zur Überprüfung eines lichttechnischen Fahrassistenzsystems
DE102010062696A1 (de) * 2010-12-09 2012-06-14 Robert Bosch Gmbh Verfahren und Vorrichtung zum Kalibrieren und Justieren eines Fahrzeug-Umfeldsensors.
DE102011007024A1 (de) * 2011-04-08 2012-10-11 Robert Bosch Gmbh Verfahren zur Bestimmung der Position eines sich bewegenden Fahrzeugs und Manöverassistenzsystem
DE102011078631A1 (de) 2011-07-05 2013-01-10 Robert Bosch Gmbh Anordnung und Verfahren zum Bestimmen einer Abbildungsabweichung einer Kamera
DE102011086244A1 (de) * 2011-11-14 2013-05-16 Robert Bosch Gmbh Verfahren zum Betreiben eines Sensors
US8676438B2 (en) * 2012-07-31 2014-03-18 Ford Global Technologies Method and system for implementing ultrasonic sensor signal strength calibrations
DE102013209721A1 (de) * 2012-08-20 2014-02-20 Johnson Controls Gmbh Verfahren zur Kalibrierung einer TOF-Kamera
DE102012108862A1 (de) * 2012-09-20 2014-05-28 Continental Teves Ag & Co. Ohg Verfahren zur Kalibrierung mehrerer Umfeldsensoren in einem Fahrzeug
US9008886B2 (en) * 2012-12-12 2015-04-14 Caterpillar Inc. Method of modifying a worksite
EP2767846B1 (fr) * 2013-02-18 2017-01-11 Volvo Car Corporation Procédé d'étalonnage d'un groupe de capteurs dans un véhicule automobile
DE102013220016A1 (de) * 2013-10-02 2015-04-02 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Funktionsüberwachung eines Fahrerassistenzsystems
KR101510336B1 (ko) * 2013-11-14 2015-04-07 현대자동차 주식회사 차량용 운전자 지원 시스템의 검사 장치
KR101510338B1 (ko) * 2013-11-22 2015-04-07 현대자동차 주식회사 차량용 차선 이탈 경보 시스템의 검사 장치
DE102014204000A1 (de) * 2014-03-05 2015-09-10 Conti Temic Microelectronic Gmbh Vorrichtung zur Korrektur eines Abstandswertes und/oder zur Korrektur eines Relativgeschwindigkeitswertes, Fahrzeug und Verfahren
JP5976027B2 (ja) * 2014-03-27 2016-08-23 三菱電機株式会社 センサ軸ずれ検出装置およびセンサ軸ずれ検出方法
US9315164B2 (en) * 2014-07-30 2016-04-19 GM Global Technology Operations LLC Methods and systems for integrating after-market components into a pre-existing vehicle system
DE102015011020B3 (de) * 2015-08-22 2016-10-13 Audi Ag Verfahren zur Zuordnung von vorgegebenen Einbaupositionen zu an den Einbaupositionen in einem Kraftfahrzeug verbauten Radarsensoren und Kraftfahrzeug
US10605633B2 (en) * 2015-10-08 2020-03-31 Aclima, Inc. Distributed sensor calibration
JP2017101944A (ja) * 2015-11-30 2017-06-08 パイオニア株式会社 速度算出装置、制御方法、プログラム及び記憶媒体
US10281923B2 (en) 2016-03-03 2019-05-07 Uber Technologies, Inc. Planar-beam, light detection and ranging system
WO2018042628A1 (fr) 2016-09-02 2018-03-08 パイオニア株式会社 Dispositif de calcul de vitesse, procédé de commande, programme, et support d'informations
US10481243B2 (en) * 2016-10-31 2019-11-19 Aptiv Technologies Limited Automated vehicle radar system with self-calibration
DE102016123952A1 (de) * 2016-12-09 2018-06-14 Schaeffler Technologies AG & Co. KG Verfahren zum Betätigen einer Kupplung eines Hybridantriebsstranges sowie Antriebsstrang mit Kupplung
US10509120B2 (en) * 2017-02-16 2019-12-17 GM Global Technology Operations LLC Lidar-radar relative pose calibration
US11537134B1 (en) * 2017-05-25 2022-12-27 Apple Inc. Generating environmental input encoding for training neural networks
US10678260B2 (en) * 2017-07-06 2020-06-09 GM Global Technology Operations LLC Calibration methods for autonomous vehicle operations
FR3070085B1 (fr) * 2017-08-11 2019-08-23 Renault S.A.S. Procede d’etalonnage d’une camera d’un vehicule automobile
KR101947478B1 (ko) * 2017-09-19 2019-02-13 충북대학교 산학협력단 라이다 센서의 배치 위치 결정 방법 및 그를 위한 장치
EP3477334A1 (fr) 2017-10-24 2019-05-01 Veoneer Sweden AB Étalonnage de détecteur radar automatique
US11327162B1 (en) 2017-11-20 2022-05-10 Waymo Llc Methods of calibrating or validating sensors by using a plurality of fiducials
CN109839132A (zh) * 2017-11-29 2019-06-04 德尔福技术有限责任公司 自动车辆传感器校准系统
US20190162820A1 (en) * 2017-11-29 2019-05-30 Delphi Technologies, Llc Automated vehicle sensor calibration system
US10408638B2 (en) 2018-01-04 2019-09-10 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling a vehicle under sensor uncertainty
DE102018201154A1 (de) * 2018-01-25 2019-07-25 HELLA GmbH & Co. KGaA Verfahren zur Kalibrierung von Sensoren und/oder von Sensoranordnungen
EP3766046A1 (fr) * 2018-03-14 2021-01-20 Nokia Technologies Oy Étalonnage de caméra et/ou utilisation d'une caméra étalonnée
US10989562B2 (en) 2018-07-12 2021-04-27 Toyota Research Institute, Inc. Systems and methods for annotating maps to improve sensor calibration
DE102018213940A1 (de) 2018-08-17 2020-02-20 Robert Bosch Gmbh Vorrichtung mit einer Sensoreinheit und einer Selbstkalibrierungsfunktion
DE102018213995A1 (de) * 2018-08-20 2020-02-20 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur präzisen Bestimmung der Bewegung eines Kraftfahrzeuges
DE102018213994A1 (de) * 2018-08-20 2020-02-20 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Bestimmung der Bewegung eines Kraftfahrzeuges
CN109059902B (zh) * 2018-09-07 2021-05-28 百度在线网络技术(北京)有限公司 相对位姿确定方法、装置、设备和介质
DE102018123391A1 (de) * 2018-09-24 2020-03-26 HELLA GmbH & Co. KGaA Verfahren für eine Sensoranordnung, Sensoranordnung, Computerprogrammprodukt und computerlesbares Medium
DK180555B1 (en) 2018-12-10 2021-06-17 Motional Ad Llc Systems and methods for validating and calibrating sensors
KR20200084934A (ko) * 2018-12-20 2020-07-14 삼성전자주식회사 차량의 주행을 제어하는 장치 및 차량의 주행을 제어하는 장치가 캘리브레이션을 수행하는 방법
US11327155B2 (en) 2018-12-21 2022-05-10 Robert Bosch Gmbh Radar sensor misalignment detection for a vehicle
DE102019200612A1 (de) 2019-01-18 2020-07-23 Zf Friedrichshafen Ag Vorrichtung und Verfahren zum Kalibrieren eines Multiple-Input-Multiple-Output-Radarsensors
US11338816B2 (en) * 2019-02-02 2022-05-24 Ford Global Technologies, Llc Over-the-air flashing and reproduction of calibration data using data regression techniques
EP3699630A1 (fr) * 2019-02-25 2020-08-26 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH Système et procédé de compensation de mouvement d'un composant de véhicule
EP3761054A1 (fr) * 2019-07-04 2021-01-06 Veoneer Sweden AB Étalonnage d'un capteur basé sur des chaînes de détections
DE102019214544B4 (de) * 2019-09-24 2022-04-28 Vitesco Technologies GmbH Verfahren und Vorrichtung zum Bestimmen einer Soll-Position eines Umgebungssensors eines Fahrzeugs
EP3809311A1 (fr) * 2019-10-15 2021-04-21 Elektrobit Automotive GmbH Traitement de données de capteur dans un véhicule automobile
GB2594111B (en) 2019-12-18 2023-06-07 Motional Ad Llc Camera-to-LiDAR calibration and validation
CN112082575B (zh) * 2020-09-07 2022-04-01 北京华研军盛科技有限公司 一种用于测试加速度对倾角传感器影响的试验装置及方法
CN112255621B (zh) * 2020-10-09 2022-08-30 中国第一汽车股份有限公司 一种车辆传感器的标定方法、装置、电子设备及存储介质
DE102020007599A1 (de) * 2020-12-11 2022-06-15 Daimler Truck AG Verfahren zur Validierung von Umgebungserfassungssensoren eines Fahrzeugs und zur Validierung von Umgebungserfassungssensoren eingerichtetes Fahrzeug
GB2604175A (en) 2021-02-26 2022-08-31 Daimler Ag A method for determining a mounting position error of an environment sensor device of an assistance system of a motor vehicle as well as an assistance syste

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5068791A (en) * 1989-12-06 1991-11-26 Crown Equipment Corporation Distance and angle measurements in a wire guided vehicle
US5247487A (en) * 1991-06-17 1993-09-21 Spatial Positioning Systems, Inc. Spatial measurement recovery system
EP0602013A2 (fr) * 1989-04-07 1994-06-15 Sumitomo Electric Industries, Ltd Appareil de calibrage d'un capteur de vitesse angulaire d'un système de navigation autonome
EP0915350A2 (fr) * 1997-11-06 1999-05-12 DaimlerChrysler AG Dispositif pour déterminer des données indicatives de l'évolution des voies de circulation
EP0921509A2 (fr) * 1997-10-16 1999-06-09 Navigation Technologies Corporation Système et méthode de mise à jour, d'amélioration et d'affinage d'une base de données géographique par rétroaction
US5949685A (en) * 1997-06-03 1999-09-07 The Boeing Company Real-time orientation of machine media to improve machine accuracy

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2725446B2 (ja) * 1990-07-13 1998-03-11 日産自動車株式会社 振動成分検出画像処理装置
FI922031A0 (fi) * 1991-10-23 1992-05-05 Antti Aarne Ilmari Lange Foerfarande foer kalman-filter i stora system.
DE4242700C2 (de) * 1992-12-17 2003-01-30 Bosch Gmbh Robert Verfahren zur Messung des Abstandes und der Geschwindigkeit von Objekten
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
JPH07286858A (ja) * 1994-04-20 1995-10-31 Hitachi Ltd 障害物検知装置及び障害物検知装置を備えるナビゲーション装置
US5559695A (en) * 1994-12-27 1996-09-24 Hughes Aircraft Company Apparatus and method for self-calibrating visual time-to-contact sensor
JPH1123291A (ja) * 1997-07-04 1999-01-29 Nissan Motor Co Ltd 車両用画像処理装置
JPH11184375A (ja) * 1997-12-25 1999-07-09 Toyota Motor Corp デジタル地図データ処理装置及びデジタル地図データ処理方法
JP3523480B2 (ja) * 1998-01-27 2004-04-26 株式会社日立ハイテクインスツルメンツ カメラ位置の補正装置
JPH11345394A (ja) * 1998-06-03 1999-12-14 Mitsubishi Electric Corp 車両の周辺監視装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0602013A2 (fr) * 1989-04-07 1994-06-15 Sumitomo Electric Industries, Ltd Appareil de calibrage d'un capteur de vitesse angulaire d'un système de navigation autonome
US5068791A (en) * 1989-12-06 1991-11-26 Crown Equipment Corporation Distance and angle measurements in a wire guided vehicle
US5247487A (en) * 1991-06-17 1993-09-21 Spatial Positioning Systems, Inc. Spatial measurement recovery system
US5949685A (en) * 1997-06-03 1999-09-07 The Boeing Company Real-time orientation of machine media to improve machine accuracy
EP0921509A2 (fr) * 1997-10-16 1999-06-09 Navigation Technologies Corporation Système et méthode de mise à jour, d'amélioration et d'affinage d'une base de données géographique par rétroaction
EP0915350A2 (fr) * 1997-11-06 1999-05-12 DaimlerChrysler AG Dispositif pour déterminer des données indicatives de l'évolution des voies de circulation
US6292752B1 (en) * 1997-11-06 2001-09-18 Daimlerchrysler Ag Device for acquiring lane path indicative data

Also Published As

Publication number Publication date
FR2803031B1 (fr) 2007-09-14
DE19962997B4 (de) 2010-06-02
JP2001227982A (ja) 2001-08-24
DE19962997A1 (de) 2001-06-28
ITMI20002668A1 (it) 2002-06-12
US6778928B2 (en) 2004-08-17
IT1319376B1 (it) 2003-10-10
US20020072869A1 (en) 2002-06-13

Similar Documents

Publication Publication Date Title
FR2803031A1 (fr) Procede de calibrage d'un systeme de capteur
WO2018196391A1 (fr) Dispositif et procédé d'étalonnage de paramètres externes d'un appareil photo embarqué
JP3261115B2 (ja) ステレオ画像処理装置
JP2001506369A (ja) 1つまたは複数の移動カメラの初期位置および向きを校正するための方法ならびに固定対象の3次元的位置測定に対してのこの方法の応用
EP1787465B1 (fr) Procede et dispositif pour stabiliser les images donnees par une camera video
Wang et al. Automated road sign inventory system based on stereo vision and tracking
EP1779677A1 (fr) Procede de calibration automatique d'un systeme de stereovision
JP6620869B2 (ja) 校正方法、校正装置、及びプログラム
CN114155501A (zh) 一种无人车在烟雾遮挡环境下的目标检测方法
EP2043044B1 (fr) Procédé et dispositif d'assistance au parcage d'un véhicule automobile
Kurz et al. Calibration of a wide-angle digital camera system for near real time scenarios
Blais et al. Real-time geometrical tracking and pose estimation using laser triangulation and photogrammetry
FR3070085B1 (fr) Procede d’etalonnage d’une camera d’un vehicule automobile
JP7492599B2 (ja) 車載カメラ装置
WO2024018709A1 (fr) Dispositif de caméra stéréo et procédé d'étalonnage
US11893799B2 (en) Computer vision system for object tracking and time-to-collision
FR2863050A1 (fr) Dispositif de mesure de la distance entre deux vehicules.
US20230154013A1 (en) Computer vision system for object tracking and time-to-collision
WO2022073809A1 (fr) Procédé de simulation des effets de la qualité optique d'un pare-brise
US20210360156A1 (en) Method for producing a spatially highly precise, localized panoramic street image and system for this
EP3865816A1 (fr) Méthodes et systèmes pour mesurer à distance l'orientation angulaire d'un objet
GB2624483A (en) Image processing method and method for predicting collisions
WO2023061915A1 (fr) Procédé de détection d'une limite d'une voie de circulation
WO2024099786A1 (fr) Procédé de traitement d'image et procédé de prédiction de collisions
FR3106402A1 (fr) Procédé de calibration d’un support rotatif de dispositif d’imagerie de véhicule automobile

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20150831