FR2803031A1 - Procede de calibrage d'un systeme de capteur - Google Patents
Procede de calibrage d'un systeme de capteur Download PDFInfo
- Publication number
- FR2803031A1 FR2803031A1 FR0016887A FR0016887A FR2803031A1 FR 2803031 A1 FR2803031 A1 FR 2803031A1 FR 0016887 A FR0016887 A FR 0016887A FR 0016887 A FR0016887 A FR 0016887A FR 2803031 A1 FR2803031 A1 FR 2803031A1
- Authority
- FR
- France
- Prior art keywords
- data
- vehicle
- objects
- calibration
- rest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4052—Means for monitoring or calibrating by simulation of echoes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4052—Means for monitoring or calibrating by simulation of echoes
- G01S7/4082—Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
- G01S7/4091—Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Manufacturing & Machinery (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
- Navigation (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Arrangements For Transmission Of Measured Signals (AREA)
Abstract
Procédé de calibrage d'un système de capteur par saisie et exploitation des objets dans la trajectoire d'un véhicule (1). Avec le système de capteur (2, 3, 4, 5), on saisit les données caractéristiques des objets (6) et on fournit à une unité de calibrage (7) les données qui, en tenant compte du mouvement propre du véhicule (1) correspondent à des objets (6) au repos ou quasi au repos. L'unité de calibrage (7) mesure la déviation entre les données actuelles et celles d'un modèle des objets (6) pour former un vecteur d'erreur et on minimise la déviation.
Description
Etat de la technique: L'invention concerne un procédé de calibrage d'un
système de capteurs, notamment d'un système de traitement d'image, notamment pour saisir et exploiter des objets de la trajectoire d'un véhicule. Il est déjà connu en soi d'utiliser la prise d'image (ou prise de vue) et d'autres systèmes de capteur comme composants d'un système de sécurité de véhicule pour la circulation routière. Dans ces conditions, les informations concernant la distance et la vitesse relatives du véhicule
par rapport à d'autres objets, c'est-à-dire d'autres véhicu-
les ainsi que des paramètres de la chaussée sont traités en permanence. Les systèmes de prise de vue et le cas échéant également des capteurs radars sont utilisés pour mesurer des
grandeurs géométriques dans le champ du véhicule; les cap-
teurs radars sont connus en soi par exemple selon le document DE 42 42 700 Al. Avec de tels montages connus, on peut par exemple étendre la régulation de vitesse du véhicule pour l'adapter à des véhicules en amont, circulant plus lentement, lorsque ceux-ci sont détectés par le système de capteurs dans la plage de trajectoire prévisible du véhicule. La plage de trajectoire peut par exemple se définir à l'aide de capteurs de vitesse de lacet, de capteurs d'angle de direction (angle de braquage) et de capteurs d'accélération transversale ainsi
qu'avec la vitesse des roues ou avec des systèmes de traite-
ment d'image et de navigation.
Pour avoir un système fonctionnant parfaitement,
il faut en principe un calibrage préalable du système de cap-
teurs ou des différents capteurs dans l'environnement du vé-
hicule pour mesurer ensuite de manière précise les grandeurs géométriques telles que des longueurs, des vitesses, et ce calibrage se fait avant ou après le montage des capteurs dans
le véhicule, dans un environnement analogue à celui d'un la-
boratoire. Les différentes procédures de calibrage nécessi-
tent en général un mouvement précis des capteurs ou des objets détectés. Fréquemment même, il faut prendre en vue un
objet artificiel particulier conçu comme champ de calibrage.
Pour garantir une sécurité de fonctionnement durable, il faut également pouvoir contrôler de manière répétée ultérieurement le calibrage pour déceler d'éventuelles modifications, ce qui
peut devenir très compliqué.
Il est connu en soi selon le document EP 0 602 013 B1 que pour calibrer un système de navigation couplé, il faut utiliser des informations d'environnement
connues par exemple à partir d'une carte routière. Les infor-
mations sont traitées en fonction de l'état propre du véhi-
cule en combinaison avec les informations d'environnement
connues selon la carte.
A cet effet, l'invention concerne un procédé de calibrage du type défini ci-dessus, caractérisé en ce qu' * on saisit les données caractéristiques des objets à l'aide du système de capteurs, et on fournit ces données à une
unité de calibrage, données qui en tenant compte du mouve-
ment propre du véhicule correspondent à des objets consi-
dérés comme au repos ou quasi au repos,
* on détermine la déviation entre les données actuelles me-
surées et les données d'un modèle des objets comme vecteur
d'erreur, et on l'utilise pour corriger les données du mo-
dèle dans le sens d'une réduction au minimum de la dévia-
tion. Les opérations peuvent par exemple se faire par itération. L'invention permet de manière particulièrement avantageuse de calibrer automatiquement un système de capteur
du type de celui défini ci-dessus et d'exécuter en outre ul-
térieurement un contrôle automatique du calibrage obtenu. En dehors des éléments de capteur connus en soi, dans l'environnement du véhicule et de l'unité de traitement ou de
calibrage, il ne faut aucun moyen auxiliaire.
Il n'est pas non plus nécessaire que le véhicule
exécute des mouvements particuliers nécessaires jusqu'à pré-
sent pour le simple calibrage, car selon l'invention, le ca-
librage utilise bien plus le mouvement propre du véhicule en
fonctionnement ainsi que le fait que les objets du monde tri-
dimensionnel sont fréquemment rigides, c'est-à-dire qu'ils se déplacent globalement et que le calibrage des capteurs est
stable à long terme. Le calibrage des capteurs est quasi sta-
tionnaire, c'est-à-dire que dans tous les cas, il ne varie que lentement. Des considérations heuristiques relatives au
comportement typique d'autres automobilistes comme par exem-
ple le respect de la voie de circulation, qui peuvent con- duire à des fonctionnements erronés dans les applications
pratiques, ne sont pas nécessaires pour le présent procédé.
Une caractéristique importante de l'invention est ainsi de permettre un calibrage qui saisit aussi bien que possible les grandeurs mesurables. L'exigence d'un calibrage dit " réel " comme celui pour le calibrage en laboratoire, n'est ici que
d'importance secondaire.
Du point de vue de la fabrication, il est parti-
culièrement avantageux de pouvoir monter des capteurs non ca-
librés, car le calibrage d'un capteur est souvent sensible
vis-à-vis des contraintes mécaniques ou thermiques. Cela sim-
plifie non seulement la fabrication, mais tient également
compte de l'influence ultérieure du montage et d'autres modi-
fications des capteurs ou du véhicule, permettant d'exécuter de manière simple le calibrage. Le calibrage peut également
être vérifié à tout moment.
Suivant une caractéristique particulièrement avantageuse de l'invention:
* après une phase d'initialisation avec des paramètres pré-
déterminés, on effectue une première saisie des données objets enregistrées comme données modèles, et * dans toutes les mesures qui suivent cycliquement, on
traite dans une unité de calibrage les données objets cha-
que fois actuelles avec les données modèles mémorisées, saisies précédemment pour obtenir chaque fois le vecteur d'erreur. Pendant le traitement des données dans l'unité de calibrage, on sélectionne les données objets qui se répètent des mesures précédentes et on n'efface pas les données objets
retrouvées, ni les nouvelles données objets qui s'ajoutent.
Les données objets qui, après de multiples mesures faites à partir de positions différentes du véhicule présentent une
réduction de l'intervalle de confiance respectif, sont carac-
térisées comme concernant des objets au repos ou quasi au re-
pos.
Selon le procédé de l'invention, on peut égale-
ment déterminer à partir de données objets successives, une vitesse relative concordante des objets et en déduire le mou- vement propre du véhicule. Les données objets associées à un
objet ayant la même vitesse relative peuvent être caractéri-
sées comme des données appartenant à un objet au repos ou au quasi repos. De façon avantageuse, comme mouvement propre du véhicule, on peut également déduire un mouvement de rotation
du véhicule par les mouvements de tangage et/ou dans les tra-
jectoires courbes.
Les résultats du calibrage d'un capteur du sys-
tème de capteurs peuvent être transmis de manière simple à un
ou plusieurs autres capteurs du véhicule pour calibrer égale-
ment ceux-ci. Le procédé selon l'invention permet ainsi un calibrage commun de la plupart des capteurs du véhicule après leur mise en place, sans nécessiter de conditions limites particulières. Notamment la combinaison de capteurs tels qu'une caméra, un radar, un capteur radar, un capteur d'accélération est avantageuse dans le cas présent; on peut
également prévoir une application en liaison avec des cap-
teurs Lidar ou à ultra-sons.
Au cas o le ou les capteurs du système de cap-
teurs fournissent des données de mesure contradictoires, on peut par exemple signaler cette situation à une unité
d'exploitation ou au conducteur du véhicule.
L'invention permet ainsi avantageusement d'exé-
cuter un calibrage avec de bons résultats sans dispositif de
calibrage particulier ou sans succession de mouvement de ca-
librage. Le système de capteurs ou système d'exploitation peut être à calibrage total ou très largement automatique et
définir la précision et la fiabilité du calibrage. Les para-
mètres qui ne sont pas calibrés ou ne le sont pas encore sont
caractérisés par une imprécision infinie. On remarque en par-
ticulier que le procédé selon l'invention autorise des varia-
tions grossières du calibrage par exemple à cause de décalage
d'origine thermique ou mécanique.
L'invention peut s'appliquer de manière particu-
lièrement avantageuse si le système de capteurs est un sys-
tème de prise de vue qui saisit et exploite à l'aide d'une caméra électronique dont la caractéristique de conversion n'est pas linéaire, dans des intervalles de prise de vue cha- que fois en série des points image. De nombreux procédés de prise de vue actuels conduisent au calibrage de la caméra par des détours en passant par les matrices fondamentales et c'est pourquoi, nécessitent une prise de vue isochrone des
éléments image (trame d'image cubique) et des données de cap-
teur synchrones. Le procédé selon l'invention fonctionne au
contraire également avec des instants de prise de vue quel-
conques pour les différents points image et avec des données de capteur asynchrones. Le procédé permet ainsi notamment le
calibrage de caméra vidéo à résolution poussée et caractéris-
tiques non linéaires, qui prennent en général des points
image serre.
Dessins: Un procédé selon l'invention de calibrage d'un système de capteur sera décrit ci-après à l'aide d'un exemple de réalisation du procédé dans un système de traitement d'image pour exploiter des objets dans la trajectoire d'un véhicule, comme représenté dans les dessins annexés, dans lesquels: * la figure 1 est une esquisse d'un véhicule équipé d'un capteur et d'un système d'exploitation et de calibrage
pour une application avec un grand nombre de capteurs sé-
parés y compris un système de prise de vue, * la figure 2 montre un premier ordinogramme des étapes de calibrage, * la figure 3 montre un second ordinogramme des étapes de calibrage, * la figure 4 est une présentation d'un modèle de chambre
noire pour la description des relations théoriques
d'obtention d'un vecteur d'erreur dans le système de cali-
brage.
Description de l'exemple de réalisation:
La figure 1 montre une réalisation possible d'un système de capteurs pour la mise en oeuvre d'un autocalibrage d'élément de capteur, intégré dans un système de saisie (ou détection) du champ environnant d'un véhicule 1 comme indiqué
dans le préambule de la présente description. La figure 1
montre seulement à titre d'exemple de capteur, une caméra électronique comme capteur de prise de vue 2, un capteur radar 3, un capteur d'accélération 4 et d'autres capteurs de roues 5. Les capteurs 2 à 5 peuvent être alignés avec leur champ d'émission et les flèches des grandeurs mécaniques à saisir, sur la saisie du mouvement du véhicule et du champ
environnant à l'avant du véhicule.
Pour des paramètres caractéristiques à l'appli-
cation, la plage de saisie ou champ environnant du véhicule contient des objets 6 ou même des groupes d'objets 6 qui se ne déforment pas pour les considérations à long terme, mais se déplacent en tous les cas globalement. A titre d'exemple, il y a notamment la chaussée, les barrières de sécurité ou le
cas échéant également d'autres véhicules. Les données four-
nies par les capteurs 2 à 5 de l'exemple de réalisation de la figure 1 sont appliquées à une ou plusieurs unités
d'exploitation 7 comportant une unité de calibrage et exploi-
tant les informations de l'environnement du véhicule. Ces
unités assurent également le calibrage. L'unité d'exploi-
tation 7 existe en général sans être prévue pour déterminer des informations du champ entourant le véhicule; cette unité
peut ainsi servir à déterminer les paramètres de calibrage.
L'unité d'exploitation 7 nécessite pour effectuer le calibrage des capteurs, des données objets qu'elle peut prendre dans une mémoire 8. Dans l'unité d'exploitation 7, avec l'exploitation des données objets, on perfectionne
l'information de calibrage contenue chaque fois dans la mé-
moire 8 comme cela sera décrit ci-après. L'information con-
cernant le champ entourant le véhicule, et qui est calculée par l'unité d'exploitation 7 en utilisant le calibrage est alors transmise pour agir sur le véhicule par un système d'actionneur 9 et/ou est fournie à titre d'information au conducteur du véhicule 1 par une interface homme-machine 10 par exemple un haut-parleur ou un afficheur. L'ensemble des actionneurs 7 peut traiter par exemple un signal
d'actionnement du frein du véhicule.
La figure 2 montre des étapes de procédé possi-
bles pour l'exécution de l'autocalibrage du système de cap-
teur dans le véhicule 1 représenté à la figure 1. Les
grandeurs mesurées par les éléments de capteur 2 à 5 corres-
pondant à un monde réel sont représentées par les blocs 20, 21; les grandeurs modélisées sont représentées par les blocs 22, 23 en regard des précédents. La différence entre les grandeurs mesurées et les grandeurs modélisées se fait dans
le bloc 24 qui donne un vecteur d'erreur dans le bloc 25.
L'exécution du calibrage dans l'unité d'exploitation 7 se fait ainsi pour que le vecteur d'erreur soit aussi petit que possible, c'est-à-dire pour que le monde modélisé coïncide
aussi bien que possible avec le monde réel.
Les données de calibrage obtenues à partir des données objets fournies par les capteurs 2 à 5 constituent
globalement avec les données modèles du monde modélisé para-
métrique en fonction de la description du champ environnant
le véhicule, également un vecteur paramétrique qui est repré-
senté de manière abstraite dans le bloc 26. Le modèle con-
tient en plus de la description paramétrique du monde
également une image du monde pour les grandeurs mesurables par les éléments de capteur 2 à 5. Pour l'exemple de l'application d'une caméra comme capteur de prise de vue 2, on a la projection du monde sous la forme d'une suite d'images. Les grandeurs mesurables sont alors déterminées à
la fois à partir du monde modélisé paramétrique et sont mesu-
rées par l'élément de capteur 2. La différence entre ces deux informations des grandeurs mesurables est groupée en vecteur d'erreur (bloc 25). Le vecteur paramétrique du bloc 26 est alors réglé par des procédés appropriés caractérisés par le bloc 27 pour que le vecteur d'erreur soit minimum; en
d'autres termes, on le minimise pour que les mesures effecti-
ves et les grandeurs définies par le modèle en liaison avec le vecteur paramétrique actuel, se correspondent aussi bien
que possible.
Pour exécuter un tel procédé de minimisation, connu en soi, on utilise un simple critère pour obtenir une bonne concordance des grandeurs par exemple le carré de la
somme des déviations. On peut trouver un résultat suffi-
samment bon pour le procédé de minimisation par exemple par l'application du procédé du moindre carré ou encore on peut utiliser d'autres procédés d'évaluation solides comme par
exemple un filtre Kalman étendu ou des applications analo-
gues. Tous ces procédés considérés comme connus en soi per-
mettent de déterminer la précision et la fiabilité des
paramètres et des mesures.
Comme indiqué ci-dessus, le procédé selon l'invention repose sur l'hypothèse que des objets rigides 6 ou des groupes de tels objets 6 existent dans le champ autour du véhicule (environnement du véhicule). Leur mouvement peut
se décrire ainsi complètement par trois paramètres de rota-
tion et trois paramètres de translation. On suppose en outre qu'au moins certains des objets 6 se déplacent par rapport au
véhicule 1 par exemple à cause du mouvement propre du véhi-
cule 1. Ces conditions sont satisfaites suffisamment fréquem-
ment pour permettre un calcul ou un contrôle du calibrage à
des intervalles courts.
La figure 3 montre un autre ordinogramme possible pour l'exécution du procédé selon l'invention pour l'exploitation des données objets; ce procédé sera décrit en liaison avec le modèle dit à chambre noire à sténopé selon la figure 4. A l'aide de l'ordinogramme de la figure 3, on
exposera une mise en oeuvre simple de l'exploitation des don-
nées objets. Le système de capteur de base comprend nécessai-
rement seulement une caméra (capteur 2) et les capteurs
radars 3. La description détaillée de l'ordinogramme de la
figure 3 sera faite après la description de la figure 4.
La figure 4 montre à titre d'exemple un modèle d'image, simple connu pour le capteur 2 appelé modèle de chambre noire dite à sténopé et sert ainsi uniquement à la
définition des concepts. Les paramètres de calibrage des cap-
teurs 2, 3 sont décrits en commun avec les grandeurs modèles
du monde paramétrique modélisé comme description de
l'environnement du véhicule comme cela a été décrit à propos
de la figure 2 pour être réunis dans un vecteur paramétrique.
Le modèle selon la figure 4 contient en plus la description
paramétrique du monde également une image du monde à partir des grandeurs mesurables par les capteurs 2 et 3. Pour
l'exemple de la caméra 2 ou de la chambre noire selon la fi-
gure 4, il s'agit de la projection du monde sur la succession des images. Les grandeurs mesurables sont alors définies à la
fois à partir du monde paramétrique modélisé et aussi mesu-
rées à partir des capteurs. La différence entre ces deux dé-
finitions des grandeurs mesurables est groupée en un vecteur d'erreur. Le vecteur paramétrique est établi par un procédé
approprié pour que le vecteur d'erreur soit minimum, c'est-à-
dire pour que les mesures effectives et les grandeurs défi-
nies par le modèle en liaison avec le vecteur paramétrique
actuel se correspondent aussi bien que possible.
A la figure 4, le point C décrit le centre de
projection par lequel passent tous les rayons images du cap-
teur 2. La perpendiculaire au plan image par le centre de projection C est appelée axe optique (axe Z). L'axe Z coupe le plan image B au point principal image PBH. Le point image
principal PBH correspondant à (xh, y h) présente les coor-
données (x_r, y_r) dans le système de coordonnées de calcula-
teur défini par les lignes et les colonnes de l'image. L'axe
X et l'axe Y du système de coordonnées de la caméra sont pa-
rallèles aux axes du système de coordonnées du calculateur.
Comme constante de caméra c, on divise ici la distance du centre de projection par rapport au point image principal PBH
par la distance entre deux points images d'une colonne image.
Enfin, le rapport de la distance de deux points images dans
une colonne image est appelé distance à l'intérieur d'une li-
gne image comme rapport d'axe s. Pour le modèle de chambre noire selon la figure 4, les quatre paramètres (x_h, yh, c, s) représentent les paramètres intrinsèques du calibrage. On obtient ainsi la projection d'un point objet PO dans le plan image (point image PB) selon les relations suivantes x r = x-h + s*c*X / Z y r = y h + c*Y / Z (1) On suppose en outre que pour la caméra (capteur 2), on a un modèle de chambre noire simple selon la figure 4 dont le calibrage intrinsèque comprend les paramètres points
images principaux PBH, la constante de caméra c et le cali-
brage de l'axe image. Pour le capteur radar 3, il faut cali-
brer en outre le vecteur de décalage T et la rotation R entre
le système de coordonnées du radar et le système de coordon-
nées de la caméra. On obtient ainsi la relation entre le sys-
tème de coordonnées de caméra (X, Y, Z) et le système de coordonnées du radar (XR, YR, ZR):
(X,Y,Z) = R * ((XR, YR, ZR) - T) (2)
Les paramètres de calibrage des capteurs 2 et 3
forment alors le vecteur de calibrage recherché pk.
Comme grandeurs mesurables pour la caméra (cap-
teur 2), on a les coordonnées images de points caractéristi-
ques au repos sur l'objet 6 (entre autres les coins) et pour
le capteur radar 3, l'éloignement, l'angle et la vitesse re-
lative des objets au repos 6 dans le système de coordonnées du radar. Les paramètres géométriques à partir desquels on
détermine les grandeurs mesurables à l'aide du calibrage ap-
pliqué au modèle d'image, selon la figure 4 sont appelés ici paramètres de modèle pm. Pour l'exemple choisi, il s'agit des coordonnées (de caméra) des points caractéristiques ainsi que des coordonnées et de la vitesse relative des objets. Le modèle image est donné pour la caméra (capteur 2) par l'équation (1) et pour le capteur radar 3, par l'équation (2). Les paramètres modèles p_m forment en commun avec les paramètres de calibrage p_k, le vecteur paramétrique p (voir
le bloc 26 de la figure 2).
Selon l'ordinogramme de la figure 3, on initia-
lise tout d'abord le vecteur paramétrique p (bloc 30); par exemple, on fixe le point image principal PBH arbitrairement au centre de l'image; pour la constante de caméra c et le
rapport d'axes, on utilise les valeurs grossières comme cel-
les indiquées par exemple par le fabricant de caméras. Le
vecteur de décalage T et le vecteur de rotation R sont mesu-
1l rés grossièrement par exemple à l'échelle du mètre. Comme
jusqu'alors ni les points images caractéristiques, ni les ob-
jets n'ont été mesurés, le vecteur paramétrique modèle pm ne
contient pas de paramètres et l'ensemble des grandeurs mesu-
rables est initialisé comme étant vide.
Dans une étape ultérieure, les capteurs 2, 3 ef-
fectuent des mesures (bloc 31); on cherche de nouveau en particulier les grandeurs mesurables obtenues déjà dans les mesures antérieures, dans le bloc 32, c'est-à-dire en faisant
une localisation. L'ensemble des grandeurs mesurables exis-
tant actuellement est alors étendu selon le bloc 33 à de nou-
velles grandeurs mesurables, ajoutées comme par exemple de nouveaux points caractéristiques arrivant dans l'image. Les
grandeurs mesurables qui ne sont pas retrouvées par la loca-
lisation sont alors enlevées de l'ensemble des grandeurs me-
surables. Pour toutes les grandeurs mesurables, on définit les paramètres modèles p_m et le mouvement propre du véhicule
par rapport à l'instant de mesure précédent avec les inter-
valles de confiance correspondants à l'aide de procédés
usuels connus. Après avoir mesuré un point objet caractéris-
tique PO, la première fois, l'intervalle de confiance con-
tient ainsi au moins une droite. Après plusieurs mesures du même point objet caractéristique Po à partir de positions différentes, on obtient une mesure de plus en plus précise
des paramètres modèles p_m et du mouvement propre du véhi-
cule, de sorte que l'intervalle de confiance correspondant diminue. Les points objets Po avec un petit intervalle de
confiance et des coordonnées stables dans le temps sont ca-
ractérisés comme appartenant à des objets au repos 6 et sont reçus dans le vecteur du paramètre modèle. Inversement, les points qui ne sont pas ou qui ne sont plus au repos à cause
de coordonnées variables sont éliminés du vecteur paramétri-
que modèle. De façon analogue, on détermine le mouvement pro-
pre du véhicule par un procédé d'évaluation grossier à partir des vitesses relatives de tous les objets 6, mesurées par le capteur radar 3; seuls les objets qui se déplacent à cette vitesse relative sont acceptés comme étant en repos et leur
position est associée au vecteur paramétrique modèle.
Contrairement au procédé du domaine de la vision active, pour l'invention décrite à l'aide de l'exemple, il n'est pas nécessaire que le véhicule 1 exécute un mouvement
commandé; au contraire, on détermine et on utilise le mouve-
* ment actuel du véhicule 1. A l'aide des équations d'image (1) et (2) présentées ci-dessus, on détermine alors les grandeurs mesurables du monde modélisé à partir du vecteur paramétrique
p selon le bloc 34 de la figure 3. La différence entre la va-
leur des grandeurs mesurables du fait de la mesure par cap-
teur et de la modélisation est appelée vecteur d'erreur (bloc ); le vecteur d'erreur dépend également des paramètres de
calibrage, car les valeurs modélisées dépendent du calibrage.
Par un calcul de compensation déjà évoqué, on peut alors modifier le vecteur paramétrique p selon le bloc 36 pour diminuer le vecteur d'erreur en utilisant par exemple le procédé des moindres carrés. Puis, on exécute de nouvelles mesures avec les capteurs 2 et 3 pour obtenir globalement un procédé de calibrage itératif (bloc 37). Dans l'exécution des
étapes de procédé décrites, on a ainsi une convergence rela-
tivement rapide des paramètres de calibrage pour de bonnes valeurs par des mesures géométriques. Il est particulièrement avantageux pour la qualité du calibrage de prendre en compte
les mouvements de rotation du véhicule comme ceux qui se pro-
duisent en pratique et qui correspondent aux mouvements de
tangage ou au déplacement en courbe.
Claims (7)
1 ) Procédé de calibrage d'un système de capteur pour saisir et exploiter des objets dans la trajectoire d'un véhicule (1) caractérisé en ce que on saisit les données caractéristiques des objets (6) à l'aide du système de capteurs (2, 3, 4, 5), et on fournit
ces données à une unité de calibrage, données qui en te-
nant compte du mouvement propre du véhicule (1) correspon-
dent à des objets (6) considérés comme au repos ou quasi au repos, et
* on détermine (25; 35) la déviation entre les données ac-
tuelles mesurées et les données d'un modèle des objets (6) comme vecteur d'erreur, et on l'utilise pour corriger les données du modèle dans le sens d'une réduction au minimum
de la déviation (26, 27; 36, 37).
2 ) Procédé selon la revendication 1, caractérisé en ce que * après une phase d'initialisation (30) avec des paramètres prédéterminés, on effectue une première saisie (20, 21;
31, 32) des données objets enregistrées comme données mo-
dèles (22; 33) et * dans toutes les mesures qui suivent cycliquement, on traite dans une unité de calibrage (25, 26;34, 35) les
données objets chaque fois actuelles avec les données mo-
dèles mémorisées, saisies précédemment pour obtenir chaque
fois le vecteur d'erreur.
3 ) Procédé selon la revendication 2, caractérisé en ce que
* pendant le traitement des données dans l'unité de cali-
brage (7), on sélectionne les données objets obtenues dans les mesures précédentes, on efface les données objets non
retrouvées et on reçoit les données objets nouvelles ra-
joutées, et
* on caractérise les données objets qui, après plusieurs me-
sures pour des positions différentes du véhicule, corres-
pondent à une réduction de l'intervalle de confiance
respectif, comme données appartenant à un objet (6) au re-
pos ou quasi au repos.
4 ) Procédé selon la revendication 2 ou 3, caractérisé en ce que * à partir de données objets successives, on détermine une vitesse relative concordante des objets et à partir de là le mouvement propre du véhicule (1), et * on caractérise les données objets associées à un objet (6) avec la même vitesse relative comme données appartenant à
un objet (6) au repos ou quasi au repos.
) Procédé selon l'une quelconque des revendications 1 à 4,
caractérisé en ce que
comme mouvement propre du véhicule (1), on déduit un mouve-
ment de rotation du véhicule (1) par les mouvements de tan-
gage et/ou dans un passage en courbe.
6 ) Procédé selon l'une quelconque des revendications 1 à 5,
caractérisé en ce que le système de capteur contient un système de prise de vue
comme capteur (2) dans lequel à l'aide d'une caméra électro-
nique à caractéristique de conversion non linéaire dans les intervalles de prise de vue, on saisit chaque fois en série
des points images et on les exploite.
7 ) Procédé selon l'une quelconque des revendications 1 à 6,
caractérisé en ce qu' on transpose les résultats du calibrage d'un capteur (2) du système de capteur à un ou plusieurs autres capteurs (3, 4, ) du véhicule (1) pour calibrer également ces capteurs.
8 ) Procédé selon l'une quelconque des revendications 1 à 7,
caractérisé en ce qu' au cas o les capteurs (2, 3, 4, 5) du système de capteur
fournissent des données de mesure contradictoires, on le si-
gnale à l'unité d'exploitation ou au conducteur du véhicule ( 1)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19962997A DE19962997B4 (de) | 1999-12-24 | 1999-12-24 | Verfahren zur Kalibrierung eines Sensorsystems |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2803031A1 true FR2803031A1 (fr) | 2001-06-29 |
FR2803031B1 FR2803031B1 (fr) | 2007-09-14 |
Family
ID=7934494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0016887A Expired - Fee Related FR2803031B1 (fr) | 1999-12-24 | 2000-12-22 | Procede de calibrage d'un systeme de capteur |
Country Status (5)
Country | Link |
---|---|
US (1) | US6778928B2 (fr) |
JP (1) | JP2001227982A (fr) |
DE (1) | DE19962997B4 (fr) |
FR (1) | FR2803031B1 (fr) |
IT (1) | IT1319376B1 (fr) |
Families Citing this family (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7310440B1 (en) * | 2001-07-13 | 2007-12-18 | Bae Systems Information And Electronic Systems Integration Inc. | Replacement sensor model for optimal image exploitation |
US7774113B2 (en) * | 2002-04-10 | 2010-08-10 | Trw Limited | Cameras to determine vehicle heading |
JP3511606B2 (ja) * | 2002-04-22 | 2004-03-29 | 三菱電機株式会社 | 車載レーダ装置の位置調整装置および位置調整方法 |
DE10218228A1 (de) * | 2002-04-24 | 2003-11-06 | Volkswagen Ag | Verfahren und Einrichtung zur Funktionskontrolle einer Videokamera in einem Fahrzeug |
DE10229336A1 (de) * | 2002-06-29 | 2004-01-15 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Kalibrierung von Bildsensorsystemen |
DE10229334B4 (de) | 2002-06-29 | 2010-09-23 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Kalibrierung von Sensoren im Kraftfahrzeug mittels eines Kalibrierobjekts mit Triple-Spiegel als Bezugsmerkmal |
DE10246067B4 (de) * | 2002-10-02 | 2008-01-03 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug |
DE10246066B4 (de) * | 2002-10-02 | 2007-11-22 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug |
JP4019933B2 (ja) * | 2002-12-26 | 2007-12-12 | 日産自動車株式会社 | 車両用レーダ装置およびレーダの光軸調整方法 |
DE10323915A1 (de) * | 2003-05-23 | 2005-02-03 | Daimlerchrysler Ag | Kamerabasierte Positionserkennung für ein Straßenfahrzeug |
DE102004028090A1 (de) * | 2004-06-09 | 2005-12-29 | Robert Bosch Gmbh | Verfahren zur Kalibrierung einer Sensorik zur Fahrzeuginnenraumüberwachung |
US7720580B2 (en) | 2004-12-23 | 2010-05-18 | Donnelly Corporation | Object detection system for vehicle |
DE102005014954A1 (de) * | 2005-04-01 | 2006-10-05 | Audi Ag | Korrektur der Messfehler des Gierwinkels bei Sensoren zur Fahrspurerkennung |
US7287699B2 (en) * | 2005-08-05 | 2007-10-30 | Honeywell International Inc. | Sensor calibration method and systems |
US7706978B2 (en) * | 2005-09-02 | 2010-04-27 | Delphi Technologies, Inc. | Method for estimating unknown parameters for a vehicle object detection system |
US8095233B1 (en) * | 2005-10-11 | 2012-01-10 | American Grid, Inc. | Interconnected premises equipment for energy management |
US20070182623A1 (en) * | 2006-02-03 | 2007-08-09 | Shuqing Zeng | Method and apparatus for on-vehicle calibration and orientation of object-tracking systems |
DE102007008798A1 (de) * | 2007-02-22 | 2008-09-04 | Götting jun., Hans-Heinrich | Anordnung zur Überprüfung eines berührungslos wirkenden Schutzsensors |
US20090228172A1 (en) * | 2008-03-05 | 2009-09-10 | Gm Global Technology Operations, Inc. | Vehicle-to-vehicle position awareness system and related operating method |
DE102008025459B4 (de) | 2008-05-28 | 2020-03-26 | HELLA GmbH & Co. KGaA | Verfahren und Vorrichtung zur Kalibrierung einer durch einen Frontscheinwerfer eines Fahrzeugs erzeugten vertikalen Hell-Dunkel-Grenze |
DE102008025458B4 (de) | 2008-05-28 | 2020-03-12 | HELLA GmbH & Co. KGaA | Verfahren und Vorrichtung zur Kalibrierung einer durch einen Frontscheinwerfer eines Fahrzeugs erzeugten horizontalen Hell-Dunkel-Grenze |
US8155433B2 (en) | 2008-07-10 | 2012-04-10 | Goodrich Corporation | Method of object location in airborne imagery using recursive quad space image processing |
DE102008045618B4 (de) | 2008-09-03 | 2010-07-08 | Daimler Ag | Verfahren und Vorrichtung zur Kalibrierung von Sensoren eines Fahrzeuges |
DE102008042018A1 (de) * | 2008-09-12 | 2010-03-18 | Robert Bosch Gmbh | Verfahren zum Justieren oder Kalibrieren eines Fahrzeugumfeldsensors sowie Fahrzeugumfeldsensor-Justier- oder Kalibrier-Anordnung |
US9279882B2 (en) * | 2008-09-19 | 2016-03-08 | Caterpillar Inc. | Machine sensor calibration system |
US9105080B2 (en) | 2008-10-01 | 2015-08-11 | Hi-Key Limited | Method and a system for calibrating an image capture device |
EP2179892A1 (fr) | 2008-10-24 | 2010-04-28 | Magna Electronics Europe GmbH & Co. KG | Procédé de calibrage automatique d'une caméra virtuelle |
JP5051468B2 (ja) * | 2008-12-25 | 2012-10-17 | トヨタ自動車株式会社 | センサ校正装置、及び、センサ校正方法 |
US20100235129A1 (en) * | 2009-03-10 | 2010-09-16 | Honeywell International Inc. | Calibration of multi-sensor system |
US9150155B2 (en) | 2010-01-13 | 2015-10-06 | Magna Electronics Inc. | Vehicular camera and method for periodic calibration of vehicular camera |
DE102010049047A1 (de) | 2010-10-18 | 2012-04-19 | Hella Kgaa Hueck & Co. | Verfahren und Vorrichtung zur Überprüfung eines lichttechnischen Fahrassistenzsystems |
DE102010062696A1 (de) * | 2010-12-09 | 2012-06-14 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Kalibrieren und Justieren eines Fahrzeug-Umfeldsensors. |
DE102011007024A1 (de) * | 2011-04-08 | 2012-10-11 | Robert Bosch Gmbh | Verfahren zur Bestimmung der Position eines sich bewegenden Fahrzeugs und Manöverassistenzsystem |
DE102011078631A1 (de) | 2011-07-05 | 2013-01-10 | Robert Bosch Gmbh | Anordnung und Verfahren zum Bestimmen einer Abbildungsabweichung einer Kamera |
DE102011086244A1 (de) * | 2011-11-14 | 2013-05-16 | Robert Bosch Gmbh | Verfahren zum Betreiben eines Sensors |
US8676438B2 (en) * | 2012-07-31 | 2014-03-18 | Ford Global Technologies | Method and system for implementing ultrasonic sensor signal strength calibrations |
DE102013209721A1 (de) * | 2012-08-20 | 2014-02-20 | Johnson Controls Gmbh | Verfahren zur Kalibrierung einer TOF-Kamera |
DE102012108862A1 (de) * | 2012-09-20 | 2014-05-28 | Continental Teves Ag & Co. Ohg | Verfahren zur Kalibrierung mehrerer Umfeldsensoren in einem Fahrzeug |
US9008886B2 (en) * | 2012-12-12 | 2015-04-14 | Caterpillar Inc. | Method of modifying a worksite |
EP2767846B1 (fr) * | 2013-02-18 | 2017-01-11 | Volvo Car Corporation | Procédé d'étalonnage d'un groupe de capteurs dans un véhicule automobile |
DE102013220016A1 (de) * | 2013-10-02 | 2015-04-02 | Conti Temic Microelectronic Gmbh | Verfahren und Vorrichtung zur Funktionsüberwachung eines Fahrerassistenzsystems |
KR101510336B1 (ko) * | 2013-11-14 | 2015-04-07 | 현대자동차 주식회사 | 차량용 운전자 지원 시스템의 검사 장치 |
KR101510338B1 (ko) * | 2013-11-22 | 2015-04-07 | 현대자동차 주식회사 | 차량용 차선 이탈 경보 시스템의 검사 장치 |
DE102014204000A1 (de) * | 2014-03-05 | 2015-09-10 | Conti Temic Microelectronic Gmbh | Vorrichtung zur Korrektur eines Abstandswertes und/oder zur Korrektur eines Relativgeschwindigkeitswertes, Fahrzeug und Verfahren |
JP5976027B2 (ja) * | 2014-03-27 | 2016-08-23 | 三菱電機株式会社 | センサ軸ずれ検出装置およびセンサ軸ずれ検出方法 |
US9315164B2 (en) * | 2014-07-30 | 2016-04-19 | GM Global Technology Operations LLC | Methods and systems for integrating after-market components into a pre-existing vehicle system |
DE102015011020B3 (de) * | 2015-08-22 | 2016-10-13 | Audi Ag | Verfahren zur Zuordnung von vorgegebenen Einbaupositionen zu an den Einbaupositionen in einem Kraftfahrzeug verbauten Radarsensoren und Kraftfahrzeug |
US10605633B2 (en) * | 2015-10-08 | 2020-03-31 | Aclima, Inc. | Distributed sensor calibration |
JP2017101944A (ja) * | 2015-11-30 | 2017-06-08 | パイオニア株式会社 | 速度算出装置、制御方法、プログラム及び記憶媒体 |
US10281923B2 (en) | 2016-03-03 | 2019-05-07 | Uber Technologies, Inc. | Planar-beam, light detection and ranging system |
WO2018042628A1 (fr) | 2016-09-02 | 2018-03-08 | パイオニア株式会社 | Dispositif de calcul de vitesse, procédé de commande, programme, et support d'informations |
US10481243B2 (en) * | 2016-10-31 | 2019-11-19 | Aptiv Technologies Limited | Automated vehicle radar system with self-calibration |
DE102016123952A1 (de) * | 2016-12-09 | 2018-06-14 | Schaeffler Technologies AG & Co. KG | Verfahren zum Betätigen einer Kupplung eines Hybridantriebsstranges sowie Antriebsstrang mit Kupplung |
US10509120B2 (en) * | 2017-02-16 | 2019-12-17 | GM Global Technology Operations LLC | Lidar-radar relative pose calibration |
US11537134B1 (en) * | 2017-05-25 | 2022-12-27 | Apple Inc. | Generating environmental input encoding for training neural networks |
US10678260B2 (en) * | 2017-07-06 | 2020-06-09 | GM Global Technology Operations LLC | Calibration methods for autonomous vehicle operations |
FR3070085B1 (fr) * | 2017-08-11 | 2019-08-23 | Renault S.A.S. | Procede d’etalonnage d’une camera d’un vehicule automobile |
KR101947478B1 (ko) * | 2017-09-19 | 2019-02-13 | 충북대학교 산학협력단 | 라이다 센서의 배치 위치 결정 방법 및 그를 위한 장치 |
EP3477334A1 (fr) | 2017-10-24 | 2019-05-01 | Veoneer Sweden AB | Étalonnage de détecteur radar automatique |
US11327162B1 (en) | 2017-11-20 | 2022-05-10 | Waymo Llc | Methods of calibrating or validating sensors by using a plurality of fiducials |
CN109839132A (zh) * | 2017-11-29 | 2019-06-04 | 德尔福技术有限责任公司 | 自动车辆传感器校准系统 |
US20190162820A1 (en) * | 2017-11-29 | 2019-05-30 | Delphi Technologies, Llc | Automated vehicle sensor calibration system |
US10408638B2 (en) | 2018-01-04 | 2019-09-10 | Mitsubishi Electric Research Laboratories, Inc. | System and method for controlling a vehicle under sensor uncertainty |
DE102018201154A1 (de) * | 2018-01-25 | 2019-07-25 | HELLA GmbH & Co. KGaA | Verfahren zur Kalibrierung von Sensoren und/oder von Sensoranordnungen |
EP3766046A1 (fr) * | 2018-03-14 | 2021-01-20 | Nokia Technologies Oy | Étalonnage de caméra et/ou utilisation d'une caméra étalonnée |
US10989562B2 (en) | 2018-07-12 | 2021-04-27 | Toyota Research Institute, Inc. | Systems and methods for annotating maps to improve sensor calibration |
DE102018213940A1 (de) | 2018-08-17 | 2020-02-20 | Robert Bosch Gmbh | Vorrichtung mit einer Sensoreinheit und einer Selbstkalibrierungsfunktion |
DE102018213995A1 (de) * | 2018-08-20 | 2020-02-20 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zur präzisen Bestimmung der Bewegung eines Kraftfahrzeuges |
DE102018213994A1 (de) * | 2018-08-20 | 2020-02-20 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zur Bestimmung der Bewegung eines Kraftfahrzeuges |
CN109059902B (zh) * | 2018-09-07 | 2021-05-28 | 百度在线网络技术(北京)有限公司 | 相对位姿确定方法、装置、设备和介质 |
DE102018123391A1 (de) * | 2018-09-24 | 2020-03-26 | HELLA GmbH & Co. KGaA | Verfahren für eine Sensoranordnung, Sensoranordnung, Computerprogrammprodukt und computerlesbares Medium |
DK180555B1 (en) | 2018-12-10 | 2021-06-17 | Motional Ad Llc | Systems and methods for validating and calibrating sensors |
KR20200084934A (ko) * | 2018-12-20 | 2020-07-14 | 삼성전자주식회사 | 차량의 주행을 제어하는 장치 및 차량의 주행을 제어하는 장치가 캘리브레이션을 수행하는 방법 |
US11327155B2 (en) | 2018-12-21 | 2022-05-10 | Robert Bosch Gmbh | Radar sensor misalignment detection for a vehicle |
DE102019200612A1 (de) | 2019-01-18 | 2020-07-23 | Zf Friedrichshafen Ag | Vorrichtung und Verfahren zum Kalibrieren eines Multiple-Input-Multiple-Output-Radarsensors |
US11338816B2 (en) * | 2019-02-02 | 2022-05-24 | Ford Global Technologies, Llc | Over-the-air flashing and reproduction of calibration data using data regression techniques |
EP3699630A1 (fr) * | 2019-02-25 | 2020-08-26 | KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH | Système et procédé de compensation de mouvement d'un composant de véhicule |
EP3761054A1 (fr) * | 2019-07-04 | 2021-01-06 | Veoneer Sweden AB | Étalonnage d'un capteur basé sur des chaînes de détections |
DE102019214544B4 (de) * | 2019-09-24 | 2022-04-28 | Vitesco Technologies GmbH | Verfahren und Vorrichtung zum Bestimmen einer Soll-Position eines Umgebungssensors eines Fahrzeugs |
EP3809311A1 (fr) * | 2019-10-15 | 2021-04-21 | Elektrobit Automotive GmbH | Traitement de données de capteur dans un véhicule automobile |
GB2594111B (en) | 2019-12-18 | 2023-06-07 | Motional Ad Llc | Camera-to-LiDAR calibration and validation |
CN112082575B (zh) * | 2020-09-07 | 2022-04-01 | 北京华研军盛科技有限公司 | 一种用于测试加速度对倾角传感器影响的试验装置及方法 |
CN112255621B (zh) * | 2020-10-09 | 2022-08-30 | 中国第一汽车股份有限公司 | 一种车辆传感器的标定方法、装置、电子设备及存储介质 |
DE102020007599A1 (de) * | 2020-12-11 | 2022-06-15 | Daimler Truck AG | Verfahren zur Validierung von Umgebungserfassungssensoren eines Fahrzeugs und zur Validierung von Umgebungserfassungssensoren eingerichtetes Fahrzeug |
GB2604175A (en) | 2021-02-26 | 2022-08-31 | Daimler Ag | A method for determining a mounting position error of an environment sensor device of an assistance system of a motor vehicle as well as an assistance syste |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5068791A (en) * | 1989-12-06 | 1991-11-26 | Crown Equipment Corporation | Distance and angle measurements in a wire guided vehicle |
US5247487A (en) * | 1991-06-17 | 1993-09-21 | Spatial Positioning Systems, Inc. | Spatial measurement recovery system |
EP0602013A2 (fr) * | 1989-04-07 | 1994-06-15 | Sumitomo Electric Industries, Ltd | Appareil de calibrage d'un capteur de vitesse angulaire d'un système de navigation autonome |
EP0915350A2 (fr) * | 1997-11-06 | 1999-05-12 | DaimlerChrysler AG | Dispositif pour déterminer des données indicatives de l'évolution des voies de circulation |
EP0921509A2 (fr) * | 1997-10-16 | 1999-06-09 | Navigation Technologies Corporation | Système et méthode de mise à jour, d'amélioration et d'affinage d'une base de données géographique par rétroaction |
US5949685A (en) * | 1997-06-03 | 1999-09-07 | The Boeing Company | Real-time orientation of machine media to improve machine accuracy |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2725446B2 (ja) * | 1990-07-13 | 1998-03-11 | 日産自動車株式会社 | 振動成分検出画像処理装置 |
FI922031A0 (fi) * | 1991-10-23 | 1992-05-05 | Antti Aarne Ilmari Lange | Foerfarande foer kalman-filter i stora system. |
DE4242700C2 (de) * | 1992-12-17 | 2003-01-30 | Bosch Gmbh Robert | Verfahren zur Messung des Abstandes und der Geschwindigkeit von Objekten |
US5983161A (en) * | 1993-08-11 | 1999-11-09 | Lemelson; Jerome H. | GPS vehicle collision avoidance warning and control system and method |
JPH07286858A (ja) * | 1994-04-20 | 1995-10-31 | Hitachi Ltd | 障害物検知装置及び障害物検知装置を備えるナビゲーション装置 |
US5559695A (en) * | 1994-12-27 | 1996-09-24 | Hughes Aircraft Company | Apparatus and method for self-calibrating visual time-to-contact sensor |
JPH1123291A (ja) * | 1997-07-04 | 1999-01-29 | Nissan Motor Co Ltd | 車両用画像処理装置 |
JPH11184375A (ja) * | 1997-12-25 | 1999-07-09 | Toyota Motor Corp | デジタル地図データ処理装置及びデジタル地図データ処理方法 |
JP3523480B2 (ja) * | 1998-01-27 | 2004-04-26 | 株式会社日立ハイテクインスツルメンツ | カメラ位置の補正装置 |
JPH11345394A (ja) * | 1998-06-03 | 1999-12-14 | Mitsubishi Electric Corp | 車両の周辺監視装置 |
-
1999
- 1999-12-24 DE DE19962997A patent/DE19962997B4/de not_active Expired - Fee Related
-
2000
- 2000-12-12 IT IT2000MI002668A patent/IT1319376B1/it active
- 2000-12-22 JP JP2000389874A patent/JP2001227982A/ja active Pending
- 2000-12-22 FR FR0016887A patent/FR2803031B1/fr not_active Expired - Fee Related
- 2000-12-26 US US09/748,492 patent/US6778928B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0602013A2 (fr) * | 1989-04-07 | 1994-06-15 | Sumitomo Electric Industries, Ltd | Appareil de calibrage d'un capteur de vitesse angulaire d'un système de navigation autonome |
US5068791A (en) * | 1989-12-06 | 1991-11-26 | Crown Equipment Corporation | Distance and angle measurements in a wire guided vehicle |
US5247487A (en) * | 1991-06-17 | 1993-09-21 | Spatial Positioning Systems, Inc. | Spatial measurement recovery system |
US5949685A (en) * | 1997-06-03 | 1999-09-07 | The Boeing Company | Real-time orientation of machine media to improve machine accuracy |
EP0921509A2 (fr) * | 1997-10-16 | 1999-06-09 | Navigation Technologies Corporation | Système et méthode de mise à jour, d'amélioration et d'affinage d'une base de données géographique par rétroaction |
EP0915350A2 (fr) * | 1997-11-06 | 1999-05-12 | DaimlerChrysler AG | Dispositif pour déterminer des données indicatives de l'évolution des voies de circulation |
US6292752B1 (en) * | 1997-11-06 | 2001-09-18 | Daimlerchrysler Ag | Device for acquiring lane path indicative data |
Also Published As
Publication number | Publication date |
---|---|
FR2803031B1 (fr) | 2007-09-14 |
DE19962997B4 (de) | 2010-06-02 |
JP2001227982A (ja) | 2001-08-24 |
DE19962997A1 (de) | 2001-06-28 |
ITMI20002668A1 (it) | 2002-06-12 |
US6778928B2 (en) | 2004-08-17 |
IT1319376B1 (it) | 2003-10-10 |
US20020072869A1 (en) | 2002-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2803031A1 (fr) | Procede de calibrage d'un systeme de capteur | |
WO2018196391A1 (fr) | Dispositif et procédé d'étalonnage de paramètres externes d'un appareil photo embarqué | |
JP3261115B2 (ja) | ステレオ画像処理装置 | |
JP2001506369A (ja) | 1つまたは複数の移動カメラの初期位置および向きを校正するための方法ならびに固定対象の3次元的位置測定に対してのこの方法の応用 | |
EP1787465B1 (fr) | Procede et dispositif pour stabiliser les images donnees par une camera video | |
Wang et al. | Automated road sign inventory system based on stereo vision and tracking | |
EP1779677A1 (fr) | Procede de calibration automatique d'un systeme de stereovision | |
JP6620869B2 (ja) | 校正方法、校正装置、及びプログラム | |
CN114155501A (zh) | 一种无人车在烟雾遮挡环境下的目标检测方法 | |
EP2043044B1 (fr) | Procédé et dispositif d'assistance au parcage d'un véhicule automobile | |
Kurz et al. | Calibration of a wide-angle digital camera system for near real time scenarios | |
Blais et al. | Real-time geometrical tracking and pose estimation using laser triangulation and photogrammetry | |
FR3070085B1 (fr) | Procede d’etalonnage d’une camera d’un vehicule automobile | |
JP7492599B2 (ja) | 車載カメラ装置 | |
WO2024018709A1 (fr) | Dispositif de caméra stéréo et procédé d'étalonnage | |
US11893799B2 (en) | Computer vision system for object tracking and time-to-collision | |
FR2863050A1 (fr) | Dispositif de mesure de la distance entre deux vehicules. | |
US20230154013A1 (en) | Computer vision system for object tracking and time-to-collision | |
WO2022073809A1 (fr) | Procédé de simulation des effets de la qualité optique d'un pare-brise | |
US20210360156A1 (en) | Method for producing a spatially highly precise, localized panoramic street image and system for this | |
EP3865816A1 (fr) | Méthodes et systèmes pour mesurer à distance l'orientation angulaire d'un objet | |
GB2624483A (en) | Image processing method and method for predicting collisions | |
WO2023061915A1 (fr) | Procédé de détection d'une limite d'une voie de circulation | |
WO2024099786A1 (fr) | Procédé de traitement d'image et procédé de prédiction de collisions | |
FR3106402A1 (fr) | Procédé de calibration d’un support rotatif de dispositif d’imagerie de véhicule automobile |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |
Effective date: 20150831 |