ES2410807T3 - Procedimiento y dispositivo para ampliar una zona de visibilidad - Google Patents

Procedimiento y dispositivo para ampliar una zona de visibilidad Download PDF

Info

Publication number
ES2410807T3
ES2410807T3 ES10728731T ES10728731T ES2410807T3 ES 2410807 T3 ES2410807 T3 ES 2410807T3 ES 10728731 T ES10728731 T ES 10728731T ES 10728731 T ES10728731 T ES 10728731T ES 2410807 T3 ES2410807 T3 ES 2410807T3
Authority
ES
Spain
Prior art keywords
virtual image
image
elementary
interest
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10728731T
Other languages
English (en)
Inventor
Frédéric LARGE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
Peugeot Citroen Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peugeot Citroen Automobiles SA filed Critical Peugeot Citroen Automobiles SA
Application granted granted Critical
Publication of ES2410807T3 publication Critical patent/ES2410807T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/30Determining absolute distances from a plurality of spaced points of known location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details
    • G01S2015/938Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details in the bumper area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

Procedimiento para ampliar una zona de visibilidad obtenida por medio de una cámara montada en un vehículo,que comprende: - una etapa (108) de creación de una imagen virtual elemental (I2v) en la cual un conjunto de píxeles de laimagen virtual elemental es puesto en correspondencia con un conjunto de píxeles de una imagen real (I1R)captada por la cámara, considerando que el conjunto de píxeles de la imagen real reproduce una superficieplana del mundo real; - una etapa (110) de caracterización de la imagen virtual elemental (I2v) en la cual se genera un conjunto depuntos de interés de la imagen virtual elemental (I2v); - una etapa (115) de construcción de una imagen virtual acumulativa (I3v) en la cual al menos una parte de laimagen virtual elemental (I2v) está superpuesta con al menos una parte de la imagen virtual acumulativa (I3v)haciendo coincidir puntos de interés de la imagen virtual elemental (I2v) con puntos de interés de la imagenvirtual acumulativa (I3v); la etapa (115) de construcción es reiterada para cada nueva imagen virtual elemental(I2v) suficientemente diferente de una antigua imagen virtual (@I2v) en términos de distancias entre los puntosde interés, estando caracterizado el citado procedimiento porque comprende una etapa (114) dediferenciación en la cual se efectúa una diferencia en términos de componentes de color entre cada píxel dela nueva imagen virtual elemental (I2v) y un píxel correspondiente de la antigua imagen virtual elemental(@I2v) y en la cual se atribuye al citado pixel de la nueva imagen virtual elemental (I2v), un nivel detransparencia que es función de la citada diferencia.

Description

Procedimiento y dispositivo para ampliar una zona de visibilidad
La invención concierne a un procedimiento y a un dispositivo para ampliar una zona de visibilidad obtenida por medio de una cámara montada en el vehículo, especialmente en un vehículo automóvil.
De modo más particular, el ámbito de la invención comprende los sistemas de ayuda visual al retroceso (AVR), que utilizan una o varias cámaras. El objetivo de tales sistemas es ayudar al conductor durante las maniobras a baja velocidad, mediante la visualización de una representación visual intuitiva del entorno próximo alrededor del vehículo.
Un procedimiento que comprende las etapas del preámbulo de la reivindicación 1 es conocido por el documento EP 1 830 321 A2.1.
El documento EP1094337 divulga un sistema destinado a asistir a un conductor durante una maniobra de estacionamiento advirtiéndole de una presencia de objeto tridimensional detectado por medio de un solo aparato de toma de vistas. El sistema divulgado tiene por objetivo determinar la distancia que separa al objeto del vehículo a partir de dos tomas sucesivas de imagen que son utilizadas para crear una vista estereoscópica en función del desplazamiento del vehículo calculado a partir de sensores.
Este tipo de realización necesita una gran precisión de los sensores. Además, durante los desplazamientos a baja velocidad como es generalmente el caso en el transcurso de una maniobra, la pequeña distancia recorrida por el vehículo entre dos tomas de imagen, plantea dificultades para una reconstrucción de imagen tridimensional porque esto equivale a un sistema estereoscópico que tenga una base muy corta. Saltar imágenes hasta obtener una distancia recorrida suficiente, plantea el problema de la dinámica del entorno. Un objeto en movimiento en la escena no puede ser reconstruido. Una reconstrucción suficientemente precisa de los obstáculos, exige una potencia de cálculo costosa. Finalmente, y esto no es el menor de los inconvenientes, solo pueden ser reconstruidos los objetos que estén dentro del campo de la cámara durante dos tomas de vista sucesivas.
Para poner remedio a los inconvenientes conocidos del estado de la técnica, un objeto de la invención es un procedimiento para ampliar una zona de visibilidad obtenida por medio de una cámara montada en un vehículo, que comprende:
-
una etapa de creación de una imagen virtual elemental en la cual un conjunto de píxeles de la imagen virtual elemental es puesto en correspondencia con un conjunto de píxeles de una imagen real captada por la cámara, considerando que el conjunto de píxeles de la imagen real reproduce una superficie plana del mundo real;
-
una etapa de caracterización de la imagen virtual elemental en la cual se genera un conjunto de puntos de interés de la imagen virtual elemental;
-
una etapa de construcción de una imagen virtual acumulativa en la cual se superpone al menos una parte de la imagen virtual elemental con al menos una parte de la imagen virtual acumulativa haciendo coincidir puntos de interés de la imagen virtual elemental con puntos de interés de la imagen virtual acumulativa.
De acuerdo con la invención, la etapa de construcción, es reiterada para cada nueva imagen virtual elemental suficientemente diferente de una antigua imagen virtual elemental en términos de distancias entre los puntos de interés y
el procedimiento comprende una etapa de diferenciación en la cual se efectúa una diferencia en términos de componentes de color entre cada píxel de la nueva imagen virtual elemental y un píxel correspondiente de la antigua imagen virtual elemental y en la cual se atribuye al citado pixel de la nueva imagen virtual elemental, un nivel de transparencia que es función de la citada diferencia.
Ventajosamente también, en la etapa de creación, el conjunto de pixeles de la imagen virtual elemental es puesto en correspondencia con el conjunto de pixeles de la imagen real por una tabla de correspondencia.
Ventajosamente todavía, el procedimiento comprende una etapa de visualización en la cual se superpone en tiempo real la imagen virtual elemental tal como ésta resulta de la etapa de creación con la imagen virtual acumulativa para generar una imagen instantánea de visualización.
Particularmente, en la etapa de visualización, se superpone una imagen de síntesis con la imagen virtual acumulativa.
De modo más particular, la imagen de síntesis es la de una rueda del vehículo.
De modo más particular todavía, la etapa de visualización es activada directamente después de la etapa de caracterización de la imagen virtual elemental para cada nueva imagen virtual elemental equivalente a una antigua imagen virtual elemental en términos de distancias entre los puntos de interés.
Preferentemente, la superficie plana es la del suelo.
5 De modo más preciso, la cámara utilizada comprende un plano retiniano oblicuo con respecto la citada superficie plana del mundo real.
Un objeto de la invención es también un dispositivo que comprende una cámara montada en un vehículo, caracterizado porque éste está dispuesto para poner en práctica el procedimiento de acuerdo con la invención.
Otras características y ventajas de la invención se pondrán de manifiesto de modo más claro en la descripción que 10 sigue, a título indicativo y en modo alguno limitativo, refiriéndose a los dibujos anejos, en los cuales:
-
la figura 1 es una vista en perspectiva de un vehículo en fase de maniobra;
-
la figura 2 es una vista desde arriba del vehículo de la figura 1;
-
la figura 3 muestra etapas de procedimiento de acuerdo con la invención;
-
la figura 4 es un esquema explicativo de las propiedades físicas utilizadas;
15 - la figura 5 es una vista esquemática de dispositivo de acuerdo con la invención.
La figura 1 muestra un vehículo 50 en fase de maniobra en la proximidad de un vehículo 60.
La figura 2 muestra el vehículo 50 equipado con una cámara 10 en la parte trasera.
El procedimiento explicado ahora refiriéndose a la figura 3, parte de una etapa inicial 100 en la cual el sistema, cuando éste es puesto en marcha, está en espera en tanto que la velocidad V del vehículo sea superior a una
20 velocidad de umbral Vs. En efecto, estando previstos el procedimiento y el sistema de acuerdo con la invención para ayudar al conductor a maniobrar, no es necesariamente útil hacerles funcionar cuando el vehículo está en carretera.
A partir de la etapa 100, una detección de velocidad V por debajo de la velocidad de umbral Vs valida una transición 101 que activa una etapa 102.
La etapa 102 consiste en captar una imagen real I1R del espacio cubierto por el campo de la cámara 10 en la parte
25 trasera del vehículo 50, de modo que crea por proyección, una vista desde arriba del suelo situado detrás del vehículo en el campo de la cámara.
En la figura 4, se ha representado un sistema óptico 11 y un plano retiniano 1 de la cámara real 10 en el cual se forma una imagen real I1R del suelo 3. Un eje f perpendicular al plano retiniano 1, pasa por el centro óptico del sistema óptico 11. Un sistema de referencia o1x1y1z1 ligado al plano retiniano 1 tiene su eje z1 paralelo al eje f
30 orientado hacia el suelo 3 y su origen o1 a una altura A1 por encima del suelo de valor constante que resulta del montaje de la cámara 10 en el vehículo 50. Un sistema de referencia OXYZ ligado al vehículo, tiene su origen O a nivel del suelo en la vertical del origen o1, su eje X paralelo al eje x1 horizontal y su eje Y horizontal perpendicular al eje X. El eje f forma un ángulo a con el plano del suelo.
Las coordenadas homogéneas w1u1, w1v1, w1 en un plano proyectivo del sistema de referencia o1x1y1z1 para z1 = 0,
35 están ligadas a las coordenadas u1, v1 de los puntos de la imagen real en el plano retiniano por el coeficiente de proporcionalidad w1. Aplicando a la cámara 10, el modelo estenopeico, las coordenadas homogéneas w1u1, w1v1, w1 de cada punto de la imagen correspondiente a un punto a nivel del suelo de coordenadas X, Y, 0 en el sistema de referencia OXYZ vienen dadas por una transformación de tipo conocido:
0 00
X
Y
0
1
l1u
f10 0 0
0
f
00
0 010
wu
wv
uv
c1u
a
a
0
-
-
0
sen
cos
0
l1v
c
1v
a
a
A1
0
-
-
sen
cos
001
w
00 01
40 En esta transformación, los coeficientes l1u y l1v son los factores de agrandamiento de la imagen. Se puede
atribuir un valor nulo al coeficiente
cuando las líneas y las columnas de células electrónicas fotosensibles que
uv
componen el sensor de la cámara, son ortogonales. Las coordenadas c1 y c1 de la proyección del centro óptico
u v
de la cámara sobre el plano imagen, son las de la intersección del eje f con el plano retiniano 1. El coeficiente f1 representa la distancia focal de la cámara 10. La cámara está fijada al vehículo con un ángulo de mira hacia el suelo constante de modo que se dan valores constantes a los coeficientes de la transformación.
Multiplicando las tres matrices anteriores, la transformación puede escribirse todavía:
X
mmm m
w1u11uX 1uY 1uZ 1u
Y
wvmmm m
11 1vX 1vY 1vZ 1v
w1 mm m m
1wX 1wY 1wZ 1w
Desarrollando los cálculos, el valor del coeficiente de proporcionalidad w1 viene dado por la fórmula:
w1= Ycosa – A1
A cada punto de coordenadas u1, v1 en la imagen real I1R corresponde entonces uno y un solo punto de coordenadas X, Y en el plano del suelo.
En la figura 4, se ha representado también un sistema óptico 21 y un plano retiniano 2 de una cámara virtual 20, en el cual se forma una imagen virtual I2v del suelo 3. Un eje perpendicular al plano retiniano 2 y al plano del suelo 3, pasa por el centro óptico del sistema óptico 21. Un sistema de referencia o2x2y2z2 ligado al plano retiniano 2, tiene su plano z2=0 paralelo al plano del suelo 3 y su origen o2 a una altura A2 por encima del suelo de valor constante de modo que abarca la misma superficie en el suelo que la cámara 10.
Igual que para la cámara real 10, las coordenadas homogéneas w2u2, w2v2, w2 en un plano proyectivo de referencia o2x2y2z2 a z2=0, están ligadas a las coordenadas u2, v2 de los puntos de la imagen virtual en el plano retiniano por el coeficiente de proporcionalidad w2. Aplicando también a la cámara 20, el modelo estenopeico, las coordenadas homogéneas w2u2, w2v2, w2 de cada punto de la imagen correspondiente a un punto a nivel del suelo de coordenadas X, Y, 0 en el sistema de referencia OXYZ, vienen dadas por una transformación semejante a la anteriormente explicada.
X
mm m m
wu 2uX 2uY 2uZ 2u
22 Y wvmmm m
22 2vX 2vY 2vZ 2v
w2 mmm m
2wX 2wY 2wZ 2w
desarrollando los cálculos, el valor del coeficiente de proporcionalidad w1 viene dado por la fórmula:
w2 = – A2
A cada punto de coordenadas X, Y en el plano del suelo corresponde entonces uno y un solo punto de coordenadas u2, v2 en la imagen virtual I2v.
Por transitividad de las bisecciones, a cada punto de coordenadas u1, v1 en la imagen real I1R corresponde entonces uno y un solo punto de coordenadas u2, v2 en la imagen virtual I2v y recíprocamente.
Así, cada componente de color de una superficie elemental dS2 constituida por puntos de coordenadas en un plano u2, v2 en la imagen virtual I2v es igual a la misma componente de color de una superficie elemental dS1 constituida por puntos de coordenadas en un plano u1, v1 correspondientes en la imagen real I1R.
Cuando los recursos de cálculo lo permitan, los puntos de coordenadas en un plano u1, v1 correspondientes son calculados a partir de las transformaciones anteriormente explicadas y cada componente de color integrada en la superficie elemental dS1 que comprende estos puntos, es atribuida a la superficie elemental dS2 constituida por puntos de coordenadas en un plano u2, v2 en la imagen virtual I2v.
Se observará que estando fijados los parámetros de las cámaras, las correspondencias entre puntos de la imagen virtual I2v y de la imagen real I1R son constantes.
De modo ventajoso, la invención prevé una tabla de correspondencia con una entrada indexada por las coordenadas lineales k2 de los pixeles de la imagen virtual I2v. Se recuerda que, comprendiendo la imagen virtual I2v H2 líneas de L2 pixeles por línea, un pixel de índice j en una línea de índice i, está indicado por una coordenada lineal k2 tal que:
A cada entrada indexada por k2 está asociada la coordenada lineal k1 de un pixel de la imagen real I1R que comprende el punto de coordenadas en un plano u1, v1 que corresponde al punto de coordenadas en un plano u2, v2 en el que está centrado el pixel de coordenada lineal k2.
Esta tabla de correspondencia permite ahorros en términos de recursos materiales y en términos de ejecución. En términos de recursos materiales, la tabla de correspondencia puede residir en un emplazamiento de memoria que comprenda simplemente L*H casillas de memoria para las coordenadas lineales k2, y L*H casillas de memoria para las coordenadas lineales k1 asociadas. En términos de recursos de ejecución, un simple barrido de las entradas de la tabla de correspondencia suficiente para definir los pixeles de la imagen virtual refiriéndose a los pixeles de la imagen real correspondiente, es notablemente rápido.
A partir de la etapa 102 representada en la figura 3, la obtención de la imagen virtual I2v valida una transición 103 que activa la etapa 104.
La etapa 104 consiste en determinar puntos de interés que caracterizan a la imagen virtual I2v. Para determinar los puntos de interés, pueden ser utilizados diferentes métodos. Se conocen por ejemplo los puntos de interés de tipo Harris que están ligados a puntos singulares de la imagen tal como por ejemplo, una esquina de una acera. El algoritmo de Harris y Stephen tiene el mérito de ser simple y rápido. Otros algoritmos más complejos tienen el mérito de ser más robustos ofreciendo una mejor inmunidad a los ruidos, a las variaciones de iluminación y a las variaciones bruscas de enmarcado.
A título de ejemplo puramente ilustrativo y no limitativo, se pueden citar los métodos de detección de heterogeneidad local (blob detection en inglés) que se reparten en métodos diferenciales y en método de extremos locales. Considerando una componente de color que tenga el valor F(u2, v2) para un píxel de coordenadas u2, v2 y un filtro gausiano de valor G(u2, v2, 0) dado por una fórmula del tipo:
u �v
-
22 ,,( vG u
) �2 1 e 2
en la cual 0 es un factor de escala, el sistema genera una representación tridimensional con dos dimensiones espaciales y con una dimensión de escala L(u2,v2,0) dada por el producto de convolución:
L(u2,v2,0) : = G(u2,v2,0) * F(u2,v2)
El sistema memoriza a continuación las coordenadas u2, v2, de cada pixel y el factor de escala 0 que corresponde a un extremo local de la Laplaciana f(L) de L:
� L(u ,�v ,) � L(u ,�v ,)
222, 222,
�L(u ,v ,) �
222 2
�u �u
La etapa 104 produce así una lista de puntos de interés de la imagen virtual que comprenden los pixeles de coordenadas u2, v2, con el factor de escala correspondiente a un extremo de la Laplaciana, es decir un máximo o un mínimo, incluso un máximo en una dirección y un mínimo en otra dirección.
En la etapa 105 que sigue, se crea en memoria una imagen virtual I3v. La imagen virtual I3v está destinada a representar una vista desde arriba del entorno del vehículo que va más allá de la superficie cubierta por la imagen virtual instantánea I2v. Al principio, la imagen virtual I3v comprende simplemente la primera imagen virtual instantánea I2v que acaba de calcularse. De acuerdo con la invención, la imagen virtual I3v se construirá en las etapas siguientes a medida que se produzca el desplazamiento del vehículo.
Las etapas siguientes 108 a 112, son ejecutadas en tiempo real, bajo el control de una transición 107, en tanto que la velocidad V del vehículo sea inferior a la velocidad de umbral Vs y naturalmente en tanto que el procedimiento esté activado. El procedimiento es desactivado por ejemplo por retirada de la llave de contacto.
Una detección de velocidad V superior a la velocidad de umbral, valida la transición 106 que reactiva la etapa 100, poniendo así al sistema de nuevo en el estado de espera.
Una detección de velocidad V inferior o igual a la velocidad de umbral, valida la transición 107 que activa una etapa
108.
En cada ejecución de la etapa 108, se capta una nueva imagen real I1R por medio de la cámara 10. Se produce una nueva imagen virtual I2v del suelo en vista desde arriba, a partir de la imagen real I1R como se explicó anteriormente a propósito de la etapa 102.
A partir de la etapa 108 representada en la figura 3, la obtención de la imagen virtual I2v valida una transición 109 que activa una etapa 110.
La etapa 110 consiste en determinar puntos de interés que caracterizan la nueva imagen virtual I2v, como se explicó anteriormente a propósito de la etapa 104. La nueva imagen virtual I2v es comparada con una antigua imagen virtual @I2v. La antigua imagen virtual @I2v es la última imagen virtual I2v que ha sido integrada en la imagen virtual I3v durante la ejecución de la etapa 105 o durante una ejecución precedente de una etapa 115 explicada en lo que sigue. La nueva imagen virtual I2v es considerada equivalente la antigua imagen virtual @I2v en tanto que la distancia entre cada punto de interés de la antigua imagen virtual @I2v y el punto de interés que le corresponde en la nueva imagen virtual I2v sea inferior a un valor de umbral predeterminado. La distancia puede concernir a una distancia euclidiana sobre la situación de los pixeles en el plano de la imagen. La distancia puede concernir también a una diferencia de nivel entre una componente de color del punto de interés de la antigua imagen virtual @I2v y la misma componente de color del punto de interés que le corresponde en la nueva imagen virtual I2v. La nueva imagen virtual I2v es considerada diferente de la antigua imagen virtual @I2v en cuanto la distancia entre uno o varios puntos de interés de la antigua imagen virtual @I2v y los puntos de interés que le corresponden en la nueva imagen virtual I2v sea superior al valor de umbral predeterminado.
Una transición 111, validada cuando la nueva imagen I2v sea equivalente a la antigua imagen @I2v, activa una etapa
112. Las imágenes virtuales son equivalentes en tanto en que el vehículo se desplace poco o no se desplace. Conviene entonces no tener en cuenta la nueva imagen virtual porque modificaciones pequeñas podrían correr el riesgo de provocar progresivamente una deriva por acumulación de errores sucesivos.
Una transición 113, validada cuando la nueva imagen I2v sea diferente de la antigua imagen @I2v, activa una etapa
114. Típicamente, las imágenes virtuales son netamente diferentes cuando el vehículo ha avanzado suficientemente, retrocedido o girado.
La etapa 114 consiste en evaluar la diferencia entre la nueva imagen virtual I2v y la antigua imagen virtual @I2v de modo que se superpongan un mayor número posible de puntos de interés de la nueva imagen virtual I2v con los puntos de interés correspondientes de la antigua imagen virtual @I2v. Por ejemplo, desplazamientos de puntos de interés en la imagen virtual según una dirección común con valores comunes, denota un movimiento del vehículo en traslación en un sentido opuesto al de los puntos de interés en la nueva imagen virtual. Por ejemplo todavía, desplazamientos de puntos de interés en la imagen virtual según direcciones diferentes con valores diferentes, denota un movimiento del vehículo en rotación o sobre un arco de curva en un sentido opuesto al de los puntos de interés en la nueva imagen virtual.
Para calcular la transformación afin que hace pasar de la antigua imagen virtual @I2v a la imagen virtual nueva I2v, se considera que los puntos de interés pertenecen a una escena plana que es rígida. En otras palabras, un punto de interés que pertenece a una parte de la nueva imagen virtual I2v que se superpone con la antigua imagen virtual @I2v, tiene un punto de interés combinado en la antigua imagen virtual @I2v y los dos puntos de interés están situados en un mismo elemento de la escena. Sin embargo, a causa de los ruidos, de puntos de interés que no verifiquen las hipótesis de la escena plana o a otros fenómenos, un punto de interés de una imagen virtual puede no tener punto de interés combinado en la otra imagen virtual que corresponda a un elemento del suelo o a un mismo elemento. Tales puntos de interés, considerados aberrantes (outliers en inglés), no son tenidos en cuenta para la superposición de las dos imágenes virtuales.
Después de la superposición de la nueva imagen virtual con la antigua imagen virtual de modo que se hagan coincidir los puntos de interés, se distingue una primera parte de la nueva imagen virtual que sale del marco de la antigua imagen virtual y una segunda parte de la nueva imagen virtual que recubre parcialmente a la antigua imagen virtual. Este recubrimiento parcial resulta del desplazamiento del vehículo. La primera parte servirá para ampliar el alcance la imagen virtual acumulativa I3v. Los pixeles de la primera parte no corresponden a ningún pixel de la antigua imagen virtual @I2v y por tanto podrán ser integrados tal cual en la imagen virtual acumulativa I3v.
Cada pixel de la segunda parte de la nueva imagen virtual I2v se superpone con un pixel de la antigua imagen virtual @I2v, idealmente con componentes de color RVB o de tinte y de luminosidad de valor idéntico.
Sin embargo, la realidad puede alejarse de la situación ideal por varias razones. Una primera razón es que la hipótesis de un suelo perfectamente plano en la parte trasera del vehículo, sobre la cual se basa la construcción de la imagen virtual I2v, no siempre se verifica. Un obstáculo que sobresalga del suelo o se hunda en el suelo, no verifica la transformación de solución única que resulta de Z nulo. Un mismo punto de este obstáculo aparece con coordenadas que no concuerdan en las dos imágenes virtuales. Recíprocamente, un pixel, correspondiente a un punto considerado en el plano mientras que éste sale del plano del suelo en la imagen virtual, corresponde a otro punto en la otra imagen virtual.
Para tener en cuenta este tipo de heterogeneidad, una solución posible consiste en evaluar la distancia que separa a los dos píxeles en términos de componentes de color, de tinte o de luminosidad. La distancia entre dos pixeles superpuestos, puede ser medida en un espacio de una dimensión de los niveles de gris o en un espacio de tres dimensiones de colores RVB (rojo, verde, azul), TSV (tinte, saturación, valor de brillo) u otro.
Una segunda razón es que incluso para pixeles representativos de puntos en el plano del suelo, los pixeles llevan una discretización que hace que dos pixeles representativos de un mismo punto, solamente se superpongan perfectamente cuando el desplazamiento del vehículo entre dos tomas de vistas, corresponda a un número entero de pixeles, lo que raramente es el caso. Para responder a esta segunda razón y, por vía de consecuencia, a la primera razón citada anteriormente, la invención prevé ventajosamente hacer una medición de correlación entre una primera ventana centrada en el pixel en la antigua imagen virtual y una segunda ventana centrada en el pixel superponible en la segunda imagen virtual. La correlación es entonces representativa del pixel en su entorno.
Con el fin de ganar en tiempo de tratamiento, la diferencia basada en el coeficiente de correlación entre las dos ventanas, es calculada por una aproximación multirresolución, denominada también piramidal. La analogía con una pirámide para cada imagen virtual es la siguiente. En la base de la pirámide se encuentra la imagen virtual con su resolución de origen. En cada nivel superior, la resolución de la imagen disminuye. Generalmente, el número de pixeles está dividido por dos en la longitud y por dos en la anchura de la imagen.
La distancia así calculada entre dos pixeles, es un valor numérico cuyos mínimos y máximos están fijados. La franja de valores definida por estos mínimos y estos máximos es llevada después por puesta a escala y filtrado por umbral de los valores altos, a una franja de valores comprendidos entre 0 en ausencia de diferencia y 255 para una diferencia total. El valor así calculado, es utilizado como valor de transparencia de cada pixel con miras a su adición a la imagen virtual acumulativa I3v en forma de mosaico. Un pixel, en el sentido que es definido en el presente procedimiento, está caracterizado por su posición en la imagen, su color y su transparencia, nula por defecto que se aplica a un pixel opaco. La codificación de la transparencia es puramente convencional sin incidencia sobre su tratamiento. En el ejemplo de puesta en práctica de la presente invención aquí descrito, un pixel cuyo valor de transparencia es máximo de 255, es totalmente transparente y no aparece cuando está superpuesto con otro pixel, un pixel cuyo valor de transparencia es mínimo de 0, es perfectamente opaco y enmascara al pixel con el cual está superpuesto. Los convenios pueden ser diferentes, incluso invertidos como es el caso en el método « Alpha blending ».
A continuación de la etapa 114, una etapa 115 consiste en superponer las partes superponibles de la nueva imagen virtual I2v con las partes correspondientes de la imagen virtual acumulativa o mosaico I3v. La transparencia asignada a cada pixel de la nueva imagen virtual I2v, permite memorizar el pixel a la altura de su grado de opacidad. El nivel de transparencia por pixel permite difuminar los pixeles detectados diferentes entre dos instantes de captación de imagen real por causa de ruido o de correspondencia a un obstáculo. La etapa 115 realiza así un filtrado temporal natural memorizando acumulativamente en el mosaico constituido por la imagen virtual I3v, solamente los pixeles más fiables desde el punto de vista de su pertenencia al plano del suelo.
Así, cuando el vehículo avanza lentamente en marcha hacia delante para prepararse a maniobrar, se crea progresivamente una vista de tipo mosaico del plano del suelo de la parte trasera del vehículo. El sistema puede prescindir de sensores de velocidad del vehículo o de rotación del volante de dirección porque los puntos de interés que son generados permiten detectar los desplazamientos en traslación y en rotación del vehículo en el plano del suelo. El sistema detecta naturalmente que el vehículo se detiene cuando los puntos de interés permanecen inmovilizados y el vehículo cambia de sentido de desplazamiento en función del sentido de desplazamiento de los puntos de interés. Cuando el vehículo retrocede, éste recorre en sentido inverso el plano del suelo precedentemente escrutado. Las partes de la imagen virtual acumulativa I3v, precedentemente en la parte trasera del vehículo pasan progresivamente debajo y a los costados del vehículo hasta encontrarse en la parte delantera del vehículo, reproduciendo así una vista desde arriba de un entorno que rodea al vehículo. De cualquier modo, el vehículo en marcha atrás penetra virtual y progresivamente en la imagen virtual y a continuación evoluciona en ella cuando éste gira o parte de nuevo en marcha adelante.
La etapa 112 es activada a continuación de la etapa 115 para crear una vista de visualización I5v a partir de la imagen virtual acumulativa I3v que acaba de ser construida en forma de mosaico. La vista de visualización I5v no es memorizada. La vista de visualización I5v se crea añadiendo una imagen I4 en sobreimpresión sobre la imagen virtual I3v.
La imagen I4 comprende especialmente un ejemplar de la nueva imagen virtual I2v, sin coeficiente de transparencia, de modo que permite al conductor del vehículo, un control visual directo de la escena, especialmente si un ser vivo pasa por detrás del vehículo dentro del campo de la cámara real 10.
La activación de la etapa 112 directamente por la transición 111 o indirectamente por la transición 113 pasando por la etapa 115, actualiza en tiempo real la vista de la Interfaz hombre máquina (IHM) con la vista procedente de lacámara de retroceso. Ésta es la garantía de que el conductor pueda tener permanentemente un control visual sobre su maniobra.
Un desplazamiento del vehículo demasiado pequeño, no puede ser aproximado con precisión por el algoritmo. Debido a este desplazamiento pequeño, la última imagen virtual I2v queda fijada en el mosaico precedente tomando como hipótesis que el vehículo no se ha movido. Por el contrario, el mosaico no es actualizado, porque pequeños desplazamientos acumulados podrían conducir a derivas. Por esta razón, es necesario esperar a que la imagen corriente presente suficientemente diferencias con la antigua imagen para estimar con suficiente precisión el desplazamiento y reajustar correctamente la última imagen con el mosaico. En otras palabras, si el vehículo no se mueve o lo hace demasiado lentamente para que su movimiento pueda ser estimado con suficiente precisión por el algoritmo, el usuario continúa teniendo una vista reactualizada que tiene en cuenta una presencia de peatón o de cualquier obstáculo móvil que pase dentro del campo de la cámara real, pero el mosaico permanece inalterado. En cuanto el movimiento del vehículo sea perceptible por el usuario y por consiguiente por el algoritmo, el mosaico es actualizado y reajustado.
Introduciendo los datos del vehículo tales como sus cotas, su forma y su color, en forma de parámetros en el sistema en el momento de su montaje en el vehículo, es posible visualizar un trazado del vehículo sobre el plano del suelo.
La imagen I4 comprende opcionalmente una imagen de síntesis 3D de objetos fuera del plano del suelo que pueden constituir obstáculos a la maniobra. La imagen de síntesis puede ser construida por estereoscopia temporal a partir de dos imágenes reales I1R sucesivas suficientemente distantes una de la otra.
La utilización de sensores ultrasónicos como complemento del sistema, permite indicar la proximidad de un obstáculo en la zona cubierta por cada sensor. La repartición de los sensores en el contorno del vehículo, por ejemplo a nivel de los escudos delantero y trasero, permite reconstruir una cartografía grosera de la proximidad de eventuales obstáculos alrededor del vehículo.
La información facilitada por los sensores de ultrasonidos, es utilizable por el sistema de diferentes maneras:
-
de manera pasiva, las zonas asociadas a cada sensor de ultrasonidos, se superponen gráficamente por encima de la imagen del suelo. El usuario dispone entonces simultáneamente de la información visual del suelo alrededor del vehículo, y de la información visual de la presencia de obstáculo retornada por los sensores de ultrasonidos.
-
de manera activa, la presencia de obstáculo deducida de las transparencias puede ser comparada con la cartografía de los obstáculos que es retornada por los sensores de ultrasonidos. Estas informaciones pueden ser fusionadas entonces para obtener más precisión.
-
de manera combinada activa y pasiva, la visualización de la cartografía de los obstáculos facilitada por los sensores de ultrasonidos se superpone con la imagen del suelo, en el marco de una indicación visual pasiva. Por otra parte, la presencia de un obstáculo próximo que es detectado por los sensores de ultrasonidos, es explotada para adaptar la vista utilizada con el fin de recentrarla en esta zona, realizando así un zoom adaptativo activo.
En lo que concierne a la manipulación de la interfaz hombre máquina (IHM), están previstas varias variantes entre las cuales se indica una utilización de pantallas táctiles, una utilización de un designador de tipo moleta dispuesto para seleccionar la vista activa entre un conjunto de elecciones predefinidas, una utilización de datos de entradas exteriores tal como el zoom adaptativo en función de los obstáculos detectados por los ultrasonidos.
Después de un retroceso suficiente del vehículo, el procedimiento permite conocer el plano del suelo debajo del vehículo y en los costados del vehículo. Es posible entonces reproducir fácilmente una imagen tridimensional de síntesis de una rueda en un plano perpendicular al plano del suelo circundante. Una rueda delantera puede ser representada con su ángulo de giro cuando la información pertinente esté disponible, por ejemplo a partir de la mensajería del vehículo o de un cálculo de la rotación del vehículo alrededor de un eje perpendicular al plano que resulta de los desplazamientos de los puntos característicos en las imágenes virtuales elementales I2v.
La figura 5 representa esquemáticamente un sistema para poner en práctica el procedimiento que se acaba de explicar.
La cámara 10 montada en la parte trasera del vehículo comprende un plano reticular oblicuo con respecto al plano del suelo como se ha visto anteriormente refiriéndose a la figura 4. El plano reticular puede ir hasta ser perpendicular al plano del suelo pero entonces la superficie visualizada del suelo en la proximidad del vehículo, es pequeña. A diferencia de las vistas aéreas en las que una cámara colocada debajo de un avión permite tener una vista del plano del suelo consecuente gracias a la altitud a la cual el avión sobrevuela el suelo, una cámara colocada debajo del vehículo o en la parte trasera del vehículo con un plano reticular paralelo a la superficie del suelo, cubriría solamente un espacio relativamente restringido. El plano reticular de la cámara no paralelo al plano del suelo permite cubrir una superficie que se extienda considerablemente más lejos en la parte trasera y en los costados del vehículo.
Cada imagen de vídeo captada por la cámara 10 es transmitida hacia un módulo 51 a la cadencia de restitución en tiempo real. El módulo 51 está dispuesto para corregir las distorsiones provocadas por el sistema óptico de la cámara, especialmente en presencia de un objetivo de focal corta, denominado también de gran angular, que permite tener una zona de visibilidad amplia de base de manera apreciable hacia la parte trasera y los costados del vehículo.
Las imágenes reales que son tratadas por el módulo 51, son transmitidas a un módulo 52 que calcula una vista desde arriba como se explicó anteriormente. El módulo 52 está dispuesto esencialmente para ejecutar las etapas 102 y 108 del procedimiento. Se observará que los recursos particularmente económicos, simple tabla de correspondencia de entrada única, permiten integrar fácilmente los módulos 51 y 52 en la cámara 10.
Opcionalmente, se prevé transmitir las imágenes reales que son tratadas por el módulo 51, a un módulo 56 y/o a un módulo 58.
El módulo 56 está dispuesto para construir objetos en tres dimensiones que serán integrados en la imagen visualizada en una pantalla 55 a través de un módulo de visualización 54. Los objetos pueden ser construidos a
5 partir de las imágenes recibidas del módulo 51 y de algoritmos de segmentación o a partir de datos geométricos y colorimétricos procedentes de una base de datos que describe por ejemplo la carrocería del vehículo o el montaje de las ruedas.
El módulo 58 está dispuesto también para construir objetos en tres dimensiones que serán integrados en la imagen visualizada en la pantalla 55 a través del módulo de visualización 54. Los objetos pueden ser construidos en este
10 caso a partir de señales recibidas de un sensor 57 de ultrasonidos y eventualmente de las imágenes recibidas del módulo 51.
Las imágenes virtuales elementales generadas por el módulo 52, son transmitidas a un módulo 53 dispuesto esencialmente para ejecutar las etapas 104, 105, 110 y 115 del procedimiento, de modo que se construya la imagen virtual acumulada que amplía la visibilidad del suelo debajo y alrededor del vehículo.
15 La imagen virtual construida en el módulo 52, es transmitida al módulo de visualización 54 dispuesto esencialmente para ejecutar la etapa 112.

Claims (9)

  1. REIVINDICACIONES
    1. Procedimiento para ampliar una zona de visibilidad obtenida por medio de una cámara montada en un vehículo, que comprende:
    -
    una etapa (108) de creación de una imagen virtual elemental (I2v) en la cual un conjunto de píxeles de la imagen virtual elemental es puesto en correspondencia con un conjunto de píxeles de una imagen real (I1R) captada por la cámara, considerando que el conjunto de píxeles de la imagen real reproduce una superficie plana del mundo real;
    -
    una etapa (110) de caracterización de la imagen virtual elemental (I2v) en la cual se genera un conjunto de puntos de interés de la imagen virtual elemental (I2v);
    -
    una etapa (115) de construcción de una imagen virtual acumulativa (I3v) en la cual al menos una parte de la imagen virtual elemental (I2v) está superpuesta con al menos una parte de la imagen virtual acumulativa (I3v) haciendo coincidir puntos de interés de la imagen virtual elemental (I2v) con puntos de interés de la imagen virtual acumulativa (I3v); la etapa (115) de construcción es reiterada para cada nueva imagen virtual elemental (I2v) suficientemente diferente de una antigua imagen virtual (@I2v) en términos de distancias entre los puntos de interés, estando caracterizado el citado procedimiento porque comprende una etapa (114) de diferenciación en la cual se efectúa una diferencia en términos de componentes de color entre cada píxel de la nueva imagen virtual elemental (I2v) y un píxel correspondiente de la antigua imagen virtual elemental (@I2v) y en la cual se atribuye al citado pixel de la nueva imagen virtual elemental (I2v), un nivel de transparencia que es función de la citada diferencia.
  2. 2.
    Procedimiento de acuerdo con la reivindicación precedente, caracterizado porque en la etapa (108) de creación, el conjunto de pixeles de la imagen virtual elemental es puesto en correspondencia con el conjunto de pixeles de la imagen real por una tabla de correspondencia.
  3. 3.
    Procedimiento de acuerdo con una de las reivindicaciones precedentes, caracterizado porque comprende una etapa (112) de visualización en la cual la imagen virtual elemental tal como resulta de la etapa de creación (108) es superpuesta en tiempo real con la imagen virtual acumulativa (I3v) para generar una imagen instantánea de visualización (I5v).
  4. 4.
    Procedimiento de acuerdo con la reivindicación 3, caracterizado porque en la etapa (112) de visualización, una imagen de síntesis es superpuesta con la imagen virtual acumulativa (I3v).
  5. 5.
    Procedimiento de acuerdo con la reivindicación 4, caracterizado porque la imagen de síntesis es la de una rueda del vehículo.
  6. 6.
    Procedimiento de acuerdo con una de las reivindicaciones 3 a 5, caracterizado porque la etapa (112) de visualización es activada directamente después de la etapa (110) de caracterización de la imagen virtual elemental (I2v) para cada nueva imagen virtual elemental (I2v) equivalente a una antigua imagen virtual elemental (@I2v) en términos de distancias entre los puntos de interés.
  7. 7.
    Procedimiento de acuerdo con una de las reivindicaciones precedentes, caracterizado porque la superficie plana es la del suelo.
  8. 8.
    Procedimiento de acuerdo con la reivindicación precedente, caracterizado porque la cámara utilizada comprende un plano retiniano oblicuo con respecto a la citada superficie plana del mundo real.
  9. 9.
    Dispositivo que comprende una cámara montada en un vehículo, caracterizado porque está dispuesto para poner en práctica el procedimiento de acuerdo con una cualquiera de las reivindicaciones precedentes.
ES10728731T 2009-05-18 2010-05-10 Procedimiento y dispositivo para ampliar una zona de visibilidad Active ES2410807T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0953271A FR2945491A1 (fr) 2009-05-18 2009-05-18 Procede et dispositif pour etendre une zone de visibilite
FR0953271 2009-05-18
PCT/FR2010/050900 WO2010133785A1 (fr) 2009-05-18 2010-05-10 Procede et dispositif pour etendre une zone de visibilite

Publications (1)

Publication Number Publication Date
ES2410807T3 true ES2410807T3 (es) 2013-07-03

Family

ID=41507940

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10728731T Active ES2410807T3 (es) 2009-05-18 2010-05-10 Procedimiento y dispositivo para ampliar una zona de visibilidad

Country Status (7)

Country Link
US (1) US8860810B2 (es)
EP (1) EP2432660B1 (es)
CN (1) CN102458923B (es)
BR (1) BRPI1007119B1 (es)
ES (1) ES2410807T3 (es)
FR (1) FR2945491A1 (es)
WO (1) WO2010133785A1 (es)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2985350B1 (fr) 2012-01-04 2014-01-24 Peugeot Citroen Automobiles Sa Procede de traitement d'image d'une camera embarquee sur un vehicule et dispositif de traitement correspondant
US9524575B2 (en) 2014-12-17 2016-12-20 Facebook, Inc. Systems and methods for combining multiple frames to produce media content with simulated exposure effects
DE102015209391A1 (de) * 2015-05-22 2016-11-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen einer Maskierungsvorschrift sowie zum Maskieren einer Bildinformation einer Kamera
GB2559759B (en) * 2017-02-16 2020-07-29 Jaguar Land Rover Ltd Apparatus and method for displaying information
CN110728625B (zh) * 2019-10-14 2023-06-30 北京金山数字娱乐科技有限公司 一种图像推理的方法及装置
CN113450441B (zh) * 2021-06-23 2023-03-21 网易(杭州)网络有限公司 三维虚拟模型的渲染方法、装置和电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6483429B1 (en) * 1999-10-21 2002-11-19 Matsushita Electric Industrial Co., Ltd. Parking assistance system
US6690960B2 (en) * 2000-12-21 2004-02-10 David T. Chen Video-based surgical targeting system
WO2004114224A1 (ja) * 2003-06-20 2004-12-29 Nippon Telegraph And Telephone Corporation 仮想視点画像生成方法及び3次元画像表示方法並びに装置
DE102005013920B4 (de) * 2004-03-26 2007-12-13 Mitsubishi Jidosha Kogyo K.K. Frontsicht-Überwachungsvorrichtung
GB0422504D0 (en) * 2004-10-11 2004-11-10 Delphi Tech Inc Obstacle recognition system for a motor vehicle
US7916932B2 (en) * 2005-02-16 2011-03-29 In-G Co., Ltd. Method and system of structural light-based 3D depth imaging using signal separation coding and error correction thereof
JP2007235642A (ja) * 2006-03-02 2007-09-13 Hitachi Ltd 障害物検知システム
JP5013773B2 (ja) * 2006-08-18 2012-08-29 パナソニック株式会社 車載画像処理装置及びその視点変換情報生成方法
DE102007033735A1 (de) * 2007-02-26 2008-08-28 Volkswagen Ag Verfahren und Vorrichtung zur Detektion von nachfolgenden Fahrzeugen in einem Kraftfahrzeug
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
US20090232415A1 (en) * 2008-03-13 2009-09-17 Microsoft Corporation Platform for the production of seamless orthographic imagery

Also Published As

Publication number Publication date
BRPI1007119B1 (pt) 2019-10-22
US20120062739A1 (en) 2012-03-15
CN102458923B (zh) 2014-12-17
EP2432660A1 (fr) 2012-03-28
CN102458923A (zh) 2012-05-16
BRPI1007119A2 (pt) 2019-01-02
FR2945491A1 (fr) 2010-11-19
EP2432660B1 (fr) 2013-05-01
WO2010133785A1 (fr) 2010-11-25
US8860810B2 (en) 2014-10-14

Similar Documents

Publication Publication Date Title
ES2410807T3 (es) Procedimiento y dispositivo para ampliar una zona de visibilidad
CN107180215B (zh) 基于库位和二维码的停车场自动建图与高精度定位方法
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
US10871377B1 (en) Computer-vision based positioning for augmented reality navigation
CN104641394B (zh) 图像处理装置及图像处理方法
US10293745B2 (en) Projection of a pre-definable light pattern
EP2261604B1 (en) Computer arrangement for and method of calculating motion vectors using range sensor data
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
US9086566B2 (en) Monocular head mounted display
CN102163331A (zh) 采用标定方法的图像辅助系统
WO2023071834A1 (zh) 用于显示设备的对齐方法及对齐装置、车载显示系统
CN102158684A (zh) 具有图像增强功能的自适应场景图像辅助系统
US9881377B2 (en) Apparatus and method for determining the distinct location of an image-recording camera
EP3008708A1 (en) Vision augmented navigation
CN104303211A (zh) 用于在车辆显示器上整合虚拟对象的方法
JPWO2011007484A1 (ja) 運転支援装置、運転支援方法及びプログラム
JP2017143417A (ja) キャリブレーションシステム、キャリブレーション装置
JP5077606B2 (ja) 少なくとも1つの全方位カメラ及び光学的表示ユニットを備えた装置のキャリブレーション方法
WO2013045935A1 (en) Localising a vehicle along a route
CN110001400A (zh) 车辆用显示装置
CN102291541A (zh) 一种车辆虚拟合成显示系统
Wientapper et al. A camera-based calibration for automotive augmented reality head-up-displays
WO2019146162A1 (ja) 表示制御装置及び表示システム
JP2022549562A (ja) 車両運転支援方法およびシステム
JP2014211431A (ja) ナビゲーション装置、及び、表示制御方法