ES2908413T3 - Sistema de visión para un vehículo - Google Patents

Sistema de visión para un vehículo Download PDF

Info

Publication number
ES2908413T3
ES2908413T3 ES20166604T ES20166604T ES2908413T3 ES 2908413 T3 ES2908413 T3 ES 2908413T3 ES 20166604 T ES20166604 T ES 20166604T ES 20166604 T ES20166604 T ES 20166604T ES 2908413 T3 ES2908413 T3 ES 2908413T3
Authority
ES
Spain
Prior art keywords
image
subarea
distortion
image sensor
vision system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20166604T
Other languages
English (en)
Inventor
Werner Lang
Andreas Enz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mekra Lang GmbH and Co KG
Original Assignee
Mekra Lang GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mekra Lang GmbH and Co KG filed Critical Mekra Lang GmbH and Co KG
Application granted granted Critical
Publication of ES2908413T3 publication Critical patent/ES2908413T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/25Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the sides of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8046Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for replacing a rear-view mirror system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)

Abstract

Sistema de visión (100A, 100B) para un vehículo (1) que contiene al menos una unidad de captura de imágenes (10, 10A, 10B) para capturar datos de imagen de un área alrededor del vehículo (1), presentando la unidad de captura de imágenes (10, 10A, 10B) un sensor de imagen (11) y un elemento óptico que presenta una curva de distorsión, en donde los datos de imagen están distorsionados dependiendo de la posición en el sensor de imagen (11) conforme a la curva de distorsión del elemento óptico, al menos una unidad de procesamiento de imágenes (20A, 20B) para procesar los datos de imagen capturados por la unidad de captura de imágenes (10, 10A, 10B), y al menos una unidad de reproducción de imágenes (30, 30A, 30B) para reproducir los datos de imagen procesados por la unidad de procesamiento de imágenes (20A, 20B), caracterizado por que la unidad de procesamiento de imágenes (20A, 20B) está adaptada para tomar al menos una subárea (12, 12') de los datos de imagen del sensor de imagen (11), dependiendo la geometría de la subárea (12, 12') de la posición de la subárea (12, 12') en el sensor de imagen (11).

Description

DESCRIPCIÓN
Sistema de visión para un vehículo
Campo técnico
La presente invención se refiere a un sistema de visión para un vehículo, en particular un vehículo comercial.
Antecedentes
En el caso de los vehículos de motor, es un requisito legal que los denominados campos de visión alrededor del vehículo sean visibles para el conductor durante la operación de conducción. Los campos de visión que deben ser visibles dependen del tipo de vehículo de motor, por ejemplo, motocicletas, vehículos de motor para el transporte de pasajeros, vehículos de motor para el transporte de mercancías, etc. La visibilidad de los campos de visión debe ser proporcionada por un dispositivo de visión indirecta y los campos de visión deben ser visibles en todo momento por el conductor sentado en el asiento del conductor utilizando el dispositivo de visión indirecta. En función del tipo de vehículo y, en particular, de las regiones alrededor del vehículo que el conductor pueda ver directamente, varios requisitos legales exigen que determinados campos de visión sean visibles de manera permanente y fiable en todo momento utilizando los dispositivos de visión indirecta. En Europa, los campos de visión que deben ser visibles de forma fiable para un conductor en todo momento se definen en la Directiva N.° 46 de la CEPE/ONU. Otras normas y directivas relevantes incluyen, por ejemplo, ISO 5721, ISO 5006, ISO 16505, ISO14401 y EU 167/2013. Además de los campos de visión legalmente requeridos, otras áreas alrededor del vehículo, las denominadas áreas visuales, a menudo se hacen visibles a través de dispositivos de visión indirecta. Las áreas visuales pueden incluir los campos de visión legalmente requeridos.
Habitualmente, uno o varios espejos permiten la visualización de los campos de visión. Sin embargo, los espejos tienen algunas desventajas. Por ejemplo, los espejos solo muestran al conductor los objetos que están en el mismo lado del espejo que el conductor. Ningún objeto detrás de un espejo se puede mostrar a través de ese espejo. Además, los espejos que están hechos solamente de vidrio plano muestran un área pequeña al conductor, a menos que los espejos estén muy cerca del conductor. Si tienen una forma convexa, esto crea una distorsión de la imagen. Los vehículos grandes suelen tener seis o más espejos montados alrededor del exterior del vehículo, la mayoría de los cuales son convexos y distorsionados, lo que dificulta que el conductor mire todos los espejos relevantes al mismo tiempo. Sin embargo, a pesar de todos los espejos, suele haber todavía puntos ciegos en las áreas visuales alrededor de estos vehículos, es decir, las áreas en las que no hay campos de visión.
Recientemente, se ha vuelto cada vez más común considerar el uso de sistemas de cámara como dispositivos de visión indirecta, ya sea adicionalmente o como sustitución de los espejos como dispositivos de visión indirecta. En tales sistemas de cámara, se registra continuamente una imagen y se determina o procesa y, dado el caso, se almacena. Los datos (de vídeo) que son registrados por una unidad de registro de imágenes con un dispositivo sensor de imagen se reenvían, por ejemplo, usando una unidad de suministro y, opcionalmente, después de un procesamiento adicional, a un dispositivo de visualización ubicado en la cabina del conductor. El dispositivo de visualización forma una vista del campo de visión correspondiente legalmente prescrito, o una pluralidad de campos de visión y, opcionalmente, información adicional, como por ejemplo posibles riesgos de colisión, distancias a otros objetos, etc., para la región alrededor del vehículo de una manera que los campos de visión sean permanentemente visibles para el conductor en todo momento. Al mismo tiempo, el sistema de visión proporciona una vista nocturna mejorada, opciones de disposición más flexibles y campos de visión más grandes con la posibilidad de una menor distorsión.
Permanentemente visible en este contexto significa que la vista del campo de visión se muestra de una manera ininterrumpida en el tiempo, es decir, no se interrumpe mostrando y ocultando alternativamente el campo de visión o partes de él, o por la inclusión de otras representaciones de tal manera que el campo de visión no se pueda ver completo. En consecuencia, el campo o campos de visión correspondientes se muestran o se hacen visibles en el dispositivo de visualización de forma continua y en tiempo real. Esto se aplica al menos a los campos de visión prescritos como permanentemente visibles para todos los estados del vehículo en los que el interruptor de encendido está conectado y/o preferiblemente acoplado, por ejemplo, a un sensor que recibe una señal correspondiente, por ejemplo, una señal de apertura de puerta o una señal de encendido.
Los espejos modernos generan una imagen casi perfectamente nítida para el conductor. El nivel de detalle disponible para el conductor depende de la distancia al objeto, de la curvatura y el grado de reflexión del espejo y de la vista del conductor. Con los sistemas de cámara, el nivel de detalle se ve afectado por muchos parámetros diferentes: La resolución del sensor de la cámara, el campo de visión de la cámara, pero también la resolución del monitor, qué parte del campo de visión de la cámara se muestra en el monitor y cómo de grande es esta parte, cómo de lejos está el monitor del asiento del conductor y la vista del conductor. Un parámetro fundamental que influye en el nivel de detalle es el error de distorsión del elemento óptico de la cámara, como por ejemplo la lente o una disposición de varias lentes. Cada elemento óptico presenta un cierto comportamiento de distorsión. Por regla general, el error de distorsión aumenta a medida que aumenta la distancia alrededor de un punto sobre el elemento óptico, que también se denomina centro de distorsión y contiene, por ejemplo, el eje óptico del elemento óptico, al menos por zonas. Por lo tanto, el error de distorsión es el más bajo en el centro de distorsión. El error de distorsión de un elemento óptico se puede describir y representar mediante una curva de distorsión. Una curva de distorsión es la representación gráfica del error de distorsión de un elemento óptico en función de las distancias desde un centro de distorsión, como el eje óptico. Si el elemento óptico presenta simetría de revolución, la curva de distorsión es la representación gráfica del error de distorsión en función de la distancia radial desde el centro de distorsión. El comportamiento de distorsión de un elemento óptico es, por tanto, una aberración geométrica de los sistemas ópticos, que conduce a una variación local de la escala de reproducción de imagen en la ecuación de la lente.
Si un objeto se encuentra cerca, en particular sobre o adyacente al centro de distorsión del elemento óptico, la imagen reproducida estará esencialmente libre de distorsión o tendrá baja distorsión y no será necesario ningún procesamiento de los datos de imagen. El conductor ve el objeto en su monitor esencialmente sin distorsiones o libre de distorsiones y puede reconocer de manera fiable el tamaño del objeto y su orientación y posición en el entorno del vehículo visualizado y actuar en consecuencia para evitar una colisión con el objeto.
Sin embargo, si un objeto se encuentra lejos del centro de distorsión del elemento óptico, en particular en un área en la que el comportamiento de distorsión es grande, el conductor ve el objeto distorsionado o deformado en su monitor y no puede reconocer de manera fiable el tamaño del objeto y su orientación y posición en el entorno del vehículo visualizado. En particular, es difícil para el conductor estimar de manera fiable el grado de distorsión sin más referencias y, por lo tanto, estimar y evaluar de manera fiable la posición y el tamaño de los objetos. En consecuencia, debido a la reproducción de imagen distorsionada o deformada del objeto pueden producirse colisiones entre el vehículo y el objeto.
Este es particularmente el caso cuando se usa lo que se conoce como panorámica de remolque, es decir, el seguimiento de un fragmento de imagen tomada de un sensor de imagen. La panorámica de remolque es particularmente relevante en curvas o en cualquier otra situación de conducción en la que el remolque es girado con respecto a la unidad tractora y el conductor y/o una unidad de control tenga que seguir el fragmento de imagen visualizado en el monitor para seguir viendo de forma fiable el entorno del remolque. Sin embargo, el seguimiento del fragmento de imagen hasta el borde del sensor de imagen o, en general, hasta una posición en el sensor de imagen en la que el entorno del vehículo se reproduce de una manera muy distorsionada, significa que el correspondiente fragmento del entorno del vehículo no se muestra de manera realista al conductor en el monitor y este no puede estimar de manera fiable las proporciones, distancias entre objetos, etc.
Además de una regulación mecánica (por ejemplo, el pivotado) de la cámara, se conoce por el estado de la técnica una adaptación de la curva de distorsión para conseguir una representación lo más libre de distorsiones posible y para compensar el comportamiento de distorsión del elemento óptico descrito anteriormente.
Sin embargo, las cámaras que se pueden regular mecánicamente tienen la desventaja de que solo pueden capturar un fragmento limitado del entorno del vehículo y son propensas al desgaste debido al mecanismo de regulación. Con este propósito, es necesario un dispositivo sensor adicional para detectar objetos que no se encuentran en el fragmento originalmente capturado.
Una adaptación de la curva de distorsión, en cambio, requiere una adaptación exacta y, por lo tanto, computacionalmente compleja de todos los puntos en la curva de distorsión original. Desde el punto de vista mecánico/óptico, la compensación es posible mediante complicadas disposiciones de lentes y/o disposiciones de elementos ópticos adicionales. Sin embargo, esto encarece el sistema de cámara.
Se conocen sistemas de visualización, por ejemplo, por los documentos US 2009/0002523 A1 y DE 102014018040 A1. El documento US 2018/0281698 A divulga un sistema de calibración de cámara de vehículo. Por el documento DE 10 2014 006 153 A1 se conoce un procedimiento para la representación de imágenes de un campo de visión indirecto en el entorno del vehículo de un vehículo. Por el documento US 2019/0075250 A1 se conoce un dispositivo de visualización de imágenes.
Sumario
Por consiguiente, es un objetivo de la presente invención prever un sistema de visión para un vehículo, en particular un vehículo comercial, que muestre al conductor el entorno del vehículo con la mayor precisión posible independientemente de su posición con respecto al centro de distorsión, como por ejemplo el eje óptico, de un elemento óptico, de modo que el conductor pueda reconocer los objetos en el entorno del vehículo de la forma más realista posible. Al mismo tiempo, la solución debería ser asequible.
El objetivo mencionado anteriormente se logra mediante un sistema de visión para un vehículo con las características de la reivindicación 1. Se indican formas de realización preferidas en las reivindicaciones dependientes.
La invención se basa en la idea de proporcionar un sistema de visión para un vehículo con al menos una unidad de captura de imágenes (por ejemplo, una cámara), al menos una unidad de procesamiento de imágenes (por ejemplo, una ECU) y al menos una unidad de reproducción de imágenes (por ejemplo, un monitor, como por ejemplo un monitor LCD, TFT o LED), en el que la unidad de procesamiento de imágenes está configurada de tal manera que toma/extrae una subárea o un fragmento de imagen de los datos de imagen de un entorno del vehículo que se han reproducido o grabado en un sensor de imagen de una unidad de captura de imágenes y muestra esta subárea del entorno del vehículo al conductor en la unidad de reproducción de imágenes. Dependiendo de la posición de la subárea en un sensor de imagen dispuesto en la unidad de captura de imágenes, la subárea tiene una geometría cambiada en comparación con otra posición en el sensor de imagen. La geometría cambiada es determinada por la unidad de procesamiento de imágenes. Debido a la geometría cambiada se puede compensar o al menos reducir un comportamiento de distorsión de un elemento óptico contenido en la captura de imagen, de modo que el entorno del vehículo se muestre al conductor de una manera realista o al menos aproximadamente realista. Por una geometría cambiada se entiende, en particular, la variación de los largos de los lados individuales de la geometría, como por ejemplo de un rectángulo, una rotación, un corte y/o una deformación de forma libre (por ejemplo, formas poligonales con cuatro esquinas) de la geometría. Si la geometría no cambiara, sino que fuera siempre del mismo tamaño, independientemente de la posición de la subárea extraída en el sensor de imagen, los datos de imagen de las subáreas extraídas del sensor de imagen en posiciones del sensor de imagen en las que la distorsión de los datos de imagen es muy grande se mostrarían al conductor con un alto grado de distorsión y el conductor no podría estimar de manera fiable el entorno del vehículo.
El comportamiento de distorsión del elemento óptico puede tener forma de barril o pulviniforme, por ejemplo. A este respecto, el tamaño de un objeto en el sensor de imagen y, en consecuencia, en el monitor disminuye a medida que aumenta la distancia desde el centro de distorsión en el caso de distorsiones en forma de barril y aumenta en el caso de distorsiones pulviniformes. El comportamiento de distorsión de un elemento óptico es, por tanto, más bajo cerca o en la imagen reproducida del centro de distorsión, por ejemplo el eje óptico, y aumenta a medida que aumenta la distancia desde la imagen reproducida del centro de distorsión. El centro de distorsión es una línea imaginaria asumida que atraviesa el centro de curvatura del elemento óptico. En el caso de un elemento óptico del sistema de cámara con varios subelementos ópticos, por ejemplo varias lentes, que están dispuestas una detrás de otra, el centro de distorsión es el resultado de una línea que atraviesa el centro de curvatura de cada subelemento. El comportamiento de distorsión de un elemento óptico puede, por ejemplo, aumentar continuamente con la distancia desde el centro de distorsión hasta el borde del elemento óptico o, por ejemplo, puede aumentar o también disminuir solo por secciones a lo largo de la distancia desde el centro de distorsión.
La subárea tomada de los datos de imagen en el sensor de imagen presenta una cierta geometría a modo de delimitación imaginaria, que varía dependiendo de la posición del fragmento de imagen en el sensor de imagen para compensar o al menos reducir parcialmente el comportamiento de distorsión del elemento óptico. La geometría o delimitación imaginaria del fragmento de imagen reproducido o grabado en un sensor de imagen de una unidad de captura de imágenes depende, por tanto, de la posición en la que se toma el fragmento de imagen en el sensor de imagen. Por ejemplo, si se toma un área rectangular como fragmento de imagen, esta tiene los largos de los lados P1 y P2 en una primera posición de toma, mientras que tiene los largos de los lados P1' y P2' en otra posición de toma en el sensor de imagen, siendo P1 t P1' y/o P2 t P2'. Adicional o alternativamente, los largos de los lados P1 y P1' y/o P2 y P2' pueden formar un ángulo entre sí y no ser paralelos. También es posible tomar un fragmento de imagen rectangular, por ejemplo, en una posición, mientras que un fragmento de imagen no rectangular, por ejemplo, en forma de rombo, se toma en otra posición.
El sistema de visión descrito anteriormente es particularmente ventajoso en vehículos comerciales ligeros que presentan una unidad tractora y un remolque. En el caso de vehículos comerciales ligeros que presentan una unidad tractora y un remolque, en situaciones de conducción, tal como al tomar una curva, en las que el remolque se abre o se gira con respecto a la unidad tractora y mantener el fragmento de imagen significaría que el conductor vería la pared lateral del remolque en el monitor, el fragmento de imagen debe seguirse de tal manera que el conductor siempre pueda ver el entorno del vehículo de manera fiable. De conformidad con la presente invención, la expansión se puede realizar imagen a imagen, estando adaptada la geometría de cada imagen con respecto a la imagen anterior. Al seguirse un fragmento de imagen se genera, por tanto, un número adecuado de imágenes, por ejemplo, una imagen por cada cambio de píxel, que difieren entre sí en cuanto a su geometría dependiendo de la posición respectiva de la imagen en el sensor de imagen, y se muestran sucesivamente en el monitor al conductor, de modo que el conductor tenga la impresión de que el fragmento de imagen original se desplaza en función del ángulo de desviación del remolque respecto a la unidad tractora. Sin embargo, el desplazamiento corresponde, en realidad, solo a un número de tomas de fragmentos de imagen individuales en el sensor de imagen, que son geométricamente diferentes entre sí. El número de fragmentos de imagen depende de en qué medida se desvíe el remolque respecto a la unidad tractora y el conductor puede controlarlo o bien manualmente (presionando o manteniendo presionado un botón, una selección en un panel táctil, etc.) o bien a través de señales de diversos dispositivos sensores (sensor de ángulo de rotación, intermitentes, etc.).
La subárea en una posición de toma se define preferiblemente como una subárea de referencia con una geometría de referencia. Esta geometría de referencia puede estar ubicada en cualquier punto en el sensor de imagen, es decir, la posición de toma asociada puede estar en cualquier punto en el sensor de imagen. La geometría de referencia es, por ejemplo, una geometría especificada por el fabricante del sistema de visión, pero también puede ser determinada por el conductor o por la unidad de control en función de los requisitos de reproducción (por ejemplo, requisitos legales o específicos del conductor).
La subárea se define preferiblemente como una subárea de referencia donde la distorsión es baja, en particular, por ejemplo, si la subárea se toma del sensor de imagen cerca de una posición que corresponde a la imagen reproducida del centro de distorsión de la unidad de captura de imágenes en el sensor de imagen. Por ejemplo, la subárea se toma del sensor de imagen en una posición o inmediatamente adyacente a una posición que corresponde a la imagen reproducida del centro de distorsión, por ejemplo, el eje óptico, de la unidad de captura de imágenes en el sensor de imagen. El término "cerca de" describe, por tanto, por ejemplo, una posición de la subárea de modo que esta contenga la imagen reproducida del centro de distorsión de la unidad de captura de imágenes en el sensor de imagen y tenga al menos un punto en común con la imagen reproducida del centro de distorsión de la unidad de captura de imágenes en el sensor de imagen. La subárea de referencia corresponde, por tanto, a una subárea del sensor de imagen que, debido a su proximidad a la imagen reproducida del centro de distorsión de la unidad de captura de imágenes en el sensor de imagen, se muestra al conductor en la unidad de reproducción de imágenes en gran parte sin distorsión, sin necesidad de compensar el comportamiento de distorsión del elemento óptico. La subárea de referencia corresponde, por tanto, a la subárea del sensor de imagen que está dispuesta en una posición en el sensor de imagen en la que los datos de imagen del entorno del vehículo capturados por el elemento óptico presentan una distorsión mínima o nula, que no requiere compensación.
Según una forma de realización preferida, la geometría de referencia de la subárea de referencia es un rectángulo con un ancho y un largo. Sin embargo, también es concebible que la geometría de referencia sea cuadrada, triangular, poligonal, aproximadamente circular, ovalada, elíptica, etc. La elección de la geometría puede depender, por ejemplo, de la forma de los objetos que se encuentran en el entorno del vehículo, o puede depender de la geometría de la unidad de reproducción de imágenes. La geometría de referencia se puede establecer en una única geometría para el sistema de visión o puede variar en función de los requisitos impuestos al sistema de visión, los parámetros (por ejemplo, resolución) que requieren una representación adecuada del entorno del vehículo, etc. Por tanto, la geometría de referencia puede depender de los parámetros del sistema de visión. Si se toman varias subáreas, las subáreas pueden presentar diferentes geometrías, como por ejemplo un rectángulo, un rombo, un círculo, etc.
Si la subárea está dispuesta lejos de la posición que corresponde a la imagen reproducida del centro de distorsión de la unidad de captura de imágenes en el sensor de imagen, la subárea puede presentar una geometría o delimitación imaginaria rotada y/o distorsionada y/o ajustada a escala con respecto a la geometría de referencia. Por ejemplo, la subárea puede estar inclinada o basculada con respecto a la geometría de referencia en caso de rotación en el sensor de imagen, de modo que entre una superficie lateral de la subárea y una línea imaginaria que discurre horizontalmente en el sensor de imagen se obtenga un ángulo mayor o menor que entre la superficie lateral correspondiente del área de referencia y la línea imaginaria que discurre horizontalmente en el sensor de imagen. En caso de distorsión, la relación de las dimensiones de la subárea ya no se corresponde con la relación de las dimensiones del área de referencia y la subárea tiene proporciones diferentes a las del área de referencia. En caso de ajuste a escala, el tamaño de la subárea cambia manteniendo las proporciones. Preferiblemente, el grado de rotación y/o distorsión y/o ajuste a escala de la geometría de referencia aumenta a medida que aumenta la distancia a la imagen reproducida del centro de distorsión de la unidad de captura de imágenes en el sensor de imagen, al menos por zonas, en particular cuando hay presente una distorsión que debe tomarse del centro de distorsión con simetría de revolución. En otras palabras, la rotación y/o distorsión y/o ajuste a escala de la geometría de referencia se vuelve más grande o más fuerte a medida que la distorsión progresa de forma continua, es decir, por regla general, cuanto más se aleja la subárea de la imagen reproducida del centro de distorsión de la unidad de captura de imágenes. O bien la rotación y/o la distorsión y/o el ajuste a escala de la geometría de referencia se vuelve más grande o más fuerte en las áreas distorsionadas a medida que la distorsión progresa de forma discontinua o por secciones.
Alternativamente, el grado de rotación y/o distorsión y/o ajuste a escala de la geometría de referencia disminuye por zonas a medida que aumenta la distancia al centro de distorsión de la unidad de captura de imágenes si una distorsión fuerte se debilita nuevamente a pesar de aumentar la distancia a la imagen reproducida del centro de distorsión en el sensor de imagen, es decir, si la distorsión aumenta inicialmente a medida que aumenta la distancia a la imagen reproducida del centro de distorsión en el sensor de imagen y luego disminuye nuevamente a medida que aumenta la distancia a la imagen reproducida del centro de distorsión en el sensor de imagen. Por tanto, el grado de rotación y/o distorsión y/o ajuste a escala de la geometría de referencia depende preferiblemente del grado de distorsión o del comportamiento de distorsión del elemento óptico.
Una primera dimensión de la geometría de la subárea se determina preferiblemente en una primera dirección espacial. La determinación de una primera dimensión, por ejemplo horizontal, y por tanto una adaptación de la primera dimensión puede ser suficiente para compensar el comportamiento de distorsión del elemento óptico dependiendo de la magnitud de la distorsión, de la posición de la subárea correspondiente en el sensor de imagen, etc. Sin embargo, puede ser necesario determinar una segunda dimensión, por ejemplo vertical, de la geometría de la subárea. La segunda dimensión se puede determinar entonces en una segunda dirección espacial, discurriendo la primera y la segunda dirección espacial preferiblemente en perpendicular entre sí.
La geometría de la subárea se determina preferiblemente mediante un algoritmo de cálculo o se establece de antemano.
El algoritmo de cálculo utiliza, por ejemplo, al menos una curva de compensación con la que se determina el ancho y/o el largo de la subárea en el sensor de imagen en función de un cambio en posición del ángulo de reproducción de imagen, correspondiente a la subárea, de la unidad de captura de imágenes. También son concebibles dos curvas de compensación para determinar la altura y la anchura de la subárea. También son concebibles tres o más curvas de compensación para la determinación adicional de un ángulo de rotación requerido. Alternativamente, el ángulo de rotación se puede determinar a través de un campo vectorial, por ejemplo, asignando a cada píxel del sensor una coordenada relativa al entorno del vehículo reproducido en el sensor sobre la base de la función de reproducción de la óptica con una curva de distorsión y el ángulo de inclinación de la cámara. Como alternativa adicional, el ángulo de rotación se puede determinar mediante una función matemática. La subárea que se toma del sensor de imagen corresponde a un área del entorno del vehículo que es capturada por la unidad de captura de imágenes con un cierto ángulo de reproducción de imagen. El ángulo de reproducción de imagen es un ángulo que entra dentro del ángulo de visión de la unidad de captura y, por lo tanto, es más pequeño que el ángulo de visión de la unidad de captura. El ángulo de visión de la unidad de captura corresponde al ángulo máximo posible con el que la unidad de captura de imágenes puede capturar datos de imagen y depende del diseño del elemento óptico. La parte del entorno del vehículo correspondiente al ángulo de visión de la unidad de captura de imágenes se puede reproducir como datos de imagen en toda la superficie del sensor. En función de la posición de toma de la subárea en el sensor de imagen, la posición del ángulo de reproducción de imagen también cambia. Por tanto, el ángulo de reproducción de imagen pivota a lo largo del intervalo del ángulo de visión de la unidad de captura de imágenes, formando el elemento óptico el centro de giro alrededor del cual pivota o rota el ángulo de reproducción de imagen. Por ejemplo, el ángulo de reproducción de imagen solo puede cambiar su posición ligeramente y, por lo tanto, solo puede pivotar unos pocos grados dentro del intervalo del ángulo de visión alrededor del centro de giro. Sin embargo, también es posible que la posición del ángulo de reproducción de imagen cambie significativamente. Entonces, el ángulo de reproducción de imagen pivota alrededor del centro de giro muchos grados dentro del intervalo del ángulo de visión.
La curva de compensación puede corresponder preferiblemente a una curva no lineal y/o al menos a una función matemática. Se pueden utilizar una función escalonada, una función exponencial, una función logarítmica, etc. como funciones matemáticas. En particular, cuando se utiliza una función escalonada como curva de compensación, no tiene lugar una compensación continua del comportamiento de distorsión del elemento óptico, sino solo una compensación gradual. Es decir, la rotación, la distorsión y/o el ajuste a escala de la subárea de referencia tiene lugar gradualmente, en función de dónde se tome la subárea de la superficie del sensor de imagen. En otras palabras, la geometría del área de referencia cambia en dos posiciones adyacentes, pero distanciadas, en el sensor de imagen, mientras que, sin embargo, no tiene lugar ningún cambio de la geometría entre estas posiciones. Esto reduce significativamente la potencia de cálculo de la unidad de procesamiento de imágenes.
Alternativamente, la curva de compensación puede corresponder a una curva definida libremente, cuyos valores se determinan empíricamente, por ejemplo, y se almacenan en la unidad de procesamiento. Más precisamente, los valores empíricos o valores medidos relacionados con la rotación, la distorsión y/o el ajuste a escala del área de referencia en relación con la posición de la subárea en el sensor de imagen se asignan a cada punto de la curva de compensación y se almacenan en una base de datos de modo que el algoritmo de cálculo, al compensar el comportamiento de distorsión de los elementos ópticos, pueda leer los valores correspondientes de la base de datos y aplicarlos a la geometría del área de referencia.
Alternativamente, la curva de compensación puede corresponder a la curva de distorsión del elemento óptico. En este caso, la geometría de referencia se adapta, por tanto, de manera directamente proporcional al comportamiento de distorsión del elemento óptico. Según una forma de realización preferida, la curva de compensación también corresponde a una curva de distorsión del elemento óptico que ha sido sometido a corrección de distorsión digital.
El ángulo de reproducción de imagen correspondiente a la subárea de referencia y el ángulo de reproducción de imagen correspondiente a la subárea son preferiblemente del mismo tamaño. Sin embargo, también es concebible que el comportamiento de distorsión del elemento óptico se compense de tal manera que la geometría de referencia no cambie en la medida en que sería el caso con ángulos del mismo tamaño, sino que solo cambie en la medida en que, en caso de ángulos que difieren entre sí, se produzca aun así una compensación.
La subárea contiene preferiblemente el campo de visión de un espejo principal y/o de un espejo de gran angular de un vehículo comercial. Por ejemplo, el campo de visión del espejo principal y/o del espejo de gran angular corresponde a los campos de visión II y IV, respectivamente, tal como se definen en la Directiva N.° 46 de la CEPE/ONU.
El área del sensor de imagen que es determinada por la unidad de procesamiento de imágenes y que se va a representar en la de la unidad de reproducción de imágenes se implementa o bien mediante una única subárea o bien mediante dos o más subáreas contiguas de manera continua. Las dos o más subáreas contiguas de manera continua pueden tener diferentes geometrías durante la toma (dependiendo de la posición de la toma) y se vuelven a ensamblar cuando se reproducen en la unidad de reproducción de imágenes o se representan en dos áreas diferentes en la unidad de reproducción.
Los datos de imagen son procesados preferiblemente por la unidad de procesamiento de imágenes y/o una unidad de procesamiento de imágenes adicional antes de que se reproduzcan en la unidad de reproducción de imágenes, por ejemplo, con respecto a la saturación de color, el contraste, la resolución, la sobreexposición y la subexposición, la borrosidad, el ruido de imagen, etc.
Otro aspecto de la presente invención se refiere a un sistema de sustitución de espejos para un vehículo con un sistema de visión como el descrito anteriormente.
Dentro de un sistema de sustitución de espejos, el sistema de visión se puede utilizar, por ejemplo, de tal manera que, dependiendo del estado de conducción del vehículo, se tome una determinada subárea asociada en cada caso al estado de conducción y se represente en la unidad de reproducción. Como alternativa o adicionalmente, es concebible que se tome y se represente una determinada subárea como estándar, pero que el conductor pueda cambiar manualmente a la toma de otra subárea, dado el caso solo en determinados estados de conducción.
Breve descripción de los dibujos
La invención se describe a continuación a modo de ejemplo con referencia a las figuras adjuntas, en las que:
la Fig. 1 muestra
Figure imgf000007_0001
la Fig. 2a muestra
Figure imgf000007_0002
la Fig. 2b muestra
Figure imgf000007_0003
figura 1,
la Fig. 2c muestra un campo de visión tridimensional de una cámara,
la Fig. 3a muestra
registrados por una cámara de vehículo del sistema de visión de acuerdo con la invención de acuerdo con una primera forma de realización,
la Fig. 3b muestra un sensor de imagen del sistema de visión de acuerdo con la invención de acuerdo con la primera forma de realización, en la que está definida una primera subárea,
la Fig. 3c muestra un monitor del sistema de visión de acuerdo con la invención de acuerdo con la primera forma de realización, en la que está reproducida la primera subárea,
la Fig. 3d muestra el sensor de imagen del sistema de visión de acuerdo con la invención de acuerdo con la primera forma de realización, en la que está definida una segunda subárea,
la Fig. 3e muestra el monitor del sistema de visión de acuerdo con la invención de acuerdo con la primera forma de realización, en la que está reproducida la segunda subárea,
la Fig. 3f muestra una curva de compensación de la cámara del sistema de visión de acuerdo con la invención de la primera forma de realización,
la Fig. 4a muestra el sensor de imagen del sistema de visión de acuerdo con la invención de acuerdo con la primera forma de realización, en la que la segunda subárea está modificada,
la Fig. 4b muestra un monitor del sistema de visión de acuerdo con la invención de acuerdo con la primera forma de realización, en la que está reproducida la subárea modificada,
la Fig. 5a muestra una vista en planta de un primer y un segundo ángulo de reproducción de imagen que son registrados por una cámara de vehículo del sistema de visión de acuerdo con la invención de acuerdo con una segunda forma de realización,
la Fig. 5b muestra una vista lateral de un primer y un segundo ángulo de reproducción de imagen que son registrados por una cámara de vehículo del sistema de visión de acuerdo con la invención de acuerdo con la segunda forma de realización,
la Fig. 5c muestra un sensor de imagen del sistema de visión de acuerdo con la invención de acuerdo con la segunda forma de realización, en la que está definida una primera subárea,
la Fig. 5d muestra un monitor del sistema de visión de acuerdo con la invención de acuerdo con la segunda forma de realización, en la que está reproducida la primera subárea,
la Fig. 5e muestra el sensor de imagen del sistema de visión de acuerdo con la invención de acuerdo con la segunda forma de realización, en la que está definida una segunda subárea,
la Fig. 5f muestra un monitor del sistema de visión de acuerdo con la invención de acuerdo con la segunda forma de realización, en la que está reproducida la segunda subárea,
la Fig. 5g muestra una curva de compensación de la unidad de procesamiento de imágenes del sistema de visión de acuerdo con la invención de acuerdo con la segunda forma de realización en una primera dirección espacial,
la Fig. 5h muestra una curva de compensación de la unidad de procesamiento de imágenes del sistema de visión de acuerdo con la invención de acuerdo con la segunda forma de realización en una segunda dirección espacial,
la Fig. 5i muestra un sensor de imagen del sistema de visión de acuerdo con la invención según una tercera forma de realización, en la que están definidas dos subáreas,
la Fig. 5j muestra un desarrollo del cilindro de cuadrícula de la figura 2c en relación con la situación de la figura 5i,
la Fig. 5k muestra un monitor del sistema de visión de acuerdo con la invención de acuerdo con la tercera forma de realización,
la Fig. 6a muestra un sensor de imagen del sistema de visión de acuerdo con la invención de acuerdo con una cuarta forma de realización,
la Fig. 6b muestra un desarrollo del cilindro de cuadrícula de la figura 2c en relación con la situación de la figura 6a,
la Fig. 6c muestra un monitor del sistema de visión de acuerdo con la invención de acuerdo con la cuarta forma de realización.
Descripción detallada de la invención
La figura 1 muestra una estructura esquemática de dos sistemas de visión 100A, 100B de acuerdo con la presente invención, que constituyen, por ejemplo, un sistema de visión 100A para el lado izquierdo del vehículo y un sistema de visión 100B para el lado derecho del vehículo. Los sistemas de visión 100A, 100B presentan en cada caso una unidad de captura 10A, 10B, una unidad de cálculo 20A, 20B y una unidad de reproducción 30A, 30B. Por tanto, los sistemas de visión 100A, 100B corresponden en cada caso a un sistema de visión indirecta, por ejemplo, a un sistema de cámara-monitor y, por tanto, a un sistema de sustitución de espejos con el que se puede ver indirectamente el entorno de un vehículo.
La unidad de captura 10A, 10B respectiva está adaptada para capturar imágenes de un entorno alrededor de un vehículo, en particular un vehículo comercial, en forma de datos de imagen. Con este propósito, la unidad de captura 10A, 10B está colocada en el vehículo de una manera adecuada. La unidad de captura 10A, 10B puede ser una cámara, en particular una cámara con sensor basado en tecnología CMOS o CCD, o cualquier otro sensor de imagen que sea adecuado para capturar imágenes en movimiento. Pueden estar previstas varias unidades de captura 10A, 10B por cada sistema de visión 100A, 100B. La unidad de captura 10A, 10B está conectada con la unidad de cálculo 20A, 20B respectiva, por ejemplo, a través de un cable de conexión o por radio.
La unidad de cálculo 20A, 20B respectiva está adaptada para procesar los datos de imagen capturados por la unidad de captura 10A, 10B. Para ello, la unidad de cálculo 20A, 20B utiliza parámetros de imagen predeterminados, como por ejemplo la resolución, el contraste, la saturación, la temperatura y los tonos de color, la exposición, etc., y cambia estos u otros parámetros, en particular con el fin de optimizar la imagen representada en la unidad de reproducción 30A, 30B.
La unidad de reproducción 30A, 30B respectiva está adaptada para visualizar imágenes que han sido capturadas por la unidad de captura 10A, 10B respectiva y procesadas por la unidad de cálculo 20A, 20b respectiva. La unidad de reproducción 30A, 30B puede ser un monitor, como por ejemplo un monitor LCD, TFT o LED. Pueden estar previstas varias unidades de reproducción 30A, 30B por cada sistema de visión 100A, 100B. Las unidades de reproducción 30A, 30B están instaladas preferiblemente dentro de la cabina del conductor de un vehículo, más preferiblemente en uno o ambos pilares A de un vehículo, de modo que un conductor pueda verlas sin obstáculos mientras conduce.
La figura 2a muestra una vista en planta de un vehículo comercial 1. En el presente caso, el vehículo comercial 1 es un camión que presenta una unidad tractora y un semirremolque o un remolque. En cada caso una de las cámaras 10A, 10B está colocado en un lado izquierdo y derecho de la cabina del conductor de la unidad tractora hacia delante en la dirección de desplazamiento del camión. Como puede verse en la figura 2a, la cámara 10A captura una zona del entorno situada, visto en el sentido de desplazamiento del camión, a la derecha junto a la parte trasera de la unidad tractora y junto al remolque o semirremolque. Aunque no se muestra en la figura 2a, la cámara 10B está diseñada de conformidad con la cámara 10A para capturar un área del entorno situada, visto en la dirección de desplazamiento del camión, a la izquierda junto a la parte trasera de la unidad tractora y junto al remolque o semirremolque. La cámara 10A, 10B respectiva captura el área del entorno derecha e izquierda respectiva con un primer ángulo de visión y1, pudiendo verse la proyección y1* del ángulo de visión en la figura 2a, que se extiende horizontalmente, es decir, aproximadamente en paralelo a una superficie plana de la carretera.
A la derecha junto al remolque del camión hay cuatro objetos 40, 50, 60, 70. Los objetos 40, 50, 60 y 70 se encuentran dentro de la proyección y1* del primer ángulo de visión de la cámara 10A y, por tanto, son registrados por la cámara 10A. Los objetos 40, 50, 60 y 70 pueden ser, por ejemplo, en cada caso un obstáculo en forma de objeto, tal como otro vehículo o un bolardo, o una persona. Los objetos 40 y 50 o los objetos 60 y 70 se encuentran en cada caso sobre un arco de círculo, cuyo centro está situado en la posición de la cámara 10A. En otras palabras, los objetos 40 y 50 o los objetos 60 y 70 están a la misma distancia (radio) de la cámara. A este respecto, los objetos 40 y 60 están más cerca del vehículo 1 que los objetos 50 y 70.
En la situación de conducción mostrada en la figura 2a, los objetos 40 y 60 se encuentran en la proyección a l* de un primer ángulo de reproducción de imagen a1. El primer ángulo de reproducción de imagen a l corresponde a un ángulo que es más pequeño que el primer ángulo de visión y1 de la cámara 10A, se encuentra dentro del primer ángulo de visión y1 y cuyos datos de imagen (de entre todos los datos de imagen del ángulo de captura y1) pueden mostrarse al conductor en un dispositivo de reproducción (no mostrado en la figura 2a).
La figura 2b muestra una vista lateral del camión de la figura 2a. Como puede verse en la figura 2b, el área de captura de la cámara 10B (al igual que el área de captura de la cámara 10A) se extiende no solo horizontalmente hacia atrás, sino también oblicuamente hacia atrás y hacia abajo, de modo que la figura 2b muestra en cada caso una proyección Y2* de un segundo ángulo de visión y2 de las cámaras 10A, 10B. El segundo ángulo de visión y2 se extiende en perpendicular al plano en el que se sitúa el primer ángulo de visión y1 de la cámara 10A, y se ensancha hacia atrás. Debido a los ángulos de visión primero y segundo y1 y Y2, cada una de las cámaras 10A, 10B abarca en cada caso un cono de captura que, partiendo de la respectiva cámara 10A, 10B, se ensancha hacia atrás y hacia abajo.
Como también se puede ver en la figura 2b, los objetos 40, 50, 60 y 70 (los objetos 60 y 70 no se muestran en la figura 2b) se encuentran dentro del segundo ángulo de visión y2 de la cámara 10A y se encuentran, más concretamente, en un segundo ángulo de reproducción de imagen a2, que corresponde a un ángulo que es más pequeño que el segundo ángulo de visión y2 de la cámara 10A, se encuentra dentro del segundo ángulo de visión y2 y cuyos datos de imagen (de entre todos los datos de imagen del ángulo de visión y2) se muestran al conductor en un dispositivo de reproducción (no mostrado en la figura 2b).
Como puede verse en las figuras 2a y 2b, los objetos 40, 50, 60 y 70 tienen a modo de ejemplo una forma aproximadamente cilindrica, cuyo eje longitudinal discurre en una dirección aproximadamente perpendicular a la superficie de la carretera, y se asume que son del mismo tamaño, con fines explicativos.
La figura 2c muestra, a modo de ejemplo, un campo de visión tridimensional de una cámara, como por ejemplo la cámara 10A o 10B de la figura 1a o 1b, en un sistema de ejes-mundo (sistema de coordenadas X-Y-Z). La cámara captura un campo de visión tridimensional que está delimitado por los bordes del campo de visión Ski, Sk2, Sk3 y Sk4. El eje óptico de la cámara discurre oblicuamente hacia abajo si se supone que la superficie de la carretera FO es la superficie de referencia. Más concretamente, el eje óptico discurre en un ángulo de inclinación O con respecto a la línea horizontal HLo, que pasa por el primer punto principal de la óptica.
Como se muestra en la figura 2c, los datos de imagen, como por ejemplo el entorno de un vehículo, son capturados por la cámara en forma de un patrón de cuadrícula cilíndrico imaginario. El patrón de cuadrícula cilíndrico presenta líneas de cuadrícula verticales VL y líneas de cuadrícula horizontales HL que discurren en perpendicular a las líneas de cuadrícula verticales. La línea horizontal HLo, que pasa por el primer punto principal de la óptica, presenta una intersección con un eje de rotación aR del patrón de cuadrícula, que discurre en la dirección vertical Z a través del centro del área de sección transversal del cilindro.
La figura 3a muestra una vista en planta de una cámara 10 del sistema de visión de acuerdo con la invención, análoga a la figura 2a. A diferencia de la figura 2a, en el escenario del entorno del vehículo mostrado en la figura 3a, no solo los objetos 40 y 60 están dispuestos en un primer ángulo de reproducción de imagen a1 de la cámara 10, sino que también los objetos 50 y 70 están dispuestos en un primer ángulo de reproducción de imagen a1' de la cámara 10. Los primeros ángulos de reproducción de imagen a1 y a1' son aproximadamente del mismo tamaño, es decir, tienen aproximadamente la misma extensión angular. Los primeros ángulos de reproducción de imagen a1 y a1' se sitúan ambos dentro del primer ángulo de visión y1 (no mostrado) de la cámara 10.
La figura 3b muestra un sensor de imagen 11 del sistema de visión de acuerdo con la invención. El sensor de imagen 11 presenta una forma rectangular con una extensión más larga en una dirección arriba-abajo que en una dirección derecha-izquierda en la figura 3b. Cerca del borde izquierdo del sensor de imagen 11 en la figura 3b está definida una primera subárea 12 como área de toma. Como se muestra en la figura 3b, la subárea 12 contiene la imagen reproducida del eje óptico de la cámara 10. La primera subárea 12 presenta una forma rectangular, cuya extensión longitudinal discurre en una dirección arriba-abajo en la figura 3b y cuya anchura discurre en una dirección izquierdaderecha en la figura 3b. La primera subárea 12 presenta un ancho P en la extensión de la anchura. La primera subárea 12 corresponde a los datos de imagen que se encuentran en el ángulo de reproducción de imagen a1 y puede contener, por ejemplo, el campo de visión de un espejo principal o de un espejo de gran angular (por ejemplo, los campos de visión II y IV definidos en el R 46 CEPE). Una subárea 12 de este tipo, que se encuentra cerca de la imagen reproducida del eje óptico y en la que la distorsión es preferiblemente baja, dado que se encuentra, como en este caso por ejemplo, cerca de la imagen reproducida del eje óptico, puede ser una subárea de referencia.
La figura 3c muestra un monitor 30 (unidad de reproducción de imágenes) del sistema de visión de acuerdo con la invención. El monitor 30 presenta una forma rectangular con una extensión más larga en una dirección arriba-abajo que en una dirección derecha-izquierda en la figura 3c. El monitor 30 reproduce la imagen de la primera subárea 12 o la primera subárea 12 se representa en el monitor 30. A este respecto, la superficie de reproducción de imagen del monitor 30 corresponde esencialmente a la superficie de la subárea 12. Los datos de imagen del entorno del vehículo, que se encuentran en el ángulo de reproducción de imagen a1 y, por tanto, en la primera subárea 12, están reproducidos en el monitor 30. En particular, los objetos 40 y 60 están reproducidos en el monitor 30.
Como se puede apreciar en la figura 3c, los objetos 40 y 60 están reproducidos en el monitor 30 casi sin distorsión y solo presentan diferentes tamaños en la representación, dado que se encuentran en el entorno del vehículo a diferentes distancias de la cámara 10. Más concretamente, el objeto 40 está más cerca de la cámara 10 que el objeto 60, por lo que está representado más grande en el monitor 30 que el objeto 60, y el objeto 60 está más lejos de la cámara 10 que el objeto 40, por lo que está representado en el monitor 30 más pequeño que el objeto 40. Dado que el conductor percibe objetos en el entorno del vehículo a diferentes distancias y en diferentes tamaños (cuanto más lejos del conductor, más pequeño), se obtiene una reproducción realista del entorno del vehículo para el conductor. El objeto 40 presenta un ancho L que se extiende en una dirección izquierda-derecha en el monitor 30. La reproducción casi sin distorsión de los objetos 40 y 60 se debe al hecho de que los objetos 40 y 60 se encuentran inmediatamente en el centro de distorsión o en su proximidad inmediata, en este caso el eje óptico de la cámara 10 o del elemento óptico (no mostrado), donde el comportamiento de distorsión del elemento óptico, que en el presente caso tiene forma de barril, es muy bajo. Por lo tanto, no se requiere compensación del comportamiento de distorsión del elemento óptico en la posición de la primera subárea 12 en el sensor de imagen 11, y los objetos 40 y 60 pueden representarse sin cambios en el monitor 30 por lo que respecta a la compensación de la distorsión. Lo mismo puede aplicarse también si la subárea tomada del sensor de imagen 11 no contiene el centro de distorsión, sino que es inmediatamente contiguo a este y/o lo toca. Las proporciones dimensionales de altura respecto a ancho de los objetos 40 y 60 en el monitor 30 corresponden aproximadamente a las proporciones dimensionales de altura respecto a ancho de los objetos 40 y 60 en la realidad.
La figura 3d muestra de nuevo el sensor de imagen 11 de la figura 3b. A diferencia de la figura 3b, en la figura 3d, cerca del borde derecho del sensor de imagen 11 está definida una segunda subárea 12' distinta, que se encuentra en una posición distinta en el sensor de imagen 11 a la de la subárea 12. La subárea 12' no contiene la imagen reproducida del eje óptico de la cámara 10, sino que está dispuesta lejos del eje óptico o del centro de distorsión. Al igual que la primera subárea 12, la segunda subárea 12' también presenta una forma rectangular, cuya extensión longitudinal discurre en una dirección arriba-abajo en la figura 3d y cuya anchura discurre en una dirección izquierdaderecha en la figura 3d. La segunda subárea 12' presenta un ancho P' que es diferente del ancho P de la primera subárea 12 en la extensión en anchura. La segunda subárea 12' corresponde a los datos de imagen que se encuentran en el ángulo de reproducción de imagen a1' y puede contener, igualmente, el campo de visión de un espejo principal o de un espejo de gran angular (por ejemplo, los campos de visión II y IV definidos en el R 46 CEPE).
La figura 3e muestra de nuevo el monitor 30 de la figura 3c. El monitor 30 reproduce ahora la segunda subárea 12'. A este respecto, la superficie de reproducción de imagen del monitor 30 corresponde de nuevo aproximadamente a la superficie de la subárea 12'. Los datos de imagen del entorno del vehículo, que se encuentran en el ángulo de reproducción de imagen a1' y, por tanto, en la primera subárea 12', están reproducidos en el monitor 30. En particular, los objetos 50 y 70 están reproducidos en el monitor 30.
Preferiblemente, solo está previsto un monitor 30 para cada lado del vehículo. Para ver las diversas subáreas 12 y 12', el conductor puede cambiar manualmente de una vista que muestra la subárea 12 a una vista que muestra la subárea 12', o bien el cambio de vistas tiene lugar dependiendo en función de la situación de conducción. Alternativamente, sin embargo, también puede estar previsto más de un monitor 30 para cada lado del vehículo. Es decir, por ejemplo, pueden estar previstos dos monitores 30, de los cuales el primer monitor 30 muestra la subárea 12 y el segundo monitor (no mostrado) muestra la subárea 12'.
Como puede verse en la figura 3e, los objetos 50 y 70 tienen diferentes tamaños, ya que se encuentran en el entorno del vehículo a diferentes distancias de la cámara 10. Más concretamente, el objeto 50 está más cerca de la cámara 10 que el objeto 70, por lo que se muestra más grande en el monitor 30 que el objeto 70, y el objeto 70 está más lejos de la cámara 10 que el objeto 50, por lo que se muestra en el monitor 30 más pequeño que el objeto 50, lo que conduce a una reproducción realista del entorno del vehículo para el conductor. Las proporciones dimensionales de los objetos 50 y 70, es decir, el ancho y el alto de los objetos 50 y 70, respectivamente, en el monitor 30 corresponden, en el caso de una representación esencialmente libre de distorsiones, aproximadamente a las proporciones dimensionales de los objetos 50 y 70, es decir, al ancho y al alto de los objetos 50 y 70, respectivamente, en realidad.
Los objetos 50 y 70 están reproducidos en el monitor 30 de la figura 3e prácticamente sin distorsión, es decir, aproximadamente en el mismo tamaño y forma que los objetos 40, 60. La reproducción casi sin distorsiones de los objetos 50 y 70 se basa en el hecho de que la subárea 12' presenta una geometría diferente a la de la subárea 12. Más concretamente, la subárea 12' presenta un ancho P' menor que el ancho P de la subárea 12. La reducción del ancho P de la subárea 12, cuando se toma del sensor de imagen 11 en o cerca de la imagen reproducida del eje óptico como centro de distorsión, respecto a un ancho P' de la subárea 12' sirve para compensar el comportamiento de distorsión del elemento óptico. En otras palabras, el comportamiento de distorsión de un elemento óptico puede compensarse o al menos reducirse por el hecho de que la geometría, por ejemplo al menos una longitud lateral, de la subárea 12' tomada del sensor de imagen 11 cambia en función de posición de toma con respecto a la geometría de una subárea 12 que se encuentra en o cerca de la imagen reproducida del eje óptico como centro de distorsión en el sensor de imagen 11, o en otra área del sensor de imagen 11 en general. Dependiendo del tipo de comportamiento de distorsión del elemento óptico es necesaria, por ejemplo, a este respecto una reducción o un aumento de la geometría de la subárea 12. El ancho del objeto 50 representado en el monitor presenta un ancho L' que se extiende esencialmente en una dirección izquierda-derecha en el monitor 30, y las proporciones dimensionales del objeto 50 y del objeto 40 en el monitor 30 son aproximadamente las mismas que las proporciones dimensionales del objeto 50 y del objeto 40 en la realidad en el caso de una representación sustancialmente libre de distorsión.
En la figura 3f, se muestra en un diagrama la curva de compensación K de la cámara 10 o del elemento óptico (no mostrado) de la cámara 10. En el diagrama, una extensión angular en grados [°] está trazada en las abscisas y la extensión longitudinal en píxeles está trazada en las ordenadas. La curva de compensación K es una curva que atraviesa el origen de coordenadas (que representa el centro de distorsión, como por ejemplo el eje óptico) y se extiende de forma no lineal hacia la parte superior derecha en la figura 3f, aplanándose ligeramente su trayectoria a medida que aumenta la distancia desde el origen de coordenadas. En la figura 3f, la curva de compensación K corresponde a la curva de distorsión del elemento óptico. Sin embargo, también es concebible que la curva de compensación K corresponda a una curva definida libremente que se determina empíricamente y se almacena en la unidad de procesamiento 20A, 20B. Alternativamente, la curva de compensación puede corresponder a al menos una función matemática.
La curva de compensación K es utilizada por la unidad de procesamiento de imágenes 20A, 20B para determinar los anchos P, P' de las subáreas 12, 12' en el sensor de imagen 11 en función de un cambio de posición del ángulo de reproducción de imagen a1, a1', correspondiente a la subárea 12, 12', de la cámara 10. En otras palabras, la unidad de procesamiento de imágenes 20A, 20B puede usar la curva de compensación K para determinar qué ancho P, P' presenta la subárea 12, 12' tomada del sensor de imagen 11 en función del desplazamiento del ángulo de reproducción de imagen a, a1' correspondiente y, por lo tanto, en función del largo en el sensor de imagen 11. La compensación del entorno del vehículo mostrada en la figura 3f es una compensación en una primera dirección espacial, que en el presente caso corresponde a una dirección espacial horizontal en paralelo a la superficie de la carretera.
Los ángulos a, a1' de la figura 3a y las dimensiones de anchura P, P' de las subáreas 12, 12' de las figuras 3b y 3d están indicados en el diagrama de la figura 3f. Por lo tanto, para compensar una distorsión, la geometría de las subáreas 12, 12' depende de dónde se toman estas de la superficie del sensor de imagen. En consecuencia, las geometrías de las subáreas 12, 12' difieren entre sí. Como puede verse en la figura 3f, el ancho P, P' de las subáreas 12, 12' disminuye, por ejemplo, a medida que aumenta la extensión angular, mientras que los ángulos a1, a1' permanecen iguales. Sin embargo, también es concebible que los ángulos a1, a1' también cambien ligeramente dependiendo de la posición de la subárea 12, 12', con lo cual el ancho P, P' correspondiente de la respectiva subárea 12, 12' también cambia, pero no en la medida en que lo harían si no cambiaran los ángulos a1, a1'.
Como puede verse en las figuras 3c y 3e, los objetos 40 y 60 y los objetos 50 y 70, respectivamente, están representados apenas o solo ligeramente distorsionados en el monitor 30. La representación de los objetos 40 y 60 y 50 y 70, respectivamente, en el monitor 30, escasa o ligeramente distorsionada, permite al conductor reconocer fácilmente el tamaño de los objetos 40 y 60 y 50 y 70, respectivamente, así como su posición y orientación en el entorno del vehículo. Por tanto, el conductor puede evaluar de forma fiable si el camión chocará o no con uno o más de los objetos 40, 50, 60 y 70 durante la maniobra de conducción planificada.
La figura 4a muestra de nuevo el sensor de imagen 11 de la figura 3b. Del sensor de imagen 11 se toma una subárea 12'', que corresponde esencialmente a la subárea 12' de la figura 3d. En particular, el ancho P'' corresponde al ancho P' de la subárea 12' de la figura 3d. En la figura 4a, sin embargo, la posición de la subárea 12'' cambia en comparación con la posición de la subárea 12' de la figura 3d. Más concretamente, la subárea 12'' de la figura 4a está inclinada o rotada hacia la derecha con respecto a la subárea 12', de modo que el borde superior de la subárea 12'', que discurre en la dirección de la anchura de la subárea 12'', presenta un ángulo de orientación p respecto al borde del sensor de imagen 11 que es mayor de 90°. En otras palabras, el eje longitudinal de la subárea 12" no se extiende en una dirección arriba-abajo como en la figura 3d, sino que se extiende en la figura 4a formando un ángulo con la dirección arribaabajo y los límites de la subárea 12'' no son paralelos a los del sensor de imagen 11 igualmente rectangular.
La figura 4b muestra el monitor 30 del sistema de visión de acuerdo con la invención, que se corresponde esencialmente con el monitor de las figuras 3c y 3e y que reproduce la subárea 12''. Como puede verse en la figura 4b, los objetos 50 y 70, que se encuentran en la subárea 12'', están representados en mayor medida o aún más sin distorsión o libres de distorsión con respecto a su reproducción en la figura 3e, de modo que sus ejes longitudinales discurren en una dirección arriba-abajo en la figura 4b esencialmente en paralelo al borde longitudinal del monitor 30. Los anchos de los objetos 50 y 70 discurren así en una dirección izquierda-derecha en el monitor 30 de la figura 4b, de modo que el ángulo de disposición p' discurre aproximadamente en perpendicular al borde longitudinal del monitor 30. El objeto 50 presenta un ancho L'' que se extiende en una dirección izquierda-derecha en el monitor 30.
Como resultado de la rotación adicional de la subárea 12'' con respecto a la posición de la subárea 12', la distorsión o deformación de los objetos 50 y 70 puede reducirse más o eliminarse por completo. Debido a la representación sin distorsiones de los objetos 50 y 70 en el monitor 30, el conductor puede reconocer claramente el tamaño de los objetos 50 y 70 así como su posición y orientación en el entorno del vehículo. Por lo tanto, el conductor puede valorar de forma aún más fiable si el camión chocará o no con el objeto 50 y/o el objeto 70 durante la maniobra de conducción planificada.
En las representaciones del monitor de las figuras 3c, 3e y 4b, las relaciones de las dimensiones de anchura L, L' y L'' de los objetos 40 y 50 corresponden en cada caso esencialmente a las relaciones de las dimensiones de anchura de los objetos 40 y 50 en la realidad.
Las figuras 5a a 5h muestran una compensación del comportamiento de distorsión de la cámara 10 en dos direcciones espaciales. Una primera dirección espacial corresponde a una primera dirección espacial (véase la dirección de captura de la cámara 10A de la figura 2a) y una segunda dirección espacial corresponde a una segunda dirección espacial esencialmente perpendicular a la primera dirección espacial (véase la dirección de captura de la cámara 10B de la figura 2b).
La situación de conducción mostrada en la figura 5a corresponde esencialmente a la situación de conducción mostrada en la figura 3a y, por tanto, corresponde a una vista en planta de una cámara 10 colocada en un vehículo (no mostrado) (de manera correspondiente a la vista de la figura 2a). A diferencia de la situación de conducción mostrada en la figura 3a, solo los objetos 40 y 50 se encuentran en el ángulo de visión y1 de la cámara 10. El objeto 40 se sitúa cerca del centro de distorsión, mientras que el objeto 50 está distanciado de este.
La figura 5b muestra igualmente la situación de conducción de la figura 5a, solo que desde una perspectiva distinta. La figura 5b muestra una vista lateral de la cámara 10 y, por tanto, una vista lateral de los objetos 40 y 50 (de manera correspondiente a la vista de la figura 2b, el objeto 40 no se puede ver). El objeto 40 se encuentra en un ángulo de reproducción de imagen a2 y el objeto 50 en un ángulo de reproducción de imagen a2'. Los ángulos de reproducción de imagen a2 y a2' son más pequeños que el ángulo de visión y2 (no mostrado) y se sitúan dentro del ángulo de visión Y2.
La figura 5c muestra un sensor de imagen 11 análogo al sensor de imagen de la figura 3b. En el sensor de imagen 11 está definida una subárea 12. Los datos de imagen de la subárea 12 corresponden a los datos de imagen de los ángulos de reproducción de imagen a1 y a2, cada uno de los cuales contiene el objeto 40. La subárea 12 tiene un ancho P1 en una dirección izquierda-derecha en la figura 5c, que es resultado de los datos de imagen del ángulo de reproducción de imagen a1 en la primera dirección espacial, y un largo P2 en una dirección arriba-abajo en la figura.
5c, que es resultado de los datos de imagen del ángulo de reproducción de imagen a2 en la segunda dirección espacial. La subárea 12, a su vez, puede verse como una subárea de referencia 12 con una imagen reproducida esencialmente libre de distorsiones.
La figura 5d muestra un monitor 30 que presenta esencialmente una estructura como la del monitor de la figura 3c y cuya superficie de monitor corresponde esencialmente a la subárea 12. El objeto 40 mostrado en el monitor 30 está representado esencialmente sin distorsión porque está ubicado cerca del centro de distorsión de la cámara 10, y presenta un ancho L1 y un largo L2, cuya relación corresponde aproximadamente a la relación real del ancho y el alto del objeto 40 en el entorno del vehículo.
La figura 5e muestra de nuevo el sensor de imagen 11 de la figura 5c. En el sensor de imagen 11 está definida una subárea 12'. Los datos de imagen de la subárea 12' corresponden a los datos de imagen de los ángulos de reproducción de imagen a1' y a2', cada uno de los cuales contiene el objeto 50. La subárea 12' presenta un ancho P1' en una dirección izquierda-derecha en la figura 5e y un largo P2' en una dirección arriba-abajo en la figura 5e, que resultan en cada caso de los datos de imagen de los dos ángulos de reproducción de imagen a1' y a2'. Tanto el ancho P1' como el largo P2' de la subárea 12' cambian con respecto al ancho P1 y al largo P2 de la subárea 12 de la figura 5c, porque la subárea 12' se toma del sensor de imagen 11 en una posición distinta a la de la subárea 12. Al cambiar el ancho o el largo de la subárea 12 dependiendo de su posición en el sensor de imagen 11, es decir, al adaptarse la geometría de la subárea 12 en dos direcciones espaciales, el comportamiento de distorsión de la cámara 10, que aumenta a medida que aumenta la distancia desde el centro de distorsión, puede compensarse aún mejor que si solo tuviera lugar una compensación en una dirección espacial.
La figura 5f muestra un monitor 30 que presenta esencialmente una estructura como la del monitor de la figura 3c y cuya superficie de monitor corresponde esencialmente a la subárea 12'. El objeto 50 que se muestra en el monitor 30 está representado -pese a estar dispuesto lejos del centro de distorsión de la cámara 10- esencialmente sin distorsiones y presenta un ancho L1' y un largo L2', cuya relación corresponde aproximadamente a la relación real del objeto 40 en el entorno del vehículo. La representación casi sin distorsiones del objeto 50 puede conseguirse adaptando la geometría de la subárea 12' con respecto a la geometría de la subárea 12. La magnitud o el grado de adaptación depende de la posición de la subárea 12' y, más concretamente, de la distancia de la subárea 12 respecto de la imagen reproducida del centro de distorsión en el sensor de imagen 11. Al cambiar la geometría de la subárea 12' en función de la posición de toma de la subárea 12' en el sensor de imagen 11, se puede compensar o al menos reducir el comportamiento de distorsión de la cámara, que en el presente caso es pulviniforme. Aunque no se muestra, de manera análoga a la modificación de la primera forma de realización, en las figuras 4a y 4b también es concebible un cambio en la posición de la subárea 12', por ejemplo una rotación, con respecto a la posición de la subárea 12.
La compensación de la distorsión se puede ver en las figuras 5g y 5h. Las curvas de compensación K1 y K2 de la cámara 10 se muestran en cada caso en un diagrama en las figuras 5g y 5h. Al igual que con la curva de compensación K de la figura 3f, en los diagramas de las figuras 5g y 5h está trazada en las abscisas una extensión angular en grados [°] y en las ordenadas la extensión longitudinal en píxeles. Las curvas de compensación K1 y K2 son curvas que atraviesan el origen de coordenadas (que representa el centro de distorsión) y que se extienden en cada caso de forma no lineal hacia la parte superior derecha en las figuras 5g y 5h, incrementándose mucho su trayectoria a medida que aumenta la distancia desde el origen de coordenadas, ya que la cámara 10 presenta una distorsión pulviniforme. En las figuras 5g y 5h, las curvas de compensación K1 y K2 corresponden a las curvas de distorsión de los elementos ópticos en la dirección espacial respectiva. La curva de compensación K1 mostrada en la figura 5g corresponde al comportamiento de distorsión de la cámara 10 en la primera dirección espacial horizontal, mientras que la curva de compensación K2 mostrada en la figura 5h corresponde al comportamiento de distorsión de la cámara 10 en la segunda dirección espacial vertical.
Las curvas de compensación K1, K2 se utilizan para determinar los anchos P1, P1' de las subáreas 12, 12' en el sensor de imagen 11 en función de un cambio en la posición del ángulo de reproducción de imagen a1, a1', a2, a2', correspondiente a la subárea 12, 12', de la cámara 10 de modo que ambas subáreas 12, 12' puedan visualizarse en el monitor 30 sin distorsión o casi sin distorsión. En otras palabras, la unidad de procesamiento de imágenes 20A, 20B puede usar la respectiva curva de compensación K1, K2 para determinar qué ancho P1, P1' y qué largo P2, P2' presenta la respectiva subárea 12, 12' tomada del sensor de imagen 11 en función del desplazamiento del correspondiente ángulo de reproducción de imagen a1, a1' y a2, a2' respectivamente y, por tanto, en función del largo de la respectiva subárea 12, 12' en el sensor de imagen 11.
En los diagramas de las figuras 5g y 5h se indican los ángulos a1, a1' y a2, a2' respectivamente de las figuras 5a y 5b, así como las dimensiones de ancho P1, P1' y las dimensiones de largo P2, P2' de las subáreas 12, 12' de las figuras 5c y 5e. Como puede verse en la figura 5g, el ancho P1, P1' de la subárea 12, 12' en la primera dirección espacial aumenta a medida que aumenta la extensión angular, mientras que los ángulos a1, a1' permanecen iguales. Como puede verse en la figura 5h, el ancho P2, P2' de la subárea 12, 12' en la segunda dirección espacial aumenta igualmente a medida que aumenta la extensión angular, mientras que los ángulos a2, a2' permanecen iguales. Como ya se ha explicado con referencia a la figura 3f, también es concebible que los ángulos a1, a1' y/o a2, a2' también cambien ligeramente en función de la posición de la respectiva subárea 12, 12', con lo cual el correspondiente ancho P1, P1' y/o P2/P2' de la respectiva subárea 12, 12' también cambia, pero no en la misma medida que si los ángulos a1, a1 y/o a2, a2' no cambiaran.
Como puede verse en las figuras 5d y 5f, el objeto 40 no está representado en absoluto y el objeto 50 está representado solo ligeramente distorsionado en el monitor 30. La representación de los objetos 40 y 50 en el monitor 30, escasa o ligeramente distorsionada, permite al conductor reconocer fácilmente el tamaño de los objetos 40 y 50, así como su posición y orientación en el entorno del vehículo. Por lo tanto, el conductor puede valorar de forma fiable si el camión chocará o no con el objeto 40 y/o el objeto 50 durante la maniobra de conducción planificada. A este respecto, una compensación del comportamiento de distorsión de la cámara 10 mediante la unidad de procesamiento de imágenes 20A, 20B en dos direcciones espaciales proporciona una representación de objetos aún más libre de distorsiones que una compensación en una sola dirección espacial. Por lo tanto, también son concebibles compensaciones en más de dos direcciones espaciales para poder representar objetos aún más libres de distorsión.
En la figura 5i se muestra un sensor de imagen 11, en el que está definida una subárea 12 y una subárea 12''. La subárea 12'' corresponde a una subárea rotada con respecto a la subárea 12' de la figura 5e. Es decir, la subárea 12'' corresponde a una subárea que ya se ha adaptado geométricamente a la posición de toma y, adicionalmente, se ha rotado con respecto al borde vertical del sensor de imagen. Como ya se ha descrito con referencia a las figuras 4a y 4b, un comportamiento de distorsión de un elemento óptico se puede compensar aún más eficazmente adaptando la geometría de una subárea tomada del sensor de imagen y rotando la geometría adaptada.
Como se muestra en la figura 5i, el cilindro cuadriculado (véase la figura 2c) capturado por la cámara 10 se reproduce como imagen en la superficie del sensor del sensor de imagen 11. Debido al comportamiento de distorsión de la óptica y a las reglas fundamentales de la perspectiva, las líneas verticales VL de la figura 2c no discurren en la figura 5i en paralelo al borde vertical del sensor de imagen 11, sino que están reproducidas como líneas curvas (virtuales) LV1, LV2, LV3, etc. (comúnmente designadas como LV). Asimismo, las líneas horizontales HL de la figura 2c no discurren en la figura 5i paralelas al borde horizontal del sensor de imagen, sino que se reproducen como líneas curvas (virtuales) LH1, LH2, etc. (generalmente designadas como LH). La curvatura de las líneas aumenta desde el centro de distorsión en dirección al borde del sensor de imagen. La subárea 12 se sitúa en un área en el sensor de imagen en la que los bordes de la subárea 12 son casi paralelos a las líneas verticales y horizontales del patrón de cuadrícula reproducido como imagen. De este modo, la subárea 12 se reproduce como imagen en el sensor casi sin distorsión. La subárea 12'' se sitúa en un área en el sensor de imagen en la que las líneas verticales y horizontales del patrón de cuadrícula reproducido como imagen están muy curvadas.
Si la geometría de la subárea 12 se tomara de un área del sensor de imagen cuyas líneas verticales LV1, LV2, LV3 y líneas horizontales LH1, LH2 están muy curvadas, sin adaptación de la geometría, los datos de imagen de la subárea 12 se reproducirían en el monitor muy distorsionados. Para compensar la distorsión, la geometría de la subárea 12 (con centro M), tal como se muestra en las figuras 5a a 5h, puede adaptarse a la posición de toma en el sensor de imagen si la toma se ha realizado en una posición del sensor de imagen en la que las líneas verticales LV1, LV2, LV3 y las líneas horizontales LH1, LH2 están muy curvadas. La distorsión se puede compensar aún mejor si la geometría se adapta adicionalmente a la trayectoria o a la curvatura de las líneas horizontales LH1, LH2 y las líneas verticales LV1, LV2, LV3, es decir, si la geometría se rota con respecto a la orientación vertical en el sensor de imagen de tal manera el eje longitudinal y el eje transversal de la geometría, que atraviesan el centro M'' de la geometría, tocan tangencialmente una línea horizontal LH y una línea vertical LV curvada respectiva. El ángulo de rotación con el que se rota la subárea 12'' con respecto a la orientación vertical del borde del sensor se designa mediante p.
El ángulo de rotación p se determina mediante un campo vectorial. Para ello, se determina de antemano un ángulo asociado para cada punto de la superficie del sensor (por ejemplo, cada píxel) y se almacena en una base de datos. Es decir, para cada píxel del sensor, basándose en la función de reproducción de imagen del elemento óptico con una curva de distorsión y el ángulo de inclinación de la cámara (véase la figura 2c), se asigna una coordenada al patrón cuadriculado cilíndrico que se reproduce como imagen en el sensor de imagen 11. A este respecto, no es necesario que cada píxel tenga una asignación directa. Los valores entre los puntos almacenados se pueden determinar mediante interpolación, por ejemplo. El ángulo se puede determinar empíricamente o mediante cálculo. Basta con determinar su posición en el sensor a través de un punto de una subárea. El punto puede ser, por ejemplo, un centro M'' de la subárea 12'', que se sitúa en el centro de la subárea 12''. Dependiendo de la posición del centro M'' en la subárea 12'' en el sensor de imagen, la unidad de control 20A, 20B lee un ángulo de rotación desde la base de datos y rota la subárea 12'' el ángulo leído.
Para facilitar la comprensión, la figura 5j muestra un desarrollo del cilindro cuadriculado de la figura 2c en relación con la situación de la figura 5i. Los puntos Se1, Se2, Se3 y Se4 marcan los puntos de esquina de una intersección desarrollada del campo de visión de la cámara y corresponden a los puntos de esquina del sensor de imagen Se1, Se2, Se3 y Se4. Como puede verse en la figura 5j, la subárea 12 presenta una altura H y un ancho W, mientras que la subárea 12'' presenta una altura H'' y un ancho W'' que son aproximadamente iguales en cada caso (H ~ H'', W ~ W'').
La transmisión de la subárea 12'' rotada desde el sensor de imagen 11 al monitor 30 puede tener lugar por medio de una matriz de transformación basándose en la geometría cambiada y la rotación. Los puntos Se1, Se2, Se3 y Se4 corresponden a los puntos ME1 a ME4 en el monitor. La subárea 12'' se reproduce así como imagen en el monitor 30 en su conjunto. Como se muestra en la figura 5k, los objetos 40 y 60 están representados en el monitor 30 casi sin distorsión debido a la geometría cambiada y a la rotación de la subárea 12'' en el sensor de imagen. El objeto 40 presenta, por ejemplo, un ancho L'' en el monitor 30 que corresponde a la relación del ancho L del objeto 40 en el entorno del vehículo.
Las figuras 6a a 6c muestran un modo de proceder adicional de cómo se adapta la geometría de una subárea 12, 12', 12'' en función de la posición en el sensor de imagen 11, de modo que se compense en la medida de lo posible un comportamiento de distorsión de un elemento óptico. Como se muestra en la figura 6a, están definidas tres subáreas 12, 12' y 12'' en el sensor de imagen. Las tres subáreas 12, 12' y 12'' se someten a una transformación matricial, es decir, a una transformación de perspectiva, en función de su posición respectiva en el sensor de imagen 11.
Sin embargo, a diferencia del modo de proceder de las figuras 5i a 5k, en el modo de proceder en el que se basan las figuras 6a a 6c, al determinar la geometría de las subáreas 12, 12' y 12'' en ciertas posiciones, no se determina el ángulo de rotación, sino que se utilizan puntos característicos de las subáreas 12, 12' y 12'', como por ejemplo los puntos de esquina de las subáreas 12 en los que se cruzan en cada caso los bordes laterales de las respectivas subáreas 12, 12', 12'', para determinar la geometría. Con referencia a las figuras 6a y 6c, como datos de entrada para una transformación matricial se utilizan los puntos E1 a E4 para la subárea 12, los puntos E1' a E4' para la subárea y los puntos E1'' a E4'' para la subárea 12'', respectivamente, mientras que los puntos de esquina del monitor ME1 a ME4 constituyen los datos objetivo para la transformación matricial.
La figura 6b muestra de nuevo un desarrollo del cilindro cuadriculado de la figura 2c. Los puntos Se1, Se2, Se3 y Se4 marcan nuevamente los puntos de esquina de una intersección desarrollada del campo de visión de la cámara y corresponden a los puntos de esquina del sensor de imagen Se1, Se2, Se3 y Se4. Como puede deducirse de la figura 6b, la subárea 12 presenta un alto H y un ancho W, mientras que la subárea 12' presenta un alto H' y un ancho W y la subárea 12'' presenta un alto H'' y un ancho W", que son aproximadamente iguales (H ~ H' ~ H'', W ~ W ~ W'').
La transmisión de las subáreas 12, 12' y 12'' desde el sensor de imagen 11 al monitor 30 se realiza por medio de una matriz de transformación. Los puntos de esquina ME1 a ME4 forman a este respecto datos objetivo/puntos objetivo de la subárea 12', que corresponden a los puntos de esquina E1' a E4'. Como resultado, como se muestra en la figura 6c, el objeto 40 presenta, por ejemplo, un ancho L' en el monitor 30 que corresponde a la relación del ancho L del objeto 40 en el entorno del vehículo. En general, la forma de las subáreas 12, 12', 12'' en el sensor de imagen 11 y correspondientemente en el monitor 30 depende del comportamiento de distorsión del elemento óptico.
Por tanto, un comportamiento de distorsión de un elemento óptico se puede compensar aún más eficazmente mediante una adaptación la geometría y una rotación adicional de la geometría en función de la posición de la geometría en el sensor de imagen que mediante una adaptación la geometría solamente. La invención debe entenderse de tal manera que también pueda tener lugar una rotación exclusiva de la geometría para compensar un comportamiento de distorsión de un elemento óptico.
En general, la representación del entorno alrededor de un vehículo, es decir, la representación de los datos de imagen desde los ángulos de reproducción de imagen y, por tanto, las subáreas, puede tener lugar en un solo monitor con una sola área de monitor en sucesión o en un solo monitor con áreas de monitor separadas al mismo tiempo. Las áreas de monitor separadas pueden estar dispuestas una al lado de otra o una encima de otra en una dirección izquierda-derecha del monitor y pueden contener otros campos de visión de un espejo principal y de un espejo de gran angular de un vehículo comercial, por ejemplo, según lo regulado en el R46 CEPe , por ejemplo, el campo de visión de un espejo principal en un área superior del monitor y el campo de visión de un espejo gran angular en un área inferior del monitor. También es concebible representar todos los campos de visión en un monitor con una sola área de monitor. Esto requiere subáreas espacialmente contiguas o al menos próximas entre sí y una compensación continua o por secciones del comportamiento de distorsión del elemento óptico a través de la superficie del sensor de imagen en la que se encuentran las subáreas, de modo que se cree una imagen continua y sin huecos del entorno del vehículo que permita al conductor estimar rápidamente el entorno del vehículo. Finalmente, las subáreas se pueden representar en diferentes momentos, por ejemplo, dependiendo de las situaciones de conducción o de las intervenciones del conductor. Finalmente, también es concebible una representación de las diversas subáreas en varios monitores.
Se enfatiza explícitamente que todas las características divulgadas en la descripción y/o en las reivindicaciones se deberían considerar de manera separada e independiente las unas de las otras con vistas a la divulgación original, al igual que con vistas a restringir la invención reivindicada, independientemente de las combinaciones de características en las formas de realización y/o en las reivindicaciones. Se establece explícitamente que todas las indicaciones de intervalo o indicaciones de grupos de unidades divulgan todos los posibles valores intermedios o subgrupos de unidades con vistas a la divulgación original, al igual que con vistas a restringir la invención reivindicada, en particular también como límite de una indicación de intervalo.
Lista de referencias
10, 10A, 10B unidad de captura de imágenes, cámara
11 sensor de imagen
12, 12', 12" subárea
20A, 20B unidad de procesamiento de imágenes
30, 30A, 30B unidad de reproducción de imágenes, monitor
40 objeto
50 objeto
60 objeto
70 objeto
100A, 100B sistema de visión
aR eje de rotación
E1-E4, E1'-E4', E1''-E4'' puntos de sensor de imagen
FO superficie de la carretera
H, H', H" altura
HLo línea horizontal a través del primer punto principal de la óptica
HL líneas de red horizontales
K, K1, K2 curva de compensación
LH, LH1, LH2, LH3 líneas curvas horizontales (virtuales)
M, M', M" centro
ME1-ME4 puntos objetivo del monitor
P, P', P", P1, P1' ancho de las subáreas
P2, P2' largo de las subáreas
LV1, LV2, LV3 líneas curvas verticales (virtuales)
Sk1, Sk2, Sk3, Sk4 borde del campo de visión
Se1, Se2, Se3, Se4 puntos de esquina del sensor de imagen
VL líneas de red verticales
W, W , W" ancho
a1,a1' ángulo de reproducción de imagen de la cámara en la primera dirección espacial
a2, a2' ángulo de reproducción de imagen de la cámara en la segunda dirección espacial
P ángulo de orientación
P' ángulo de disposición
Y1 ángulo de visión de la cámara en la primera dirección espacial Yl* proyección del ángulo de visión de la cámara en la primera dirección espacial
ángulo de visión de la cámara en la segunda dirección espacial proyección del ángulo de visión de la cámara en la segunda dirección espacial

Claims (15)

REIVINDICACIONES
1. Sistema de visión (100A, 100B) para un vehículo (1) que contiene
al menos una unidad de captura de imágenes (10, 10A, 10B) para capturar datos de imagen de un área alrededor del vehículo (1), presentando la unidad de captura de imágenes (10, 10A, 10B) un sensor de imagen (11) y un elemento óptico que presenta una curva de distorsión, en donde los datos de imagen están distorsionados dependiendo de la posición en el sensor de imagen (11) conforme a la curva de distorsión del elemento óptico,
al menos una unidad de procesamiento de imágenes (20A, 20B) para procesar los datos de imagen capturados por la unidad de captura de imágenes (10, 10A, 10B), y
al menos una unidad de reproducción de imágenes (30, 30A, 30B) para reproducir los datos de imagen procesados por la unidad de procesamiento de imágenes (20A, 20B),
caracterizado por que
la unidad de procesamiento de imágenes (20A, 20B) está adaptada para tomar al menos una subárea (12, 12') de los datos de imagen del sensor de imagen (11), dependiendo la geometría de la subárea (12, 12') de la posición de la subárea (12, 12') en el sensor de imagen (11).
2. Sistema de visión (100A, 100B) según la reivindicación 1, en donde la subárea (12) define una subárea de referencia (12) con una geometría de referencia.
3. Sistema de visión (100A, 100B) según la reivindicación 2, en donde la subárea (12) define una subárea de referencia cuando la subárea (12) se toma del sensor de imagen (11) cerca de una posición que corresponde a la imagen reproducida de un centro de distorsión de la unidad de captura de imágenes (10, 10A, 10B) en el sensor de imagen (11), tomándose la subárea (12) del sensor de imagen (11) preferiblemente en una posición o inmediatamente adyacente a una posición que corresponde a la imagen reproducida del centro de distorsión de la unidad de captura de imágenes (10, 10A, 10B) en el sensor de imagen (11).
4. Sistema de visión (100A, 100B) según la reivindicación 3, en donde el centro de distorsión es el eje óptico.
5. Sistema de visión (100A, 100B) según una de las reivindicaciones 2 a 4, en donde la geometría de referencia es un rectángulo de ancho (P1) y largo (P2).
6. Sistema de visión (100A, 100B) según una de las reivindicaciones 2 a 5, en donde la subárea (12') presenta una geometría rotada y/o distorsionada y/o ajustada a escala con respecto a la geometría de referencia cuando la subárea (12') está dispuesta lejos de la posición que corresponde a la imagen reproducida del centro de distorsión de la unidad de captura de imágenes (10, 10A, 10B) en el sensor de imagen (11).
7. Sistema de visión (100A, 100B) según la reivindicación 6, en donde el grado de rotación y/o distorsión y/o ajuste a escala de la geometría de referencia aumenta al menos por zonas a medida que aumenta la distancia a la imagen reproducida del centro de distorsión de la unidad de captura de imágenes (10, 10a , 10B) en el sensor de imagen (11), o en donde el grado de rotación y/o distorsión y/o ajuste a escala de la geometría de referencia disminuye por zonas a medida que aumenta la distancia a la imagen reproducida del centro de distorsión de la unidad de captura de imágenes (10, 10A, 10B) en el sensor de imagen (11).
8. Sistema de visión (100A, 100B) según una de las reivindicaciones anteriores, en donde la determinación de una primera dimensión de la geometría de la subárea (12') tiene lugar en una primera dirección espacial, teniendo lugar la determinación de una segunda dimensión de la geometría de la subárea (12') preferiblemente en una segunda dirección espacial, discurriendo la primera y la segunda dirección espacial preferiblemente en perpendicular entre sí.
9. Sistema de visión (100A, 100B) según una de las reivindicaciones anteriores, en donde la geometría de la subárea (12') se determina por medio de un algoritmo de cálculo.
10. Sistema de visión (100A, 100B) según la reivindicación 9, en donde el algoritmo de cálculo utiliza al menos una curva de compensación (K) con la que se determina el ancho (P1') y/o el largo (P2') de la subárea (12') en el sensor de imagen (11) en función de un cambio de posición del ángulo de reproducción de imagen (a, a1, a2), correspondiente a la subárea (12, 12'), de la unidad de captura de imágenes (10, 10A, 10B).
11. Sistema de visión (100A, 100B) según la reivindicación 10, en donde la curva de compensación (K) corresponde a una curva no lineal y/o al menos a una función matemática, y/o en donde la curva de compensación (K) corresponde a una curva libremente definida, estando los valores de la curva libremente definida preferiblemente determinados empíricamente y almacenados en la unidad de procesamiento (20A, 20B).
12. Sistema de visión (100A, 100B) según la reivindicación 10, en donde la curva de compensación (K) corresponde a la curva de distorsión del elemento óptico, correspondiendo preferiblemente la curva de compensación (K) adicionalmente a una curva de distorsión del elemento óptico con corrección de distorsión digital.
13. Sistema de visión (100A, 100B) según una de las reivindicaciones 2 a 12, en donde el ángulo de reproducción de imagen (a, a l, a2) correspondiente a la subárea de referencia (12) y el ángulo de reproducción de imagen (a1', a l', a2') correspondiente a la subárea (12') son iguales.
14. Sistema de visión (100A, 100B) según una de las reivindicaciones anteriores, en donde la subárea (12, 12') contiene el campo de visión de un espejo principal y/o de un espejo de gran angular de un vehículo comercial.
15. Sistema de sustitución de espejos para un vehículo con un sistema de visión (100A, 100B) según una de las reivindicaciones 1 a 14.
ES20166604T 2019-04-26 2020-03-30 Sistema de visión para un vehículo Active ES2908413T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019110871.3A DE102019110871A1 (de) 2019-04-26 2019-04-26 Sichtsystem für ein Fahrzeug

Publications (1)

Publication Number Publication Date
ES2908413T3 true ES2908413T3 (es) 2022-04-29

Family

ID=70277137

Family Applications (1)

Application Number Title Priority Date Filing Date
ES20166604T Active ES2908413T3 (es) 2019-04-26 2020-03-30 Sistema de visión para un vehículo

Country Status (5)

Country Link
US (1) US11134225B2 (es)
EP (1) EP3730346B1 (es)
CN (1) CN111866446B (es)
DE (1) DE102019110871A1 (es)
ES (1) ES2908413T3 (es)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7035712B2 (ja) * 2018-03-29 2022-03-15 トヨタ自動車株式会社 後方監視装置
EP3905655A1 (en) * 2020-04-30 2021-11-03 Motherson Innovations Company Ltd. Method for aligning a camera of a vehicle camera monitor system and vehicle
CN112702526A (zh) * 2020-12-28 2021-04-23 西安中科立德红外科技有限公司 一种基于pal制式的多视角视频处理装置及方法
CN112702529B (zh) * 2020-12-29 2022-07-08 杭州海康机器人技术有限公司 云台相机配置方法、装置及可读存储介质和电子设备
CN114633692B (zh) * 2022-03-14 2023-10-03 深圳市艾为智能有限公司 一种偏心镜头在cms系统中的应用方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2188511Y (zh) * 1994-03-21 1995-02-01 李世卿 车辆外置后视镜
JP2005311868A (ja) * 2004-04-23 2005-11-04 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
WO2008020544A1 (en) * 2006-08-18 2008-02-21 Nec Corporation Vehicle detection device, vehicle detection method, and vehicle detection program
JP2009010730A (ja) * 2007-06-28 2009-01-15 Kyocera Corp 画像処理方法と該画像処理方法を用いた撮像装置
JP4924896B2 (ja) * 2007-07-05 2012-04-25 アイシン精機株式会社 車両の周辺監視装置
US8017898B2 (en) * 2007-08-17 2011-09-13 Magna Electronics Inc. Vehicular imaging system in an automatic headlamp control system
JP2009126270A (ja) * 2007-11-21 2009-06-11 Sanyo Electric Co Ltd 画像処理装置及び方法、運転支援システム、車両
JP5379913B2 (ja) * 2010-05-14 2013-12-25 三菱電機株式会社 駐車支援装置、駐車支援システム、および駐車支援カメラユニット
JP5124672B2 (ja) * 2011-06-07 2013-01-23 株式会社小松製作所 作業車両の周辺監視装置
WO2013008623A1 (ja) * 2011-07-12 2013-01-17 日産自動車株式会社 車両用監視装置、車両用監視システム、端末装置及び車両の監視方法
DE102014006153A1 (de) * 2014-04-25 2015-10-29 Man Truck & Bus Ag Verfahren zur Bilddarstellung eines indirekten Sichtfeldes im Fahrzeugumfeld eines Fahrzeugs, insbesondere eines Nutzfahrzeugs, mit einem Kamera-Monitor-System
DE102014018040A1 (de) * 2014-12-05 2016-06-09 Mekra Lang Gmbh & Co. Kg Sichtsystem
US20180281698A1 (en) * 2017-03-31 2018-10-04 Magna Electronics Inc. Vehicular camera calibration system
DE102017207792A1 (de) * 2017-05-09 2018-11-15 Continental Automotive Gmbh Vorrichtung und Verfahren zum Prüfen einer Wiedergabe einer Videosequenz einer Spiegelersatzkamera
JP6958147B2 (ja) * 2017-09-07 2021-11-02 トヨタ自動車株式会社 画像表示装置
CN109523489B (zh) * 2018-11-28 2021-04-02 广州大学 一种生成俯视无畸变倒车影像的方法

Also Published As

Publication number Publication date
CN111866446A (zh) 2020-10-30
DE102019110871A1 (de) 2020-10-29
US20200344450A1 (en) 2020-10-29
CN111866446B (zh) 2022-10-28
EP3730346B1 (de) 2021-12-29
US11134225B2 (en) 2021-09-28
EP3730346A1 (de) 2020-10-28

Similar Documents

Publication Publication Date Title
ES2908413T3 (es) Sistema de visión para un vehículo
JP5548002B2 (ja) 画像生成装置、画像表示システム及び画像生成方法
USRE48017E1 (en) Viewing system for vehicles, in particular commercial vehicles
ES2533594T3 (es) Sistemas de obtención de imágenes de visión trasera para vehículo
JP5491235B2 (ja) カメラキャリブレーション装置
US8130270B2 (en) Vehicle-mounted image capturing apparatus
JP6091759B2 (ja) 車両のサラウンドビューシステム
US20190116316A1 (en) Panoramic windshield viewer system
US8477191B2 (en) On-vehicle image pickup apparatus
JP4560716B2 (ja) 車両の周辺監視システム
US8363103B2 (en) Drive assist display apparatus
WO2015014100A1 (zh) 光学成像装置
JP2005184225A (ja) 車両用表示装置
JP2009124627A (ja) 撮像装置
US20100214412A1 (en) Method for calibrating an assembly using at least one omnidirectional camera and an optical display unit
JP2010183265A (ja) 画像表示装置及びそのカメラ取り付け角度算出方法
JP2009120135A (ja) 撮像装置
JP2008307982A (ja) 車両用運転支援装置
JP2005053296A (ja) 車両周辺視認装置
TWI622297B (zh) 能於車輛轉彎時同步顯示後方全景與轉彎畫面的顯示方法
ES2679743T3 (es) Escaneo y procesamiento de imágenes en tiempo real
JP2021110904A (ja) ヘッドアップディスプレイ装置
JP6007773B2 (ja) 画像データ変換装置並びにナビゲーションシステムおよびカメラ装置並びに車両
JP5257784B2 (ja) 車載カメラ装置
JP2023085287A (ja) ドラブレコーダ、撮影画像表示装置、撮影画像表示方法、撮影画像表示プログラム及び記憶媒体