ES2770601T3 - Sistema de asistencia a la conducción para un vehículo, vehículo ferroviario y procedimiento de uso asociados - Google Patents

Sistema de asistencia a la conducción para un vehículo, vehículo ferroviario y procedimiento de uso asociados Download PDF

Info

Publication number
ES2770601T3
ES2770601T3 ES17175763T ES17175763T ES2770601T3 ES 2770601 T3 ES2770601 T3 ES 2770601T3 ES 17175763 T ES17175763 T ES 17175763T ES 17175763 T ES17175763 T ES 17175763T ES 2770601 T3 ES2770601 T3 ES 2770601T3
Authority
ES
Spain
Prior art keywords
region
camera
display
vehicle
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17175763T
Other languages
English (en)
Inventor
Denis Miglianico
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alstom Transport Technologies SAS
Original Assignee
Alstom Transport Technologies SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alstom Transport Technologies SAS filed Critical Alstom Transport Technologies SAS
Application granted granted Critical
Publication of ES2770601T3 publication Critical patent/ES2770601T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L15/00Indicators provided on the vehicle or train for signalling purposes
    • B61L15/009On-board display devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Sistema de asistencia a la conducción (10) para un vehículo (12) que consta de una cabina (14) acotada por una ventana (20) y al menos un elemento estructural (22) adyacente a la ventana (20), obstruyendo el elemento estructural (22) una región del campo de visión de un conductor (11) del vehículo (12), comprendiendo el sistema (10): - un conjunto de cámaras exteriores (28) que consta de una primera cámara (36) apta para obtener datos representativos de la región obstruida por el elemento estructural (22), y una segunda cámara (38) apta para obtener datos representativos de la región obstruida por el elemento estructural (22), - un conjunto de visualización (30) montado en el elemento estructural (22) y que comprende una superficie de visualización (40), y - una unidad de procesamiento (32) conectada al conjunto de cámaras exteriores (28), y al conjunto de visualización (30), propia para generar la visualización de una imagen que se va a visualizar de la región obstruida en la superficie de visualización (40), - un conjunto (26) de adquisición de la posición o de la posición y de la orientación, de los ojos del conductor (11) del vehículo (12), estando la unidad de procesamiento (32) conectada al conjunto (26) de adquisición; caracterizado porque el conjunto de cámaras exteriores (28) consta de una tercera cámara (50) colocada a una altura diferente de las alturas de la primera cámara (36) y de la segunda (38); y porque la unidad de procesamiento (32) es apropiada para llevar a cabo una modelización tridimensional de la región obstruida a partir de los datos recibidos de la primera cámara (36), de la segunda cámara (38) y de la tercera cámara (50), y para generar una imagen que se va a visualizar de la región obstruida en función de la posición de los ojos del conductor (11), mediante la deformación geométrica de la modelización tridimensional, en función de la forma de la superficie de visualización (40).

Description

DESCRIPCIÓN
Sistema de asistencia a la conducción para un vehículo, vehículo ferroviario y procedimiento de uso asociados [0001] La presente invención se refiere a un sistema de asistencia a la conducción para un vehículo que consta de una cabina acotada por una ventana y al menos un elemento estructural adyacente a la ventana, obstruyendo el elemento estructural una región del campo de visión de un conductor del vehículo, comprendiendo el sistema:
- una primera cámara apta para obtener datos representativos de la región obstruida por el elemento estructural, - una segunda cámara apta para obtener datos representativos de la región obstruida por el elemento estructural, - un conjunto de visualización montado en el elemento estructural y que comprende una superficie de visualización, y
- una unidad de procesamiento conectada a la primera cámara, a la segunda cámara y al conjunto de visualización, propia para generar la visualización de una imagen para visualizar la región obstruida en la superficie de visualización.
[0002] Un vehículo ferroviario, tal como un tranvía o un tren de alta velocidad, que consta de una cabina a partir de la cual un conductor conduce el vehículo. Tal cabina comprende normalmente elementos estructurales a ambos lados del parabrisas que obstruyen la vista lateral del conductor. Estos elementos estructurales son, por ejemplo, montante o pilares.
[0003] La visión lateral del conductor es un elemento clave en su conducción, en particular en el caso de los tranvías en los que el vehículo opera en un entorno urbano.
[0004] Una solución consiste en colocar los espejos para permitir que el conductor vea la región obstruida. Sin embargo, los elementos estructurales de la cabina siguen restringiendo la visibilidad, en detrimento de la seguridad del conductor, de los pasajeros y de los transeúntes en las proximidades del tranvía o del tren-tranvía.
[0005] Además, los documentos ES2400496 y US 2013/0235351 describen ejemplos de sistemas de asistencia a la conducción para vehículo.
[0006] Además, el documento GB2417847 describe un sistema de mejora de la vista del conductor de un vehículo de motor, comprendiendo el vehículo un parabrisas y un montante lateral que obstruye la vista del conductor a los lados del parabrisas. El sistema comprende entonces una cámara exterior para cada montante, una superficie de visualización montada en el montante y una unidad de procesamiento apta para gestionar la visualización de las imágenes de la cámara exterior en la superficie de visualización. Sin embargo, tal sistema no es del todo satisfactorio. Cada cámara proporciona su propia imagen que no necesariamente está en continuidad con la visión exterior a través del parabrisas.
[0007] Un objetivo de la invención es, por tanto, proporcionar un sistema que, con gran precisión, aumente la percepción del mundo exterior por parte de un conductor del vehículo.
[0008] A tal fin, la invención tiene por objeto un sistema tal como el definido por la reivindicación independiente 1.
[0009] Modos particulares de realización se definen en las reivindicaciones dependientes.
[0010] Por último, la invención se refiere también a un procedimiento tal como el definido por la reivindicación independiente 12.
[0011] La invención se comprenderá mejor con la lectura de la descripción que aparece a continuación, dada únicamente a título de ejemplo y realizada con referencia a los dibujos anexos, en los que:
- la figura 1 es una vista esquemática de un sistema de asistencia a la conducción según la invención;
- la figura 2 es una vista esquemática superior de la cabina;
- la figura 3 es una vista en perspectiva del interior de la cabina que consta de un sistema de asistencia a la conducción, no habiendo la imagen visualizada recibido ningún reprocesamiento para compensar el relieve de la superficie de visualización;
- la figura 4 es una vista en perspectiva del interior de la cabina que consta de un sistema de asistencia a la conducción, no habiendo la imagen visualizada recibido ningún reprocesamiento para compensar el relieve de la superficie de visualización;
- la figura 5 es un diagrama de flujo de un procedimiento de uso de un sistema de asistencia a la conducción; y, - la figura 6 es un esquema que ilustra una compensación de la irregularidad superficial de la superficie de visualización por la unidad de procesamiento.
[0012] En las figuras 1 y 2 se ilustra un sistema de asistencia 10 a la conducción para un vehículo 12.
[0013] El vehículo 12 es ventajosamente un vehículo ferroviario tal como un tranvía, un tren-tranvía o un tren. Consta de una cabina 14 en la que un conductor 11 conduce el vehículo 12.
[0014] Con referencia a la figura 3, la cabina 14 consta de un piso, una interfaz de conducción 18. Está acotada por una ventana 20 normalmente frontal.
[0015] La interfaz de conducción 18 permite al conductor 11 maniobrar el vehículo 12 y recibir información acerca de la conducción. La cabina 14 consta así pues por ejemplo de una cubierta que recubre al menos parcialmente la interfaz de conducción 18 para protegerla de los rayos solares.
[0016] La ventana 20 se dispone en la parte delantera de la cabina 14. Permite al conductor 11 ver el entorno exterior del vehículo 12, en particular delante del vehículo 12, y permite así adaptar su conducción en función del entorno exterior.
[0017] La cabina 14 consta también de al menos un elemento estructural 22 que obstruye una región del entorno exterior respecto al conductor 11.
[0018] En la realización de las figuras, la cabina 14 consta de montantes y dos elementos estructurales 22 y 24 colocados a cada lado de la ventana 20, que obstruyen dos regiones del entorno exterior del vehículo 12. Cada elemento estructural 22, 24 es aquí un montante o un pilar.
[0019] Como se ilustra en la figura 1, el sistema 10 comprende un conjunto 26 de adquisición de la posición y orientación de los ojos del conductor 11, un conjunto de cámaras exteriores 28, un conjunto de visualización 30 montado sobre el elemento estructural 22 y una unidad 32 de procesamiento conectada al conjunto 26 de adquisición, al conjunto de cámaras exteriores 28, y al conjunto de visualización 30.
[0020] El conjunto 26 de adquisición de la posición y orientación de los ojos del conductor 11 consta ventajosamente de dos cámaras de infrarrojos 34 dispuestas simétricamente sobre la interfaz de conducción 18 a la altura de la cubierta o de los montantes de la cabina 14. Las dos cámaras de infrarrojos 34 son aptas para obtener datos representativos del interior de la cabina 14 y, en particular, del rostro del conductor 11.
[0021] Con referencia a la figura 2, el conjunto de cámaras exteriores 28 consta de al menos una primera cámara 36 y una segunda cámara 38. Como se ilustra en la figura 2, la primera cámara 36 se coloca fuera de la cabina 14, delante del elemento estructural 22. La segunda cámara 38 se coloca fuera de la cabina 14, delante del elemento estructural 24. Las cámaras 36, 38 están dispuestas a ambos lados de la ventana 20.
[0022] La primera cámara 36 y la segunda cámara 38 son aptas para obtener datos representativos del entorno exterior situado delante de la cabina 14, y en particular imágenes de las regiones obstruidas por los elementos estructurales 22 y 24 desde dos posiciones diferentes.
[0023] Así, como se representa en la figura 2, la segunda cámara 38 (respectivamente la primera cámara 36) es, por ejemplo, apta para obtener datos representativos de una región 39 del entorno externo que no era visible por la primera cámara 36 (respectivamente la segunda cámara 38).
[0024] La primera cámara 36 y la segunda cámara 38 están situadas ventajosamente a la misma altura con respecto al piso. Esta altura es, por ejemplo, la altura con respecto al piso de los ojos de una persona de tamaño medio sentada en un asiento de altura predeterminada. Esta altura corresponde al 50° percentil de la altura sobre con respecto al piso de los ojos de los individuos de una población dada en posición sentada en un asiento de altura predeterminada. Por ejemplo, la población dada es la población francesa o la población mundial.
[0025] Están separados lateralmente entre sí por una distancia superior a 0,2 m, en concreto entre 0,2 m y 2,0 m.
[0026] Como se representa en la figura 1, la primera cámara 36 y la segunda cámara 38 presentan sensores 39A apropiados para obtener datos representativos del entorno exterior situado delante de la cabina 14 en la oscuridad, en concreto de noche. Para ello, la primera cámara 36 y la segunda cámara 38 comprenden, por ejemplo, sensores de infrarrojos.
[0027] Del mismo modo, la primera cámara 36 y la segunda cámara 38 comprenden sensores 39B apropiados para obtener datos representativos del entorno exterior delante de la cabina 14, incluso cuando el sol las ilumina directamente.
[0028] Con referencia a la figura 3, el conjunto de visualización 30 consta de una superficie de visualización 40. El conjunto de visualización 30 es apto para visualizar una imagen de la región obstruida por el elemento estructural 22 en la superficie de visualización 40. Esta imagen se denomina posteriormente "imagen que se va a visualizar".
[0029] La superficie de visualización 40 sigue la forma del elemento estructural 22. La superficie de visualización 40 se monta así en el lado interior del elemento estructural 22 con respecto a la cabina 14. Por lo tanto, presenta una forma curvada, no plana.
[0030] Por ejemplo, la superficie de visualización 40 se define en una pantalla flexible del conjunto de visualización 30, en concreto una pantalla de cristal líquido de tipo OLED.
[0031] Preferentemente, el conjunto de visualización 30 es apropiado para visualizar la información relativa a la conducción del vehículo 12 en la superficie de visualización 40, superpuesta a la imagen que se va a visualizar.
[0032] La información relativa a la conducción es una imagen de una plataforma exterior junto a la cual el vehículo 12 está parado. Estas imágenes proceden opcionalmente de una cámara exterior que graba la plataforma exterior. En este caso, esta cámara exterior está conectada a la superficie de visualización 40 a través de la unidad 32 de procesamiento.
[0033] La unidad 32 de procesamiento consta de un procesador 42 y una memoria 44. La memoria 44 contiene aplicaciones de software 46B a 46G apropiadas para ser ejecutadas por el procesador 42 para hacer funcionar el sistema 10.
[0034] La memoria 44 de la unidad 32 de procesamiento contiene así una aplicación de software 46B de adquisición de datos procedentes de las cámaras 36, 38, una aplicación de software 46C de modelización tridimensional, en cada instante, de la región obstruida por el elemento 22, y una aplicación de software 46D de determinación, en cada instante, de la posición de los ojos del conductor. La memoria 44 de la unidad 32 de procesamiento contiene además una aplicación de software 46E de generación de una imagen de la región obstruida en función de la posición de los ojos del conductor a partir de la modelización tridimensional, una aplicación de software 46F de reprocesamiento de la imagen para compensar el relieve de la superficie de visualización 40, y una aplicación de visualización 46G de la imagen reprocesada en la superficie de visualización 40.
[0035] En una variante no representada, la aplicación 46A apropiada para gestionar el funcionamiento del sistema 10, la aplicación 46B de adquisición de datos procedentes de las cámaras 36, 38, la aplicación 46C de modelización tridimensional, la aplicación 46D de determinación de la posición de los ojos del conductor, la aplicación 46E de generación de una imagen de la región obstruida, la aplicación
46F de reprocesamiento de la imagen y la aplicación de visualización 46G se realizan cada una como un componente lógico programable, tal como un FPGA (del inglés Field-Programmable Gate Array); o como un circuito integrado dedicado, tal como un ASIC (del inglés Application-Specific Integrated Circuit).
[0036] La aplicación de software 46C de modelación tridimensional es apropiada, en cualquier momento, para realizar una modelización tridimensional de la región obstruida por el elemento 22 a partir de las imágenes de la primera cámara 36 y la segunda cámara 38. Por ejemplo, esta modelización se obtiene a una frecuencia superior a 100 Hz, y en concreto comprendida entre 50 Hz y 200 Hz.
[0037] La modelización tridimensional se construye en un indicador tridimensional centrado en un punto de referencia 48. Por ejemplo, el punto de referencia 48 se sitúa entre la primera cámara 36 y la segunda cámara 38, y se sitúa ventajosamente de manera equidistante de la primera cámara 36 y de la segunda cámara 38.
[0038] La aplicación de software 46C de modelización es apropiada para implementar un algoritmo de tipo estereovisión o de "shape-from-silhouette". Estos algoritmos son conocidos por el estado de la técnica y no se describirán a continuación.
[0039] La aplicación de software 46D de determinación es apropiada, en cualquier momento, para determinar la posición y la orientación de los ojos del conductor 11 a partir de los datos obtenidos por las cámaras de infrarrojos 34 del conjunto 26 de adquisición. Más precisamente, la aplicación de software 46D de determinación recibe los datos obtenidos por las cámaras de infrarrojos 34 del conjunto 26 e implementa un algoritmo de detección facial a partir de estos datos para obtener tanto la posición vertical y horizontal de cada ojo como la dirección de visión.
[0040] La aplicación de software 46E de generación de imágenes es apropiada para generar, en cualquier momento, una imagen plana que representa la región obstruida en la prolongación lateral de la ventana 20 desde el punto de vista del conductor.
[0041] Así, la aplicación de software 46E de generación de imágenes es apropiada para aplicar una deformación geométrica a la modelización tridimensional para extraer la imagen que se va a visualizar de la región obstruida.
[0042] La deformación geométrica se implementa en función de la posición de los ojos del conductor 11. Más precisamente, la deformación geométrica se implementa en función de la posición de los ojos del conductor 11 con respecto al punto de referencia 48.
[0043] La deformación geométrica es, por ejemplo, una rotación de la modelización tridimensional con respecto a un punto dado, por ejemplo, con respecto al punto de referencia 48, y/o una traslación de la modelización tridimensional, y/o una modificación en la escala de la imagen que se va a visualizar para verla más o menos cercana.
[0044] La aplicación de software 46E utiliza ventajosamente una reproyección de píxeles.
[0045] La superficie del elemento estructural 22 no es plana. Por ejemplo, presenta una curva. Dado que la superficie de visualización 40 sigue la superficie del elemento estructural 22, la imagen que se va a visualizar generada por la aplicación de software 46E es apropiada para ser reprocesada por la aplicación de software 46F de reprocesamiento, para evitar que esta imagen plana desde el punto de vista del conductor 11 sea discontinua con respecto a la visión del entorno a través de la ventana 20, como se ilustra en la figura 3.
[0046] La aplicación de software 46F de reprocesamiento es apropiada para reprocesar la imagen que se va a visualizar para compensar el relieve de la superficie de visualización 40, con el fin de que la imagen que se va a visualizar aparezca plana desde el punto de vista del conductor 11, como se ilustra en la figura 4, mientras es generada en una superficie de visualización 40 no plana.
[0047] Más precisamente, la aplicación de software 46F de reprocesamiento es apropiada para dividir la imagen generada por la aplicación 46E de generación a una pluralidad de regiones unitarias de visualización y para dividir la superficie de visualización 40 a una pluralidad de regiones unitarias complementarias de cada región unitaria de visualización, asociadas cada una a una región unitaria de visualización de la imagen.
[0048] Cada región unitaria de visualización de la imagen generada por la aplicación 46E presenta una primera forma, por ejemplo una forma rectangular, cada región unitaria complementaria en la superficie de visualización 40 presenta una segunda forma, por ejemplo una forma de cuadrilátero no rectangular.
[0049] Para cada región unitaria complementaria de la superficie de visualización 40, la aplicación de software 46F de reprocesamiento es apta para determinar la distancia entre los ojos del conductor 11 y la región unitaria complementaria considerada de la superficie de visualización 40. Teniendo en cuenta estas distancias determinadas, la aplicación 46F de reprocesamiento se configura entonces para compensar la irregularidad superficial de la superficie de visualización 40. Dado que una región unitaria se considera n segmentos de información (donde n es un número entero), se considera la proyección de cada segmento de la forma rectangular sobre un punto de un segmento de la segunda forma (por ejemplo, una forma de cuadrilátero). Más precisamente, como se ilustra en la figura 6, la proyección se determina proyectando un punto An de una región unitaria de visualización sobre un punto Pn de la segunda forma. Si los puntos P' de una región unitaria de la segunda forma no corresponden a ningún punto de la región unitaria de visualización, entonces el color y la intensidad asociados a ese punto P' se interpolarán a partir de los de los dos puntos de la segunda forma adyacentes a P'.
[0050] La aplicación de software 46F de reprocesamiento es apropiada para asociar cada región unitaria complementaria con una región unitaria de visualización de la imagen compensando la deformación de la superficie de visualización 40. La aplicación 46F de reprocesamiento es apropiada para dar a cada punto de una región unitaria complementaria el color y la intensidad de un punto de la región unitaria correspondiente.
[0051] Las formas y las dimensiones predeterminadas de cada región unitaria y cada región complementaria asociada serán determinadas por la técnica de malla de cada región.
[0052] A continuación, se describirá un procedimiento de asistencia a la conducción utilizando el sistema 10 con referencia a las figuras 3, 4 y 5.
[0053] El procedimiento, ilustrado en la figura 5, consta de una etapa 100 de adquisición de datos por las cámaras 36, 38, una etapa 102 de modelización tridimensional en base a los datos adquiridos, una etapa 104 de localización de los ojos del conductor 11 que puede realizarse en paralelo con la etapa 102 en el modo de realización de la figura 5, una etapa 106 de generación de imágenes por deformación geométrica en función de la posición de los ojos determinada, una etapa 108 de procesamiento de la imagen que se va a visualizar y una etapa de visualización 110 en la superficie de visualización 40.
[0054] Durante la etapa 100 de adquisición, la aplicación 46B de adquisición es implementada por el procesador 42 para obtener los datos de la primera cámara 36 y de la segunda cámara 38.
[0055] En la etapa 102 de modelización, la aplicación 46C de modelización es implementada por el procesador 42 para determinar la posición del punto de referencia 48 y para realizar, a partir de los datos adquiridos en la etapa 100 de adquisición, una modelización tridimensional de la región obstruida por el elemento estructural 22 en un indicador centrado en el punto de referencia 48.
[0056] En la etapa 104 de localización, la aplicación 46D de determinación toma los datos obtenidos por las cámaras de infrarrojos 34 del conjunto 26 de adquisición y, a continuación, determina la posición y la orientación de los ojos del conductor 11 a partir de estos datos.
[0057] En particular, la aplicación 46D de determinación implementará un algoritmo de detección facial sobre los datos obtenidos por las cámaras de infrarrojos 34 y determinará la posición y la orientación de la cabeza del conductor 11 así como la posición de sus ojos.
[0058] En la etapa 106 de generación de imágenes, la aplicación 46E de generación genera la imagen que se va a visualizar de la región obstruida por deformación geométrica de la modelización tridimensional. La deformación geométrica es, por ejemplo, una de las deformaciones geométricas descritas anteriormente.
[0059] Durante la etapa 108 del procesamiento de la imagen, la aplicación 46F de reprocesamiento se implementa mediante el procesador 42 para compensar el relieve de la superficie de visualización 40. La aplicación 46F de reprocesamiento determina para cada punto de la superficie de visualización 40, la distancia entre los ojos del conductor 11 y el punto considerado.
[0060] La aplicación 46F de reprocesamiento es implementada por el procesador 42 para dividir la imagen que se va a visualizar en regiones unitarias de visualización, por ejemplo en rectángulos y dividir la superficie de visualización 40 en regiones unitarias correspondientes de formas distintas, por ejemplo en cuadriláteros no rectangulares.
[0061] Las dimensiones de las regiones unitarias y de las regiones unitarias complementarias dependen del tipo de malla considerado.
[0062] Por último, durante la etapa 110 de visualización, la aplicación 46G de visualización visualiza la imagen que se va a visualizar al visualizar para cada punto de una región unitaria complementaria el color y la intensidad de un punto de la región unitaria asociada con la región unitaria complementaria. Desde el punto de vista del conductor 11, la imagen que se va a visualizar de la región obstruida aparece entonces plana y en continuidad con el resto del paisaje, como se ilustra en la figura 4.
[0063] En una variante visible en la figura 1 según la invención, el conjunto de cámaras exteriores 28 consta de una tercera cámara 50.
[0064] Ventajosamente, la tercera cámara 50 presenta un sensor adaptado para obtener datos en la oscuridad, en concreto de noche y/o para obtener datos en sobreexposición, en concreto cuando el sol la ilumina directamente. La tercera cámara 50 es así, por ejemplo, un sensor de infrarrojos apto para obtener datos en el campo de la longitud de ondas superior a 800nm y en concreto comprendido entre 850 nm y 940 nm.
[0065] En este modo de realización, la primera cámara 36 y la segunda cámara 38 se colocan a una altura con respecto al piso inferior al 1er percentil de la altura con respecto al piso de los ojos de los individuos de una población dada sentados en un asiento de altura predeterminada. En el caso de que la población dada sea la población mundial, esta altura es por ejemplo de 1008 mm.
[0066] La tercera cámara 50 se coloca entonces a una altura con respecto al piso superior al 99er percentil de la altura con respecto al piso de los ojos de los individuos de la población dada sentados en un asiento de altura predeterminada. En el caso de que la población dada sea la población mundial, esta altura es por ejemplo de 1551 mm.
[0067] El sistema tiene en cuenta las estaturas de los conductores y todas las posiciones de estos últimos.
[0068] La unidad de procesamiento 32, a través del procesador 42, es así pues apto para llevar a cabo la modelización tridimensional de la región obstruida, a partir de los datos de la primera cámara 36, la segunda cámara 38 y la tercera cámara 50. La modelización tridimensional se construye en un indicador tridimensional centrada en un punto de referencia 48 situado entre la primera cámara 36 y la segunda cámara 38, o alternativamente equidistante de la primera cámara 36, la segunda cámara 38 y la tercera cámara 50.
[0069] En este modo de realización, el procedimiento de utilización del sistema 10 de asistencia a la conducción es sustancialmente similar. Además, durante la etapa 100 de adquisición de datos, la aplicación 46B de adquisición es implementada por el procesador 42 para obtener los datos de la tercera cámara 50. Además, durante la etapa de modelización 102, la aplicación 46C de modelización es implementada por el procesador 42 para determinar la posición del punto de referencia 48 y para realizar,
a partir de los datos adquiridos en la etapa 100 de adquisición una modelización tridimensional de la región obstruida por el elemento estructural 22 en un indicador centrado en el punto de referencia 48. Por lo tanto, esta modelización tridimensional se lleva a cabo a partir de los datos de las tres cámaras.
[0070] Como alternativa o adicionalmente, se monta un segundo conjunto de visualización (no representado) en la superficie del elemento de superficie 24. Este segundo conjunto de visualización consta de una segunda superficie de visualización similar a la superficie de visualización 40. El segundo conjunto de visualización es entonces conectado a la unidad 32 de procesamiento y es apto para visualizar una imagen de la región obstruida por el elemento estructural 24.
[0071] El procedimiento de utilización del sistema 10 de asistencia a la conducción consta además de una etapa de modelización similar a la etapa 102 de modelización, pero aplicada a la región obstruida por el elemento estructural 24, a partir de los datos de la etapa 100 de adquisición. El procedimiento también consta de una etapa de deformación geométrica de la modelización tridimensional de la región obstruida por el elemento 24 para extraer la imagen que se va a visualizar por el segundo conjunto de visualización. El procedimiento consta después de una etapa de procesamiento de la imagen que se va a visualizar similar a la etapa 108 de procesamiento de la imagen. Por último, el procedimiento consta de una etapa de visualización similar a la etapa 110 de visualización.
[0072] El sistema de asistencia a la conducción descrito amplía así la visión del conductor 11, en concreto la visión lateral del conductor 11 de un vehículo de manera simple y precisa sin discontinuidad lateral entre la observación realizada a través de la ventana y la imagen visualizada en la superficie de visualización 40.
[0073] Esto aumenta de forma significativa y precisa la percepción del entorno exterior por parte del conductor 11 del vehículo.

Claims (12)

REIVINDICACIONES
1. Sistema de asistencia a la conducción (10) para un vehículo (12) que consta de una cabina (14) acotada por una ventana (20) y al menos un elemento estructural (22) adyacente a la ventana (20), obstruyendo el elemento estructural (22) una región del campo de visión de un conductor (11) del vehículo (12), comprendiendo el sistema (10): - un conjunto de cámaras exteriores (28) que consta de una primera cámara (36) apta para obtener datos representativos de la región obstruida por el elemento estructural (22), y una segunda cámara (38) apta para obtener datos representativos de la región obstruida por el elemento estructural (22),
- un conjunto de visualización (30) montado en el elemento estructural (22) y que comprende una superficie de visualización (40), y
- una unidad de procesamiento (32) conectada al conjunto de cámaras exteriores (28), y al conjunto de visualización (30), propia para generar la visualización de una imagen que se va a visualizar de la región obstruida en la superficie de visualización (40),
- un conjunto (26) de adquisición de la posición o de la posición y de la orientación, de los ojos del conductor (11) del vehículo (12), estando la unidad de procesamiento (32) conectada al conjunto (26) de adquisición;
caracterizado porque el conjunto de cámaras exteriores (28) consta de una tercera cámara (50) colocada a una altura diferente de las alturas de la primera cámara (36) y de la segunda (38);
y porque la unidad de procesamiento (32) es apropiada para llevar a cabo una modelización tridimensional de la región obstruida a partir de los datos recibidos de la primera cámara (36), de la segunda cámara (38) y de la tercera cámara (50), y para generar una imagen que se va a visualizar de la región obstruida en función de la posición de los ojos del conductor (11), mediante la deformación geométrica de la modelización tridimensional, en función de la forma de la superficie de visualización (40).
2. Sistema (10) según la reivindicación 1, en el que la unidad de procesamiento (32) es apropiada para establecer la modelización tridimensional en un indicador utilizando un punto de referencia (48) situado entre la primera cámara (36) y la segunda cámara (38), o situado de manera equidistante de la primera (36), de la segunda cámara (38) y de la tercera (50), siendo la unidad de procesamiento (32) apropiada para implementar la deformación geométrica en base a la posición de los ojos del conductor (11) con respecto al punto de referencia (48).
3. Sistema (10) según cualquiera de las reivindicaciones anteriores, en el que la unidad de procesamiento (32) es apropiada para reprocesar la imagen que se va a visualizar para compensar un relieve de la superficie de visualización (40).
4. Sistema (10) según la reivindicación 3, en el que la unidad de procesamiento es apropiada para reprocesar la imagen que se va a visualizar por división de la imagen que se va a visualizar en una pluralidad de regiones unitarias de visualización y por división de la superficie de visualización (40) en una pluralidad de regiones unitarias complementarias de cada región unitaria de visualización, estando cada región unitaria de visualización asociada con una región unitaria complementaria, y siendo el conjunto de visualización (30) apropiado para visualizar, para cada punto de una región unitaria complementaria, el color y la intensidad de un punto de la región unitaria asociada con la región unitaria complementaria.
5. Sistema (10) según cualquiera de las reivindicaciones anteriores, en el que la primera cámara (36) y la segunda cámara (38) están situadas a la misma altura.
6. Sistema (10) según cualquiera de las reivindicaciones anteriores, en el que el conjunto (26) de adquisición de la posición y de la orientación de los ojos del conductor (11) comprende al menos una cámara de infrarrojos (34).
7. Sistema (10) según cualquiera de las reivindicaciones anteriores, en el que cada cámara (36, 38, 50) presenta un sensor apropiado para capturar datos en la oscuridad.
8. Sistema (10) según cualquiera de las reivindicaciones anteriores, en el que el conjunto de visualización (30) es apropiado para visualizar información relativa a la conducción del vehículo (12).
9. Sistema (10) según la reivindicación 8, en el que la información relativa a la conducción del vehículo comprende imágenes de una plataforma exterior junto a la cual el vehículo (12) está parado.
10. Sistema (10) según cualquiera de las reivindicaciones anteriores, en el que el vehículo consta de un elemento estructural (24) adicional adyacente a la ventana (20) que obstruye otra región del campo de visión del conductor (11), estando la primera cámara (36) y la segunda cámara (38) colocadas respectivamente en cada uno de los elementos estructurales (22, 24).
11. Vehículo ferroviario que consta de una ventana (20), al menos un elemento estructural (22) que obstruye una región del campo de visión de un conductor (11) del vehículo y un sistema (10) de asistencia a la conducción según cualquiera de las reivindicaciones anteriores.
12. Procedimiento de asistencia a la conducción en un vehículo (12) que consta de una cabina (14) acotada por una ventana (20) y al menos un elemento estructural (22) adyacente a la ventana (20), obstruyendo el elemento estructural (22) una región del campo de visión de un conductor (11) del vehículo (12), constando el procedimiento de las siguientes etapas:
- suministro de un sistema según una cualquiera de las reivindicaciones 1 a 10;
- adquisición de datos por la primera cámara (36), por la segunda cámara (38) y por la tercera cámara (50); - realización de una modelización tridimensional de la región obstruida por la unidad de procesamiento (32) a partir de los datos recibidos de la primera cámara (36), la segunda cámara (38) y la tercera cámara (50);
- adquisición de la posición de los ojos del conductor (11);
- generación de una imagen que se va a visualizar en función de la posición de los ojos del conductor (11) por deformación de la modelización tridimensional en función de la forma de la superficie de visualización (40), y; - visualización de la imagen que se va a visualizar en la superficie de visualización (40) del conjunto de visualización (30).
ES17175763T 2016-06-29 2017-06-13 Sistema de asistencia a la conducción para un vehículo, vehículo ferroviario y procedimiento de uso asociados Active ES2770601T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1656106A FR3053293B1 (fr) 2016-06-29 2016-06-29 Systeme d'aide a la conduite pour un vehicule, vehicule ferroviaire et procede d'utilisation associes

Publications (1)

Publication Number Publication Date
ES2770601T3 true ES2770601T3 (es) 2020-07-02

Family

ID=57137052

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17175763T Active ES2770601T3 (es) 2016-06-29 2017-06-13 Sistema de asistencia a la conducción para un vehículo, vehículo ferroviario y procedimiento de uso asociados

Country Status (4)

Country Link
EP (1) EP3263406B1 (es)
ES (1) ES2770601T3 (es)
FR (1) FR3053293B1 (es)
MA (1) MA41796B1 (es)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837027B (zh) * 2021-09-03 2024-06-25 东风柳州汽车有限公司 辅助驾驶的感知方法、装置、设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4810953B2 (ja) * 2005-10-07 2011-11-09 日産自動車株式会社 車両用死角映像表示装置
ES2400496B1 (es) * 2011-05-18 2014-02-11 Ignacio MARTÍNEZ VITERI Dispositivo para eliminar los puntos ciegos de un vehículo.
US8733938B2 (en) * 2012-03-07 2014-05-27 GM Global Technology Operations LLC Virtual convertible tops, sunroofs, and back windows, and systems and methods for providing same

Also Published As

Publication number Publication date
FR3053293B1 (fr) 2019-06-07
FR3053293A1 (fr) 2018-01-05
EP3263406B1 (fr) 2019-12-18
MA41796B1 (fr) 2020-03-31
EP3263406A1 (fr) 2018-01-03

Similar Documents

Publication Publication Date Title
US8536995B2 (en) Information display apparatus and information display method
JP4323377B2 (ja) 画像表示装置
CN104512328B (zh) 汽车环视图像生成方法及汽车环视系统
CN103140377B (zh) 用于在显示装置上显示图像的方法和驾驶员辅助系统
US8570188B2 (en) Driver vision support system and vehicle including the system
US20100054580A1 (en) Image generation device, image generation method, and image generation program
JP6706802B2 (ja) 表示システム、電子ミラーシステム及びそれを備える移動体
CN107848417A (zh) 车辆用显示装置
JP2014201197A (ja) ヘッドアップディスプレイ装置
US20210271077A1 (en) Method for Operating a Visual Field Display Device for a Motor Vehicle
KR102223852B1 (ko) 영상 디스플레이 시스템 및 방법
US20210260998A1 (en) Method for Operating a Visual Field Display Device for a Motor Vehicle
US10802275B2 (en) Head-up display, head-up display method and vehicle
EP3456574A1 (en) Method and system for displaying virtual reality information in a vehicle
ES2410807T3 (es) Procedimiento y dispositivo para ampliar una zona de visibilidad
JP4461397B2 (ja) 車両用運転支援装置
ES2770601T3 (es) Sistema de asistencia a la conducción para un vehículo, vehículo ferroviario y procedimiento de uso asociados
RU2734063C1 (ru) Устройство для визуального наблюдения для пилота летательного аппарата
CN109764888A (zh) 显示系统以及显示方法
JP2005269010A (ja) 画像生成装置、画像生成プログラム、及び画像生成方法
KR20200013176A (ko) 자동차의 사각지대 시야확보장치 및 그 제어방법
KR20160034681A (ko) 차량의 주변 감시 장치 및 방법
KR101611167B1 (ko) 운전시야 지원장치
WO2017024458A1 (en) System, method and apparatus for vehicle and computer readable medium
KR20210008503A (ko) 증강 현실 카메라를 사용한 후방 시야 방법 및 장치