ES2401668T3 - Dispositivo para la detección de vehículos en una superficie de tráfico - Google Patents

Dispositivo para la detección de vehículos en una superficie de tráfico Download PDF

Info

Publication number
ES2401668T3
ES2401668T3 ES09450189T ES09450189T ES2401668T3 ES 2401668 T3 ES2401668 T3 ES 2401668T3 ES 09450189 T ES09450189 T ES 09450189T ES 09450189 T ES09450189 T ES 09450189T ES 2401668 T3 ES2401668 T3 ES 2401668T3
Authority
ES
Spain
Prior art keywords
cameras
flight time
images
objects
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09450189T
Other languages
English (en)
Inventor
Christian Öhreneder
Herbert Ramoser
Stefan Hochstöger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kapsch TrafficCom AG
Original Assignee
Kapsch TrafficCom AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kapsch TrafficCom AG filed Critical Kapsch TrafficCom AG
Application granted granted Critical
Publication of ES2401668T3 publication Critical patent/ES2401668T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

Dispositivo (1) para la detección de vehículos (2) en una superficie de tráfico (3), caracterizado por al menosdos cámaras de tiempo de vuelo (5) que interactúan con correspondientes emisores luminosos (6) para generardiferentes imágenes de distancia (E(t)) de la superficie de tráfico (3), estando conectadas las cámaras a undispositivo de evaluación común (7) para la detección de vehículos (2) en las imágenes de distancia (E(t)) y estandodispuestas por encima de la superficie de tráfico, estando diseñados los emisores luminosos (6) para emitir una luzdiferente, detectable sólo por la cámara de tiempo de vuelo (5) correspondiente en cada caso, y presentando lascámaras de tiempo de vuelo (5) respectivamente campos visuales rectangulares (8) que están dispuestos giradosalrededor de sus ejes visuales respecto a la orientación original en la que los lados más largos del campo visualrectangular están orientados en paralelo a la dirección de circulación de la superficie de tráfico.

Description

Dispositivo para la detección de vehículos en una superficie de tráfico.
La presente invención se refiere a un dispositivo para la detección de vehículos en una superficie de tráfico según el preámbulo de la reivindicación 1.
En el sector de la ingeniería del tráfico es una tarea recurrente reconocer y clasificar vehículos u objetos generales en una superficie de tráfico y seguir el desarrollo de sus movimientos. Estas informaciones se usan, por ejemplo, en los sistemas de peaje para comprobar el cumplimiento del pago del peaje. Sin embargo, el reconocimiento y la clasificación de vehículos u objetos son necesarios también para detectar accidentes o elaborar estadísticas de tráfico.
Un método conocido para el reconocimiento, el seguimiento y la clasificación de objetos es el uso de escáneres láser. Los escáneres láser se montan por encima o a los lados de la calzada y detectan los objetos durante el paso. Una desventaja de esta solución radica en que los escáneres láser exploran los objetos sólo en un plano y, por tanto, la detección completa de los objetos es posible sólo en combinación con el movimiento de los vehículos. La medición se ve afectada si los objetos no se mueven uniformemente a través de la zona de exploración. Así, por ejemplo, es imposible medir la longitud del objeto o sólo es posible de manera inexacta. Este procedimiento no resulta adecuado en particular al producirse congestiones de tráfico o situaciones de "stop and go" (parada y arranque).
Otra solución conocida consiste en detectar los objetos con ayuda de cámaras estéreo. En el caso de este procedimiento, los objetos se detectan con al menos dos cámaras desde diferentes direcciones de observación. A partir de la posición geométrica de los puntos correspondientes en las imágenes captadas por las cámaras se puede calcular la posición de los puntos en el espacio tridimensional. La desventaja radica en que para calcular la distancia hay que localizar los puntos correspondientes en las distintas imágenes, lo que implica un coste de cálculo considerable. Además, el cálculo es fiable sólo en puntos de objeto con cambios locales en el contenido de la imagen (textura). En las superficies con un color considerablemente uniforme no es posible una medición fiable, de modo que los valores de distancia no se pueden medir en una trama densa, sino sólo en zonas especiales de la imagen.
Por último, es conocida también la detección de objetos con cámaras. Sin embargo, la imagen sola no permite inferir con exactitud la posición del objeto en el espacio tridimensional. Además, la medición de los objetos y la determinación de la velocidad son inexactas.
Un dispositivo del tipo mencionado al inicio es conocido por el documento DE20200800078U1 que describe una cámara "time of flight" (tiempo de vuelo, TOF) que está integrada en un semáforo y se identifica también como cámara sensor de mezcla fotónica (photonic mixing device, PMD). Las cámaras TOF representan un nuevo género de sensores de imágenes en 3D que miden por píxeles el tiempo de propagación de la luz de un emisor luminoso asignado de posiciones conocidas, y a tal efecto, el emisor luminoso y el receptor TOF deben estar sincronizados también de manera correspondiente. El tiempo de propagación de la señal se mide en un píxel TOF generalmente mediante una medición de interferencia de fases entre la señal luminosa recibida y una señal de modulación del emisor luminoso que se ha enviado al píxel como señal de referencia. En relación con el funcionamiento conocido de las cámaras TOF se remite, por ejemplo, a R. Schwarte et al., “A new active 3D-vision system based on RFmodulation interferometry of incoherent light”, Photonics east-intelligent systems and advanced manufacturing, Proceedings of the SPIE, volumen 2588, Filadelfia, 1995.
El dispositivo conocido por el documento DE202008007078U1 no es capaz de cubrir un campo visual grande con una resolución suficiente, por ejemplo, toda la anchura de una vía de varios carriles. La invención tiene el objetivo de crear un dispositivo para la detección de vehículos en una superficie de tráfico que elimine las desventajas del estado de la técnica conocido y posibilite una detección exacta y segura tanto de vehículos en movimiento como de vehículos estacionados en una superficie de tráfico grande.
Este objetivo se consigue según la invención mediante un dispositivo con las características de la reivindicación 1.
El uso de una combinación de al menos dos cámaras TOF permite cubrir completamente, con la resolución deseada, un campo visual muy grande, por ejemplo, toda la anchura de una vía de varios carriles. Además, con los mismos componentes se pueden monitorizar, sin costes adicionales de procesamiento de imágenes, tanto el tráfico estacionado, por ejemplo, en aparcamientos situados en el campo visual de la cámara TOF, como el tráfico rodado, por ejemplo, en carriles situados en el mismo campo visual. Una anchura de detección mayor en correspondencia con la diagonal visual, por ejemplo, en dirección transversal de la vía, y simultáneamente también una longitud de detección mayor en la dirección longitudinal de la vía, se pueden conseguir porque las cámaras de tiempo de vuelo están dispuestas giradas alrededor de sus ejes visuales en cada caso respecto a la dirección de circulación de la superficie de tráfico, así como porque los campos visuales de las cámaras TOF son rectangulares y el giro se realiza en dirección de su diagonal visual; el giro impide a la vez que, por ejemplo, los cantos de un objeto en paralelo a la vía estén situados en paralelo a la trama de píxeles, siendo posible así reconocer los cantos con mayor exactitud, como se explica detalladamente más adelante.
La invención se basa en el conocimiento de que para conseguir una zona de cobertura grande, los emisores luminosos se han de disponer de manera repartida a fin de poder iluminar toda la superficie de tráfico. En este caso puede surgir el problema de que las componentes de luz de los distintos emisores luminosos se mezclen, por ejemplo, debido a los conos luminosos que se solapan o debido a los efectos de reflexión o dispersión en objetos situados en el campo visual. Sin embargo, para el correcto funcionamiento de las cámaras TOF es necesario conocer exactamente el lugar de emisión de la luz recibida. La separación de las componentes de luz de los emisores luminosos individuales posibilita una asignación exacta de la luz recibida a un punto determinado de salida de la luz.
Como es conocido en la técnica, la separación de las componentes de luz de los emisores luminosos individuales se puede conseguir de distintos modos. Así, por ejemplo, el documento US7405812B1 describe en general un procedimiento para impedir la interferencia mutua de cámaras TOF muy contiguas al modularse los emisores luminosos respectivamente con una componente de ruido adicional o al manejarse con frecuencias de modulación seudoaleatorias alternas (frecuency hopping, salto de frecuencia). En una primera realización conveniente de la invención, los emisores luminosos emiten luz de longitudes de onda diferentes. Alternativamente, los emisores luminosos están sincronizados entre sí y con las cámaras de tiempo de vuelo y emiten luz a estas cámaras de manera alterna. Por último, los emisores luminosos pueden emitir luz de amplitud modulada con diferente patrón de modulación, preferentemente con diferentes códigos seudoaleatorios, de modo que las cámaras TOF pueden diferenciar las componentes de luz de los emisores luminosos por medio de su patrón de modulación.
Se prevé preferentemente que los campos visuales de las cámaras de tiempo de vuelo se solapen parcialmente. Esto permite detectar correctamente los objetos situados en la zona de transición entre dos cámaras TOF, por ejemplo, los vehículos que cambian de carril.
Es especialmente favorable que las cámaras TOF giradas alrededor de su eje visual se usen de manera que los campos visuales de dos cámaras de tiempo de vuelo contiguas con campos visuales rectangulares se solapen en la zona de las esquinas, siendo posible así combinar las ventajas de una anchura de cobertura ampliada con las ventajas de una detección múltiple de objetos en la zona de solapamiento.
Según otra característica preferida de la invención se prevé que el eje visual de al menos una cámara de tiempo de vuelo esté dirigido de manera inclinada desde arriba o desde el lateral hacia la superficie de tráfico en la dirección de circulación de la superficie de tráfico o contraria a ésta. Esto permite detectar antes los objetos y realizar su seguimiento en una zona más larga, aumentado la exactitud de la detección con la aproximación cada vez mayor a la cámara debido a la perspectiva.
Otra realización especialmente ventajosa de la invención se caracteriza porque al menos una cámara de tiempo de vuelo genera una imagen de intensidad adicional de la superficie de tráfico y porque el dispositivo de evaluación evalúa en combinación las imágenes de distancia e intensidad de la superficie de tráfico con el fin de detectar vehículos en la superficie de tráfico. La combinación de la información de distancia e intensidad, por ejemplo, la información de luminosidad, permite delimitar y detectar vehículos en las imágenes captadas de manera especialmente robusta. Así, por ejemplo, se pueden evitar también problemas en las zonas de sombra, en las que la información de intensidad proporciona poca información, o problemas, por el contrario, en las zonas de reflexión o absorción total, en las que la medición de distancia puede estar afectada y, por ejemplo, la información de luminosidad de una imagen proporciona resultados más robustos.
Es especialmente favorable que al menos una cámara de tiempo de vuelo grabe imágenes de distancia y, dado el caso, imágenes de intensidad consecutivas y que el dispositivo de evaluación reconozca nuevamente los objetos detectados en imágenes consecutivas para detectar su movimiento y a partir del mismo generar parámetros de movimiento y/o señalizaciones. De este modo se pueden determinar, por ejemplo, la velocidad y la dirección de un objeto y producir, por ejemplo, señales de disparo para la monitorización o el control del tráfico.
El dispositivo de evaluación determina preferentemente a partir de las imágenes de distancia los parámetros de movimiento de los vehículos, tales como la velocidad, el tiempo de permanencia, las mediciones de distancia, etc., con fines de monitorización del tráfico, tasas de aparcamiento o peaje. Con estos fines, el dispositivo de evaluación puede medir y/o clasificar preferentemente también los vehículos detectados, por ejemplo, en relación con el tamaño, el estado de carga, el número de ejes, etc.
La invención se explica detalladamente a continuación por medio de ejemplos de realización representados en los dibujos adjuntos. En los dibujos muestran:
Fig. 1 y 2 una primera realización del dispositivo de la invención en una vista delantera y en la vista en planta; Fig. 3 un diagrama de flujo de la evaluación combinada de las imágenes de distancia e intensidad de las
cámaras TOF, que ha sido ejecutada por el dispositivo de evaluación;
Fig. 4 los campos visuales de dos cámaras TOF de otra realización de la invención en la vista en planta; Fig. 5 esquemáticamente, la ventaja de un giro de la trama de píxeles de una cámara TOF al detectarse un
objeto de cantos rectos en la vista en planta; Fig. 6 y 7 los campos visuales de cámaras TOF de otras dos realizaciones alternativas de la invención en la
vista en planta; Fig. 8 otra realización del dispositivo de la invención en una vista delantera; Fig. 9 y 10 otra realización del dispositivo de la invención en una vista lateral o en la vista en planta; Fig. 11 la composición de una imagen de distancia general a partir de varias imágenes de distancia
individuales; y Fig. 12 la composición de una imagen de intensidad general a partir de varias imágenes de intensidad
individuales.
La figura 1 muestra un dispositivo 1 para la detección de objetos 2, en particular vehículos, en una superficie de tráfico 3, por ejemplo, una vía. El dispositivo 1 comprende una, dos o varias unidades 4 integradas respectivamente por una cámara de tiempo de vuelo 5 (cámara TOF) y un emisor luminoso asignado 6. Las unidades 4 con las cámaras TOF 5 y con los emisores luminosos 6 están conectadas a un dispositivo de evaluación común 7 que evalúa las imágenes de distancia E(t), las llamadas "imágenes en 2,5D", grabadas por las cámaras TOF 5 y, dado el caso, adicionalmente las imágenes de intensidad I(t), por ejemplo, las imágenes de luminosidad o color, como se explica en detalle más adelante por medio de la figura 3.
La figura 2 muestra los campos visuales 8 de dos cámaras TOF 5. Los campos visuales 8 son más o menos rectangulares y se solapan ligeramente en una zona del arcén 9.
La figura 3 muestra esquemáticamente un ejemplo de cómo el dispositivo de evaluación 7 detecta los objetos 2 a partir de la imagen de distancia E(t), por una parte, y a partir de la imagen de intensidad I(t), por la otra parte, de una (o varias) cámaras TOF 5 y cómo puede medirlos y/o clasificarlos a continuación.
La imagen de intensidad I(t) contiene en cada píxel información sobre la luminosidad del punto de objeto reproducido y muestra el aspecto de los objetos. La imagen de distancia E(t) contiene, por el contrario, en cada píxel la distancia del punto de objeto reproducido respecto a la cámara TOF 5 y muestra, por tanto, la forma de los objetos. Los píxeles en la imagen de intensidad I(t) corresponden con preferencia exactamente a los píxeles en la imagen de distancia E(t), de modo que es posible ventajosamente un procesamiento común.
Con ayuda de la imagen de distancia E(t) es posible simplemente detectar los objetos, es decir, separarlos de su fondo, y asignarle a cada objeto exactamente la zona de la imagen espacial que muestra el respectivo objetivo.
A tal efecto, en un primer paso 10, los valores de distancia de la imagen de la cámara o las cámaras TOF 5 se convierten con ayuda de una transformación geométrica en valores verticales, es decir, en valores de distancia verticales del píxel respecto a la superficie de tráfico 3.
En un segundo paso 11 se marcan como posibles puntos de objeto todos los píxeles, cuyos valores verticales se encuentran sobre la superficie de tráfico 3, teniendo en cuenta un valor umbral.
En un tercer paso 12, los píxeles marcados como posibles puntos de objeto se agrupan formando objetos debido a su posición geométrica entre sí. La agrupación se basa en un análisis de proximidad de puntos de objeto. Los puntos de objeto situados uno al lado de otro se consideran como pertenecientes al mismo objeto. El análisis de proximidad se ejecuta de manera que las pequeñas zonas con información de distancia errónea no desempeñan ningún papel. Así, por ejemplo, se evitan los espacios más pequeños en objetos que aparecen en la imagen de distancia por errores de medición.
Es especialmente ventajoso que, además de la información de distancia E(t), se use también la información de intensidad I(t), por ejemplo, la información de luminosidad, para delimitar los objetos.
A tal efecto, en el paso 13, los objetos se separan del fondo en la imagen de intensidad I(t) con diferentes procedimientos conocidos, por ejemplo, mediante el cálculo de una imagen de fondo o el análisis de la diferencia de luminosidad entre dos imágenes consecutivas de una secuencia de imágenes. Como resultado de tales procedimientos, los píxeles individuales se clasifican en puntos de primer plano y puntos de fondo. Dado el caso, los píxeles se dividen también en otras categorías, por ejemplo, en píxeles de sombra.
En otro paso, los píxeles marcados se agrupan a su vez formando zonas por su proximidad. Este paso se ejecuta ventajosamente en combinación con los puntos de objeto marcados en la imagen de distancia, es decir, en el paso 12 mencionado antes.
La delimitación de los objetos por medio de la información de luminosidad I(t) en las imágenes presupone un contraste suficientemente grande entre el objeto y el fondo. En determinadas circunstancias es posible descomponer los objetos en distintas partes. Sin embargo, las zonas de imagen asignadas a los objetos se pueden delimitar de manera más robusta como resultado de la combinación de la información de luminosidad I(t) y la información de distancia E(t). Así, por ejemplo, se pueden evitar también problemas en las zonas de sombra.
Si los objetos proyectan sombra sobre la superficie de tráfico 3, por ejemplo, una calzada, esto varía la información de luminosidad I(t) registrada en la imagen y podría provocar en caso de una evaluación basada sólo en la información de luminosidad I(t) que los objetos se reconozcan erróneamente o que se creen relaciones entre objetos no existentes en realidad. En combinación con la imagen de distancia E(t) se pueden evitar tales problemas, porque en la imagen de distancia E(t) se reconoce que en las zonas con sombra sobre la calzada no existe ningún objeto en la calzada.
Por otra parte, la medición de distancia E(t) podría verse afectada también, por ejemplo, por las reflexiones en los objetos (carrocerías de vehículos) o por la absorción total de la luz (objetos muy oscuros). En esta zonas se puede obtener un resultado más robusto al tenerse en cuenta adicionalmente la información de luminosidad I(t).
En casos, en los que por la perspectiva los objetos parecen contiguos en una imagen, pero en realidad son objetos separados, se registra típicamente un desarrollo inconstante de la información de distancia (información de profundidad) en la imagen de distancia E(t). Sin embargo, el desarrollo de la información de profundidad, por sí solo, como criterio de decisión no siempre es suficiente para separar con fiabilidad los objetos. El uso simultáneo de la información de luminosidad I(t) suministra asimismo en estos casos información adicional que se puede aplicar en la separación de los objetos. Si, por ejemplo, además del desarrollo inconstante de la información de profundidad, existe también una diferencia de luminosidad que coincide con la variación brusca de la distancia, los objetos se pueden separar con una elevada seguridad.
Por tanto, en todos los casos descritos, la combinación de la información de luminosidad y la información de distancia aumenta claramente la robustez del reconocimiento de objetos.
Otra función del dispositivo de evaluación 7 puede consistir en reconocer nuevamente objetos en imágenes consecutivas de una secuencia de imágenes y establecer así una relación entre objetos en distintas imágenes. La evaluación combinada de la imagen de distancia e intensidad E(t), I(t) representa también aquí una gran ventaja, porque los objetos se pueden volver a reconocer no sólo por su aspecto, sino también por su forma.
El seguimiento de los objetos más allá de varias imágenes permite detectar el movimiento de los objetos y a partir del mismo generar parámetros de movimiento, por ejemplo, la velocidad, la distancia entre objetos, el tiempo de permanencia en un lugar determinado, etc. En este sentido existe también una ventaja esencial en comparación con las cámaras que sólo pueden suministrar imágenes de intensidad: Sin la información de distancia sería posible sólo de manera inexacta inferir a partir del movimiento de los objetos en la imagen su movimiento en el espacio tridimensional. Por la perspectiva, los objetos muy alejados se mueven en la imagen más lentamente que los objetos que se mueven a una misma velocidad y se encuentran más cerca de la cámara. Si se usa la información de distancia E(t), la velocidad de los objetos en la imagen se puede convertir en una velocidad en el espacio tridimensional.
Es posible también generar señales sobre la base de la posición y del movimiento de objetos a fin de activar otros sistemas de medición. En una aplicación para el control del peaje viario se pueden activar, por ejemplo, cámaras de lectura de matrícula si la parte frontal del vehículo supera una línea determinada en la vía.
El seguimiento de los objetos 2 en una secuencia de imágenes permite mejorar también la exactitud de la medición al detectarse reiteradamente la forma y el aspecto de un objeto y combinarse los resultados de varias mediciones. Las imágenes individuales de una secuencia muestran diferentes vistas de un vehículo en caso de un objeto en movimiento. Las partes del objeto ocultas en una imagen pueden ser visibles en otra imagen. El seguimiento de los objetos y de la asignación, resultante de esto, de las informaciones de diferentes imágenes a un objeto permite combinar los datos de las imágenes individuales para crear un juego de datos del objeto más exacto y completo.
Del mismo modo, los objetos grandes como los camiones, que no aparecen íntegramente en una única imagen, se pueden detectar por completo mediante la combinación de varias vistas. La información de distancia e intensidad E(t), I(t) permite componer correctamente las vistas parciales individuales y determinar, no obstante, adecuadamente las dimensiones exteriores al tratarse de objetos grandes, ya que durante la detección de objetos grandes mediante varias imágenes de distancia e intensidad resulta problemático componer las secciones de imagen en la posición exacta de manera que la imagen compuesta represente correctamente el objeto. Esto no es posible a menudo en la imagen de distancia o sólo es posible con una exactitud insuficiente, porque sobre todo las superficies planas no tienen suficientes características particulares para la asignación de la imagen, véase figura 11. En cambio, la imagen de intensidad presenta por lo general esencialmente más textura, véase figura 12. Mediante la evaluación combinada de la imagen de distancia y la imagen de intensidad se combinan las ventajas de ambas variantes al ejecutarse la asignación de la imagen sobre la base de la información de distancia, combinada con la información de intensidad, o sólo sobre la base de la información de intensidad y al transferirse a continuación a las imágenes de distancia. Este procedimiento es posible también, aunque con un coste de cálculo algo mayor, si las imágenes de intensidad no se graban con la cámara de tiempo de vuelo, sino con una cámara estándar por separado.
Además de la detección o la delimitación de los objetos, las informaciones de distancia y luminosidad detectadas se pueden usar también para la clasificación y el seguimiento de los objetos. Si se llevó a cabo primero un seguimiento del objeto y un mejoramiento de los datos, para la clasificación se pueden usar ventajosamente las imágenes de distancia e intensidad mejoradas como resultado de la medición múltiple en diferentes imágenes. Para la clasificación de los objetos se determinan a partir de las imágenes de distancia E(t) características particulares, como las dimensiones geométricas (longitud, altura, anchura), el estado de carga, el número de ejes, etc. Además, la forma del objeto a partir de los datos de distancia y su aspecto a partir de la información de luminosidad se pueden usar para asignar el objeto a una clase de objeto (por ejemplo, camión, turismo, etc.) con métodos de reconocimiento de modelo.
Mediante el enlace inherente de la información de la imagen con coordenadas tridimensionales es posible también asignar los resultados de medición de otros sensores a un objeto detectado con una cámara TOF y procesar conjuntamente los datos. Así, por ejemplo, es posible enlazar imágenes de intensidad de cámaras "normales", que no miden la distancia, con los datos de cámaras TOF que miden la distancia. Es posible además asignar datos de comunicación, como los detectados en el sistema de peaje viario, a datos de objeto detectados por la relación espacial.
La figura 4 muestra otra disposición ventajosa, en la que las cámaras TOF 5 están giradas alrededor de su eje visual respecto a la dirección de circulación nominal de vehículos como objetos 2. Aquí aparece representado sólo el plano horizontal. En el plano horizontal, el área de visibilidad de las cámaras TOF 5 está representada sobre la superficie de tráfico 3. En esta disposición, el ángulo de abertura mayor es utilizado por las cámaras TOF 5 con campo visual rectangular en la diagonal visual. Es decir, se utilizan las esquinas de la imagen, por una parte, para detectar antes los vehículos (las esquinas de la imagen se extienden más fuertemente en dirección de circulación) y, por la otra parte, para obtener un solapamiento lateral mayor (las esquinas de la imagen producen un mayor ángulo de abertura lateral de la imagen).
La figura 5 muestra que el giro de las cámaras TOF 5 puede ser ventajoso también para aumentar la exactitud de la medición. Los objetos 2 en la vía, que se van a medir, presentan a menudo un plano horizontal rectangular. En el caso de una trama de píxeles del campo visual 8 orientada en paralelo a la vía, esto provoca que cantos del objeto 2 se sitúen en paralelo a la trama de píxeles en la imagen E(t) o I(t) y que la posición de fase entre un canto de objeto y la trama sea constante considerablemente a lo largo del canto, véase parte inferior de la figura 5. Si los cantos no se sitúan en paralelo a la trama de píxeles, como aparece representado en la parte superior de la figura 5, el canto cubre respectivamente un porcentaje de superficie diferente de los píxeles individuales. Mediante la creación de un valor medio se puede determinar con mayor exactitud la posición de los cantos.
La figura 6 muestra otra disposición ventajosa, en la que los campos visuales 8 de las cámaras TOF 5 están reducidos a bandas estrechas. Esta disposición es similar al uso de escáneres láser que detectan objetos sólo en un plano. Debido a la zona de detección reducida de las cámaras TOF 5 se necesita un potencia luminosa menor para la iluminación. Además, es posible usar cámaras TOF con menos elementos de imagen (píxeles), lo que a su vez tiene la ventaja de que estas cámaras pueden presentar elementos de imagen mayores y, por tanto, son más sensibles. En comparación con los escáneres láser, es ventajoso que todo el plano de medición se detecte a la vez y que el sistema de medición no necesite partes móviles (espejos rotatorios).
En la figura 7 está representada una variante ventajosa de la disposición de la figura 6. Al igual que en la figura 4, las cámaras TOF 5 están montadas también aquí de manera girada alrededor de su eje visual. Esta disposición se puede usar, por ejemplo, en el procedimiento de medición descrito en la patente EP1454164, y tiene también todas las ventajas mencionadas en la misma. Así, por ejemplo, esta disposición permite medir la velocidad, aunque sólo se detecte una franja estrecha del vehículo. La figura 8 muestra que las cámaras TOF 5 no tienen que tener necesariamente un eje visual paralelo, sino que pueden estar dirigidas también, por ejemplo, con diferentes ángulos hacia la superficie de tráfico 3. Asimismo, los emisores luminosos 6 asignados respectivamente a las cámaras individuales TOF 5 pueden estar montados en diferentes puntos para evitar, por ejemplo, el sombreado.
En este punto habría que mencionar que los emisores luminosos 6, asignados en cada caso a las cámaras individuales TOF 5 y separados uno de otro respecto a sus componentes de luz, no tienen que estar formados necesariamente por fuentes de luz separadas de manera física entre sí. Así, por ejemplo, para dos cámaras TOF se podría usar también la misma fuente de luz que se maneja en el modo de multiplexación por división de tiempo, es decir, alternativamente para una de las cámaras TOF 5, y que forma así los emisores luminosos asignados a estas cámaras TOF.
Las figuras 9 y 10 muestran otra disposición ventajosa, en la que las cámaras TOF 5 se orientan de manera inclinada desde arriba hacia la superficie de tráfico 3 en dirección del tráfico que se aproxima. Las cámaras TOF 5 tienen, por ejemplo, un formato de imagen alargado de 4:1. Con esto es posible detectar mucho antes los vehículos 2 y, no obstante, realizar su seguimiento en una zona más larga. La exactitud de la medición es menor al inicio de la zona de detección y aumenta al final de la zona de detección con una aproximación cada vez mayor a la cámara. El seguimiento de los objetos en una secuencia de imágenes y de la asignación, resultante de esto, de las informaciones de diferentes imágenes a un objeto permite combinar ventajosamente ambos aspectos, o sea, una detección a tiempo y una medición exacta de la distancia. De manera correspondiente, esta disposición se puede usar también para inclinar la cámara en contra de la dirección de circulación.
La invención no está limitada a las realizaciones representadas, sino que comprende todas las variantes y modificaciones que entran en el marco de las reivindicaciones adjuntas.

Claims (9)

  1. REIVINDICACIONES
    1.
    Dispositivo (1) para la detección de vehículos (2) en una superficie de tráfico (3), caracterizado por al menos dos cámaras de tiempo de vuelo (5) que interactúan con correspondientes emisores luminosos (6) para generar diferentes imágenes de distancia (E(t)) de la superficie de tráfico (3), estando conectadas las cámaras a un dispositivo de evaluación común (7) para la detección de vehículos (2) en las imágenes de distancia (E(t)) y estando dispuestas por encima de la superficie de tráfico, estando diseñados los emisores luminosos (6) para emitir una luz diferente, detectable sólo por la cámara de tiempo de vuelo (5) correspondiente en cada caso, y presentando las cámaras de tiempo de vuelo (5) respectivamente campos visuales rectangulares (8) que están dispuestos girados alrededor de sus ejes visuales respecto a la orientación original en la que los lados más largos del campo visual rectangular están orientados en paralelo a la dirección de circulación de la superficie de tráfico.
  2. 2.
    Dispositivo según la reivindicación 1, caracterizado porque las cámaras de tiempo de vuelo (5) tienen ejes visuales desplazados en paralelo entre sí.
  3. 3.
    Dispositivo según la reivindicación 1 ó 2, caracterizado porque los campos visuales (8) de las cámaras de tiempo de vuelo (5) se solapan parcialmente.
  4. 4.
    Dispositivo según la reivindicación 3, caracterizado porque los campos visuales (8) de dos cámaras de tiempo de vuelo (5) contiguas con campos visuales rectangulares se solapan en la zona de las esquinas.
  5. 5.
    Dispositivo según una de las reivindicaciones 1 a 4, caracterizado porque el eje visual de al menos una cámara de tiempo de vuelo (5) está dirigido de manera inclinada desde arriba o desde el lateral hacia la superficie de tráfico (3).
  6. 6.
    Dispositivo según una de las reivindicaciones 1 a 5, caracterizado porque al menos una cámara de tiempo de vuelo (5) está diseñada adicionalmente para generar una imagen de intensidad (I(t)) de la superficie de tráfico (3) y porque el dispositivo de evaluación (7) está diseñado para evaluar en combinación las imágenes de distancia e intensidad (E(t)), I(t)) de la superficie de tráfico (3) con el fin de detectar vehículos (2) en la superficie de tráfico (3).
  7. 7.
    Dispositivo según una de las reivindicaciones 1 a 6, caracterizado porque al menos una cámara de tiempo de vuelo (5) está diseñada para grabar imágenes de distancia y, dado el caso, imágenes de intensidad (E(t)), (I(t)) consecutivas, y porque el dispositivo de evaluación (7) está diseñado para reconocer nuevamente los objetos (2) detectados en imágenes consecutivas con el fin de detectar su movimiento y a partir del mismo generar parámetros de movimiento y/o señalizaciones.
  8. 8.
    Dispositivo según una de las reivindicaciones 1 a 7, caracterizado porque el dispositivo de evaluación (7) está diseñado para determinar parámetros de movimiento de los vehículos a partir de las imágenes de distancia (E(t)).
  9. 9.
    Dispositivo según una de las reivindicaciones 1 a 8, caracterizado porque el dispositivo de evaluación (7) está diseñado para medir y/o clasificar los vehículos detectados (2).
    REFERENCIAS CITADAS EN LA DESCRIPCIÓN
    Esta lista de referencias citadas por el solicitante es únicamente para la comodidad del lector. No forma parte del documento de la patente europea. A pesar del cuidado tenido en la recopilación de las referencias, no se pueden 5 excluir errores u omisiones y la EPO niega toda responsabilidad en este sentido.
    Documentos de patente citados en la descripción DE20200800078U1 [0006] US7405812B1 [0011] 10 DE202008007078U1 [0007] EP1454164A [0045] Literatura no patente citada en la descripción
    R. SCHWARTE et al. A new active 3D-vision system based on RF-modulation interferometry of
    15 incoherent light. Photonics east-intelligent systems and advanced manufacturing, Proceedings of the SPIE, 1995, volumen 2588 [0006]
ES09450189T 2009-10-01 2009-10-01 Dispositivo para la detección de vehículos en una superficie de tráfico Active ES2401668T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP09450189A EP2306426B1 (de) 2009-10-01 2009-10-01 Vorrichtung zur Detektion von Fahrzeugen auf einer Verkehrsfläche

Publications (1)

Publication Number Publication Date
ES2401668T3 true ES2401668T3 (es) 2013-04-23

Family

ID=41683358

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09450189T Active ES2401668T3 (es) 2009-10-01 2009-10-01 Dispositivo para la detección de vehículos en una superficie de tráfico

Country Status (6)

Country Link
EP (1) EP2306426B1 (es)
DK (1) DK2306426T3 (es)
ES (1) ES2401668T3 (es)
PL (1) PL2306426T3 (es)
PT (1) PT2306426E (es)
SI (1) SI2306426T1 (es)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172526A1 (en) 2011-06-17 2012-12-20 Leddartech Inc. System and method for traffic side detection and characterization
US9235988B2 (en) 2012-03-02 2016-01-12 Leddartech Inc. System and method for multipurpose traffic detection and characterization
AT513589B1 (de) 2012-11-08 2015-11-15 Bluetechnix Gmbh Aufnahmeverfahren für zumindest zwei ToF-Kameras
CN103116988B (zh) * 2013-01-18 2014-10-08 合肥工业大学 基于tof相机的车流量及车型检测方法
PL2757346T3 (pl) 2013-01-21 2016-09-30 Sposób pomiaru profilu wysokościowego pojazdu poruszającego się po drodze
DE102013007886B3 (de) * 2013-05-08 2014-09-25 Audi Ag Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
FR3018940B1 (fr) * 2014-03-24 2018-03-09 Survision Systeme de classification automatique de vehicules automobiles
EP3191869B1 (en) 2014-09-09 2020-03-25 Leddartech Inc. Discretization of detection zone
EP3104357A1 (en) * 2015-06-09 2016-12-14 Kapsch TrafficCom AG A device for detecting vehicles on a traffic area
FR3111434B1 (fr) * 2020-06-11 2022-11-11 Continental Automotive Procédé de mise en œuvre d’un dispositif LIDAR avec descripteurs

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7049945B2 (en) * 2000-05-08 2006-05-23 Automotive Technologies International, Inc. Vehicular blind spot identification and monitoring system
US20020140924A1 (en) * 1999-01-08 2002-10-03 Richard J. Wangler Vehicle classification and axle counting sensor system and method
US6396535B1 (en) * 1999-02-16 2002-05-28 Mitsubishi Electric Research Laboratories, Inc. Situation awareness system
AT500122B1 (de) 2001-12-14 2007-01-15 Kapsch Trafficcom Ag Verfahren und vorrichtung zur geometrischen vermessung von kraftfahrzeugen
US7405812B1 (en) * 2006-05-18 2008-07-29 Canesta, Inc. Method and system to avoid inter-system interference for phase-based time-of-flight systems
DE202008007078U1 (de) * 2008-05-26 2008-09-04 Signalbau Huber Gmbh Videodetektion mit PMD-Sensorik

Also Published As

Publication number Publication date
SI2306426T1 (sl) 2013-04-30
EP2306426B1 (de) 2012-12-19
PL2306426T3 (pl) 2013-05-31
EP2306426A1 (de) 2011-04-06
PT2306426E (pt) 2013-03-18
DK2306426T3 (da) 2013-03-25

Similar Documents

Publication Publication Date Title
ES2401668T3 (es) Dispositivo para la detección de vehículos en una superficie de tráfico
ES2659214T3 (es) Sensor mejorado de telémetro de láser
CN105403893B (zh) 障碍物检测系统及方法
US20130258108A1 (en) Road Surface Shape Recognition System and Autonomous Mobile Apparatus Using Same
ES2704503T3 (es) Procedimiento de control de un sistema de vigilancia de tráfico
US20110103647A1 (en) Device and Method for Classifying Vehicles
EP2172873A2 (en) Bundling of driver assistance systems
ES2429572T3 (es) Sistema integrado de vehículos para la prevención de colisiones a baja velocidad
CN103329058B (zh) 车辆定位和引导系统
CN100510612C (zh) 物体的计测装置
EP3973327A1 (en) System and method for robot localisation in reduced light conditions
ES2645504T3 (es) Determinación de al menos una característica de un vehículo
CN113759386A (zh) 用于测量室外环境中的物体的逆向反射率的逆向反射计
RU2722465C1 (ru) Устройство и способ распознавания шины транспортного средства
JP5896139B2 (ja) 車両検出方法及び車両検出装置
JP5784173B2 (ja) 車両判定システム
JP5849495B2 (ja) 車軸検出装置
US20240140441A1 (en) Method and arrangement for determining a condition of a road surface
CN117616309A (zh) 信号处理方法、信号传输方法及装置
CN116152482A (zh) 移动载具用精密定位/标志参考装置、辨识系统及方法
ES2391750B1 (es) Procedimiento y dispositivo de medida de velocidad de vehículos a partir de la captación de imágenes del paso de un vehículo
CN117590416A (zh) 用于导航的多路径对象标识
BR112017011029B1 (pt) Método de controle de um sistema de monitoramento de trânsito e unidade de processamento para um sistema de monitoramento de trânsito