ES2352300T3 - Sistema para detectar vehículos. - Google Patents

Sistema para detectar vehículos. Download PDF

Info

Publication number
ES2352300T3
ES2352300T3 ES07713141T ES07713141T ES2352300T3 ES 2352300 T3 ES2352300 T3 ES 2352300T3 ES 07713141 T ES07713141 T ES 07713141T ES 07713141 T ES07713141 T ES 07713141T ES 2352300 T3 ES2352300 T3 ES 2352300T3
Authority
ES
Spain
Prior art keywords
video camera
video
vehicles
detecting
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07713141T
Other languages
English (en)
Other versions
ES2352300T5 (es
Inventor
Stefano Arrighetti
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KRIA Srl
Original Assignee
KRIA Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38522807&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2352300(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by KRIA Srl filed Critical KRIA Srl
Application granted granted Critical
Publication of ES2352300T3 publication Critical patent/ES2352300T3/es
Publication of ES2352300T5 publication Critical patent/ES2352300T5/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • G08G1/054Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed photographing overspeeding vehicles

Abstract

Un sistema para detectar el tránsito de vehículos (V) con matrículas (T), comprendiendo el sistema: - al menos una cámara de vídeo (12) para detectar matrículas capaz de encuadrar la matrícula de dichos vehículos y generar una señal de vídeo correspondiente, - una cadena de módulos de procesamiento (100-106) sensible a dicha señal de vídeo para llevar a cabo un procesamiento de reconocimiento de matrícula en dicha señal de vídeo; - al menos una cámara de vídeo adicional (14) para detectar vehículos capaz de encuadrar una zona (C) de tránsito de dichos vehículos (V) con matrículas y generar una señal de vídeo correspondiente respectiva, y - una cadena respectiva de módulos de procesamiento (200-206) sensible a la señal de vídeo generada por la cámara de vídeo adicional (14) para llevar a cabo en dicha señal de vídeo respectiva un procesamiento de seguimiento de vehículos para detectar la posición y la forma tridimensional de vehículos que transitan en dicha zona, caracterizado porque dicha cadena de módulos de procesamiento (100-106) incluye un módulo de pruebas (102) para detectar la presencia de un vehículo (V) en transito llevando a cabo una prueba que verifica si una imagen de una matrícula persiste en una serie de imágenes (T1,..., Tn) de la señal de vídeo generada por la cámara de vídeo (12), y un módulo de seguimiento de matrículas (104) que se activa mediante dicho módulo de pruebas (102) cuando dicha prueba tiene un resultado positivo, donde el sistema incluye un módulo supervisor (300) que agrega los resultados de dichos módulos de procesamiento de reconocimiento de matrículas (100-106) y de dichos módulos de procesamiento de seguimiento de vehículos (200-206) para generar registros de información (304), identificando cada uno la modalidad de tránsito en dicha zona (C) de un vehículo (V) identificado mediante una matrícula dada sometida a seguimiento y reconocida por dicha cadena de procesamiento (100-106).

Description

Campo de la invención
La invención se refiere a sistemas para detectar vehículos y se ha desarrollado con particular atención a su posible uso en la detección de infracciones de normas de tráfico, por ejemplo no pararse cuando el semáforo está en rojo, superar los límites de velocidad, adelantamientos y accesos no permitidos.
Descripción de la tecnología conocida
Los sistemas de identificación automática de vehículos que infringen las normas de tráfico deben responder a los requisitos de detección fiable de infracciones y generar documentación clara; también deben garantizar la seguridad de los conductores y ser difíciles de manipular indebidamente.
Los sistemas existentes comprenden generalmente sensores de detección conectados a cámaras que, por ejemplo, capturan secuencias de dos fotografías fijas para demostrar el movimiento del vehículo que comete la infracción.
El tránsito se detecta normalmente mediante sensores de la presencia de un vehículo (bucles inductivos, láseres, radar, etc.), todos ellos dispositivos cuya instalación requiere en general que se detenga el tráfico y cuyo funcionamiento implica un mantenimiento caro. Hasta la fecha, estos sensores han representado una parte necesaria de los sistemas en cuestión, no existiendo alternativas tecnológicas que puedan garantizar un mejor rendimiento, o al menos el mismo rendimiento, en lo que se refiere a una detección fiable (es decir, la probabilidad de detectar correctamente infracciones) y una medición precisa de las variables cinemáticas del vehículo que comete la infracción (típicamente la posición y la velocidad en un instante de tiempo claramente especificado).
Sin embargo, se conoce la posibilidad de utilizar cámaras de vídeo como sensores de detección (véase, por ejemplo, los documentos WO-A-2004/100102 y US-A-2004/054513), pero esto solamente en términos puramente genéricos, no tratándose modos de realización específicos ni la fiabilidad ni precisión de las mediciones obtenidas, y no existiendo actualmente ningún modo de realización operativo de esa invención.
Un sistema que utiliza cámaras de vídeo para registrar el movimiento de un vehículo se describe en el documento WO 94/28377A.
También se sabe que la detección de vídeo basada en movimiento simple (detección de movimiento y/o los denominados "bucles virtuales") está sujeta frecuentemente a falsas alarmas en ausencia de otras observaciones que confirmen la detección.
Además, cuando se aplican al contexto de la detección de infracciones de tráfico, las técnicas en cuestión adquieren finalmente, hasta cierto punto, un perfil “forense”.
En las soluciones utilizadas actualmente, la documentación de la infracción se genera normalmente mediante cámaras que, después de detectar el vehículo, capturan algunas (dos) imágenes del suceso detectado mediante los sensores asociados a las mismas. Durante las horas de oscuridad, la ausencia de luz solar en el área de encuadre se sustituye iluminando el vehículo con un flash. Sin embargo, normalmente se refleja mucha más luz desde la matrícula que desde la carrocería del vehículo, por lo que el alcance dinámico de la luminancia de la escena es demasiado ancho para las capacidades de la cámara de vídeo (tanto si utiliza película fotográfica como si es de tipo digital) para permitir que se reconozcan al mismo tiempo tanto el área de la matrícula como el modelo y el color del vehículo, dando como resultado la generación de documentación que no puede utilizarse para procedimientos disciplinarios.
Una limitación evidente y específica de las cámaras analógicas radica en la longitud limitada del carrete, es decir, el pequeño número de fotografías que pueden tomarse; esto requiere que el personal visite frecuentemente la instalación para sustituir manualmente la película y revelarla, después de lo cual, si fuera necesario, las imágenes se capturan por un escáner para fines de clasificación.
Las cámaras digitales están empezando a sustituir a las que utilizan películas fotográficas, reduciendo parcialmente estos inconvenientes; sin embargo, comparten con las cámaras analógicas las limitaciones debidas al deterioro de las partes móviles (obturador, diafragma).
Además, todos los sistemas que utilizan cámaras no pueden documentar infracciones que tienen lugar en rápida sucesión; por ejemplo, no pueden documentar los frecuentes casos en los que un primer vehículo infractor en tránsito va seguido inmediatamente por otros vehículos, con un solapamiento de tiempo entre el final de una infracción de vehículo y el principio del vehículo siguiente.
Algunos sistemas basados en cámaras de vídeo (por lo tanto con una captura continua de imágenes) tienen una limitación más evidente cuando funcionan en condiciones de poca iluminación, en particular con respecto a la legibilidad de la matrícula. Para evitar el efecto “borroso” del vehículo en movimiento, funcionan con un tiempo de exposición muy corto y con la ayuda de un flash, utilizando de este modo la cámara de vídeo solamente para capturar algunas imágenes, en la manera de una cámara normal.
Algunos sistemas proporcionan una lectura automática de la matrícula para integrar la documentación fotográfica con información necesaria para la posterior identificación del propietario del vehículo. En general, esta lectura no se utiliza como una alternativa a los sensores mencionados anteriormente para detectar el suceso; el procesamiento posterior es simplemente complementario a la documentación, llevándose a cabo después de que se haya detectado el vehículo y se hayan adquirido las imágenes.
Un requisito adicional que debe tenerse en cuenta consiste en el hecho de que los sistemas que registran infracciones deben responder a estrictos requisitos de seguridad. En particular, no deben tener una influencia negativa en la conducción, considerando por encima de todo las peligrosas condiciones intrínsecas a la maniobra o al lugar por donde está pasando el conductor.
Por ejemplo, la repentina iluminación del flash se discute frecuentemente ya que se considera potencialmente peligrosa por el riesgo asociado de deslumbramiento; incluso si el sistema fotografía el vehículo "detectado" desde atrás, un conductor que avance en el sentido contrario al controlado puede quedar deslumbrado por el mismo.
De nuevo, en vista de que su utilización actual es principalmente disciplinaria, los sistemas de detección están expuestos a actos de vandalismo: esto se debe también al hecho de que tales sistemas no están vigilados normalmente. Actos típicos de manipulación indebida consisten en desactivar los sensores de detección y cubrir (o tapar) los dispositivos de captura de imágenes.
Objeto y resumen de la invención
A partir de la descripción de la tecnología conocida proporcionada anteriormente, emerge la necesidad de disponer de sistemas de detección que no tengan las limitaciones y desventajas indicadas anteriormente y que, en particular:
-no requieran parar el tráfico durante la instalación y/o no requieran un mantenimiento caro durante su funcionamiento;
-sean completamente fiables en lo que respecta a la correcta detección de infracciones (en particular con respecto a falsas alarmas) y a la precisión en la medición de las variables cinemáticas del vehículo infractor;
-no tengan los inconvenientes técnicos relacionados intrínsicamente con la utilización de cámaras (ya sean de tipo analógico o de tipo digital) y del flash;
-permitan la detección y la documentación de infracciones que tengan lugar en rápida sucesión; -sean capaces de funcionar en condiciones de poca iluminación, en
particular con respecto a la legibilidad de la matrícula; -no puedan considerarse como una influencia negativa en la conducción; -estén protegidos intrínsecamente contra (o que al menos estén poco
expuestos a) actos de vandalismo.
La presente invención tiene como objetivo satisfacer completamente estas necesidades.
Según la presente invención, este objeto se consigue gracias a un sistema que presenta características recogidas específicamente en las reivindicaciones posteriores.
Las reivindicaciones forman una parte integrante de las enseñanzas técnicas aquí proporcionadas con relación a la invención.
En resumen, en lo que es actualmente el modo de realización preferido, la invención proporciona un sistema automático que consiste en cámaras de vídeo y ordenadores electrónicos capaces de detectar y documentar infracciones así como identificar al propietario del vehículo, a través del uso combinado de cámaras de vídeo de múltiple espectro y de procedimientos de lectura de matrículas y de análisis tridimensionales del movimiento del vehículo.
Preferentemente, el sistema propuesto se basa en el uso combinado de diferentes cámaras de vídeo, ordenadores electrónicos y procedimientos de procesamiento de imágenes que eliminan la necesidad de sensores de detección externos y que superan las limitaciones de las tecnologías actuales, generando resultados de detección mejorados y una documentación más detallada del suceso, eliminando al mismo tiempo los problemas de seguridad y el riesgo de que la instalación sufra manipulaciones indebidas.
Breve descripción de los dibujos adjuntos
A continuación se describirá la invención, a modo de ejemplo no limitativo, con referencia a los dibujos adjuntos, en los que:
-la figura 1 es una vista general del sistema aquí descrito, mostrado en un entorno de uso típico; -las figuras 2 y 3 muestran en mayor detalle los criterios con los que el sistema aquí descrito observa el entorno de uso; -la figura 4 es un diagrama de bloques funcional que muestra la
arquitectura y las funciones del sistema aquí descrito; -las figuras 5 y 6 muestran el funcionamiento del sistema aquí descrito; y -la figura 7 muestra un modo de realización real de uno de los elementos
del sistema aquí descrito.
Descripción detallada de algunos modos de realización de la invención
La siguiente descripción detallada se refiere, a modo de ejemplo, al posible uso de un sistema del tipo descrito en correspondencia con un cruce C controlado por semáforos, donde uno de los semáforos S es visible. Esto tiene como objetivo detectar infracciones de las normas de tráfico relacionadas principalmente con:
-no parar en el cruce cuando el semáforo está en rojo, y/o -superar un límite de velocidad.
En la configuración a la que hace referencia la figura 1, el sistema (indicado en su conjunto como 10 en el diagrama de la figura 4) comprende una pluralidad de instalaciones instaladas en un poste Y e incluye un par de cámaras de vídeo 12, 14 (preferentemente, siendo la primera infrarroja y la segunda a color) conectadas a una unidad de procesamiento 16 (mostrada en la figura 1 cerca de la cámara de vídeo) que se comunica a su vez con una unidad central 18, generalmente en un centro de control remoto.
Las conexiones entre las cámaras de vídeo 12 y 14, la unidad de procesamiento 16 (o las diversas partes que la forman) y la unidad central 18 se realizan generalmente a través de cables, aunque no se excluyen conexiones inalámbricas.
Por claridad de ilustración, y a modo preliminar, debe observarse que: ventaja intrínseca relacionada con su posible instalación en posiciones al menos parcialmente diferentes con respecto a las unidades de cámara de vídeo 12, 14;
-
aunque aquí se muestran y se describen como unidades distintas
(según el modo de realización actualmente preferido), en realidad
las
dos unidades de cámara de vídeo 12, 14 pueden estar
integradas en un único dispositivo de captura de imágenes;
-
aunque aquí se muestran instaladas en un único poste Y, las dos
unidades
de cámara de vídeo 12, 14 pueden instalarse en
diferentes estructuras de soporte, por consiguiente en posiciones al
menos parcialmente diferentes entre sí;
-
en aplicaciones que requieren mediciones estereométricas, la dos
unidades de cámara de vídeo 12, 14 se duplican respectivamente
con la adición de dos unidades de cámara de vídeo adicionales 12',
14' (véase la figura 4) si se desea integradas entre sí, pero con una
-mientras que la representación de la figura 1 plantea como hipótesis la presencia de dos unidades de cámara de vídeo respectivas 12, 14 para cada una de las (cuatro) carreteras que convergen en el cruce C, el sistema según la invención también puede configurarse para proporcionar solamente detección en una de las carreteras que convergen en el cruce C y/o puede hacer que las cámaras de vídeo que están utilizándose para el tráfico se muevan en más de una dirección: esto se aplica tanto a la cámara
o cámaras de video cuya función sea capturar vistas "panorámicas" del cruce como a la cámara o cámaras cuya función sea detectar matrículas; y
- la compartición de las funciones de procesamiento entre la unidad de procesamiento 16 y la unidad central 18 mostradas en la figura 4 son puramente a modo de ejemplo y puede modificarse dependiendo de los requisitos específicos de uso; en particular, la unidad de procesamiento 16 puede comprender tanto módulos que estén asociados (o integrados) a las cámaras de vídeo 12 y 14 como módulos situados de manera remota, ubicados en la unidad si se desea.
Volviendo al ejemplo mostrado en la figura 1, en lo sucesivo se asumirá que la cámara de vídeo 12, que funciona preferentemente en el campo infrarrojo, está orientada y ajustada de manera que pueda encuadrar y "leer" las matrículas de vehículos que pasan (es decir, según el campo de visión de la figura 2). De manera similar, en lo sucesivo se asumirá que la cámara de vídeo 14, preferentemente una cámara de vídeo en color que funciona en el campo de luz visible, está orientada y ajustada para encuadrar el cruce C, o al menos la parte del mismo a través de la cual pasarán los vehículos cuyas matrículas puede leer la cámara de vídeo asociada 12, de una manera panorámica (es decir, según el campo de visión de la figura 3).
En este contexto, los tipos de cámaras de vídeo 12, 14 y su uso combinado tienen una particular importancia. El sistema adquiere las señales a partir de un número de cámaras de vídeo de una manera sincronizada y las procesa en tiempo real en las unidades 16 y 18.
Como ya se ha mencionado, las cámaras de vídeo 12 y 14 tienen diferentes características y proporcionan imágenes apropiadas para dos objetivos diferentes del sistema: lectura automática de matrículas (cámara de vídeo 12) y reconocimiento automático del vehículo y sus movimientos (cámara de vídeo 14). Gracias a esto, el sistema genera documentación de alta calidad de la infracción que es difícil de rebatir.
El sistema así definido puede instalarse con gran facilidad y típicamente requiere que se intervenga en un único punto donde la unidad de captura de imágenes que consiste en las dos cámaras de vídeo 12 y 14 se instala en el poste Y. El procedimiento de calibración relativa, requerido para conseguir de manera fiable mediciones métricas de las imágenes, es extremadamente simple y puede guiarse desde una interfaz hombre-máquina específica.
Por lo demás, el sistema no requiere la utilización de sensores instalados sobre el terreno, en particular a la altura del vehículo, y por tanto es difícil que sufra manipulaciones indebidas. Cualquier cambio en la posición de las cámaras de vídeo con respecto a las escenas observadas puede detectarse inmediatamente mediante la unidad central 18.
La unidad de captura de imágenes formada por las dos cámaras de vídeo 12 y 14 envía las señales de vídeo relativas a la unidad 16 y por lo tanto no está destinada a almacenar localmente las imágenes. Por lo tanto, la unidad de captura de imágenes 12, 14 no necesita ser fácilmente accesible para operaciones de descarga de datos. Por lo tanto, puede instalarse a una altura (por ejemplo, 5 metros) superior a la de los sistemas tradicionales existentes. Esta consideración reduce drásticamente el riesgo de que las cámaras de vídeo se tapen y que sufran graves manipulaciones indebidas.
También debe observarse que cualquier cambio en el encuadre de las dos cámaras de vídeo 12 y 14, incluso su recubrimiento parcial o total (accidental
o intencionado), se detecta automáticamente mediante la función de control específica, la cual comprueba periódicamente que la escena encuadrada sea siempre la definida en el momento de la instalación.
La unidad de captura de imágenes 12, 14 puede conectarse a la unidad de procesamiento 16 a través de tecnologías conocidas (cables de cobre, fibras ópticas, puentes de radio). Por lo tanto, la unidad de procesamiento 16 puede instalarse de manera arbitraria a una distancia con respecto al área que va a controlarse y puede ocultarse si se desea. Este hecho también ayuda a reducir el riesgo de que el sistema sufra manipulaciones indebidas.
La conexión entre la unidad de procesamiento 16 y la unidad central 18 permite que la documentación se transfiera en tiempo real desde donde se genera hasta instalaciones que estarán con toda certeza vigiladas y serán más seguras. Por lo tanto, aunque el sistema sufra manipulaciones indebidas, no pierde documentación de las infracciones detectadas anteriormente. El uso de la criptografía reduce el riesgo de ataques y accesos informatizados contra las infracciones detectadas, garantizando al mismo tiempo la confidencialidad de la información relacionada.
Preferentemente, la cámara de vídeo 12 es capaz de detectar radiación casi infrarroja (IR, 700-1000 nm). Está equipada con una lente “telefoto” que encuadra a alta resolución de imagen una parte limitada de la zona que se desea controlar, pero a través de la cual el vehículo V debe pasar necesariamente.
Preferentemente, la cámara de vídeo 14 detecta luz visible (color, 400-700 nm) y está equipada con una lente “granangular” que encuadra a menor resolución de imagen toda la zona en la que tiene lugar la infracción.
En general, en el caso de vehículos que no paran cuando el semáforo está en rojo, la cámara de vídeo en color 14 también encuadra el propio semáforo S para documentar el hecho de que el semáforo estaba en rojo (de ahí el interés de que la cámara de vídeo 14 sea en color, una característica que no es en sí misma esencial para el simple objetivo de capturar una vista panorámica del cruce C).
Como ya se ha mencionado, en algunos contextos de aplicación es necesario instalar un número de cámaras de vídeo de dos tipos. Sin embargo, para simplificar la ilustración, el caso descrito en lo sucesivo, sin perder generalidad, será el de una única cámara de vídeo 12 y una única cámara de vídeo 14.
Independientemente de cómo estén instaladas (inmediatamente adyacentes entre sí o separadas por alguna distancia), las dos cámaras 12, 14 coinciden en la práctica para fines de aplicación ya que la imagen encuadrada por la primera está contenida dentro de la imagen encuadrada por la segunda.
La distancia entre la cámara de vídeo 12 y el vehículo V puede variar entre 10 y 20 metros. Generalmente, un iluminador infrarrojo específico 12a está asociado a la cámara de vídeo 12 y emite una longitud de onda dentro del alcance de sensibilidad de la cámara de vídeo 12, irradiando la escena de una manera estroboscópica sincronizada con el sensor de la cámara de vídeo.
La luz infrarroja no es visible y, en el espectro entre 700 y 1000 nm y a la potencia emitida para iluminar la matrícula (aproximadamente 3 mW), es completamente incapaz de crear molestias o daños al ojo humano y, por tanto, no provoca el riesgo de deslumbrar a los conductores de los vehículos, proporcionando al sistema la máxima seguridad.
La mera utilización de iluminadores IR no visibles y no dañinos, y la utilización de cámaras de vídeo de pequeño tamaño y de idéntico diseño para cámaras de vídeo de vigilancia hace que el sistema sea inocuo y prácticamente imperceptible para el conductor. Gracias a estas características, el sistema no puede inducir un comportamiento peligroso en los conductores.
El material a partir del cual están construidas las matrículas T de los vehículos posee un alto índice de reflexión, incluso para radiación infrarroja, y esto garantiza la perfecta visibilidad de la matrícula del vehículo a cualquier velocidad de tránsito y en todas las condiciones meteorológicas y de iluminación.
El tiempo de captura (velocidad de obturador) de la cámara de vídeo 12 varía de una manera controlada dependiendo de la luminosidad reflejada por las matrículas T. El rango de variabilidad del obturador de la cámara de vídeo 12 puede configurarse y el límite superior, que es el tiempo de exposición más largo que puede utilizar la cámara de vídeo 12, es en cualquier caso extremadamente corto y se calcula de manera que el movimiento del vehículo no provoque efectos borrosos en la imagen mayores que el grosor de los caracteres de la imagen generada y por lo tanto garantiza que la matrícula T sea legible.
De manera similar, el obturador de la cámara de vídeo 14 y el diafragma de la lente varían automáticamente a lo largo del día, garantizando que toda la imagen siempre sea claramente visible. El rango de variabilidad del obturador de la cámara de vídeo puede configurarse y el límite superior, que es el tiempo de exposición más largo, se parametriza de manera que incluso durante la noche el alumbrado público normal proporcione buena visibilidad del vehículo V y permita reconocer la zona por la que éste pasa.
Se notará que las anteriores funciones de ajuste son parte del equipamiento actual de cámaras de vídeo (incluyendo las de uso en el ámbito doméstico), lo que hace superfluo proporcionar aquí una descripción en mayor detalle.
Las dos cámaras de vídeo 12 y 14 pueden tener, en el mismo instante de tiempo, diferentes tiempos de exposición; en particular, la cámara de vídeo 14 puede tener un tiempo de exposición más largo. En principio, esto podría comprometer la nitidez absoluta de la imagen (en color) debido a un ligero efecto de emborronamiento debido al movimiento del vehículo V. Pero la exposición más larga hace que tanto el vehículo V como el área en la que se produce la infracción se reconozcan más fácilmente.
Las imágenes digitales capturadas por las dos cámaras de vídeo 12 y 14 se proporcionan (nuevamente según lo que es ahora una solución actual) con una marca de fecha/hora que indica el instante exacto en el que se capturó la imagen de una manera que es difícil de modificar. Esto permite que las imágenes generadas por diferentes cámaras de vídeo estén asociadas. La sincronización de captura de imágenes, certificada por dichas marcas de fecha/hora, garantiza que sean simultáneas y, por lo tanto, que se refieran al mismo suceso.
El conjunto de cámaras de vídeo 12 y 14 constituye por lo tanto un sensor de múltiple espectro (IR+color) capaz de combinar de manera lógica las características de ambas cámaras de vídeo. “Combinar de manera lógica" se refiere a una operación en la que las dos imágenes, aunque continúan siendo físicamente distintas, pueden relacionarse de manera geométrica a través de procesos de visualización 3D, tal y como se describirá posteriormente en mayor detalle.
Ya se ha mencionado que, aunque aquí se ilustran y se describen como unidades distintas, las dos unidades de cámara de vídeo 12, 14 pueden estar integradas en realidad en un único dispositivo de captura de imágenes: tal dispositivo proporciona el uso de una única lente y de un prisma óptico interpuesto entre la lente y los dos sensores digitales (por ejemplo, CCD) de las cámaras de vídeo para separar la componente IR de la componente visible o, como alternativa, utiliza un único sensor digital sensible a componentes tanto infrarrojas como visibles. Un dispositivo integrado de este tipo permite alinear con absoluta precisión tanto color como infrarrojo (eliminando errores de paralaje debidos al flanqueo de las dos cámaras de vídeo) en una única imagen de múltiple espectro. Esto hace que la documentación generada sea mucho más difícil de rebatir, ya que no sólo las imágenes generadas por el sistema son simultáneas sino que también están perfectamente superpuestas en el espacio.
El conjunto de módulos de procesamiento indicado de manera colectiva como 16 en la figura 4 (sobretodo cuando está situado de manera remota con respecto a las cámaras de vídeo 12 y 14 y, por tanto, es capaz de dar servicio a un número de unidades de captura de imágenes) es apropiado para implementarse en la forma de un ordenador industrial (PCI) que adquiera de manera continua las señales de vídeo desde las unidades de captura de imágenes 12 y 14 y que lleve a cabo las etapas de procesamiento descritas a continuación.
Este tipo de ordenador es capaz de tratar el flujo de vídeo entrante de varias cámaras de vídeo y procesar las imágenes en tiempo real. Placas base disponibles comercialmente basadas en tecnología PCI pueden tratar hasta cuatro flujos de vídeo, mientras que procesadores disponibles comercialmente de 2,5 GHz pueden procesar las imágenes relacionadas. Aplicaciones con un número mayor de cámaras de vídeo pueden administrarse con varios ordenadores conectados en red para el intercambio de información. El ordenador está equipado generalmente con un sistema operativo que proporciona servicios multitarea gracias a los cuales el procesamiento se lleva a cabo prácticamente en paralelo, con la ventaja de una sencilla implementación en software.
Durante la fase en la que el semáforo está en rojo (señalizada por un sensor externo P de tipo conocido) o de manera continua en otras aplicaciones, el flujo de vídeo de la cámara de vídeo 12 se procesa de una manera continua por un módulo 100 capaz de activar de manera eficaz procedimientos para leer la matrícula T.
Estas técnicas se conocen por sí mismas y se denominan en el sector técnicas LPR o “License Plate Recognition”.
Este procesamiento permite que el sistema detecte en primer lugar la presencia de una matrícula T: esto se produce generalmente como el resultado de un módulo de pruebas 102 que detecta el hecho de que la información relacionada persiste a través de una serie de n imágenes en tiempo real (T1, …, Tn en la figura 5). Valores típicos de n están comprendidos entre 5 y 15, dependiendo de la velocidad efectiva del vehículo y de la geometría de captura de imágenes. La frecuencia de la captura de imágenes y la orientación de la cámara garantiza la detección de vehículos incluso a altas velocidades (por ejemplo, a 300 km/h).
Si la prueba 102 tiene un resultado positivo (y se excluye la presencia de una falsa alarma), el sistema deduce la presencia de un vehículo V en tránsito (y por lo tanto de una infracción, si el semáforo está en rojo en ese momento). En particular, esto implica la activación de un módulo de Seguimiento de Matrícula 104 y la generación de un "suceso de matrícula" 106.
Este aspecto es importante ya que, a diferencia de lo que sucede en la mayoría de los sistemas conocidos actualmente (en los que un sensor externo detecta el paso del vehículo y en consecuencia activa un detector visual, como una cámara, que fotografía el vehículo y la matrícula), el funcionamiento del sistema aquí descrito se basa en el hecho de que el detector visual (es decir, la cámara de vídeo 12) es por sí misma capaz de detectar y reconocer el paso de una matrícula y, por lo tanto, el tránsito de un vehículo.
La posibilidad de leer matrículas en tiempo real está relacionada con la posibilidad de concentrar la acción de las partes más complejas computacionalmente del proceso LPR en una pequeña parte de toda la imagen (localización de la matrícula). Esto es posible gracias a las características gráficas peculiares de las matrículas, que pueden utilizarse de diferentes maneras para obtener procedimientos de localización rápidos y eficaces como los descritos en H. Bai et al. “A fast license plate extraction method on complex background”, IEEE Intell. Tran. Sys. Vol. 2 (2003).
Localizando de manera precisa el área de la matrícula en la imagen, el sistema también puede comprobar la exposición de la matrícula, independientemente de la luminancia del resto de la escena, y puede modificar el tiempo de exposición de la cámara de video 12 para las tramas posteriores.
El análisis automático también utiliza el conocimiento a priori del movimiento plano de la matrícula y, con el uso de un procesamiento apropiado del movimiento de la propia matrícula (Seguimiento de Matrícula), también proporciona una estimación de la dirección del movimiento instantáneo del vehículo en tránsito. El movimiento de objetos planos observados en una imagen se describe mediante transformaciones de coordenadas conocidas como homografías (véase, por ejemplo: R. Hartley, A. Zisserman "Multiple View Geometry in Computer Vision", Cambridge University Press, 2004). El seguimiento de los mismos en imágenes es posible mediante algoritmos rápidos como los mencionados en C. Stiller, J. Konrad "Estimating Motion in Image Sequences", IEEE Signal Proc. Mag. Vol. 16 (1999). El uso de información relacionada con movimiento permite que la parte de imagen analizada por los procedimientos de lectura se restringa adicionalmente.
Como se indica de manera esquemática por una línea discontinua en la figura 4, la función de controlar el exceso de velocidad implica preferentemente la instalación de una segunda cámara de vídeo 12' (configurada de una manera sustancialmente idéntica a la cámara de vídeo 12, incluso con relación a los módulos asociados a la misma, indicados mediante los mismos números con una notación prima).
Por lo tanto, es posible combinar la función de lectura y seguimiento de la matrícula (LPR + Seguimiento de Matrícula) llevadas a cabo por la cámara de vídeo 12 y por los módulos asociados a la misma, con técnicas estereométricas del tipo descrito, por ejemplo, en O. Faugeras "3D–computer Vision", MIT Press (1993). Dado cualquier par de puntos correspondientes entre las cámaras de vídeo 12 y 12’, la estereometría hace posible determinar la posición absoluta del punto tridimensional observado. Combinando esta medición con la estimación de movimiento obtenida mediante el Seguimiento de Matrícula (y, obviamente, conociendo la separación en el tiempo entre las diferentes imágenes), se obtiene una estimación de velocidad.
Gracias a estas técnicas, la medición de velocidad instantánea se calcula de una manera objetiva y altamente precisa, además de asociarse de manera unívoca a una matrícula específica. A modo de ejemplo, con una separación de 1 m entre la cámara de vídeo 12 y la cámara de vídeo 12', es posible medir la velocidad con una precisión del 1%, siendo por lo tanto suficientemente amplia para los fines del sistema.
Las cámaras de vídeo 12 y 12' requieren una disposición que sea estable a lo largo del tiempo para garantizar la precisión de la medición. Por lo tanto, las cámaras de vídeo están preferentemente fijadas de manera rígida a una única estructura de soporte y contenidas en una única carcasa que garantiza protección contra manipulaciones indebidas, colisiones, tensión debida a cambios de temperatura, humedad, presión y otros agentes atmosféricos. Con este propósito, tal y como se muestra más claramente en la figura 7, las cámaras de vídeo están fijadas a una estructura hecha de un material (metal, fibra de carbono) apropiado para mantener su disposición rígida. Esta estructura está fijada al soporte 1000 a través de separadores de material elástico sin fijarse directamente a la carcasa 1200. Por lo tanto, la estructura y las cámaras de vídeo fijadas a la misma no sufren los efectos de ninguna tensión mecánica ni de otros agentes que afecten a la carcasa. Un recubrimiento suplementario puede proteger adicionalmente la carcasa de la radiación solar, reduciendo cualquier expansión térmica del sistema.
Los resultados finales del proceso LPR es por lo tanto un suceso de tránsito (Suceso de Matrícula) 106, al que se añade una cadena alfanumérica de la matrícula y de la trayectoria observada en la imagen (y de la velocidad estimada en el caso de disposición estereométrica).
Sin embargo, las funciones descritas arriba no son capaces de certificar automáticamente la infracción en toda su dinámica espacial cuando esto es necesario (por ejemplo, no parar cuando el semáforo está en rojo, adelantar) ni procesar o generar imágenes en color del vehículo.
Con este propósito, la señal de la cámara de vídeo 14, que se captura de manera continua mediante un módulo 200 que implementa de manera eficaz procedimientos de análisis de movimiento del tipo conocido normalmente como Análisis de Movimiento (véase, por ejemplo, el artículo de Stiller y Konrad arriba mencionado) y Estructura a partir del Movimiento o SFM (véase, por ejemplo, T. Jebara, A. Pentland “3D structure from 2D motion", IEEE Signal Proc. Mag. Vol. 16 -1999).
Como en el caso del módulo 100 (y 100'), un módulo de pruebas 202 está asociado al módulo 200 y está destinado a comprobar -de una manera conocida-que la situación sea efectivamente una de un objeto tridimensional en movimiento (y no de un artefacto) después de lo cual activa un módulo de visión artificial SFM 204.
La técnica SFM es una técnica de visión informática mediante la cual, a partir del análisis del movimiento de un objeto rígido en una imagen bidimensional (2D), puede extraerse información acerca de su estructura y su movimiento en tres dimensiones (3D). Gracias a este procesamiento, el módulo 204 detecta la posición y la forma tridimensional del vehículo que comete la infracción en toda la zona y para todo el intervalo de tiempo de la infracción.
El resultado final es un suceso de tránsito (Suceso de Vehículo) 206 al que se asocia información relacionada con la cinemática y las dimensiones del vehículo.
En algunas aplicaciones, detectar instantáneamente la posición es particularmente importante. Por ejemplo, en caso de no parar cuando el semáforo está en rojo, detectar la posición instantánea permite comprobar la posición de la parte delantera del vehículo con respecto al semáforo en el instante en que cambia de amarillo a rojo.
La técnica SFM en tales contextos es particularmente eficaz ya que permite utilizar información relacionada con la rigidez de objetos y, por lo tanto, trata situaciones ambiguas en las que deben distinguirse diferentes objetos que se mueven en la escena con diferentes movimientos.
La técnica SFM se basa en la función de seguimiento automática de puntos salientes de un objeto (vehículo) y en la aplicación de límites de rigidez de movimiento en el mundo tridimensional, tal y como se muestra de manera esquemática en la figura 6 con la sobreimpresión de vectores de movimiento cuya longitud es proporcional a la velocidad detectada en el plano de la imagen y cuya dirección identifica la trayectoria de movimiento del vehículo. Son precisamente las diferentes longitudes de los vectores medidos en el plano de la imagen las que permiten deducir información acerca de la estructura 3D del objeto.
Por lo tanto, analizando el movimiento tridimensional de los objetos de la escena, es posible identificar objetos móviles individuales incluso en situaciones altamente complejas (como un cruce de varias direcciones diferentes) o en escenas en las que el movimiento de los vehículos está parcialmente oscurecido por el movimiento de la gente (por ejemplo en zonas reservadas a los peatones) y seleccionar solamente aquellos movimientos (y, por lo tanto, solamente aquellos vehículos) que son relevantes para la aplicación particular.
En aplicaciones que requieren un análisis dinámico del movimiento del vehículo a través de todo su tránsito, de manera similar a lo que se ha mencionado anteriormente con relación a que la cámara de vídeo 12 está flanqueada por la cámara de vídeo 12’, la cámara de vídeo 14 y sus módulos/funciones relacionados también pueden combinarse con una segunda cámara de vídeo en color 14’ separada de manera apropiada con respecto a la primera y configurada de igual manera con módulos 200’-204’ homólogos a los módulos 200-204.
El uso de la estereometría (véase, por ejemplo, el trabajo de O. Faugeras arriba mencionado) combinado con movimiento proporciona una caracterización absoluta del movimiento y de la forma del vehículo. Como ya se ha mencionado, el uso de la estereometría permite realizar mediciones métricas en las imágenes, con relación tanto a las cantidades dimensionales como a la cinemática. Sin embargo, en el caso en cuestión, debe mencionarse una peculiaridad adicional de la combinación entre el análisis de movimiento y el análisis estereométrico. En el análisis de movimiento con una única cámara de vídeo, para estimar el movimiento de un punto P entre dos instantes de tiempo t1 y t2, sólo hay dos imágenes disponibles y, por lo tanto, sólo puede evaluarse una posible correspondencia. Por lo tanto, no hay datos redundantes, de manera que no puede interceptarse un posible error en este nivel. En la disposición estereométrica, 4 pares de imágenes están disponibles para estimar el mismo movimiento, de manera que puede extraerse el mismo número de correspondencias independientes. Por lo tanto, la estimación es más robusta y, por ese motivo, debe confirmarse 4 veces para validarse. Además, teniendo imágenes disponibles de instantes sucesivos en el tiempo t3, t4, t5,..., la estimación puede hacerse incluso más robusta repitiendo la comprobación de validación.
Como ya se ha mencionado, la precisión de las mediciones depende de la rigidez de la disposición de las cámaras de vídeo 12 y 12’. Además, la disposición estereométrica se beneficia de la siguiente propiedad adicional: dado que los puntos correspondientes de los pares de imágenes estéreo respetan la limitación epipolar (véase el trabajo de O. Faugeras ya mencionado), cualquier pérdida de esta rigidez y, por lo tanto, el cambio de posición relativa entre la cámara de vídeo 12 y la cámara de vídeo 12' puede diagnosticarse automáticamente mediante la función de procesamiento de imágenes, detectando que no se ha respetado la limitación epipolar anterior en la correspondencia entre puntos de los pares de imágenes. Más en detalle, el cumplimiento de la limitación epipolar se pierde en el caso de rotación entre las cámaras de vídeo o traslación general, mientras que el cumplimiento no se pierde solamente en el caso de traslación a lo largo de la línea que une los centros de las imágenes. La estructura de la figura 7 está diseñada para que sea indeformable, en particular en lo que respecta a su longitud y, por lo tanto, la traslación entre las cámaras de vídeo es prácticamente nula, mientras que si está sometida a altos esfuerzos puede girar y variar en rotación. En conclusión, gracias a la comprobación epipolar, el sistema diagnostica por sí mismo cualquier cambio de posicionamiento. Esto proporciona una garantía acerca de la fiabilidad del sistema que no se encuentra técnicamente en todos los otros sistemas de medición de velocidad y, por lo tanto, hace que la calibración in situ del instrumento sea superflua.
La técnica SFM aquí ejemplificada funciona con imágenes en color en las que la matrícula no puede leerse con certeza. Por lo tanto, la técnica SFM – en sí misma en general sólo proporciona datos parciales para que un sistema detecte infracciones.
Las señales de las dos cámaras de vídeo 12 y 14 (y, si las hubiera, de la 12’ y 14’) se procesan en paralelo y de manera prácticamente independiente; hablar de "prácticamente" independiente pretende indicar el hecho que aunque la dos cadenas de procesamiento, que se aplican en las señales de las dos cámaras de vídeo 12 y 14, tienen diferentes modos de funcionamiento y persiguen diferentes objetivos, pueden intercambiar información entre sí durante el procesamiento para mejorar adicionalmente la eficacia de todo el proceso.
El intercambio de información entre los módulos puede producirse de una manera bidireccional. A modo de ejemplo no exclusivo, pueden mencionarse dos modalidades típicas:
1) el módulo LPR detecta una matrícula en una determinada posición en la imagen IR y, en consecuencia, el módulo SFM activa la generación de un posible vehículo en la posición correspondiente en la imagen en color. 2) el módulo SFM detecta la presencia de un objeto en movimiento en una determinada posición en la imagen en color y, en consecuencia, el módulo LPR genera una ventana de atención en la posición correspondiente en la imagen IR.
De esta manera, los dos módulos también pueden actuar de manera conjunta, manteniendo en buenas condiciones su capacidad independiente de procesar datos de vídeo relevantes.
Un módulo de supervisión 300 asocia los datos de las dos operaciones de procesamiento en los instantes y en las imágenes en que el vehículo está presente, utilizando además normalmente información relativa a los ciclos de funcionamiento del semáforo S proporcionada por el sensor P.
El procesamiento de lectura y seguimiento de matrículas en la señal de vídeo de la cámara de vídeo 12 garantiza que se detecte el tránsito de un vehículo V en todas las condiciones de iluminación. Además, distingue un vehículo de cualquier otro objeto que no tenga una matrícula, eliminando casos de detección defectuosa de vehículos con remolques, de filas próximas de vehículos, de gente paseando a pie o en bicicleta, o cualquier otro movimiento o variación en la luminancia de la escena.
El procesamiento (por ejemplo SFM) de la señal de la cámara de vídeo 14 permite realizar el seguimiento del tránsito de un vehículo en todas las condiciones de iluminación a través de su ruta y proporciona la reconstrucción tridimensional e imágenes en color del propio vehículo, verificando por tanto de manera eficaz y completamente automática la infracción efectiva y describiendo la cinemática del vehículo, si fuera necesario.
El módulo supervisor 300 utiliza los datos parciales de las dos operaciones de procesamiento y proporciona información completa acerca de la identidad del vehículo (matrícula), el tipo de vehículo (forma 3D e imagen en color) y la dinámica de la infracción (trayectoria del vehículo términos de espacio-tiempo).
Esta operación de fusión de datos relacionada con los dos tipos de tránsito detectados de manera independiente, realizada en un módulo 302, es particularmente interesante puesto que la asociación de datos a partir de capturas de imágenes individuales permite combinar las características de resolución y de legibilidad de la imagen IR de campo estrecho (cámara de vídeo 12) con la vista panorámica gráficamente significativa de las capturas de imágenes en color de campo amplio (vídeo cámara 14).
Esta asociación es posible en este caso gracias a la capacidad de las técnicas de visión 3D de relacionar observaciones del mismo suceso realizadas en imágenes con diferentes características.
La asociación se basa en el hecho de se conocen las dos posiciones diferentes de las cámaras y, por lo tanto, es posible establecer de una manera absolutamente unívoca si dos movimientos observados a través de las cámaras de vídeo 12 y 14 corresponden o no al mismo movimiento tridimensional. La ley de correspondencia, ejemplificada mediante una transformación matemática entre las coordenadas de las dos imágenes (véase de nuevo en este caso el trabajo ya mencionado de R. Hartley, "Multiple View Geometry in Computer Vision”), se determina de una vez por todas durante la calibración.
En caso de que haya información estereométrica disponible acerca de la velocidad instantánea y/o de la dinámica del vehículo, el módulo supervisor 300 lleva a cabo directamente su integración, mejorando obviamente la precisión de los datos proporcionados.
El número de imágenes que documentan la infracción no está limitado por la tecnología, como en el caso de cámaras, sino que se define libremente en función de la necesidad real de documentar la infracción.
En particular, el módulo supervisor 300 es capaz de seleccionar un número adecuado de imágenes que documenten la infracción. El número de fotografías aportadas por las dos cámaras de vídeo 12, 14 es muy elevado y, por lo tanto, es muy amplio con respecto a los fines de documentación requeridos para la mayoría de aplicaciones.
Por este motivo, el módulo supervisor 300 submuestrea las secuencias de imágenes con una frecuencia inversamente proporcional a la velocidad de tránsito del vehículo, de manera que el número de imágenes que documentan la infracción es constante e independiente del tiempo de tránsito a través del área controlada.
El módulo 304 sobreimprime en las imágenes una cadena alfanumérica con datos relacionados con la ubicación y el instante de la captura, y un módulo 306 comprime las imágenes con tecnología conocida (por ejemplo, JPEG).
Para cada infracción detectada, el sistema crea así un registro de datos específico, completándolo con toda la información extraída automáticamente, cifrando si se desea el registro por motivos de seguridad.
Un módulo 308 almacena localmente y/o transfiere los registros así creados a un archivo 400 situado en la unidad de control 18.
Todas las funciones descritas pueden implementarse de manera eficaz según criterios conocidos y son capaces de procesar las imágenes en tiempo real. Gracias a esta característica, el sistema procesa las imágenes y puede decidir instantáneamente si almacenarlas o cancelarlas.
Por lo tanto, el archivo masivo 400 del sistema puede tener un tamaño suficiente para documentar las infracciones sin almacenar todos los datos proporcionados por las unidades de captura de imágenes 12, 14 en su totalidad.
El principal objetivo de la unidad central 18 es el de recibir los registros relacionados con los tránsitos infractores que, se reciben en el centro de control y se recopilan en el archivo 400. Está dotada de un módulo con una interfaz hombre-máquina 402 asociada a un módulo 404 que permite descifrar los datos para que el operador pueda tratarlos apropiadamente.
Gracias a la lectura automática de la matrícula, la unidad central 18 puede buscar de manera completamente automática la identidad del propietario del vehículo (módulo 406) sin la intervención del operador.
En general, las posibles aplicaciones del sistema son numerosas y algunas de ellas pueden requerir simple integración de la configuración básica,
como se describe a continuación. Por ejemplo:
-detectar en tiempo real que un vehículo no se detiene cuando el semáforo está en rojo, gracias a la integración del sensor P que interactúa con el semáforo y detecta en tiempo real la fase del semáforo presente en ese momento y activa el sistema;
-superar el límite de velocidad, gracias al uso de una segunda cámara de vídeo (12’) y a técnicas estereométricas digitales que calculan la velocidad del vehículo con alta precisión;
-adelantar donde no está permitido, con la utilización adicional, si fuera necesario, de cámaras de vídeo en color (14') que detectan y documentan toda la trayectoria si ésta es más larga que la observada por una única cámara de vídeo;
-tránsito de vehículos de una categoría de tamaño que no está permitida, gracias al control dimensional de vehículos conseguido a través de los datos SFM o de aquellos sensores externos (por ejemplo, peso en sensores de movimiento, WIM);
-tránsito no permitido por otro tipo de detector, por ejemplo etiquetas RFID, gracias a la integración con un sistema de radiofrecuencia para detectar accesos;
-acceso a una zona de tráfico limitada, gracias al análisis de movimiento y, por lo tanto, a la determinación de la dirección en la que se está desplazando el vehículo;
-conducción por el lado equivocado de la carretera y otros comportamientos anormales o de algún modo peligrosos.
Por lo tanto, sin perjudicar al principio subyacente de la invención, los detalles y los modos de realización pueden variar en gran medida con respecto a lo que se ha descrito e ilustrado, sin alejarse del alcance de la presente invención como definida por las reivindicaciones adjuntas.

Claims (15)

1. Un sistema para detectar el tránsito de vehículos (V) con matrículas (T), comprendiendo el sistema:
-al menos una cámara de vídeo (12) para detectar matrículas capaz de encuadrar la matrícula de dichos vehículos y generar una señal de vídeo correspondiente,
-una cadena de módulos de procesamiento (100-106) sensible a dicha señal de vídeo para llevar a cabo un procesamiento de reconocimiento de matrícula en dicha señal de vídeo;
-al menos una cámara de vídeo adicional (14) para detectar vehículos capaz de encuadrar una zona (C) de tránsito de dichos vehículos (V) con matrículas y generar una señal de vídeo correspondiente respectiva, y
-una cadena respectiva de módulos de procesamiento (200-206) sensible a la señal de vídeo generada por la cámara de vídeo adicional (14) para llevar a cabo en dicha señal de vídeo respectiva un procesamiento de seguimiento de vehículos para detectar la posición y la forma tridimensional de vehículos que transitan en dicha zona, caracterizado porque dicha cadena de módulos de procesamiento (100-106) incluye un módulo de pruebas (102) para detectar la presencia de un vehículo (V) en transito llevando a cabo una prueba que verifica si una imagen de una matrícula persiste en una serie de imágenes (T1,..., Tn) de la señal de vídeo generada por la cámara de vídeo (12), y un módulo de seguimiento de matrículas (104) que se activa mediante dicho módulo de pruebas (102) cuando dicha prueba tiene un resultado positivo, donde el sistema incluye un módulo supervisor (300) que agrega los resultados de dichos módulos de procesamiento de reconocimiento de matrículas (100-106) y de dichos módulos de procesamiento de seguimiento de vehículos (200-206) para generar registros de información (304), identificando cada uno la modalidad de tránsito en dicha zona (C) de un vehículo (V) identificado mediante una matrícula dada sometida a seguimiento y reconocida por dicha cadena de procesamiento (100-106).
2.
Sistema según la reivindicación 1, caracterizado porque dicha cámara de vídeo (12) para detectar matrículas y dicha cámara de vídeo (14) para detectar vehículos están incluidas en un único dispositivo de cámaras de vídeo de detección.
3.
Sistema según la reivindicación 1, caracterizado porque dicha cámara de vídeo (12) para detectar matrículas y dicha cámara de vídeo (14) para detectar vehículos son dispositivos distintos.
4.
Sistema según la reivindicación 1, caracterizado porque dicha cámara de vídeo (12) para detectar matrículas funciona en el espectro infrarrojo.
5.
Sistema según la reivindicación 1, caracterizado porque dicha cámara de vídeo (12) para detectar matrículas está equipada con una lente de campo estrecho.
6.
Sistema según la reivindicación 1, caracterizado porque dicha cámara de vídeo (14) para detectar vehículos es una lente de campo amplio que encuadra toda dicha zona (C) de tránsito de dichos vehículos (V) con matrículas.
7.
Sistema según cualquiera de las reivindicaciones 1 ó 6, caracterizado porque dicha cámara de vídeo (14) para detectar vehículos es una cámara de vídeo en color, con la consiguiente posibilidad de detectar el estado de al menos una luz de los semáforos (S) adyacentes.
8.
Sistema según cualquiera de las reivindicaciones anteriores, caracterizado porque dicha cámara de vídeo (12) para detectar matrículas y/o dicha cámara de vídeo (14) para detectar vehículos
generan señales de vídeo dotadas de una marca de fecha/hora que identifica el instante en que fueron registradas.
9.
Sistema según cualquiera de las reivindicaciones anteriores, caracterizado porque:
-dicha cámara de vídeo (12) para detectar matrículas está acoplada a una cámara de vídeo homóloga (12') para detectar matrículas para generar una señal de vídeo homóloga correspondiente, y
-dicha cadena de procesamiento (100-106; 100’-106’) es sensible a dicha señal de vídeo y a dicha señal de vídeo homóloga para llevar a cabo en dicha señal de vídeo y en dicha señal de vídeo homóloga un procesamiento estereométrico para determinar la velocidad de dicho vehículo (V) en tránsito.
10.
Sistema según la reivindicación 1, caracterizado porque dicha cadena respectiva de procesamiento (200-206) sensible a dicha señal de vídeo respectiva está configurada para llevar a cabo en dicha señal de vídeo respectiva un procesamiento de tipo SFM o “Structure From Motion”.
11.
Sistema según la reivindicación 1, caracterizado porque:
-dicha cámara de vídeo (14) para detectar vehículos está acoplada a una cámara de vídeo homóloga (14') para detectar vehículos y para generar una señal de vídeo homóloga respectiva, y
-dicha cadena respectiva de procesamiento (200-206; 200’-206’) es sensible a dicha señal de vídeo respectiva y a dicha señal de vídeo homóloga respectiva para llevar a cabo un procesamiento estereométrico en dicha señal de vídeo respectiva y en dicha señal de vídeo homóloga respectiva para proporcionar una caracterización absoluta del movimiento y de la forma de dicho vehículo (V) en tránsito.
12.
Sistema según la reivindicación 1, caracterizado porque dicho módulo supervisor (300) está configurado para sobreimprimir en las imágenes de dichos vehículos en tránsito (V) una representación vectorial con líneas cuya longitud es proporcional a la velocidad detectada y cuya dirección identifica la trayectoria de movimiento del vehículo.
13.
Sistema según cualquiera de las reivindicaciones anteriores, caracterizado porque dicha al menos una cámara de vídeo de detección (12, 12') está fijada a un soporte (1000), preferentemente a través de separadores de material elástico, y está protegida por una carcasa (1200) sin estar fijada a dicha carcasa (1200).
14.
Sistema según cualquiera de las reivindicaciones anteriores, caracterizado porque incluye un par de cámaras de vídeo de detección (12, 12’), siendo dicha cadena de procesamiento (100-106) capaz de detectar automáticamente cambios en la posición relativa entre las cámaras de vídeo (12, 12’) de dicho par.
15.
Sistema según la reivindicación 14, caracterizado porque dicha cadena de procesamiento (100-106) está configurada para detectar automáticamente cambios en la posición relativa entre las cámaras de vídeo (12, 12’) de dicho par detectando la imposibilidad de cumplir con una limitación epipolar en la correspondencia entre puntos en los pares respectivos de imágenes.
ES07713141T 2006-03-22 2007-03-19 Sistema para detectar vehículos Active ES2352300T5 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ITTO06A0214 2006-03-22
IT000214A ITTO20060214A1 (it) 2006-03-22 2006-03-22 Sistema di rilevamento di veicoli
PCT/IB2007/000761 WO2007107875A2 (en) 2006-03-22 2007-03-19 A system for detecting vehicles

Publications (2)

Publication Number Publication Date
ES2352300T3 true ES2352300T3 (es) 2011-02-17
ES2352300T5 ES2352300T5 (es) 2023-06-09

Family

ID=38522807

Family Applications (1)

Application Number Title Priority Date Filing Date
ES07713141T Active ES2352300T5 (es) 2006-03-22 2007-03-19 Sistema para detectar vehículos

Country Status (7)

Country Link
US (1) US7982634B2 (es)
EP (1) EP1997090B2 (es)
AT (1) ATE480847T1 (es)
DE (1) DE602007009064D1 (es)
ES (1) ES2352300T5 (es)
IT (1) ITTO20060214A1 (es)
WO (1) WO2007107875A2 (es)

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008154737A1 (en) 2007-06-18 2008-12-24 Leddartech Inc. Lighting system with traffic management capabilities
US8242476B2 (en) 2005-12-19 2012-08-14 Leddartech Inc. LED object detection system and method combining complete reflection traces from individual narrow field-of-view channels
US8300887B2 (en) * 2007-05-10 2012-10-30 Honda Motor Co., Ltd. Object detection apparatus, object detection method and object detection program
US8600656B2 (en) 2007-06-18 2013-12-03 Leddartech Inc. Lighting system with driver assistance capabilities
US7920251B2 (en) * 2007-09-24 2011-04-05 Laser Technology, Inc. Integrated still image, motion video and speed measurement system
EP2048515B1 (de) * 2007-10-11 2012-08-01 JENOPTIK Robot GmbH Verfahren zur Erfassung und Dokumentation von Verkehrsverstössen an einer Verkehrsampel
DE102007058742A1 (de) * 2007-12-03 2009-06-04 Robot Visual Systems Gmbh Verfahren und Vorrichtung zum differenzierten Erfassen von Verkehrsverstößen in einem ampelgesteuerten Sperrbereich
DE102007059346B4 (de) * 2007-12-10 2009-11-19 Siemens Ag Verfahren und Vorrichtung zur Erfassung einer Geschwindigkeitsübertretung eines Fahrzeugs
WO2009079789A1 (en) 2007-12-21 2009-07-02 Leddartech Inc. Detection and ranging methods and systems
KR100950465B1 (ko) * 2007-12-21 2010-03-31 손승남 차량출입통제 시스템을 위한 카메라 제어방법
EP2232462B1 (en) 2007-12-21 2015-12-16 Leddartech Inc. Parking management system and method using lighting system
US20090167863A1 (en) * 2007-12-31 2009-07-02 Jones Jr William Ralph Blackbody radiation referenced image capture of a moving object having transient light interference
US20090195651A1 (en) * 2008-01-31 2009-08-06 Leonard Robert C Method of providing safety enforcement for school buses
US8390685B2 (en) * 2008-02-06 2013-03-05 International Business Machines Corporation Virtual fence
US8345097B2 (en) * 2008-02-15 2013-01-01 Harris Corporation Hybrid remote digital recording and acquisition system
JP4561863B2 (ja) * 2008-04-07 2010-10-13 トヨタ自動車株式会社 移動体進路推定装置
US8509571B2 (en) * 2008-06-11 2013-08-13 Panasonic Corporation Pattern recognition apparatus, pattern recognition method, image processing apparatus, and image processing method
DE202008009834U1 (de) * 2008-07-22 2009-12-10 Liebherr-Elektronik Gmbh Kamera zum Einsatz in einem digitalen Netzwerk
AT507457B1 (de) 2008-11-14 2011-01-15 Smartspector Artificial Perception Engineering Gmbh Verfahren zur automatischen feststellung des anhaltens von kraftfahrzeugen
DE102008061995A1 (de) * 2008-12-12 2010-06-17 Siemens Aktiengesellschaft Anordnung und Verfahren zur Anzeige einer Meldung an einen Straßenverkehrsteilnehmer
DE102009000550B4 (de) * 2009-02-02 2018-10-04 Ford Global Technologies, Llc Weitwinkelbildgebungssystem für die Bereitstellung eines Bildes der Umgebung eines Fahrzeugs, insbesondere eines Kraftfahrzeugs
EP2478464B1 (en) * 2009-09-14 2019-05-08 VIION Systems Inc. Saccadic dual-resolution video analytics camera
WO2011078845A1 (en) * 2009-12-21 2011-06-30 F3M3 Companies, Inc. System and method for monitoring road traffic
CN102959599B (zh) 2009-12-22 2015-07-15 莱达科技股份有限公司 用于交通检测的主动3d监控系统
EP2535881B1 (en) * 2010-02-08 2015-10-28 Obshchestvo s ogranichennoj otvetstvennost'ju "Korporazija "Stroy Invest Proekt M" Method and device for determining the speed of travel and coordinates of vehicles and subsequently identifying same and automatically recording road traffic offences
US8993964B2 (en) * 2010-03-09 2015-03-31 Chemimage Technologies Llc System and method for detecting contaminants in a sample using near-infrared spectroscopy
US11657606B2 (en) * 2010-03-16 2023-05-23 OMNIQ Corp. Dynamic image capture and processing
US8704889B2 (en) * 2010-03-16 2014-04-22 Hi-Tech Solutions Ltd. Method and apparatus for acquiring images of car license plates
CA2794728A1 (en) 2010-06-16 2011-12-22 Ndi Technologies, Inc. Usb video interface for alpr cameras and associated method
RU2419884C1 (ru) * 2010-07-20 2011-05-27 Общество С Ограниченной Ответственностью "Технологии Распознавания" Способ определения скорости транспортного средства
US9280895B2 (en) * 2010-08-21 2016-03-08 American Traffic Solutions, Inc. System and method for detecting traffic violations on restricted roadways
US9881432B2 (en) 2010-10-18 2018-01-30 Zonar Systems, Inc. Method and apparatus for an automated fuel authorization program for fuel terminals using a camera as part of the authorization process
US9856129B2 (en) 2010-10-18 2018-01-02 Zonar Systems, Inc. Method and apparatus for automatically monitoring fuel tank ullage in an automated fuel authorization program
US10996073B2 (en) * 2010-12-02 2021-05-04 Telenav, Inc. Navigation system with abrupt maneuver monitoring mechanism and method of operation thereof
TWI425454B (zh) * 2010-12-28 2014-02-01 Ind Tech Res Inst 行車路徑重建方法、系統及電腦程式產品
GB2501648C2 (en) * 2011-01-12 2018-09-26 Videonetics Tech Private Limited An integrated intelligent server based system and systems adapted to facilitate fail-safe integration and/or optimised utilisation of various sensory inputs
TWI475524B (zh) * 2011-04-15 2015-03-01 Hon Hai Prec Ind Co Ltd 利用影像偵測違規車輛的系統及方法
US8908159B2 (en) 2011-05-11 2014-12-09 Leddartech Inc. Multiple-field-of-view scannerless optical rangefinder in high ambient background light
US9378640B2 (en) 2011-06-17 2016-06-28 Leddartech Inc. System and method for traffic side detection and characterization
US8704682B1 (en) * 2011-06-29 2014-04-22 Google Inc. Object detection to determine road priority
DE102011053052B3 (de) 2011-08-26 2013-02-28 Jenoptik Robot Gmbh Verfahren und Vorrichtung zur Identifikation von Kraftfahrzeugen zur Verkehrsüberwachung
ES2456703T3 (es) * 2011-08-30 2014-04-23 Kapsch Trafficcom Ag Dispositivo y método para detectar placas de matrícula de vehículos
CN102509490A (zh) * 2011-10-13 2012-06-20 北京工业大学 模块化设计的交通信息视频采集实验教学方法
US10018703B2 (en) * 2012-09-13 2018-07-10 Conduent Business Services, Llc Method for stop sign law enforcement using motion vectors in video streams
RU2480841C1 (ru) * 2011-11-02 2013-04-27 Общество с ограниченной ответственностью "Вокорд СофтЛаб" Способ регистрации нарушений правил дорожного движения
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
WO2013128427A1 (en) 2012-03-02 2013-09-06 Leddartech Inc. System and method for multipurpose traffic detection and characterization
FR2992088B1 (fr) * 2012-06-18 2014-06-27 Morpho Regroupement de donnees attachees a des images
US9471838B2 (en) 2012-09-05 2016-10-18 Motorola Solutions, Inc. Method, apparatus and system for performing facial recognition
CN103794048A (zh) * 2012-11-02 2014-05-14 上海宝康电子控制工程有限公司 高清视频检测卡口兼电子警察系统及其使用方法
DE102012113009A1 (de) 2012-12-21 2014-06-26 Jenoptik Robot Gmbh Verfahren zum automatischen Klassifizieren von sich bewegenden Fahrzeugen
WO2014101970A1 (en) * 2012-12-31 2014-07-03 Instytut Badawczy Drog I Mostow A method for vehicle identification and a system for vehicle identification
US9436877B2 (en) 2013-04-19 2016-09-06 Polaris Sensor Technologies, Inc. Pedestrian right of way monitoring and reporting system and method
US9185402B2 (en) 2013-04-23 2015-11-10 Xerox Corporation Traffic camera calibration update utilizing scene analysis
DE102013104411B3 (de) * 2013-04-30 2014-07-31 Jenoptik Robot Gmbh Verfahren zum Erfassen und Dokumentieren der Geschwindigkeiten mehrerer Fahrzeuge in einem Bilddokument
MA36097B1 (fr) * 2013-07-08 2016-01-29 Mascir Morrocan Foundation For Advanced Science Innovation & Res Système mono-caméra d'estimation de vitesse de véhicule par traitement vidéo avec calibration multi-caméra par effet stéréoscopique
JP6431271B2 (ja) * 2014-04-01 2018-11-28 三菱プレシジョン株式会社 車両検知及び車両番号認識装置
FR3020490B1 (fr) * 2014-04-24 2019-04-12 Morpho Systeme de localisation d'un meme vehicule dans plusieurs zones differentes les unes des autres dans lesquelles ledit vehicule passe consecutivement
US9589202B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for receiving an insurance quote from an image
US9779318B1 (en) * 2014-06-27 2017-10-03 Blinker, Inc. Method and apparatus for verifying vehicle ownership from an image
US10540564B2 (en) 2014-06-27 2020-01-21 Blinker, Inc. Method and apparatus for identifying vehicle information from an image
US9594971B1 (en) 2014-06-27 2017-03-14 Blinker, Inc. Method and apparatus for receiving listings of similar vehicles from an image
US10867327B1 (en) 2014-06-27 2020-12-15 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US10579892B1 (en) 2014-06-27 2020-03-03 Blinker, Inc. Method and apparatus for recovering license plate information from an image
US9754171B1 (en) 2014-06-27 2017-09-05 Blinker, Inc. Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website
US10515285B2 (en) 2014-06-27 2019-12-24 Blinker, Inc. Method and apparatus for blocking information from an image
US9818154B1 (en) 2014-06-27 2017-11-14 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9607236B1 (en) 2014-06-27 2017-03-28 Blinker, Inc. Method and apparatus for providing loan verification from an image
US10572758B1 (en) 2014-06-27 2020-02-25 Blinker, Inc. Method and apparatus for receiving a financing offer from an image
US10733471B1 (en) 2014-06-27 2020-08-04 Blinker, Inc. Method and apparatus for receiving recall information from an image
US9600733B1 (en) 2014-06-27 2017-03-21 Blinker, Inc. Method and apparatus for receiving car parts data from an image
US9563814B1 (en) 2014-06-27 2017-02-07 Blinker, Inc. Method and apparatus for recovering a vehicle identification number from an image
US9589201B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for recovering a vehicle value from an image
US9760776B1 (en) 2014-06-27 2017-09-12 Blinker, Inc. Method and apparatus for obtaining a vehicle history report from an image
US9558419B1 (en) 2014-06-27 2017-01-31 Blinker, Inc. Method and apparatus for receiving a location of a vehicle service center from an image
US9892337B1 (en) 2014-06-27 2018-02-13 Blinker, Inc. Method and apparatus for receiving a refinancing offer from an image
US9773184B1 (en) 2014-06-27 2017-09-26 Blinker, Inc. Method and apparatus for receiving a broadcast radio service offer from an image
WO2016038536A1 (en) 2014-09-09 2016-03-17 Leddartech Inc. Discretization of detection zone
CN104200671B8 (zh) * 2014-09-09 2016-06-22 安徽四创电子股份有限公司 一种基于大数据平台的虚拟卡口管理方法及系统
KR102263731B1 (ko) 2014-11-11 2021-06-11 현대모비스 주식회사 주변차량의 위치정보 보정 시스템 및 방법
JP6479194B2 (ja) * 2015-08-24 2019-03-06 シャープ株式会社 受信装置、放送システム、受信方法、及びプログラム
US10706330B2 (en) * 2015-10-01 2020-07-07 Intellivision Technologies Corp Methods and systems for accurately recognizing vehicle license plates
US11587327B2 (en) 2015-10-01 2023-02-21 Intellivision Technologies Corp Methods and systems for accurately recognizing vehicle license plates
US9533688B1 (en) * 2015-12-29 2017-01-03 Thunder Power Hong Kong Ltd. Platform for acquiring driver behavior data
US9905131B2 (en) * 2015-12-29 2018-02-27 Thunder Power New Energy Vehicle Development Company Limited Onboard vehicle notification system
US9940530B2 (en) 2015-12-29 2018-04-10 Thunder Power New Energy Vehicle Development Company Limited Platform for acquiring driver behavior data
JP6668895B2 (ja) * 2016-04-01 2020-03-18 株式会社デンソー 走行支援装置
US10476963B2 (en) 2016-05-09 2019-11-12 Honda Motor Co., Ltd. System and method for contacting vehicle for tandem parking
ITUA20164219A1 (it) * 2016-06-09 2017-12-09 Kria S R L Procedimento e sistema per la rilevazione di traffico veicolare, corrispondente prodotto informatico
WO2018024320A1 (en) * 2016-08-02 2018-02-08 Bayerische Motoren Werke Aktiengesellschaft A method for learning an illumination-pattern of a monitored automobile and a respective automobile
WO2018049514A1 (en) 2016-09-13 2018-03-22 Genetec Inc. Auto-calibration of tracking systems
DE102016221521A1 (de) 2016-11-03 2018-05-03 Jenoptik Robot Gmbh Verfahren zum Maskieren von Informationen in einem von einer Verkehrsüberwachungseinrichtung aufgenommenen Bild eines Objekts
US10691968B2 (en) 2018-02-08 2020-06-23 Genetec Inc. Systems and methods for locating a retroreflective object in a digital image
RU190140U1 (ru) * 2018-06-22 2019-06-21 Общество с ограниченной ответственностью "СТИЛСОФТ" Система фото-, видеофиксации нарушений правил дорожного движения
SG11202100520RA (en) 2018-07-19 2021-02-25 Acusensus Ip Pty Ltd Infringement detection method, device and system
RU190491U1 (ru) * 2019-03-22 2019-07-02 Общество с ограниченной ответственностью "СТИЛСОФТ" Передвижная система фото-, видеофиксации нарушений правил дорожного движения
EP4022590A4 (en) * 2019-10-26 2022-12-28 Genetec Inc. AUTOMATED LICENSE PLATE RECOGNITION SYSTEM AND ASSOCIATED METHOD
US11368991B2 (en) 2020-06-16 2022-06-21 At&T Intellectual Property I, L.P. Facilitation of prioritization of accessibility of media
US11233979B2 (en) 2020-06-18 2022-01-25 At&T Intellectual Property I, L.P. Facilitation of collaborative monitoring of an event
US11037443B1 (en) 2020-06-26 2021-06-15 At&T Intellectual Property I, L.P. Facilitation of collaborative vehicle warnings
US11411757B2 (en) 2020-06-26 2022-08-09 At&T Intellectual Property I, L.P. Facilitation of predictive assisted access to content
US11184517B1 (en) 2020-06-26 2021-11-23 At&T Intellectual Property I, L.P. Facilitation of collaborative camera field of view mapping
US11356349B2 (en) 2020-07-17 2022-06-07 At&T Intellectual Property I, L.P. Adaptive resource allocation to facilitate device mobility and management of uncertainty in communications
US11768082B2 (en) 2020-07-20 2023-09-26 At&T Intellectual Property I, L.P. Facilitation of predictive simulation of planned environment

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69330513D1 (de) 1992-03-20 2001-09-06 Commw Scient Ind Res Org Gegenstands-überwachungsystem
GB2266398A (en) 1992-04-16 1993-10-27 Traffic Technology Limited Vehicle monitoring apparatus
SE502679C2 (sv) 1993-05-28 1995-12-04 Saab Scania Combitech Ab Förfarande och anordning för registrering av ett fordons förflyttning på ett underlag
EP0674293A3 (en) * 1994-03-24 1998-12-30 Omron Corporation A vehicle camera system
DE4446642A1 (de) 1994-12-19 1996-06-20 Teledrive Telematik Im Verkehr Vorrichtung zur automatischen Kontrolle des Zuganges von Fahrzeugen zu einem Verkehrsraum
DE69624980T2 (de) * 1995-05-18 2003-07-17 Omron Tateisi Electronics Co Objektüberwachungsverfahren und -gerät mit zwei oder mehreren Kameras
CA2305390A1 (en) * 1996-10-28 1998-05-07 John B. Moetteli Traffic law enforcement system having decoy units
AU2027500A (en) 1998-11-23 2000-06-13 Nestor, Inc. Non-violation event filtering for a traffic light violation detection system
US6690294B1 (en) * 2001-07-10 2004-02-10 William E. Zierden System and method for detecting and identifying traffic law violators and issuing citations
US6970102B2 (en) * 2003-05-05 2005-11-29 Transol Pty Ltd Traffic violation detection, recording and evidence processing system
FR2867594B1 (fr) * 2003-12-10 2006-05-26 Sagem Procede et systeme d'identification d'un vehicule en deplacement

Also Published As

Publication number Publication date
WO2007107875A3 (en) 2008-01-17
EP1997090A2 (en) 2008-12-03
ITTO20060214A1 (it) 2007-09-23
EP1997090B1 (en) 2010-09-08
US7982634B2 (en) 2011-07-19
ATE480847T1 (de) 2010-09-15
US20090207046A1 (en) 2009-08-20
ES2352300T5 (es) 2023-06-09
WO2007107875A2 (en) 2007-09-27
DE602007009064D1 (de) 2010-10-21
EP1997090B2 (en) 2022-11-30

Similar Documents

Publication Publication Date Title
ES2352300T3 (es) Sistema para detectar vehículos.
CN102447911B (zh) 图像获取单元、其方法以及相关控制单元
ES2637173T3 (es) Sistema de visión para vehículos, en particular vehículos comerciales
US20110234749A1 (en) System and method for detecting and recording traffic law violation events
ES2330499B1 (es) Procedimiento y sistema de deteccion de objetos en movimiento.
US11501541B2 (en) Imaging systems for facial detection, license plate reading, vehicle overview and vehicle make, model and color detection
EP3150961B1 (en) Stereo camera device and vehicle provided with stereo camera device
US8731245B2 (en) Multiple view transportation imaging systems
CA3112113A1 (en) System and method for multipurpose traffic detection and characterization
ES2628895T3 (es) Dispositivo y procedimiento para identificar y documentar al menos un objeto que recorre un campo de radiación
ES2616361T3 (es) Método de calibración de un sistema de vigilancia de carretera
JP2006190198A (ja) ポータブル型車両番号認識装置およびポータブル型車両番号認識装置による車両番号認識方法
CN103370224A (zh) 具有用于监控车辆周边环境的装置的车辆
KR20200059755A (ko) 라이다 센서 검증시험 모의장치
KR101210615B1 (ko) 불법유턴 차량 단속 시스템
WO2023028714A1 (en) Vehicle occupancy detection system
RU120270U1 (ru) Комплекс контроля проезда пешеходных переходов
RU164432U1 (ru) Устройство автоматической фотовидеофиксации нарушений не предоставления преимущества пешеходу на нерегулируемом пешеходном переходе
Murray et al. Mobile mapping system for the automated detection and analysis of road delineation
US20200128188A1 (en) Image pickup device and image pickup system
RU2539676C2 (ru) Комплекс видеофиксации и измерения скорости движения и координат транспортных средств
ES2233793T3 (es) Sistema para la supervision y control de la velocidad media de vehiculos en circulacion, y para la inspeccion del trafico en carreteras y autopistas.
KR101057837B1 (ko) 레이저를 이용한 도로 방범 및 교통단속 시스템
KR101570485B1 (ko) 카메라 사각지역의 불법 주정차 단속 시스템
ES2441548T3 (es) Sistema y método para la vigilancia y la captura de infracciones de tráfico potenciales