ES2628895T3 - Dispositivo y procedimiento para identificar y documentar al menos un objeto que recorre un campo de radiación - Google Patents
Dispositivo y procedimiento para identificar y documentar al menos un objeto que recorre un campo de radiación Download PDFInfo
- Publication number
- ES2628895T3 ES2628895T3 ES13176747.7T ES13176747T ES2628895T3 ES 2628895 T3 ES2628895 T3 ES 2628895T3 ES 13176747 T ES13176747 T ES 13176747T ES 2628895 T3 ES2628895 T3 ES 2628895T3
- Authority
- ES
- Spain
- Prior art keywords
- measurement
- sensor
- camera
- data
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/91—Radar or analogous systems specially adapted for specific applications for traffic control
- G01S13/92—Radar or analogous systems specially adapted for specific applications for traffic control for velocity measurement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Studio Devices (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
- Image Analysis (AREA)
Abstract
Dispositivo para identificar y documentar al menos un objeto (8) que recorre un campo de medida (5), cuyo dispositivo incluye un sensor (1) con un emisor (1.2) para emitir una radiación de medida hacia un campo de radiación de sensor (1.4) que cubre un campo de medida (5) y con una unidad de receptor (1.3) para recibir porciones de la radiación de medida reflejadas en al menos un objeto (8) para formar datos de medida, una primera cámara (2) y una segunda cámara (3) están dispuestas con una distancia base (10) entre ellas y que suministran respectivos datos de imagen, así como una unidad de ordenador (6) para procesar los datos de medida y los datos de imagen, caracterizado por que las dos cámaras (2), (3) están dispuestas una con respecto a otra y con respecto al sensor (1) con relaciones de situación conocidas entre ellas de modo que sus campos de objeto (2.3), (3.3) se solapan con el campo de radiación de sensor (1.4) y la zona de solapamiento así formada determina el campo de medida (5), por que la primera cámara (2) presenta un poder de resolución más alto que el de la segunda cámara (3), por que la unidad de ordenador (6) está configurada de modo que puede obtener datos de posición de sensor a partir de datos de medida obtenidos en varios instantes de medida dentro de un periodo de medida y puede almacenar estos datos en forma asociada a los instantes de medida, por que la unidad de ordenador (6) está configurada de modo que ésta, a partir de los datos de imagen de las dos cámaras (2), (3) obtenidos en al menos un mismo instante de disparo, y en conocimiento de los parámetros de las cámaras y de la disposición espacial de las dos cámaras (2), (3), puede calcular por un procedimiento de reconocimiento de imagen, empleando la distancia base (10), unos datos de posición de cámara del al menos un objeto (8) y puede almacenar estos datos en forma asociada al al menos un instante de disparo, y por que la unidad de ordenador (6) está configurada de modo que ésta, teniendo en cuenta las relaciones de situación y la correlación temporal entre el al menos un instante de disparo y los instantes de medida, puede comparar los datos de posición de sensor y los datos de posición de cámara unos con o otros y puede comprobar la plausibilidad de los mismos.
Description
5
10
15
20
25
30
35
40
45
50
55
DESCRIPCION
Dispositivo y procedimiento para identificar y documentar al menos un objeto que recorre un campo de radiacion.
La invencion concierne a un dispositivo y un procedimiento para identificar y documentar al menos un objeto que recorre un campo de radiacion de sensor, tal como es conocido de manera generica por el documento EP 2 284 568 A2.
Se conocen por el estado de la tecnica diferentes enfoques para identificar y documentar objetos, tal como estos se utilizan especialmente en el sector de la vigilancia del trafico. Pueden surgir en este caso dificultades debido especialmente a que pueden encontrarse al mismo tiempo en el campo de radiacion varios objetos que no pueden ser identificados con seguridad a consecuencia de una determinacion de posicion inexacta o de reflexiones de rayos acodados.
Para tener en cuenta las circunstancias variables en la vigilancia de objetos en reposo y en movimiento se ha propuesto en el documento EP 2 284 568 A2 un sistema de captacion de un objeto en el que esta presente un sensor de radar como un sensor de medida de radiacion con un emisor para emitir una radiacion de medida hacia un campo de radiacion de sensor y un receptor para recibir porciones reflejadas de la radiacion de medida. El sensor de radar sirve para efectuar una medicion de velocidad de un objeto que se encuentra a una distancia bastante grande del sensor de radar. Sobre una horizontal estan presentes en un lado del sensor de radar una primera camara y en el otro lado una segunda camara, cuyos campos de objetos estan situados dentro del campo de radiacion del sensor. Los ejes opticos de las dos camaras estan orientados paralelamente uno a otro y al eje del sensor. Mediante las camaras se registra en al menos un instante de disparo una respectiva imagen de una escena. Como consecuencia de la distancia horizontal entre las camaras se registra la escena por cada una de las camaras bajo un angulo algo diferente. La desviacion horizontal (disparidad horizontal) de las imagenes registradas en sincronismo temporal, cuya desviacion debe fijarse por este motivo al comparar las imagenes, permite una obtencion de informaciones espaciales del objeto. Mediante una secuencia temporal de tomas de imagen se sigue al objeto y se deriva de ello la velocidad del objeto en una distancia relativamente pequena.
Para que, ademas de una identificacion, se permita tambien una documentacion del objeto con una calidad suficiente, se emplean dos camaras con un alto poder de resolucion. Los datos de medida del sensor y los datos de imagen de las camaras se procesan por medio de una unidad de ordenador.
En un dispositivo segun el documento EP 2 284 568 A2 es desventajosa una alta demanda de potencia de calculo y tiempo de calculo para procesar rapidamente las informaciones de las dos camaras de alta resolucion. Es necesario un procesamiento rapido de las informaciones para vigilar un trafico fluido. Ademas, esta prevista aqu una captacion alternativa de datos de medida o datos de imagen en diferentes intervalos de separacion, con lo que no se verifica una identificacion de un objeto, sino que se hace un uso alternativo del aparato de radar o de las camaras.
La invencion se basa en el problema de proponer una posibilidad mejorada de identificacion y documentacion de un objeto que recorre un campo de radiacion.
Este problema, para un dispositivo que incluye un sensor con un emisor para emitir una radiacion de medida hacia un campo de radiacion de sensor que cubre un campo de medida y una unidad de receptor para recibir porciones de la radiacion de medida reflejadas en al menos un objeto para formar datos de medida, una primera camara y una segunda camara que estan dispuestas a una distancia base entre ellas y que suministran respectivos datos de imagen, asf como una unidad de ordenador para procesar los datos de medida y los datos de imagen, se resuelve debido a que las dos camaras estan dispuestas una con respecto a otra y con respecto al sensor con relaciones de situacion conocidas de modo que sus campos de objetos se solapan con el campo de radiacion del sensor y la zona de solapamiento asf formada determina el campo de medida. La primera camara presenta en este caso un poder de resolucion mas alto que el de la segunda camara.
La unidad de ordenador esta configurada de modo que obtiene datos de posicion de sensor a partir de datos de medida dentro de un periodo de medida obtenidos en varios instantes de medida y puede almacenar estos datos en forma asociada a los instantes de medida. La unidad de ordenador esta configurada, ademas, de modo que, a partir de los datos de imagen de las dos camaras obtenidos en al menos un mismo instante de disparo, y en conocimiento de los parametros de camara y de la disposicion espacial de las dos camaras, puede calcular por un procedimiento de reconocimiento de imagen unos datos de posicion de camara del al menos un objeto y puede almacenar estos en forma asociada al al menos un instante de disparo, y de modo que, teniendo en cuenta las relaciones de situacion y la correlacion temporal entre el al menos un instante de disparo y los instantes de medida, puede comparar los datos de posicion de sensor y los datos de posicion de camara entre ellos y puede comprobar su plausibilidad.
En aras de una mayor claridad, se explicaran seguidamente algunos terminos empleados en la descripcion de la invencion.
Un angulo de campo de imagen viene determinado por el cociente de la longitud de una lmea de una matriz de
5
10
15
20
25
30
35
40
45
50
55
receptores de una camara digital y la distancia focal del objetivo de camara correspondiente. En consecuencia, un angulo de campo de imagen pequeno permite solamente una reproduccion grafica digital de un campo de objeto pequeno, mientras que un angulo de campo de imagen mas grande admite una reproduccion grafica digital de un objeto de campo mas grande.
El recorrido del objeto por un campo de radiacion es un recorrido u otra forma de movimiento a traves del mismo. Un objeto puede ser, por ejemplo, un vetnculo o un individuo, tal como un peaton o un animal.
Por procedimiento de reconocimiento de imagen se pueden entender procedimientos conocidos por el estado de la tecnica con los cuales se encuentran caractensticas conocidas de objetos en imagenes o datos de imagen que se basan, por ejemplo, en una deteccion de cantos.
El termino de identificacion significa la asociacion de un objeto a datos de medida obtenidos, lo que, en el caso del presente procedimiento, incluye tambien una verificacion de la asociacion. Cuando, por ejemplo, se asocia una velocidad medida a una distancia medida, el objeto correspondiente se considera como identificado unicamente cuando se ha obtenido para el objeto por medio de un segundo procedimiento de captacion una distancia correlacionada con ella.
Los datos de posicion de sensor y los datos de posicion de camara comparados unos con otros se consideran como plausibles cuando se comportan entre ellos de una manera determinada. Asf, se pueden transformar exactamente unos en otros o pueden estar situados dentro de una tolerancia admisible. Mediante la comparacion de los datos de posicion de sensor y los datos de posicion de camara se proporciona una posibilidad de verificacion de la posicion de un objeto por medio de dos procedimientos diferentes (utilizacion de un sensor de medida de radiacion frente a la utilizacion de camaras).
Por medio del dispositivo segun la invencion se obtienen datos de posicion de camara de un objeto, especialmente su distancia empleando dos camaras con parametros de camara diferentes y empleando procedimientos estereoscopicos conocidos. Es ventajoso a este respecto que una de las camaras tenga tan solo un pequeno poder de resolucion, con lo que se reduce comparativamente la potencia de calculo necesaria del dispositivo, sin que se produzcan entonces desventajas al calcular y procesar los datos de posicion de camara. Sin embargo, la combinacion de dos camaras con resoluciones claramente diferentes no es adecuada para la confeccion de una imagen espacial bidimensional o una reproduccion grafica tridimensional. Para una funcion de produccion de pruebas legalmente validas de una infraccion de trafico es necesaria la confeccion de una reproduccion grafica (imagen). Para poder captar una imagen espacial bidimensional o una reproduccion grafica tridimensional, el cerebro humano, en un instante en el que se observa la imagen, necesita informaciones de imagen de calidad aproximadamente igual. Por tanto, si se debe confeccionar una imagen espacial bidimensional o una reproduccion grafica tridimensional mediante una combinacion de al menos dos imagenes que se han tomado desde angulos ligeramente decalados uno respecto de otro, estas imagenes tienen que presentar aproximadamente la misma calidad, por ejemplo resoluciones aproximadamente iguales.
Se presenta una realizacion preferida del dispositivo segun la invencion cuando el poder de resolucion de la primera camara es superior al menos en el factor dos al poder de resolucion de la segunda camara. Es ventajoso un factor de al menos cuatro para conseguir una sensible reduccion de la potencia de calculo necesaria.
Como primera camara puede estar instalada una llamada camara de infracciones que trabaja como camara de imagenes individuales, por medio de la cual se puede tomar la al menos una imagen de alta resolucion de un vetnculo infractor. Debido al alto poder de resolucion se pueden captar y presentar datos de interes del vetnculo infractor, tales como la matncula y el conductor del vetnculo. El angulo de campo de imagen de la primera camara es preferiblemente pequeno, por ejemplo de alrededor de 10°.
La segunda camara puede ser una camara secuencial sincronizada con la camara de infracciones, con la que se toma una secuencia de imagenes, estando asociada temporalmente la secuencia a una infraccion, por ejemplo a un exceso de velocidad. El poder de resolucion de la segunda camara es mas pequeno que el de la primera camara, mientras que el angulo de campo de imagen de la segunda camara es preferiblemente mas grande que el angulo de campo de imagen de la primera camara. Mediante un angulo de campo de imagen mas grande se consigue de manera favorable que el objeto, tal como un vetnculo infractor, pueda ser reconocido en posiciones claramente diferentes en al menos dos imagenes temporalmente consecutivas. Los datos de imagen para obtener los datos de posicion de camara se obtienen entonces en un mismo instante de disparo de las camaras.
La segunda camara tiene otra ejecucion del dispositivo segun la invencion una camara secuencial de marcha libre, con lo que los instantes de disparo de las dos camaras no coinciden uno con otro. En este caso, no se presenta ciertamente una imagen secuencial temporalmente smcrona con una imagen de infraccion, pero, teniendo en cuenta los parametros conocidos de la camara secuencial, se puede interpolar o extrapolar una imagen secuencial artificial constituida por al menos dos imagenes secuenciales, la cual se asocia al instante de disparo de la camara de infracciones. Preferiblemente, se utilizan imagenes secuenciales que estan situadas en el tiempo directamente
5
10
15
20
25
30
35
40
45
50
55
delante y detras del instante de disparo de la imagen de infraccion.
En otras ejecuciones del dispositivo segun la invencion puede tambien ser adecuada y emplearse la segunda camara como camara de imagenes individuales para tomar una imagen de infraccion. Asf, la segunda camara puede estar prevista para una toma de una o varias imagenes de infraccion en una zona cercana al dispositivo segun la invencion.
En cuanto al angulo de campo de imagen de las camaras, no es necesaria tampoco una igualdad de clase de las camaras. Los angulos de campo de imagen pueden ser del mismo tamano, pero ventajosamente pueden ser tambien diferentes uno de otro.
El sensor de medida de radiacion puede ser un aparato de radar o un escaner de laser.
El aparato de radar puede presentar una radiacion de medida con un pequeno angulo de apertura preferiblemente inferior/igual a 5°. A partir de estos datos de medida se pueden derivar solamente distancias como datos de posicion de sensor. Este aparato de radar no es adecuado para un seguimiento (rastreo) de un objeto. Multiples mediciones sirven unicamente para la verificacion de los datos de medida.
El aparato de radar puede ser tambien un aparato con un angulo de apertura de preferiblemente 20° y mas, con el cual se pueden captar la distancia al objeto y el angulo solido entre el eje del sensor del aparato de radar y el objeto. Permite una determinacion umvoca de datos de posicion de sensor del objeto en el campo de radiacion del sensor y es adecuado para el rastreo del objeto.
El problema se resuelve tambien con un procedimiento en el que un sensor dirige una radiacion de medida hacia un campo de radiacion de sensor y recibe porciones de la radiacion de medida reflejadas en al menos un objeto y en el que se forman datos de medida en instantes de medida durante un periodo de medida. A partir de los datos de medida se derivan datos de posicion de sensor y se almacenan estos datos en forma asociada a los puntos de medida. Una primera camara con un poder de resolucion relativamente mas alto y una segunda camara con un poder de resolucion relativamente mas bajo se disponen a una distancia base de una a otra y al sensor de modo que sus campos de objeto se solapen con el campo de radiacion del sensor, formandose una zona de solapamiento comun que determina un campo de medida. En al menos un mismo instante de disparo se obtienen con las dos camaras unos datos de imagen a partir de los cuales, y en conocimiento de los parametros de camara y de las relaciones de situacion de las camaras una respecto de otra, se calcula por un procedimiento de reconocimiento de imagen la posicion del al menos un objeto con respecto a al menos una de las dos camaras y se almacena dicha posicion como datos de posicion de camara en forma asociada al al menos un instante de disparo. Los datos de posicion de sensor en al menos un instante de medida y los datos de posicion de camara en al menos un instante de disparo se comparan uno con otro teniendo en cuenta las relaciones de situacion de las dos camaras con el sensor y se comprueba la plausibilidad de los mismos para identificar el objeto.
Cuando se presenta una plausibilidad, se almacena los datos de imagen y se proveen estos eventualmente de un sello electronico de hora y fecha. Los datos de interes de las imagenes, por ejemplo la matncula, pueden extraerse de la imagen o de las imagenes y almacenarse en forma consultable, por ejemplo en otro fichero de datos. La presentacion de las imagenes puede efectuarse, por ejemplo, sobre un monitor o bien mediante una impresion de los datos de imagen como una imagen.
Una falta de plausibilidad puede venir condicionada, por ejemplo, por la aparicion de mediciones de rayos acodados.
El al menos un punto de disparo esta situado preferiblemente dentro del periodo de medida entre dos instantes de medida y la plausibilidad de los datos de posicion de camara se comprueba con los datos de posicion de sensor asociados a uno de los dos instantes de medida.
Es ventajoso tambien que un instante de disparo este situado dentro del periodo de medida entre dos instantes de medida y que la plausibilidad de los datos de posicion de camara se compruebe con los datos de posicion de sensor asociados a los dos instantes de medida. Lo mas favorable en materia de calculo es que un instante de disparo coincida con un instante de medida y que se compruebe la plausibilidad de los datos de posicion de camara con los datos de posicion de sensor asociados a este instante de medida. El al menos un instante de disparo puede estar situado tambien detras del periodo de medida y, en conocimiento de los datos de posicion de sensor asociados a los distintos instantes de medida, se extrapolan datos de posicion de sensor para el instante de disparo a fin de comparar estos con los datos de posicion de camara.
En la realizacion del procedimiento segun la invencion se emite una radiacion de medicion por medio del sensor de medida de radiacion durante un periodo de medida. La radiacion de medicion incide proporcionalmente sobre un objeto que se mueve en el campo de radiacion. Ciertas porciones de la radiacion de medicion son reflejadas desde el objeto, detectadas por la unidad de receptor y transformadas en senales de medida. A partir de las senales de medida se forman datos de medida del objeto, a partir de los cuales se obtienen a su vez datos de posicion del objeto, referido al sensor (datos de posicion de sensor). En caso de que se empleen un aparato de radar de
5
10
15
20
25
30
35
40
45
50
resolucion angular y un escaner de laser, se forman los datos de posicion de sensor por medio de datos de distancia y de angulo. En caso de un aparato de radar que no tenga resolucion angular y que emita una radiacion de medida en forma de solamente un cono de radiacion muy estrecho, se obtienen los datos de posicion de sensor a partir del conocimiento de la orientacion del eje del sensor y de los datos de distancia obtenidos. Debido al ensanchamiento del rayo de medicion alrededor del eje del sensor se presenta aqrn una cierta imprecision de los datos de posicion de sensor.
El procedimiento segun la invencion se puede combinar tambien con procedimientos de clasificacion optica de vehuculo y con metodos de flujo optico.
Se explica seguidamente la invencion con mas detalle ayudandose de ejemplos de realizacion reproducidos en un dibujo. Muestran para ello:
La figura 1, un primer ejemplo de realizacion de un dispositivo segun la invencion en el que el sensor y las dos camaras estan alojados en una carcasa comun,
La figura 2, un segundo ejemplo de realizacion de un dispositivo segun la invencion en el que las dos camaras estan dispuestas lejos del sensor y sus ejes opticos estan orientados paralelamente uno a otro, y
La figura 3, un tercer ejemplo de realizacion de un dispositivo segun la invencion en el que se cortan los ejes opticos de las dos camaras.
En la figura 1 se muestra un primer ejemplo de realizacion de un dispositivo segun la invencion. Este dispositivo, al igual que todas las realizaciones, presenta como elementos esenciales un sensor 1 con un emisor 1.2 para emitir una radiacion de medida y una unidad de receptor 1.3 para recibir radiacion de medida reflejada, asf como una primera camara 2, una segunda camara 3 y una unidad de ordenador 6.
Para la compresion del dispositivo y del procedimiento no se requiere una diferenciacion de los ejes del sensor 1.2 y de la unidad de receptor 1.3, los cuales pueden presentar tambien varios ejes, por ejemplo cuando el sensor 1 es un sensor de radar de resolucion angular. Estos ejes, que estan orientados paralelamente uno a otro y que tienen una distancia despreciable entre ellos, se entienden conjuntamente como un eje de sensor 1.1. El emisor 1.2 emite una radiacion de medida que forma alrededor del eje 1.1 del sensor un campo de radiacion de sensor 1.4. Como magnitudes caractensticas de las dos camaras 2, 3, importantes para el dispositivo y el procedimiento, se citan sus ejes opticos 2.1, 2.2, sus angulos de campo de imagen 2.2, 3.2, sus campos de objeto 2.3, 3.3 y su distancia base 10 entre ellos.
Los tres ejemplos de realizacion para un dispositivo mostrados seguidamente se diferencian sobre todo en diferentes disposiciones espaciales entre el sensor 1 y las dos camaras 2, 3, asf como respecto de las situaciones angulares entre el eje 1.1 del sensor y los dos ejes 2.1, 3.1 de las camaras, denominado seguidamente relacion de situacion. La amplitud de variacion aqrn mostrada pretende demostrar la capacidad de adaptacion del dispositivo a tareas de medida diferentes, tales como, por ejemplo, vigilancia de la velocidad, vigilancia de infracciones de luz roja o vigilancias de presencia. Las dos camaras 2, 3 pueden disponerse ventajosamente siempre de forma optima para su finalidad propiamente dicha, por ejemplo para la toma fotografica a gran tamano de un vehfculo con cara reconocible del conductor y/o matncula, para la toma fotografica del vehfculo en su entorno, por ejemplo tambien conjuntamente de manera visible con un semaforo conectado, o para la toma fotografica de secuencias de imagenes en las que se documenta el movimiento de avance del vehfculo.
En cualquier caso, el sensor 1 y las dos camaras 2, 3 tienen que estar dispuestos entre ellos de modo que se solapen el campo de radiacion 1.4 del sensor y los dos campos de objeto 2.3, 3.3, tal como se muestra, por ejemplo, en la figura 1 en una zona lejana de tamano reducido y en la figura 2. La zona de solapamiento asf definida forma un campo de medida 5. Con el dispositivo o el procedimiento se puede identificar y documentar solamente un objeto 8 que se mueva a traves de este campo de medida 5. Los instantes de medida y los instantes de disparo estan preferiblemente dentro de un periodo de medida durante el cual el objeto 8 recorre el campo de medida 5. No obstante, pueden estar situados tambien delante o detras del mismo. En conocimiento de la velocidad derivada de los datos de sensor se puede efectuar entonces eventualmente una asociacion por medio de una extrapolacion. Tambien tienen que ser conocidas las relaciones entre las situaciones espaciales para poder convertir unos en otros los datos de sensor y de camara obtenidos con el dispositivo y poder asf compararlos, lo que se explica en un punto posterior.
Para la descripcion siguiente el campo de medida 5 debera estar situado sobre una calzada 9. Como base de referencia para ello se puede elegir el lugar de instalacion del sensor 1, referido al arcen 9.1 de la calzada 9, y la orientacion del eje 1.1 del sensor.
En el primer ejemplo de realizacion representado en la figura 1 la primera camara 2 y la segunda camara 3 juntamente con el sensor 1 estan dispuestas sobre una lmea horizontal y el eje optico 2.1 de la primera camara, el
5
10
15
20
25
30
35
40
45
50
55
eje 1.1 del sensor y el eje optico 3.1 de la segunda camara estan orientados paralelamente uno a otro.
Una radiacion de medida irradiada por el emisor 1.2 forma un campo de radiacion de sensor 1.4. Si un objeto 8 se desplaza a traves de este campo de radiacion de sensor 1.4, una parte de la radiacion de medida se refleja sobre la unidad de receptor 1.3. Las senales de recepcion asf generadas se alimentan a la unidad de calculo 6 y se transforman allf en datos de medida (seguidamente datos de sensor) que se almacenan por la unidad de calculo 6 en forma asociada siempre a un instante de medida.
Las dos camaras 2, 3 estan optimizadas para usos diferentes. Asf, la primera camara 2 tiene un poder de resolucion relativamente mayor debido al empleo de una matriz de receptores con, por ejemplo, 16 megapfxeles y un angulo de campo de imagen relativamente mas pequeno 2.2 de, por ejemplo, 10°, mediante el cual esta determinado el campo de objeto 2.3 de la primera camara a lo largo del eje 2.1 de la misma.
La segunda camara 3 tiene un poder de resolucion relativamente mas pequeno debido al empleo de una matriz de receptores con, por ejemplo, 4 megapfxeles y un angulo de campo de imagen 2.2 distinto de un angulo de campo de imagen relativamente mayor 3.2 de, por ejemplo, 30°, mediante el cual esta determinado el campo de objeto 3.3 de la segunda camara a lo largo del eje optico 3.1 de la misma.
Los dos ejes opticos 2.1, 3.1 presentan una distancia base 10 de, por ejemplo, 25 cm entre ellos. Mediante las dos camaras 2, 3 se pueden detectar siempre fragmentos diferentes de una escena con una cantidad diferente de datos de imagen (seguidamente datos de camara).
El sensor 1 y las dos camaras 2, 3 estan unidos en materia de senales con la unidad de ordenador 6. Se almacenan y se procesan allf los datos de sensor generados por el sensor 1 y los datos de camara generados por las dos camaras 2, 3.
A partir de los datos de sensor se derivan datos de posicion del objeto 8 asociados a instantes de medida, mediante los cuales esta determinada siempre una posicion temporal del objeto 8 con relacion al sensor 1. Estos datos de posicion (seguidamente datos de posicion de sensor) pueden afectar solamente a la distancia del objeto 8 al sensor 1 (distancias del sensor) cuando, por ejemplo, el campo de radiacion 1.4 del sensor es muy estrecho, con lo que se proporciona con suficiente precision la posicion temporal mediante la respectiva distancia y la respectiva orientacion del eje 1.1 del sensor. Los datos de posicion del sensor pueden afectar tambien a distancias de sensor y angulos cuando el sensor 1 es, por ejemplo, un aparato de radar con un campo de radiacion de sensor 1.4 y una unidad de receptor 1.3 de resolucion angular o un escaner de laser.
Mediante las dos camaras 2, 3 se captan siempre datos de camara en un mismo instante de disparo. A partir de los datos de camara por los cuales esta abarcada al menos una reproduccion grafica parcial del objeto 8, se calculan, empleando procedimientos conocidos de reconocimiento de imagen y en conocimiento de la distancia base 10, unos datos de posicion del objeto 8 con relacion a las camaras 2, 3 (seguidamente datos de posicion de camara). Mientras que la situacion angular del objeto 8 con respecto a los ejes opticos de las camaras 2, 3 se puede calcular a partir de la desviacion de la reproduccion grafica del objeto 8 sobre las matrices de receptores de las camaras 2, 3 para cada camara 2, 3, independientemente una de otra, se requiere, como es sabido, la contabilizacion de los datos de ambas camaras 2, 3 para calcular la distancia a las camaras 2, 3 (distancia de camara). La unidad de ordenador 6 esta disenada para comparar los datos de posicion de sensor y los datos de posicion de camara unos con otros y comprobar su plausibilidad. A este fin, la relacion de situacion del sensor 1 con respecto a las dos camaras 2, 3 tiene que ser conocida y estar archivada en la unidad de calculo 6. En la unidad de ordenador 6 esta conectado un monitor como unidad de salida 7 por medio de la cual se pueden visualizar en su totalidad los datos de posicion de sensor, los datos de posicion de camara y los datos de imagen.
En las figuras 2 y 3 se muestran dos ejemplos de realizacion en los que los dos ejes opticos de las camaras 2, 3 forman un angulo identico con el eje 1.1 del sensor (figura 2) o en los que todos los ejes citados forman un angulo diferente entre ellos. Resulta asf una situacion diferente del campo de medida 5, la cual es conocida tan pronto como se conocen las relaciones de situacion y los parametros del sensor y de las camaras. Las distancias de camara pueden calcularse por medio de relaciones trigonometricas conocidas, tal como el juego de senos de los datos de las dos camaras 2, 3.
Seguidamente, se explica el desarrollo de un procedimiento segun la invencion con ayuda de la figura 3.
El sensor 1 y las dos camaras 2, 3 estan dispuestos, para la realizacion del procedimiento, en una relacion de situacion conocida entre ellos y con respecto a la calzada 9, con lo que, como se ya se ha explicado, se forma un campo de medida 5 sobre la calzada 9.
Mediante el sensor 1 se emite una radiacion de medida hacia un campo de radiacion de sensor 1.4. Al recorrer un objeto 8 el campo de radiacion de sensor 1.4 se refleja proporcionalmente la radiacion de medida por el objeto 8 sobre la unidad de receptor 1.3 del sensor 1. En instantes de medida se captan las senales de recepcion asf formadas, se transforman estas por la unidad de calculo 6 en datos de sensor y se las almacena en forma asociada
5
10
15
20
25
30
35
40
a los instantes de medida.
Durante el periodo de medida, es decir, la duracion del recorrido del campo de medida 5, se disparan las dos camaras 2, 3 al menos una vez en un mismo instante. Este instante de disparo se obtiene por la unidad de calculo 6 a partir de los datos de sensor, por ejemplo cuando se derivan de los datos de sensor unos datos de posicion de sensor prefijados que pueden ser tambien solamente distancias de sensor que permiten deducir de ellas que el objeto 8 se encuentra en el campo de medida 5.
El instante de disparo puede coincidir entonces seguidamente con un instante de medida inmediato o bien puede estar situado entre instantes de medida consecutivos.
Una posibilidad de comprobacion de la plausibilidad de los datos de posicion de sensor y de los datos de posicion de camara consiste en calcular por medio de los datos de posicion de sensor en un instante de medida, en conocimiento de las relaciones de situacion, unos datos de posicion de camara en este instante de medida que se comparan despues con los datos de posicion de camara obtenidos a partir de los datos de imagen que se han obtenido en un instante de disparo al menos proximo en el tiempo. En caso de coincidencia, se puede confirmar entonces que un objeto 8 medido con el sensor 1 es tambien el objeto 8 reproducido graficamente por las dos camaras 2, 3 y dotado de los datos de posicion de camara derivados, con lo que queda identificado el objeto 8.
A partir de los datos de sensor se puede derivar, por ejemplo, un primer instante de disparo cuando un objeto 8 entra en el campo de medida 5 o cuando un objeto 8 se encuentra en el campo de medida 5 y se ha verificado su velocidad superelevada. Se pueden derivar tambien instantes de disparo posteriores a partir de los datos de sensor
0 estos siguen al primer instante de disparo a distancias temporales prefijadas por la unidad de calculo 6.
Si se ha identificado el objeto 8, se almacena los datos de camara a largo plazo para realizar una documentacion. Con la primera camara 2 se toma, por ejemplo, una imagen de alta resolucion del objeto 8 en la que se pueden reconocer claramente detalles de interes, tales como la matncula del vehfculo y/o la cara del conductor del mismo.
Lista de simbolos de referencia
1 Sensor
1.1 Eje de sensor
1.2 Emisor
1.3 Unidad de receptor
1.4 Campo de radiacion de sensor
2 Primera camara
2.1 Eje optico de la primera camara
2.2 Angulo de campo de imagen de la primera camara
2.3 Campo de objeto de la primera camara
3 Segunda camara
3.1 Eje optico de la segunda camara
3.2 Angulo de campo de imagen de la segunda camara
3.3 Campo de objeto de la segunda camara
5 Campo de medida
6 Unidad de ordenador
7 Unidad de salida
8 Objeto
9 Calzada
9.1 Arcen de la calzada
10 Distancia base
Claims (11)
- 5101520253035404550REIVINDICACIONES1. Dispositivo para identificar y documentar al menos un objeto (8) que recorre un campo de medida (5), cuyo dispositivo incluye un sensor (1) con un emisor (1.2) para emitir una radiacion de medida hacia un campo de radiacion de sensor (1.4) que cubre un campo de medida (5) y con una unidad de receptor (1.3) para recibir porciones de la radiacion de medida reflejadas en al menos un objeto (8) para formar datos de medida, una primera camara (2) y una segunda camara (3) estan dispuestas con una distancia base (10) entre ellas y que suministran respectivos datos de imagen, asf como una unidad de ordenador (6) para procesar los datos de medida y los datos de imagen, caracterizadopor que las dos camaras (2), (3) estan dispuestas una con respecto a otra y con respecto al sensor (1) con relaciones de situacion conocidas entre ellas de modo que sus campos de objeto (2.3), (3.3) se solapan con el campo de radiacion de sensor (1.4) y la zona de solapamiento asf formada determina el campo de medida (5),por que la primera camara (2) presenta un poder de resolucion mas alto que el de la segunda camara (3),por que la unidad de ordenador (6) esta configurada de modo que puede obtener datos de posicion de sensor a partir de datos de medida obtenidos en varios instantes de medida dentro de un periodo de medida y puede almacenar estos datos en forma asociada a los instantes de medida,por que la unidad de ordenador (6) esta configurada de modo que esta, a partir de los datos de imagen de las dos camaras (2), (3) obtenidos en al menos un mismo instante de disparo, y en conocimiento de los parametros de las camaras y de la disposicion espacial de las dos camaras (2), (3), puede calcular por un procedimiento de reconocimiento de imagen, empleando la distancia base (10), unos datos de posicion de camara del al menos un objeto (8) y puede almacenar estos datos en forma asociada al al menos un instante de disparo, ypor que la unidad de ordenador (6) esta configurada de modo que esta, teniendo en cuenta las relaciones de situacion y la correlacion temporal entre el al menos un instante de disparo y los instantes de medida, puede comparar los datos de posicion de sensor y los datos de posicion de camara unos con o otros y puede comprobar la plausibilidad de los mismos.
- 2. Dispositivo segun la reivindicacion 1, caracterizado por que el angulo de campo de imagen de la primera camara (2.2) es mas pequeno que el angulo de campo de imagen de la segunda camara (3.2) para poder reproducir graficamente con la primera camara (2) un objeto de campo (2.3) mas pequeno que el reproducido con la segunda camara (3).
- 3. Dispositivo segun la reivindicacion 1, caracterizado por que la primera camara (2) es una camara de imagenes individuales y la segunda camara (3) es una camara secuencial.
- 4. Dispositivo segun la reivindicacion 1 o 2, caracterizado por que el poder de resolucion de la primera camara (2) es superior en al menos el factor 2 al poder de resolucion de la segunda camara (3).
- 5. Dispositivo segun cualquiera de las reivindicaciones 1 a 3, caracterizado por que el sensor (1) es un aparato de radar.
- 6. Dispositivo segun cualquiera de las reivindicaciones 1 a 4, caracterizado por que el sensor (1) es un escaner de laser.
- 7. Procedimiento para identificar y documentar al menos un objeto (8) que recorre un campo de medida (5), en el que un sensor (1) dirige una radiacion de medida hacia un campo de radiacion de sensor (1.4) y recibe porciones de la radiacion de medida reflejadas en al menos un objeto (8) y durante un periodo de medida se forman en instantes de medida unos datos de medida a partir de los cuales se derivan datos de posicion de sensor que se almacenan en forma asociada a los instantes de medida, caracterizadopor que una primera camara (2) con un poder de resolucion relativamente mas alto y una segunda camara (3) con un poder de resolucion relativamente mas bajo se disponen a una distancia base (10) de una con respecto a otra y con respecto al sensor (1) de modo que sus campos de objeto (3.2), (3.3) se solapan con el campo de radiacion de sensor (1.4), determinando una zona de solapamiento asf formada un campo de medida (5),por que en al menos un mismo instante de disparo se obtienen con las dos camaras (2), (3) unos datos de imagen a partir de los cuales, y en conocimiento de los parametros de las camaras y de las relaciones de situacion de las camaras (2), (3) entre ellas, se calcula por un procedimiento de reconocimiento de imagen, empleando la distancia base (10), la posicion del al menos un objeto (8) con respecto a al menos una de las dos camaras (2), (3) y se almacena dicha posicion como datos de posicion de camara en forma asociada al al menos un instante de disparo, ypor que los datos de posicion de sensor en al menos un instante de medida y los datos de posicion de camara en al menos un instante de disparo se comparan unos con otros teniendo en cuenta las relaciones de situacion de las doscamaras (2), (3) con respecto al sensor (1) y la correlacion temporal entre el al menos un instante de disparo y los instantes de medida y se comprueba la plausibilidad de dichos datos para identificar el objeto (8) y, en presencia de una congruencia, almacenar de forma visualizable para fines de documentacion los datos de imagen de las dos camaras (2), (3) obtenidos en al menos un mismo instante de disparo.5 8. Procedimiento segun la reivindicacion 7, caracterizado por que el al menos un mismo instante de disparo estasituado entre dos instante de medida y se comprueba la plausibilidad de los datos de posicion de camara con los datos de posicion de sensor asociados a uno de los dos instantes de medida.
- 9. Procedimiento segun la reivindicacion 7, caracterizado por que el al menos un instante de disparo esta situado entre dos instantes de medida y se comprueba la plausibilidad de los datos de posicion de camara con los datos de10 posicion de sensor asociados a los dos instantes de medida.
- 10. Procedimiento segun la reivindicacion 7, caracterizado por que el al menos un instante de disparo coincide con un instante de medida y se comprueba la plausibilidad de los datos de posicion de camara con los datos de posicion de sensor asociados al instante de medida.
- 11. Procedimiento segun cualquiera de las reivindicaciones 7-10, caracterizado por que los datos de posicion de 15 sensor y/o los datos de posicion de camara son distancias y angulos.
- 12. Procedimiento segun cualquiera de las reivindicaciones 7-10, caracterizado por que los datos de posicion de sensor y/o los datos de posicion de camara son distancias.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102012106860.7A DE102012106860A1 (de) | 2012-07-27 | 2012-07-27 | Vorrichtung und Verfahren zum Identifizieren und Dokumentieren mindestens eines ein Strahlungsfeld durchfahrenden Objektes |
DE102012106860 | 2012-07-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2628895T3 true ES2628895T3 (es) | 2017-08-04 |
Family
ID=48793947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES13176747.7T Active ES2628895T3 (es) | 2012-07-27 | 2013-07-16 | Dispositivo y procedimiento para identificar y documentar al menos un objeto que recorre un campo de radiación |
Country Status (8)
Country | Link |
---|---|
EP (1) | EP2690459B1 (es) |
CN (1) | CN103578278A (es) |
AU (1) | AU2013209360A1 (es) |
DE (1) | DE102012106860A1 (es) |
DK (1) | DK2690459T3 (es) |
ES (1) | ES2628895T3 (es) |
LT (1) | LT2690459T (es) |
PL (1) | PL2690459T3 (es) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103903440B (zh) * | 2014-04-03 | 2016-06-08 | 浙江宇视科技有限公司 | 一种电子警察抓拍方法及装置 |
CN104050811B (zh) * | 2014-06-13 | 2017-05-24 | 深圳市砝石激光雷达有限公司 | 激光机动车分型系统及方法 |
FR3027407B1 (fr) * | 2014-10-21 | 2016-11-04 | Morpho | Unite de controle routier |
CN106710221A (zh) * | 2017-03-15 | 2017-05-24 | 深圳市鹏之艺建筑设计有限公司 | 智慧城市智能交通系统和评价方法 |
DE102017210408A1 (de) * | 2017-06-21 | 2018-12-27 | Conti Temic Microelectronic Gmbh | Kamerasystem mit unterschiedlichen Shuttermodi |
CN108806265B (zh) * | 2018-01-30 | 2020-10-30 | 胡海明 | 基于车牌搜索的违章检测系统 |
CN110910633A (zh) * | 2018-09-14 | 2020-03-24 | 阿里巴巴集团控股有限公司 | 路况信息处理方法、装置及系统 |
JP7375304B2 (ja) * | 2019-01-30 | 2023-11-08 | 住友電気工業株式会社 | 電波センサ状態の評価装置、電波センサシステム、電波センサの評価方法、コンピュータプログラム、及び電波センサの調整方法 |
CN112804481B (zh) * | 2020-12-29 | 2022-08-16 | 杭州海康威视系统技术有限公司 | 监控点位置的确定方法、装置及计算机存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2998791B2 (ja) * | 1996-10-31 | 2000-01-11 | 日本電気株式会社 | 三次元構造推定装置 |
DE10011263A1 (de) * | 2000-03-08 | 2001-09-13 | Bosch Gmbh Robert | Objektdetektionssystem |
DE10149115A1 (de) * | 2001-10-05 | 2003-04-17 | Bosch Gmbh Robert | Objekterfassungsvorrichtung |
WO2006123615A1 (ja) * | 2005-05-19 | 2006-11-23 | Olympus Corporation | 距離計測装置、距離計測方法および距離計測プログラム |
FR2921027B1 (fr) * | 2007-09-17 | 2010-02-26 | Valeo Vision | Dispositif d'aide a la conduite pour vehicule automobile comportant un systeme de capture d'images stereoscopique |
EP2178059A1 (de) * | 2008-10-16 | 2010-04-21 | ROBOT Visual Systems GmbH | Vorrichtung zur Erfassung von Verkehrsverstössen und zur Kennzeichenkontrolle |
CA2747337C (en) * | 2008-12-17 | 2017-09-26 | Thomas D. Winkler | Multiple object speed tracking system |
US20100177162A1 (en) * | 2009-01-15 | 2010-07-15 | Charles Macfarlane | Method and system for enabling 3d video and image processing using one full resolution video stream and one lower resolution video stream |
US7978122B2 (en) * | 2009-08-13 | 2011-07-12 | Tk Holdings Inc. | Object sensing system |
DE102010012811B4 (de) * | 2010-03-23 | 2013-08-08 | Jenoptik Robot Gmbh | Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten |
-
2012
- 2012-07-27 DE DE102012106860.7A patent/DE102012106860A1/de not_active Withdrawn
-
2013
- 2013-07-16 ES ES13176747.7T patent/ES2628895T3/es active Active
- 2013-07-16 DK DK13176747.7T patent/DK2690459T3/en active
- 2013-07-16 EP EP13176747.7A patent/EP2690459B1/de active Active
- 2013-07-16 LT LTEP13176747.7T patent/LT2690459T/lt unknown
- 2013-07-16 PL PL13176747T patent/PL2690459T3/pl unknown
- 2013-07-26 AU AU2013209360A patent/AU2013209360A1/en not_active Abandoned
- 2013-07-29 CN CN201310323121.5A patent/CN103578278A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
EP2690459A2 (de) | 2014-01-29 |
EP2690459A3 (de) | 2014-10-22 |
AU2013209360A1 (en) | 2014-02-13 |
DE102012106860A1 (de) | 2014-02-13 |
EP2690459B1 (de) | 2017-03-29 |
LT2690459T (lt) | 2017-07-25 |
PL2690459T3 (pl) | 2017-10-31 |
CN103578278A (zh) | 2014-02-12 |
DK2690459T3 (en) | 2017-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2628895T3 (es) | Dispositivo y procedimiento para identificar y documentar al menos un objeto que recorre un campo de radiación | |
ES2352300T5 (es) | Sistema para detectar vehículos | |
US10565867B2 (en) | Detection and documentation of tailgating and speeding violations | |
CN104380137B (zh) | 通过图像辅助的角度确定功能来间接测距的方法和手持测距设备 | |
CN103415780B (zh) | 用于确定测量仪的位置和定向的方法和系统 | |
ES2393459T3 (es) | Procedimiento para la detección y documentación de infracciones de tráfico en un semáforo | |
JP5337905B2 (ja) | 速度計測システム、速度計測方法及びプログラム | |
JP5332811B2 (ja) | カメラ座標系と世界座標系との位置座標変換方法、車載装置、路側撮影装置及び位置座標変換システム | |
US11073379B2 (en) | 3-D environment sensing by means of projector and camera modules | |
CN107864375B (zh) | 带对准分析的成像设备 | |
CN107102004A (zh) | 一种隧道检测装置 | |
EP2824418A1 (en) | Surround sensing system | |
US10451727B2 (en) | Method and system for detecting moving vehicle speed through athird generation photo radar | |
US20090008554A1 (en) | Method for infrared imaging of living or non-living objects including terrains that are either natural or manmade | |
US10867193B1 (en) | Imaging systems for facial detection, license plate reading, vehicle overview and vehicle make, model, and color detection | |
JP2007010335A (ja) | 車両位置検出装置及びシステム | |
CN105637322A (zh) | 景点定位方法及其定位系统 | |
ES2650719T3 (es) | Procedimiento para detectar excesos de velocidad con almacenamiento restrictivo | |
CN104464173A (zh) | 基于空间图像三维测量的输电线路防外力破坏系统 | |
ES2645504T3 (es) | Determinación de al menos una característica de un vehículo | |
KR101057837B1 (ko) | 레이저를 이용한 도로 방범 및 교통단속 시스템 | |
KR20120097033A (ko) | 스트레오 카메라를 이용한 법규 위반 차량 단속 시스템 및 방법 | |
KR20100064011A (ko) | 불법 유턴 차량 단속 장치 및 그 방법 | |
KR101853652B1 (ko) | 어라운드뷰 생성 방법 및 이를 수행하는 장치 | |
RU2658120C1 (ru) | Многоцелевой многополосный лазерный измеритель параметров движения транспорта с видеофиксацией |