MX2014010405A - Dispositivo de deteccion de objetos tridimensionales. - Google Patents

Dispositivo de deteccion de objetos tridimensionales.

Info

Publication number
MX2014010405A
MX2014010405A MX2014010405A MX2014010405A MX2014010405A MX 2014010405 A MX2014010405 A MX 2014010405A MX 2014010405 A MX2014010405 A MX 2014010405A MX 2014010405 A MX2014010405 A MX 2014010405A MX 2014010405 A MX2014010405 A MX 2014010405A
Authority
MX
Mexico
Prior art keywords
dimensional object
detection
unit
dimensional
image
Prior art date
Application number
MX2014010405A
Other languages
English (en)
Inventor
Yasuhisa Hayakawa
Osamu Fukata
Original Assignee
Nissan Motor
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor filed Critical Nissan Motor
Publication of MX2014010405A publication Critical patent/MX2014010405A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/002Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
    • B60Q9/004Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors
    • B60Q9/005Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors using a video camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Este dispositivo de detección de objetos tridimensionales se proporciona con: una unidad de captura de imagen (10) para capturar un área predeterminada; una unidad de conversión de imagen (31) para convertir el punto de vista de la imagen capturada para crear una imagen de vita a ojo de pájaro; una unidad de detección de objetos tridimensionales (32, 33) para generar información de forma de onda de diferencia de una imagen de diferencia en la cual las posiciones de las imágenes de vita a ojo de pájaro tornadas en diferentes momentos se han alineado en una vita a ojo de pájaro, y detectar un objeto tridimensional basado en la información de forma de onda de diferencia; una unidad (33) de cálculo de velocidad de movimiento para calcular la velocidad de movimiento del objeto tridimensional; una unidad de evaluación de objetos tridimensionales (34) para evaluar si el objeto tridimensional es otro vehículo presente en el área predeterminada; una unidad de evaluación de objeto de no detección (34) para calcular repetidamente la cantidad de cambio en el tiempo de la velocidad de movimiento del objeto tridimensional para así detectar una cantidad de variabilidad en la velocidad de movimiento del objeto tridimensional, y asegurar si el objeto tridimensional es un objeto de no detección en base a la cantidad de variabilidad; y una unidad de control (34) para inhibir, en base a la evaluación de resultados de la unidad (34) de evaluación de objetos de no detección, la unidad (34) de evaluación de objetos tridimensionales de la evaluación de que el objeto tridimensional es la otra variable.

Description

DISPOSITIVO DE DETECCIÓN DE OBJETOS TRIDIMENSIONALES CAMPO TÉCNICO La presente invención relaciona a un dispositivo de detección de objetos tridimensionales.
Esta solicitud reivindica el derecho de prioridad basado en la Solicitud de Patente Japonesa número 2012-046629 presentada el 2 de Marzo de 2012, y en los estados designados los cuales aceptan la incorporación de un documento como referencia, los contenidos descritos en la aplicación indicados anteriormente se incorporan aquí por referencia y se consideran parte de la descripción de la presente aplicación.
ANTECEDENTE DE LA TÉCNICA En una técnica convencional las imágenes capturadas tomadas por un dispositivo que captura imágenes se someten a un procesador de imagen usando coincidencia de patrones para de este modo detectar plantaciones de bordes de camino (ver documento de patente 1) .
DOCUMENTOS ANTERIORES DE LA TÉCNICA Documentos de patente Documento de Patente 1: Aplicación de Patente Japonesa Abierta al público número 2006-315482.
DESCRIPCIÓN DE LA INVENCIÓN Problemas a ser solucionados por la Invención Sin embargo, la técnica convencional detecta matorrales en el procesamiento de imagen llevado a cabo por coincidencia de patrones. Por lo tanto, no se puede obtener una alta precisión de detección para detectar el crecimiento de plantas, y puede haber casos en los cuales un crecimiento de plantas en una imagen capturada sea equivocadamente detectada como otro vehículo viajando en un carril adyacente.
El problema a resolver para la presente invención es proporcionar un dispositivo de detección de objetos tridimensionales capaz de detectar adecuadamente un vehículo adyacente .
Unidad usada para resolver los problemas mencionados anteriormente La presente invención resuelve el problema para detectar un objeto tridimensional basado en una imagen capturada, calculada la cantidad de variabilidad en la velocidad de movimiento del objeto tridimensional en base de la cantidad de cambio en el tiempo de la velocidad de movimiento del objeto tridimensional detectado, y evaluar si el objeto tridimensional detectado es un objeto que no está detectado en base a la cantidad calculada de la variabilidad.
Efecto de la invención Generalmente, componentes de borde y otra información de imagen en una imagen en la cual se ha capturado un crecimiento de planta que se detecta irregularmente. Por lo tanto, la velocidad de movimiento en un objeto tridimensional tiende a ser variable cuando la cantidad de cambio en el tiempo de la velocidad de movimiento del objeto tridimensional se calcula en base de la información de imagen. De acuerdo con la presente invención, se evalúa si el objeto tridimensional detectado es un crecimiento de la planta u otro objeto que no está detectado, en base de la cantidad de variabilidad en la velocidad de movimiento del objeto tridimensional, por lo cual un vehículo adyacente se pueda detectar adecuadamente .
BREVE DESCRIPCIÓN DE DOS DIBUJOS [FIGURA 1] Diagrama estructural esquemático de un vehículo en el cual se monta el dispositivo de detección de un objeto tridimensional .
[FIGURA 2] El plano de vista ilustra el estado de marcha del vehículo en la FIGURA 1.
[FIGURA 3] La vista de bloque ilustra los detalles de la computadora .
[FIGURAS 4(a) y 4(b)] La vista describe el resumen del proceso de la unidad de alineación; La FIGURA 4 (a) es una vista en planta que ilustra el estado de movimiento del vehículo, y la FIGURA 4(b) es una imagen que ilustra una vista en conjunto general de la alineación.
[FIGURA 5] Es la vista esquemática que ilustra la manera en la cual la diferencia en forma de onda se genera por la unidad de detección de objeto tridimensional.
[FIGURA 6] Es una vista que describe las áreas pequeñas divididas por la unidad de detección de objetos tridimensionales .
[FIGURA 7] Es una vista que ilustra un ejemplo del histograma obtenido por la unidad de detección de objetos tridimensionales.
[FIGURA 8] Vista que ilustra la ponderación utilizada por la unidad de detección de objetos tridimensionales.
[FIGURA 9] Vista que ilustra otro ejemplo del histograma obtenido por la unidad de detección de objetos tridimensionales.
[FIGURA 10] Vista que describe el método para evaluar un objeto que no está detectado.
[FIGURA 11] Vista que describe el incremento y disminución del valor de conteo.
[FIGURA 12] Diagrama de flujo que ilustra el método para detectar un vehículo adyacente (parte 1) .
[FIGURA 13] Diagrama de flujo que ilustra el método para detectar un vehículo adyacente (parte 2) .
[FIGURA 14] Vista de bloques que ilustra los detalles de la computadora conforme a una segunda modalidad.
[FIGURAS 15(a) y 15(b)] Vistas que ilustran el estado de marcha del vehículo: FIGURA 15(a) es una vista en planta que ilustra la relación posicional entre el área de detección y similares, y la FIGURA 15 (b) es una perspectiva de vista que ilustra la relación posicional entre el área de detección y similares en espacio real.
[FIGURAS 16(a) y 16(b)] Vistas para describir la operación de la unidad de cálculo de diferencia de luminancia conforme a la segunda modalidad; la FIGURA 16 (a) es una vista que ilustra la relación posicional entre la línea de atención, línea de referencia, punto de atención, y punto de referencia en una imagen a vita a ojo de pájaro, la FIGURA 16(b) es una vista que ilustra la relación posicional entre la línea de atención, línea de referencia, punto de atención, y espacio real de punto de referencia.
[FIGURAS 17 (a) y 17 (b) ] Vistas para describir la operación detallada de la unidad de cálculo de diferencia de luminancia conforme a la segunda modalidad; FIGURA 17 (a) es una vista que ilustra el área de detección en la imagen a vita a ojo de pájaro, y FIGURA 17 (b) es una vista que ilustra la relación posicional entre la línea de atención, línea de referencia, punto de atención, y punto de referencia en la imagen a vita a ojo de pájaro.
[FIGURA 18] Vista que ilustra un ejemplo de imagen para describir la operación de detección de bordes.
[FIGURAS 19(a) y 19(b)] Vistas que ilustra la línea de borde y la distribución de luminancia en la línea de borde; FIGURA 19(a) es una vista que ilustra la distribución de luminancia cuando el objeto tridimensional (vehículo adyacente) está presente en el área de detección, y FIGURA 19 (b) es una vista que ilustra la distribución de luminancia cuando un objeto tridimensional no se presenta en el área de detección.
[FIGURA 20] Diagrama de flujo que ilustra el método para detectar un vehículo adyacente a la segunda modalidad (parte 1) · [FIGURA 21] Diagrama de flujo que ilustra el método para detectar un vehículo adyacente conforme a la segunda modalidad (parte 2 ) .
MODALIDADES PREFERIDAS DE LA INVENCIÓN Modalidad 1 La FIGURA 1 es una vista en conjunto esquemática de un vehículo en el cual se monta un dispositivo 1 de detección de objetos tridimensionales conforme a la presente modalidad. Un propósito del dispositivo 1 de detección de objetos tridimensionales conforme a la presente modalidad detecta otro vehículo (se puede referir a continuación como ("vehículo V2 adyacente") presente en un carril adyacente donde el contacto es posible, el vehículo VI del principal debería cambiar de carril. El dispositivo 1 de detección de objetos tridimensionales conforme a la presente modalidad se proporciona con una cámara 10, un sensor 20 de velocidad, y una computadora 30, como se ilustra en la FIGURA 1.
La cámara 10 se adjunta al vehículo VI principal de manera que el eje óptico es un ángulo T hacia abajo déla horizontal en una locación a una altura h en la parte trasera del vehículo VI principal, como se ilustra en la FIGURA 1. De esta posición, la cámara 10 captura un área predeterminada del entorno del vehículo VI principal. El sensor 20 de velocidad detecta la velocidad de recorrido del vehículo VI principal y calcula la velocidad del vehículo de una velocidad de la rueda detectada, por ejemplo, un sensor de velocidad de rueda para detectar la velocidad rotacional de la rueda. La computadora 30 detecta un vehículo adyacente presente en un carril adyacente hacia atrás del vehículo principal.
La FIGURA 2 es una vista en planta que ilustra el estado de la marcha del vehículo VI principal en la FIGURA 1. Como se ilustra en los dibujos, la cámara 10 captura el lado hacia atrás del vehículo en un ángulo a de vista predeterminado. En este tiempo, el ángulo a de vista de la cámara 10 se establece para un ángulo de vista que permita a los carriles derecho e izquierdo (carriles adyacentes) ser capturados adicionalmente al carril en el cual viaja el vehículo VI principal.
La FIGURA 3 es una vista de bloque que ilustra los detalles de la computadora 30 en la FIGURA 1. La cámara 10 y el sensor 20 de velocidad ilustrados también en la FIGURA 3 con el fin de indicar distintivamente las relaciones de conexión.
Como se ilustra en la FIGURA 3, se proporciona la computadora 30 con una unidad 31 de conversión de punto de vista, una unidad 32 de alineamiento, una unidad 33 de detección de objetos tridimensionales, y una unidad 34 de valoración de objetos tridimensionales. La configuración de estas unidades se describe más adelante.
Los datos de imágenes capturadas del área predeterminada obtenidos por la captura llevada a cabo por la cámara 10 que se introduce a la unidad 31 de conversión de punto de vista, y los datos de imágenes capturadas así introducidos se convierten en datos de imagen de vita a ojo de pájaro, lo cual es un estado a vita a ojo de pájaro. Un estado a vita a ojo de pájaro es un estado de visión de un punto de vista de una cámara imaginaria que está mirando hacia abajo desde arriba, por ejemplo, verticalmente hacia abajo. La conversión de punto de vista se puede llevar a cabo en la manera descrita en, por ejemplo, Aplicación de Patente Japonesa expuesta al público número 2008-219063. La razón por la que el dato de imagen capturado se convierte a una imagen de vita a ojo de pájaro está basada en el principio que los únicos bordes perpendiculares para los objetos tridimensionales se convierten en un grupo lineal que pasa a través de un punto ajustado especifico por la conversión de punto de vista a dato de imagen de vita a ojo de pájaro, y la utilización de este principio permite que un objeto plano y un objeto tridimensional se diferencien.
Los datos de imágenes de vita a ojo de pájaro obtenidos por la conversión del punto de vista llevado a cabo por la unidad 31 de conversión de punto de vista se introduce secuencialmente a la unidad 32 de alineación, y las posiciones introducidas de los datos de imágenes de vita a ojo de pájaro se alinean a diferentes tiempos. FIGURAS 4(a) y 4(b) son unas vistas para describir la visión general de conjunto del proceso de la unidad 32 de alineamiento, FIGURA 4(a) es una vista plana que ilustra el estado de movimiento del vehículo VI principal, y la FIGURA 4 (b) es una imagen que ilustra una visión en conjunto general de alineamiento.
Como se ilustra en la FIGURA 4 (a) , el vehículo VI principal en el momento actual se posiciona en Pl7 y el vehículo VI principal es un solo momento previo se posiciona en ?>?' . Se supone que un vehículo V2 adyacente se posiciona en la dirección de lado trasero de del vehículo VI principal y viaja paralelo al vehículo VI principal, y que el vehículo V2 adyacente en el momento actual se posiciona en P2, y el vehículo V2 adyacente en un solo momento previo se posiciona en P2' . También, se supone que el vehículo VI principal se mueve a una distancia d en un momento único. La frase "en un instante previo" puede referirse a un momento en el pasado por un tiempo establecido en por adelantado (por ejemplo, un único ciclo de control) del momento actual, o puede ser un momento en el pasado por un tiempo arbitrario.
En tal caso, una imagen PBt a vita a ojo de pájaro en el momento actual se ilustra en la FIGURA 4 (b) . Las líneas blancas dibujadas en la superficie del camino son rectangulares en la imagen PBt de visión de ojo de pájaro y son relativamente precisas en una vista plana, pero el vehículo adyacente V2 (posición P2) se colapsa. Lo mismo se aplica a la imagen PBt-i de visión de ojo de pájaro en un instante previo; las lineas blancas dibujadas en la superficie del camino son rectangulares y son relativamente exactas en una vista plana, pero el vehículo adyacente V2 (posición P2' ) se colapsa. Como previamente se describió, los bordes perpendiculares de un objeto tridimensional (bordes que permanecen erectos en espacio tridimensional de la superficie del camino también incluyen un estricto sentido de borde perpendicular) aparecen como un grupo lineal a lo largo de una dirección de colapso debido al proceso para convertir el punto de vista a datos de imágenes a vita a ojo de pájaro, porque una imagen plana en la superficie del camino no incluye bordes perpendiculares, tal colapso no ocurre incluso cuando se ha convertido el punto de vista.
La unidad 32 de alineación alinea las imágenes PBt y PBt-i de visión a ojo de pájaro, como aquellas que se describieron anteriormente, en términos de datos. Cuando esto se lleva a cabo, la unidad 32 de alineación contrarresta la imagen PBt-i de visión de ojo de pájaro en un instante previo, y empareja la imagen PBt-i de visión de ojo de pájaro en el ojo actual. La imagen de lado izquierdo y la imagen central en la FIGURA 4 (b) que ilustra el estado de desplazamiento por una distancia d de movimiento. La cantidad d' de desplazamiento es la cantidad de movimiento en los datos de imagen a vista de pájaro que corresponde a la distancia d de movimiento actual del vehículo VI principal en la FIGURA 4(a), y se decide sobre la base de una señal del sensor 20 de velocidad y el tiempo de un solo momento previo al momento actual.
Después de la alineación, la unidad 32 de alineación obtiene la diferencia entre las imágenes PBt y PBt-i de visión de ojo de pájaro y genera datos PDt de diferencia de imagen. En la presente modalidad, la unidad 32 de alineación toma el valor absoluto de la diferencia en los valores de los pixeles de las imágenes PBt y PBt-i de visión de ojo de pájaro con el fin de corresponder a la variación en la iluminación ambiental, y cuando el valor absoluto es igual o mayor que un valor th umbral predeterminado, los valores de pixel de la imagen PDt de diferencia que se ajustan a "1", y cuando el valor absoluto es menor que un valor th umbral predeterminado, los valores de pixel de la imagen PDt de diferencia se ajustan a "0", el cual permite que los datos PDt de imagen de diferencia como el que se ilustra en el lado derecho de la FIGURA 4(b) se generen.
Regresando a la FIGURA 3, la unidad 33 de detección de objetos tridimensionales detecta un objeto tridimensional basado en el dato PDt de imagen de diferencia ilustrado en la FIGURA 4 (B) . En este caso, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento del objeto tridimensional en el espacio actual. La unidad 33 de detección de objeto tridimensional genera primero una forma de onda DWt de diferencia cuando el objeto tridimensional esta detectado y se calcula la distancia de movimiento.
En la generación de la forma de onda de diferencia, la unidad 33 de detección de objeto tridimensional establece un área de detección en la imagen PDt de diferencia. Un objeto del dispositivo de detección de objetos tridimensionales del presente ejemplo es calcular la distancia de movimiento para el vehículo adyacente con el cual hay una posibilidad de contacto que el vehículo VI principal debería cambiar de carril. En consecuencia, en el presente ejemplo, las áreas de detección rectangular Al, A2 se establecen detrás del vehículo VI principal, como se ilustro en la FIGURA 2. Tales áreas de detección Al, A2 se pueden establecer de una posición relativa al vehículo VI principal, o se pueden establecer en base a la posición de las líneas blancas. Cuando se basa en la posición délas líneas blancas, el dispositivo 1 de detección de objeto tridimensional puede usar, por ejemplo las técnicas conocidas de reconocimiento de línea blanca.
La unidad 33 de detección de objetos tridimensionales reconoce como líneas de tierra Ll, L2 las fronteras délas áreas Al, A2 de detección así fijadas, en el lado del vehículo VI principal (el lado a lo largo de la dirección de viaje), como se ilustro en la FIGURA 2. Generalmente una línea de tierra se refiere a una línea en la cual el objeto tridimensional está en contacto con el suelo, pero en la presente modalidad, una línea de tierra no es una línea que está en contacto con el suelo, pero se establece más bien en la manera descrita arriba. Incluso en tal caso, la diferencia entre la linea de tierra conforme a la presente modalidad y la linea de tierra normal determinada de la posición del vehículo V2 adyacente no es excesivamente grande como de determino por experiencia, y no hay problema en realidad.
La FIGURA 5 es una vista esquemática que ilustra la manera en la cual la forma de onda de diferencia se genera por la unidad 33 de detección de objetos tridimensionales. Como se ilustro en la FIGURA 5, la unidad 33 de detección de objetos tridimensionales genera una forma de onda DWt de diferencia, de la porción que corresponde a las áreas de detección Al, A2 en la imagen de diferencia PDt (dibujada a la derecha en la FIGURA 4(b)) calculada por la unidad 32 de alineación. En este caso, la unidad 33 de detección de objetos tridimensionales genera una forma de onda DWt de diferencia a lo largo de la dirección colapso del objeto tridimensional por la conversión del punto de vista. En el ejemplo ilustrado en la FIGURA 5, solo el área Al de detección será descrita por las aras de la conveniencia, pero la forma de onda DWt de diferencia se genera por el área A2 de detección asi utilizando el mismo procedimiento.
Más específicamente, primero, la unidad 33 de detección de objetos tridimensionales define una línea La en la dirección en la cual el objeto tridimensional colapsa en el dato PDt de imagen de diferencia indicando una diferencia predeterminada en la línea La. En la presente modalidad, la diferencia de pixeles DP indican una diferencia predeterminada que tiene valores de pixel en la imagen PDt de diferencia que se representa por "0" y "1", y los pixeles indicados por "1" se cuentan como pixeles DP de diferencia.
La unidad 33 de detección de objetos tridimensionales cuenta el número de pixeles DP de diferencia, y después de ello determina el punto CP de cruce de la línea La y la línea Ll de suelo. La unidad 33 de detección de objetos tridimensionales correlaciona el punto CP de cruce y el número de recuento, resuelve la posición eje horizontal, por ejemplo, la posición en el eje en la dirección lateral en el dibujo a la derecha en la FIGURA 5, del número de recuento, y traza la posición como el número de recuento en el punto CP de cruce.
Similarmente , la unidad 33 de detección de objetos tridimensionales define las líneas Lb, Le... en la dirección en la cual el objeto tridimensional colapsa, cuenta el número de la diferencia de pixeles DP, decide la posición de eje vertical del número de recuento (el número de pixeles DP de diferencia) , y traza las posiciones. La unidad 33 de detección de objetos tridimensionales repite lo anterior en la secuencia para formar una distribución de frecuencia y por lo tanto generar una forma de onda DWt de diferencia como se ilustra en el dibujo a lado derecho en la FIGURA 5.
Aquí, los pixeles PD de diferencia en los datos de imagen PDt de diferencia que son pixeles los cuales han cambiado en el tiempo en diferentes momentos, en otras palabras, las locaciones que se pueden construir para estar donde se presente un objeto tridimensional. En consecuencia, en locaciones donde se presente un objeto tridimensional, el número de pixeles se cuenta a lo largo de la dirección en la cual el objeto tridimensional colapsa para formar una distribución de frecuencia y de este modo generar una forma de ondas DWt-i de diferencia. En particular, se cuenta el número de pixeles a lo largo de la dirección en la cual colapsa el objeto tridimensional, y una forma de honda DWt de diferencia por tanto se genera de la información sobre la dirección de altura en relación al objeto tridimensional.
Las lineas La y Lb en la dirección en la cual el objeto tridimensional colapsa tiene diferentes distancias que superponen al área Al de detección, como se ilustra en el dibujo de la izquierda en la FIGURA 5. Por consiguiente, el número de los pixeles DP de diferencia es más grande en la linea La que en la linea Lb cuando se asume que el área de detección Al se llena con los pixeles DP de diferencia. Por esta razón, la unidad 33 de detección de objetos tridimensionales realiza normalización en base a la distancia de las lineas La, Lb en la dirección en la cual el objeto tridimensional colapsa y el área Al de detección se superpone cuando se decide la superposición del eje vertical del número de recuento de los pixeles DP de diferencia. En un ejemplo especifico, hay seis pixeles DP de diferencia en la linea La y hay cinco pixeles DP de diferencia en la línea Lb en el dibujo del lado izquierdo en la FIGURA 5. En consecuencia, cuando la posición del eje vertical se decide del número de recuento en la FIGURA 5, la unidad 33 de detección de objetos tridimensionales divide el número de recuento por la distancia de superposición o realiza la normalización en otra manera. Los valores de la forma de onda DWt de diferencia que corresponde a las líneas La, Lb en la dirección en la cual el objeto tridimensional colapsa se hacen de ese modo para que sea sustancialmente el mismo.
Después de la forma de onda DWt de diferencia que se ha generado, la unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento por la comparación de la forma de onda D t de diferencia en el momento actual y la forma de onda DWt-i de diferencia en un único momento previo. En otras palabras, la unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento del cambio en el tiempo de la forma D t de diferencia y la forma de onda DWt_i de diferencia .
Más específicamente, la unidad 33 de detección de objetor tridimensionales divide la forma de onda DWt de diferencia en una pluralidad de pequeñas áreas D ti a DWn (donde n es un entero arbitrario de 2 o es más grande) , como se ilustro en la FIGURA 6. La FIGURA 6 es una vista que ilustra las áreas pequeñas DWti a DWtn divididas por la unidad 33 de detección de objetos tridimensionales. Las pequeñas áreas DWti a DWtn se dividen de manera que estén mutuamente sobrepuestas, como se ilustra en, por ejemplo, la FIGURA 6. Por ejemplo, el área pequeña DWti y el área pequeña DWt2 se traslapan una a otra, y el área pequeña DWt2 y el área pequeña DWt3 se traslapa una de otra.
Después, la unidad 33 de detección de objetos tridimensionales determina la cantidad de desplazamiento (la cantidad de movimiento en la dirección de eje horizontal (dirección vertical en FIGURA 6) de la forma de onda DWt-i de diferencia) para cada una de las áreas pequeñas DWTi a DWtn. Aquí, la cantidad de desplazamiento se determina de la diferencia (distancia en la dirección de eje horizontal) entre la forma de onda DWt-i de diferencia en un único momento previo y la forma de onda Dwt de diferencia en el momento actual. En este caso, la unidad 33 de detección de objetos tridimensionales mueve la forma de onda DWt-i de diferencia en un solo momento previo en la dirección de eje horizontal para cada una de las áreas pequeñas D ti a DWtn y acto seguido evalúa la posición (la posición en la dirección de eje horizontal) en la cual el error de la forma de onda DWt de diferencia en el momento actual está en un mínimo. La unidad 33 de detección de objetos tridimensionales entonces cuenta la cantidad de desplazamiento determinada para cada una de las áreas pequeñas DWti a D tn y forma un histograma.
La FIGURA 7 es una vista que ilustra un ejemplo del histograma obtenido por la unidad 33 de detección de objetos tridimensionales. Como se ilustra en la FIGURA 7, una cierta cantidad de variabilidad ocurre en la cantidad de desplazamiento, el cual es la distancia de movimiento en la cual el error entre las pequeñas áreas DWti a D tn y la forma de onda DWt_i de diferencia en un solo momento previo es mínimo. Por consiguiente, la unidad 33 de detección de objetos tridimensionales forma las cantidades de desplazamiento incluyendo la variabilidad en un histograma y calcula la distancia de movimiento del histograma. En este punto, la unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento de los objetos tridimensionales del valor máximo en el histograma. En otras palabras, en el ejemplo ilustrado en la FIGURA 7, la unidad 33 de detección de objetos tridimensionales calcula la cantidad de desplazamiento que indica el valor máximo del histograma como la distancia de movimiento t* . De esta manera, en la presente modalidad, una distancia de movimiento más precisa se puede calcular del valor máximo, incluso cuando hay variabilidad de la cantidad de desplazamiento. La distancia de movimiento t* es la distancia de movimiento relativa del objeto tridimensional en relación al vehículo principal. En consecuencia, la unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento absoluta en base a la distancia de movimiento t* obtenido de este modo y el sensor de velocidad 20 cuando la distancia de movimiento absoluta se va a calcular.
De esta manera, en la presente modalidad, la distancia de movimiento del objeto tridimensional se calcula de la cantidad de desplazamiento de la forma de onda DWt de diferencia cuando el error en la forma de onda DWt de diferencia generado en momentos diferentes es mínima, y esto permite que se calcule la distancia de movimiento de la cantidad de desplazamiento, la cual es información sobre una dimensión en una forma de onda, y permite que el coste de computación se mantenga bajo cuando se calcula la distancia de movimiento. También, dividiendo la forma de onda Dwt de diferencia generada en momentos diferentes en una pluralidad de áreas pequeñas DWti a D tn permiten una pluralidad de formas de onda que representando las locaciones de objetos tridimensionales para ser obtenidos, de este modo permite la cantidad de desplazamiento en cada locación de los objetos tridimensionales que se determinen y permitiendo que la distancia de movimiento se determine de una pluralidad de cantidades de desplazamiento. Por lo tanto, se puede mejorar la precisión del cálculo de la distancia de movimiento. En la presente modalidad, la distancia de movimiento de los objetos tridimensionales se calcula del cambio en el tiempo de la forma de onda DWt de diferencia, la cual incluye dirección de información de altura. Consecuentemente, en contraste al enfoque esta exclusivamente en el movimiento de un solo punto, la detección de la localización previa al cambio en el tiempo y la ubicación de detección después del cambio en el tiempo están especificados con la información de dirección de altura incluida y en consecuencia terminar fácilmente arriba siendo la misma ubicación; y se puede mejorar la precisión para el cálculo de la distancia de movimiento.
Cuando se va a formar un histograma, la unidad 33 de detección de objetos tridimensionales puede impartir una ponderación a la pluralidad de áreas pequeñas DWti a DWtn, y contar las cantidades de desplazamiento determinadas por cada una de las áreas pequeñas D ti a DWtn de acuerdo con la ponderación para formar un histograma. La FIGURA 8 es una vista que ilustra la ponderación usada por la unidad 33 de detección de objetos tridimensionales.
Como se ilustro en la FIGURA 8, un área pequeña DWm (donde m es un entero de 1 o mayor y n-1 o menos) es plana. En otras palabras, en el área pequeña DWm, hay una pequeña diferencia entre los valores máximos y mininos del conteo de número de pixeles que indican una diferencia predeterminada. La unidad 33 de detección de objetos tridimensionales reduce la ponderación de este tipo de pequeña área DWm. Esto es porque la área pequeña plana DWm falta de una característica y hay una alta posibilidad que un error se agrande cuando se calcule la cantidad de desplazamiento.
En la otra mano, un área pequeña DWm+k (donde k es un número entero n-m o menos) tiene ondulación abundante. En otras palabras, en el área pequeña D m hay una considerable diferencia entre el valor máximo y el valor mínimo del conteo del número de pixeles que indican una diferencia predeterminada. La unidad 33 de detección de objetos tridimensionales aumenta la ponderación de este tipo de área pequeña DWm. Esto es porque el área pequeña DWm+k abundante en ondulación es característica y hay una alta posibilidad que la cantidad de desplazamiento se calculara con precisión. Ponderando las áreas pequeñas en este manera hace posible mejorar la precisión para calcular la distancia de movimiento.
La forma de onda DWt de diferencia se divide en una pluralidad de áreas pequeñas DWti a D tn en la presente modalidad en orden para mejorar la precisión para calcular la distancia de movimiento, pero la división en áreas pequeñas DWti a Dwtn no se requiere cuando la precisión para el cálculo de la distancia de movimiento no se necesita. En este caso, la unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento de la cantidad de desplazamiento de la forma de onda DWt-i de diferencia cuando el error entre la forma de onda DWt de diferencia y la forma de onda DWt_i de diferencia es un mínimo. En otras palabras, el método para determinar la cantidad de desplazamiento entre la forma de onda D t_i de diferencia en un momento previo y la forma de onda DWt de diferencia en el momento actual no se limita a los detalles descritos anteriormente .
La unidad 33 de detección de objetos tridimensionales en la presente modalidad determina la velocidad de movimiento del vehículo principal VI (cámara 10) y determina la cantidad de desplazamiento para un objeto estacionario de la velocidad de movimiento determinada. Después de que se ha determinado cantidad de desplazamiento del objeto estacionario, la unidad 33 de detección de objetos tridimensionales ignora la cantidad de desplazamiento que corresponde al objeto estacionario dentro del valor máximo del histograma, y calcula la distancia de movimiento del objeto tridimensional.
La FIGURA 9 es una vista que ilustra otro ejemplo del histograma obtenido por la unidad 33 de detección de objetos tridimensionales. Cuando se presenta un objeto estacionario que no sea el objeto tridimensional dentro del ángulo de vista de la cámara 10, dos valores máximos t?, t2 aparecen en el histograma resultante. En este caso, uno de los dos valores máximos ti, t2 es la cantidad de desplazamiento del objeto estacionario. Consecuentemente, la unidad 33 de detección de objetos tridimensionales determina la cantidad de desplazamiento para el objeto estacionario de la velocidad de movimiento, ignora el valor máximo que corresponde a la cantidad de desplazamiento, y calcula la distancia de movimiento del objeto tridimensional usando el valor máximo resultante. Por lo tanto es posible evitar una situación en la cual la precisión para el cálculo de la distancia de movimiento del objeto tridimensional se reduce por el objeto estacionario.
Incluso cuando se ignora la cantidad de desplazamiento que corresponde al objeto estacionario, puede haber una pluralidad de los objetos tridimensionales presentes dentro de la vista de ángulo de la cámara 10 cuando hay una pluralidad de valores máximos. Sin embargo, una pluralidad de objetos tridimensionales presentes dentro de las áreas de detección Al, A2 ocurre muy raramente.
Por consiguiente, la unidad 33 de detección de objetos tridimensionales deja de calcular la distancia de movimiento. En la presente modalidad, es por lo tanto posible evitar una situación en la cual una distancia de movimiento errante se calcula tal que haya una pluralidad de valores máximos.
Además, la unidad 33 de detección de objetos tridimensionales calcula la velocidad de movimiento relativa del objeto tridimensional por el tiempo diferenciando la distancia de movimiento relativa del objeto tridimensional. La unidad 33 de detección de objetos tridimensionales también calcula la velocidad de movimiento absoluta del objeto tridimensional basado en la distancia de movimiento relativo del objeto tridimensional. Adicionalmente, la unidad 33 de detección de objetos tridimensionales calcula repetidamente la velocidad de movimiento relativa del objeto tridimensional en intervalos predeterminados, y calcula la cantidad de ?? de cambio en tiempo de la velocidad de movimiento relativa del objeto tridimensional calculado repetidamente. La cantidad ?? de cambio en tiempo de la velocidad de movimiento relativa calcula se transmite a la unidad 34 de valoración de objetos tridimensionales descritos más adelante.
La unidad 34 de valoración de objetos tridimensionales en la FIGURA 3 valora si un objeto tridimensional detectado por la unidad 33 de detección de objetos tridimensionales es otro vehículo (vehículo adyacente) que viaja en un carril adyacente. En la valoración si el objeto tridimensional es in vehículo adyacente, la unidad 34 de valoración de objetos adyacentes también detecta la cantidad de variabilidad en la información de la imagen, y evalúa si el objeto tridimensional es un objeto no detectado basado en la cantidad de variabilidad en la información de imagen detectada. En la presente modalidad, la unidad 34 de valoración de objetos tridimensionales calcula, como la cantidad de variabilidad en la información de la imagen, el valor absoluto | ?? | de la cantidad de cambio en el tiempo en la velocidad de movimiento relativa del objeto tridimensional calculado por la unidad 33 de detección de objetos tridimensionales en base a la imagen capturada, y evalúa si el objeto tridimensional es una no detección de objeto en base en el valor absoluto calculado |?| . Y se usa aquí, el término "objeto de no detección" que se refiere a plantas, nieve, barandillas, y similares los cuales son objetos que no están detectados, en contraste a los vehículos adyacentes, los cuales están detectados. Así, en la presente modalidad, la unidad 34 de valoración de objetos tridimensionales evalúa si un objeto tridimensional es un objeto de no detección, por consiguiente previene efectivamente un objeto de no detección de que este detectados equivocadamente como un vehículo adyacente.
Específicamente, la unidad 34 de evaluación de objetos tridimensionales determina que la alta cantidad de variabilidad sea en la información de la imagen, cuanto mayor sea el valor absoluto I ?? I de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa mayor es el objeto tridimensional, y determina que la posibilidad que el objeto tridimensional detectado sea un objeto de no detección sea alta. En la presente modalidad, la unidad 34 de evaluación de objetos tridimensionales incremente o decrezca el valor de recuento (eje vertical ilustrado en FIGURA 10) conforme con el valor absoluto | ?? | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional, como se ilustro en la FIGURA 10, y como resultado, evalúa que el objeto tridimensional detectado sea un objeto de no detección cuando el valor de conteo es un primer valor umbral Si o mayor. La FIGURA 10 es una vista que describe el método para detectar un objeto de no detección.
Descrito aquí está el valor de recuento para detectar un objeto de no detección. FIGURA 11 es una tabla para ilustrar un ejemplo de la cantidad de crecimiento/decremento del valor de conteo en base de la luminosidad (dia/noche) de las áreas de detección Al, A2 y la magnitud del valor absoluto | ?V| de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional, como se ilustro en la FIGURA 11.
Por ejemplo, la unidad 34 de evaluación de objetos tridimensionales detecta la luminosidad de las áreas de detección Al, A2 de la imagen de diferencia, y, cuando la luminosidad de las áreas de detección Al, A2 está en un valor predeterminado o mayor (cuando se puede determinar durante el día) , determina la posibilidad de ser alto en los componentes de borde y la otra información de imagen cuando el valor absoluto I ?V| de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional sea de 30 km/h o mayor (cuando I ?? | > 30km/h) , e incrementa el valor de conteo por XI, como se muestra en la FIGURA 11. Cuando la luminosidad de las áreas de detección Al, A2 es menor que un valor predeterminado (por ejemplo, cuando se puede determinar durante el día) , la unidad 34 de evaluación de objetos tridimensionales incrementan el valor de conteo por X2 cuando el valor absoluto | ?? | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional sea de 30 km/h o mayor (cuando | ?? | > 30km/h) . en este caso, X2 es un valor más pequeño que XI (XI > X2 ) . Esto es debido al hecho de que cuando es durante la noche (cuando la luminosidad es menor que un valor predeterminado) , el contraste de la imagen capturada es inferior y el grado de certeza que el objeto tridimensional se pueda evaluar para que ser un objeto de no detección es baja.
Cuando la luminosidad está en un valor predeterminado o mayor (cuando se puede determinar durante el dia) , la unidad 34 de evaluación de objetos tridimensionales determina la posibilidad para que sea inferior que el objeto tridimensional sea un objeto de no detección que tiene variabilidad considerable en los componentes de borde y otra información de imagen cuando el valor absoluto I ?? | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional sea menor que 30 km/h y mayor que 10 km/h (30 km/h > I ?? I = 10 km/h), y decrece el valor de conteo por Yl, como se ilustro en la FIGURA 11. Cuando la luminosidad es menor que un valor predeterminado (por ejemplo, cuando se puede determinar durante la noche) , la unidad 34 de evaluación de objetos tridimensionales decrece el valor de conteo por Y2 cuando el valor absoluto | ?? | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional es menor que 30 km/h y mayor que 10 km/h (cuando 30 km/h > I ?? I > 10 km/h) . En este caso, Y2 es una valor más pequeño que Yl (Yl > Y2 ) de la misma manera como XI, X2.
Además, cuando el luminosidad o brillantez es un valor predeterminado o más grande (cuando se puede determinar durante el dia) , la unidad 34 de evaluación de objetos tridimensionales determina además la posibilidad de ser alto, que el objeto tridimensional sea un objeto de no detección que tenga variabilidad considerable en el componente de borde y la otra información de imagen cuando el valor absoluto | ?V| de la cantidad de cambio en el tiempo de la velocidad de movimiento relativo del objeto tridimensional sea menor que 10 km/h (10 km/h > valor absoluto I ?? | ) , y disminuye el valor de conteo por Zl, como se ilustro en la FIGURA 11. En este caso, Zl es un valor mayor que Yl (Zl > Yl) . Esto es debido a la superficie que, cuando el valor absoluto | ?V| de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional es menor que 10 km/h (10 km/h > valor absoluto I ?V| ) , la posibilidad de que el objeto tridimensional sea un vehículo adyacente que es más grande y el grado de certeza de que el objeto tridimensional puede estar evaluado para ser un objeto de no detección es inferior en comparación con el valor absoluto I ?? I de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional es menor que 30 km/h y 10 km/h [o mayor que] (30 km/h > valor absoluto I ?? I = 10 km/h). También, cuando la luminosidad o brillantez es menor que un valor predeterminado (cuando se puede determinar durante el día) , la unidad 34 de evaluación de objetos tridimensionales disminuye el valor de conteo por Z2 cuando el valor absoluto I ?? | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativo del objeto tridimensional es menor que 10 km/h (10 km/h > valor absoluto I ?? I ) . En este caso, Z2 es un valor mayor que Y2, en la misma manera como Zl (Zl > Z2), y Z2 es un valor menor que Zl (Zl > Z2), en la misma manera que XI y X2.
Como resultado del aumento o disminución del valor de conteo de acuerdo con la variabilidad del valor absoluto I ?? | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional, como se ilustro en la FIGURA 11, la unidad 34 de evaluación de objetos tridimensionales evalúa que el objeto tridimensional es un objeto de no detección cuando el valor de conteo es una primer valor Si umbral o mayor ilustrado en la FIGURA 10.
Además, la unidad 34 de evaluación de objetos tridimensionales cancela la evaluación de que el objeto tridimensional es un objeto de no detección después del valor de conteo que se ha convertido en el primer valor Si umbral o mayor y el valor de conteo es además menor que un segundo valor S2 umbral, como se ilustro en la FIGURA 10. Por ejemplo, en el ejemplo ilustrado en la FIGURA 10, el valor de conteo es el primer valor Si umbral o mayor en el tiempo ti, asi que se evalúa que el objeto tridimensional detectado es un objeto de no detección en el tiempo ti, y después de eso, al tiempo t2, el valor de conteo es menor que el segundo valor S2 umbral y por lo tanto se evalúa que el objeto tridimensional detectado no es un objeto de no detección en el tiempo t2. Además, en el ejemplo ilustrado en la FIGURA 10, el valor de conteo nuevamente se convierte en el primer valor si umbral o mayor en el tiempo t3, y por lo tanto se evalúa que el objeto tridimensional detectado es un objeto de no detección en el tiempo t3.
En el ejemplo ilustrado en la FIGURA 10, el primer valor Si umbral se proporciona como un valor de limite superior de manera que el valor de conteo no se convierta como el primer valor Si umbral o mayor cuando el valor absoluto | AV | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional sea de 30 km/h o mayor (valor absoluto | ?? | = 30 km/h) . El valor de conteo se vuelve un valor igual al primer valor Si umbral que por lo tanto se puede reducir rápidamente menor que el segundo valor S2 umbral en la presente modalidad cuando un vehículo adyacente viaja en un carril adyacente que realmente ha sido detectado, por lo tanto permite la detección adecuada de un vehículo adyacente. En el ejemplo ilustrado en la FIGURA 10, el primero valor Si umbral se ajusta como el valor de limite superior del valor de conteo, pero ninguna limitación se impone por lo tanto, y es posible ajustar un valor mayor que el primero valor Si umbral como el valor de limite superior del valor de conteo, o establecer un valor menor que el primero valor Si umbral como el valor de limite superior del valor de conteo.
La unidad 34 de evaluación de objetos tridimensionales aumenta o disminuye el valor de conteo en esta manera para asi evaluar si el objeto tridimensional detectado por la unidad 33 de detección de objetos tridimensionales es un objeto de no detección, e inhibe la detección del objeto tridimensional detectado como un vehículo adyacente cuando el objeto tridimensional detectado se ha evaluado para ser un objeto de no detección. Es por lo tanto posible prevenir eficazmente crecimiento de plantas y otros objetos de no detección de que estén detectados erróneamente como un vehículo adyacente.
A continuación se describe el proceso para detectar un vehículo adyacente de acuerdo con la presente modalidad. Las FIGURAS 12 y 13 son diagramas de flujo que ilustran procesos para detectar un vehículo adyacente conforme a la presente modalidad. Primero, datos de una imagen P capturada se adquiere por la computadora 30 de la cámara 10 (paso S101), y datos de una imagen PBt de vita a ojo de pájaro se genera (paso S102) en base en datos de la imagen P capturada asi adquirida, como se ilustra en las FIGURAS 12 y 13.
Después, la unidad 33 de alineación alinea los datos PBt de imagen de vita a ojo de pájaro y los datos PBt-i de imagen de vita a ojo de pájaro en un único momento previo, genera datos PDt de imagen de diferencia en (paso S103) . La unidad 33 de detección de objetos tridimensionales luego cuenta el número de pixeles DP de diferencia que tiene un valor de pixel de "1" para generar una forma de onda DWt de diferencia de la imagen PDt de diferencia (paso S104) .
La unidad 33 de detección de objetos tridimensionales determina luego si un pico en la forma de onda DWt de diferencia es una valor a umbral predeterminado o mayor (paso S105) . Cuando el pico de la forma de onda DWt de diferencia no es un valor a umbral o mayor, por ejemplo, cuando esencialmente no hay diferencia, es posible que un objeto tridimensional no esté presente en la imagen P capturada. En consecuencia, cuando se ha determinado que el pico de la forma de onda DWt de diferencia no es un valor a umbral o mayor (paso S105= No), la unidad 33 de detección de objetos tridimensionales determina que otro vehículo no está presente en que un objeto tridimensional no esté presente (paso S130 in la FIGURA 13) .
De la otra mano, cuando el pico en la forma de onda DWt de diferencia se determina para ser un valor a umbral o mayor (paso S105 = Sí), la unidad de detección de objetos tridimensionales determina que un objeto tridimensional está presente en el carril adyacente y procede al paso S106 donde la forma de onda DWt de diferencia se divide en una pluralidad de áreas pequeñas Dti a DWtn por la unidad 33 de detección de objetos tridimensionales. La unidad 33 de detección de objetos tridimensionales imparte después la ponderación a cada una de las áreas pequeñas D ti a DWtn (paso S107), calcula la cantidad de desplazamiento para cada una de las áreas pequeñas DWti a DWtn (paso S108), y genera un histograma con consideración dada para las ponderaciones (paso S109) .
La unidad 33 de detección de objetos tridimensionales calcula la distancia de movimiento relativo, el cual es la distancia de movimiento del vehículo adyacente en relación al vehículo principal, en base al histograma (paso S110), y diferencias de tiempo de diferencia de la distancia de movimiento relativo calculado para de este modo calcular la velocidad de movimiento relativo (paso Slll) . La unidad 33 de detección de objetos tridimensionales añade además la velocidad detectada del vehículo principal por el sensor 20 de velocidad y calcula la velocidad de movimiento absoluta del vehículo adyacente (paso S112).
Proceder a la FIGURA 13, la unidad 34 de evaluación de objetos tridimensionales determina (paso S113) si el valor absoluto I ?\71 de la cantidad de cambio en el tiempo de la velocidad de movimiento relativo del objeto tridimensional es de 30 km/h o más grande (valor absoluto I ?? | 30 km/h) . Cuando el valor absoluto | ?? | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional es de 30 km/h o mayor (valor absoluto | ?? | = 30 km/h (paso S113 =Sí)) y cuando la luminosidad del área de detección A es una valor predeterminado o mayor (paso S114 = Si), el valor de conteo se incrementa por XI (paso S115) , como se ilustro en la FIGURA 11. Cuando el valor absoluto | ?? | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional es de 30 km/h o más grande (valor absoluto I ?? | > 30 km/h (paso S113= Si)) y cuando la luminosidad del área de detección Al es menor que el valor predeterminado (paso S114 = No) , la unidad 34 de evaluación de objetos tridimensionales aumenta el valor de conteo por X2 (paso S116) , como se ilustro en la FIGURA 11.
Cuando el valor absoluto | ?? | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional es menor que 30 km/h y mayor que 10 km/h (30 km/h > valor absoluto | ?? | > 10 km/h (paso S117 = Si)), y cuando la luminosidad del área de detección Al es un valor predeterminado o mayor (paso S118 = Si), la unidad 34 de evaluación de objetos tridimensionales disminuye el valor de conteo por Yl (paso S119) , como se ilustra en la FIGURA 11.
También, cuando el valor absoluto | ?? | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativo del objeto tridimensional es menor que 30 km/h y mayor que 10 km/h (30 km/h > valor absoluto | ?? | > 10 km/h (paso S117 = Si)), y cuando la luminosidad del área de detección Al es menor que el valor predeterminado (paso S118 = no) , la unidad 34 de evaluación de objetos tridimensionales disminuye el valor de conteo por Y2 (paso S120), como se ilustra en la FIGURA 11.
Además, cuando el valor absoluto | AV| de la cantidad de cambio en el tiempo de la velocidad de movimiento relativo del objeto tridimensional es menor que 10 km/h (10km/h > valor absoluto I ?? I (paso S117 = No)), y cuando la luminosidad del área de detección Al está en valor predeterminado o mayor (paso S121 = Si), la unidad 34 de evaluación de objetos tridimensionales disminuye el valor de conteo por Zl (paso 5122) , como se ilustra en la FIGURA 11. Cuando el valor absoluto I ?? I de la cantidad de cambio en tiempo de la velocidad de movimiento relativo del objeto tridimensional es menor que 10 km/h (paso S117 = No) , y cuando la luminosidad del área de detección Al es menor que el valor predeterminado (paso S121 = No), la unidad 34 de evaluación de objetos tridimensionales disminuye el valor de conteo por Z2 (paso 5123) , como se ilustra en la FIGURA 11.
En el paso S124, la unidad 34 de evaluación de objetos tridimensionales determina si el valor de conteo es el primero valor Si umbral o mayor ilustrado en la FIGURA 10. El proceso procede al paso S129 cuando el valor de conteo está en el primer valor Si umbral o mayor, y el objeto tridimensional detectado se evalúa para ser un objeto de no detección por la unidad 34 de evaluación de objetos tridimensionales. El proceso después de eso procede al paso S130, y un vehículo adyacente se determina para no estar presente en un carril adyacente por la unidad 34 de evaluación de objetos tridimensionales. De la otra mano, cuando el valor de conteo es menor que el primer valor Si umbral, el proceso procede al paso S125.
En el paso S125, después de que el valor de conteo se vuelve igual o mayor que el primero valor Si umbral, la unidad 34 de evaluación de objetos tridimensionales determina si el valor de conteo se vuelve menor que el primero valor Si umbral ilustrado en la FIGURA 10, y además se ha vuelto menor que el segundo valor s2 umbral. En otras palabras, el valor de conteo se convierte una vez menor que el segundo valor S2 umbral. En otras palabras, el valor de conteo se ha vuelto menor que el primer valor Si umbral, el proceso procede al paso S129 cuando el valor de conteo se hace el segundo valor S2 umbral. La unidad 34 de evaluación de objetos tridimensionales evalúa si el objeto tridimensional es un objeto de no detección, y la unidad 34 de evaluación de objetos tridimensionales determina después de eso que un vehículo adyacente no está presente en un carril adyacente (paso S129) . Por otra parte, después de que el valor de conteo se ha convertido menos que el segundo valor S2 umbral, el proceso procede al paso S126, el objeto tridimensional detectado se evalúa para no ser un objeto de no detección por la unidad 34 de evaluación de objetos tridimensionales, y el proceso procede al paso S127. Cuando el valor de conteo no ha vuelto a ser igual o mayor que el primer valor si umbral, el proceso naturalmente procede al paso S126 cuando el valor de conteo es menor que el primer valor Si umbral y está en el segundo valor S2 umbral o mayor.
En el paso S127, la unidad 34 de evaluación de objetos tridimensionales determina si la velocidad de movimiento absoluta del vehículo adyacente es 10 km/h o más y si la velocidad de movimiento relativa del vehículo adyacente en relación al vehículo principal es +60 km/h o menos. Cuando se satisfacen ambas condiciones (paso S127 = Sí), la unidad 34 de evaluación de objetos tridimensionales determina que un vehículo adyacente está presente en el carril adyacente (paso S128) . Por otra parte, cuando cualquiera de las condiciones no están satisfechas (paso S127 = No) , la unidad 34 de evaluación de objetos tridimensionales determina que un vehículo adyacente no está presente en la línea adyacente (paso S130) . El proceso que regresa al paso S101 ilustrado en la FIGURA 13 y repite el proceso descrito arriba.
En la presente modalidad, las áreas de detección Al, A2 son las direcciones laterales hacia atrás del vehículo principal, y el foco se coloca si el vehículo principal puede posiblemente hacer contacto con un vehículo adyacente se debe hacer un cambio de carril. Por consiguiente, se implementa el proceso de paso S127. En otras palabras, asumiendo que el sistema en la presente modalidad se acciona en una autopista, cuando la velocidad de un vehículo adyacente es menor a 10 km/h, podría ser un problema raramente incluso si un vehículo adyacente fuera a ser presentado pos se podría posicionar muy por detrás del vehículo principal cuando se hace un cambio de carril. Similarmente, cuando la velocidad de movimiento relativa de un vehículo adyacente excede +60 km/h en relación al vehículo principal (por ejemplo, cuando el vehículo adyacente se mueve a una velocidad de 60 km/h mayor que la velocidad del vehículo principal), podría raramente ser un problema porque el vehículo adyacente podría posicionarse adelante del vehículo principal cuando se haga un cambio de carril .
En consecuencia, se puede interpretar que un vehículo adyacente, el cual podría ser un problema debería de cambiar de carril, esto se determina en el paso S127.
En el paso S127, se determina si la velocidad de movimiento absoluta del vehículo adyacente es de 10 km/h o mayor, y si la velocidad de movimiento relativa del vehículo adyacente en relación al vehículo principal sea de +60 km/h o menos, por lo tanto se obtiene el siguiente efecto. Por ejemplo, un posible caso es que la velocidad de movimiento absoluta de un objeto estacionario se detecta para ser de varios kilómetros por hora dependiendo en el error de fijación de la cámara 10. Por consiguiente, determina si la velocidad es de 10 km/h o mayor lo hace posible reducir la posibilidad de que el objeto estacionario se determinara para ser un vehículo adyacente. También, es posible que la velocidad relativa de un vehículo adyacente en relación al vehículo principal será detectado para estar en exceso de +60 km/h debido al ruido. Por consiguiente, determinar si la velocidad relativa es de +60 km/h o menos lo hace posible para reducir la posibilidad de detección errante debido al ruido.
En lugar del proceso en el paso S127, se puede determinar que la velocidad de movimiento absoluta del vehículo adyacente no es un valor negativo, o no es de 0 km/h. También, en la presente modalidad, ya que se hace hincapié en si hay una posibilidad que contacte si será hecho que el vehículo principal debería hace un cambio de carril, se podría emitir un sonido de advertencia al conductor del vehículo principal, o se podría proporcionar un dispositivo de pantalla correspondiente a un advertencia por un dispositivo visual predeterminado cuando un vehículo adyacente ha sido detectado en el paso S128.
Así, en la primera modalidad, dos imágenes obtenidas en diferentes momentos se convierten en imágenes de vista a ojo de pájaro, y una imagen PDt de diferencia se genera en base a la diferencia entre las imágenes de vita a ojo de pájaro. El número de pixeles que indica una diferencia predeterminada se cuenta a lo largo de la dirección en la cual el objeto tridimensional colapsa debido a la conversión del punto de vista y una distribución de frecuencia formada para de este modo generar una forma de onda DWt de diferencia de los datos PDt de imagen de diferencia. Además se detecta un objeto tridimensional en base a las forma de onda D t de diferencia generadas, y se evalúa si el objeto tridimensional detectado es una planta, nieve, barandilla u otro objeto de no detección en base al valor absoluto |??? de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional detectado. En este caso, por ejemplo, componentes de borde discontinuos tienden a ser detectados en números considerables cuando una imagen capturada en la cual plantas, nieve, barandillas, u otros objetos de no detección han sido capturados para someterse a procesamiento de borde. Esto es debido al hecho que la información de imagen de los objetos de no detección tienden a tener una alta cantidad de variabilidad de información de imagen. Por consiguiente, en la presente modalidad, el valor absoluto | ?V| de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa de un objeto t idimensional se detecta como la cantidad de variabilidad en la información de imagen, y la determinación de un objeto tridimensional para ser un objeto de no detección en moda acorde a la magnitud del valor absoluto detectado | ?V| permite plantas, nieve, barandillas u otros objetos de no detección que se pueden detectar adecuadamente y pos consiguiente lo hace posible para prevenir efectivamente un objeto de no detección de que este se detecte erróneamente como un vehículo adyacente.
A la inversa, en la presente modalidad, se determina la posibilidad de que el objeto tridimensional detectado sea un vehículo que es mayor en moda acorde al valor absoluto inferior I ?? I de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional, y como un resultado, el objeto tridimensional detectado se determina más fácilmente para ser otro vehículo y por lo tanto se puede detectar adecuadamente un objeto tridimensional.
También, en la presente modalidad, cuando el valor absoluto I ?? I de la cantidad de cambio de la velocidad de movimiento relativa del objeto tridimensional es alta, el valor de conteo se incrementa, y cuando el valor de conteo acumulativo ha alcanzado el primero valor Si umbral o mayor, se evalúa el objeto tridimensional para que sea un objeto de no detección, por lo tanto permite la precisión para detectar un objeto de no detección mejorado. Similarmente, incluso después de que el valor de conteo ha alcanzado el primer valor Si umbral, se evalúa el objeto tridimensional pata que sea un objeto de no detección hasta que el valor de conteo sea menos que el segundo valor S2 umbral y cuando el valor de conteo se ha convertido menos que el segundo valor S2 umbral, se evalúa el objeto tridimensional para que no sea un objeto de no detección, y por lo tanto que permita la precisión para detectar un objeto de no detección para ser mejorado.
Modalidad 2 Se describe a continuación un dispositivo la de detección de objetos tridimensionales para la segunda modalidad. El dispositivo la de detección de objetos tridimensionales conforme a la segunda modalidad es lo mismo como a la primera modalidad, excepto que se proporciona una computadora 30a en lugar de la computadora 30 de la primera modalidad, como se ilustra en la FIGURA 14, y la operación se describe más adelante. Aquí, en la FIGURA 14 es una vista de bloques que ilustra los detalles de la computadora 30a conforme a la segunda modalidad.
El dispositivo la de detección de objetos tridimensionales conforme a la segunda modalidad se le proporciona una cámara 10 y una computadora 30a, como se ilustra en la FIGURA 14. Se proporciona a la computadora 30a con una unidad 31 de conversión de punto de vista, una unidad 34 de cálculo de diferencia de luminancia, una unidad 35 de detección de linea de borde, una unidad 33a de detección de objetos tridimensionales, y una unidad 34a de evaluación de objetos tridimensionales. La configuración del dispositivo la de detección de objetos tridimensionales conforme a la segunda modalidad se describe más abajo.
Las FIGURAS 15 (a) y 15 (b) son unas vistas que ilustran el rango de imagen de la cámara 10 en la FIGURA 14, FIGURA 15(a) es una vista plana, y FIGURA 15(b) que es una perspectiva de vista en espacio real posterior del vehículo principal VI. La cámara 10 se ajusta a un ángulo a de vista predeterminado, y el lado hacia atrás del vehículo VI principal incluido se calcula en el ángulo a de vista se captura, como se ilustra en la FIGURA 15(a) . El ángulo a de vista de la cámara 10 se ajusta para que los carriles adyacentes estén incluidos en el rango de imagen de la cámara 10 en adición al carril en la cual el vehículo VI principal viaje, de la misma manera como se ilustra en la FIGURA 2.
Las áreas de detección Al, A2 en el presente ejemplo son trapezoidales en una vista plana (estado de vita a ojo de pájaro) , la posición, tamaño, y forma de las áreas de detección Al, A2 se decidieron en base en las distancias dx a d4. Las áreas de detección A1( A2 del ejemplo ilustrado en el dibujo no se limitan para ser trapezoidales, y también pueden ser rectangulares o de otra forma en el estado de vita a ojo de pájaro, como se ilustro en la FIGURA 2.
Aquí, la distancia di es la distancia del vehículo VI principal a las lineas de tierra Ll, L2. Las lineas Ll, L2 se refieren a una linea en la cual un objeto tridimensional, el cual está presente en un carril adyacente al carril en el cual está viajando el vehículo principal VI, está en contacto con el suelo. En la presente modalidad, un objeto esta para detectar un vehículo adyacente V2 o similar (incluyendo vehículos de dos ruedas o similares) viajando en el carril izquierdo o derecho detrás del vehículo principal VI y adyacente al carril del vehículo principal VI. Por consiguiente, la distancia di, la cual es la posición de las líneas de suelo Ll, L2 del vehículo adyacente V2 , que se puede decidir de manera que se ajuste sustancialmente de la distancia dll del vehículo principal VI a una línea blanca W y la distancia dl2 de la línea blanca W a la posición en la cual se prevea el viaje del vehículo adyacente V2.
La distancia di no está limitada para que este fijamente decidida, y puede ser variable. En este caso, la computadora 30a reconoce la posición de la línea blanca w en relación al vehículo principal VI usando el reconocimiento de línea blanca u otra técnica, y se decide la distancia dll en base a la posición de la línea blanca W reconocida. La distancia di por lo tanto se ajusta variablemente usando la distancia decidida dll. En la presente modalidad descrita abajo, la posición en la cual el vehículo adyacente V2 está viajando (la distancia dl2 de la línea blanca W) y la posición en la cual el vehículo principal VI está viajando (la distancia dll de la linea blanca W) es mayormente predecible, y la distancia di esta fijamente decidida .
Una distancia d2 es la distancia que se extiende de la parte de extremo trasero del vehículo principal VI en la dirección de progreso del vehículo. La distancia d2 está decidida para que las áreas de detección Al, A2 se acomoden dentro de al menos el ángulo a de vista de la cámara 10. En la presente modalidad en particular, la distancia d2 se ajusta de manera que este en contacto con un rango dividido dentro del ángulo a de vista. La distancia d3 indica la longitud de las áreas de detección Al, A2 en la dirección de progresión del vehículo. La distancia d3 está decidida en base en el tamaño del objeto tridimensional a ser detectado. En la presente modalidad, el objeto a ser detectado es un vehículo adyacente V2 o similar, y por lo tanto la distancia d3 se ajusta a la longitud que incluye al vehículo adyacente V2.
La distancia d4 indica la altura, la cual ha sido ajustada para que los neumáticos del vehículo adyacente V2 o similares estén incluidos en espacio real, como se ilustra en la FIGURA 15(b) . En una imagen de vita a ojo de pájaro, la distancia d4 es la longitud ilustrada en la FIGURA 15(a) . la distancia d4 puede también ser una longitud que no incluye más carriles adyacentes a los carriles de izquierda y derecha en la imagen de vita a ojo de pájaro (por ejemplo, dos carriles adyacente-adyacente dos carriles de distancia) . Esto es porque cuando los carriles de los dos carriles de distancia del carril del vehículo adyacente VI están incluidos, ya no es posible para distinguir si un vehículo adyacente V2 está presente en los carriles adyacente a la izquierda y derecha del carril en el cual está viajando el viajando el vehículo principal VI, o si un vehículo adyacente-adyacente está presente en un carril adyacente-adyacente de dos carriles de distancia.
Como se describió arriba ya están decididas di a d4, y la posición, tamaño, y forma de las áreas de detección Al, A2 ya están por lo tanto decididas. Más específicamente, la posición del lado superior bl de las áreas de detección Al, A2 que forma un trapezoide está decidido por la distancia di. La posición Cl de inicio del lado superior bl está decidida por la distancia d2. La posición final C2 del lado superior bl está decidida por la distancia d3. El lado lateral b2 de las áreas de detección Al, A2 que forman el trapezoide está decidido por una línea derecha L3 que se extiende de la cámara 10 hacia la posición de inicio Cl. Similarmente, el lado lateral b3 de las áreas de detecciónAl, A2 que forman un trapezoide está marcado por una línea L4 que se extiende de la cámara 10 hacia la posición final C2. La posición del lado b4 inferior de las áreas de detección Al, A2 que forman un trapezoide se marca por la distancia d4. De esta manera, las áreas rodeadas por los lados bl a b4 son las áreas de detección Al, A2. Las áreas de detección Al, A2 son cuadrados regulares (rectángulos) en espacio real hacia atrás del vehículo principal VI, como se ilustra en las FIGURA 15(b) .
Regresando a la FIGURA 14, la unidad 31 de conversión de punto de vista acepta la entrada de datos de imagen capturados de un área predeterminada capturada por la cámara 10. La unidad 31 de conversión de puntos de vista convierte los puntos de vista de los datos de imagen capturados introducidos en datos de imagen de vita a ojo de pájaro, el cual es un estado de vita a ojo de pájaro. Un estado de vita a ojo de pájaro es una condición de la visión del punto de vista de una cámara imaginaria que está mirando hacia abajo, por ejemplo, verticalmente hacia abajo (o ligeramente inclinada hacia abajo) . La conversión del punto de vista se puede llevar a cabo utilizando las técnicas descritas en, por ejemplo, la Aplicación de Patente Japonesa Expuesta al Público número 2008-219063.
La unidad 34 de cálculo de diferencia de luminancia calcula las diferencias de luminancia en los datos de imagen de vita a ojo de pájaro, el cual tiene la conversión de punto de vista experimentada por la unidad 31 de conversión de punto de vista, en orden para detectar los bordes de un objeto tridimensional incluido en la imagen de vita a ojo de pájaro. La unidad 34 de cálculo de diferencia de luminancia calcula, para cada una de una pluralidad de posiciones a lo largo de una linea imaginaria perpendicular que se extiende a lo largo de la dirección perpendicular en espacio real, la diferencia de luminancia entre los dos pixeles está cerca de cada posición. La unidad 34 de cálculo de diferencia de luminancia es capaz de calcular la diferencia de luminancia por un método para establecer una sonda linea imaginaria perpendicular que se extiende en la dirección perpendicular en espacio real, o un método para establecer dos lineas imaginarias perpendiculares.
Como se describe abajo es el método específico para establecer dos líneas imaginarias perpendiculares. La unidad 34 de cálculo de diferencia de luminancia establece una primera línea imaginaria perpendicular que corresponde a un segmento de línea que se extiende en la dirección perpendicular en espacio real, y una segunda línea imaginaria perpendicular que es diferente de la primera línea imaginaria perpendicular y que corresponde al segmento de línea que se extiende en la dirección perpendicular en espacio real. La unidad 34 de cálculo de diferencia de luminancia determina la diferencia de luminancia entre un punto sobre la primera línea imaginaria perpendicular y un punto en la segunda línea imaginaria perpendicular en manera continua a lo largo de la primera línea imaginaria perpendicular y la segunda línea imaginaria perpendicular. La operación de la unidad 34 de cálculo de diferencia de luminancia se describe con detalle más adelante.
La unidad 34 de diferencia de luminancia establece una primera línea La imaginaria perpendicular (a continuación referida como línea La de atención) que corresponde a una segmento de línea que se extiende en dirección perpendicular en espacio real y que pasa a través del área Al de detección, como se ilustra en la FIGURA 16(a) . la unidad 35 de cálculo de diferencia de luminancia establece una segunda línea Lr imaginaria perpendicular (a continuación referida como línea Lr de referencia) que es diferente de la línea La de atención, corresponde al segmento de línea que se extiende en dirección perpendicular en espacio real, y pasa a través del área Al de detección. Aquí, la línea Lr de referencia es ajustar a una posición a una distancia de la línea La de atención por una distancia predeterminada en espacio real. Las líneas que corresponden a los segmentos de línea que se extienden en la dirección perpendicular en espacio real son líneas que se extienden en dirección radial de la posición Ps de la cámara 10 en una imagen de vita a ojo de pájaro. Estas líneas extendiéndose en dirección radial son líneas que siguen la dirección de colapso del objeto tridimensional convertido a una vita a ojo de pájaro.
La unidad 34 de cálculo de diferencia de luminancia establece un punto de atención Pa en la línea de atención La (un punto en la primer línea imaginaria perpendicular) . La unidad 34 de cálculo de diferencia de luminancia establece un punto Pr de referencia en la línea Lr de referencia (un punto en la segunda linea imaginaria perpendicular) . La linea La de atención, el punto Pa de atención, la linea Lr de referencia, y el punto Pr de referencia tienen la relación en espacio real ilustrado en la FIGURA 16(b) . Es aparente de la FIGURA 16(b) que la linea La de atención y la linea Lr de referencia son lineas que se extienden en la dirección perpendicular en espacio real, y que el punto de atención Pa y el punto Pr de referencia son puntos establecidos para sustancialmente la misma altura en el espacio real. El punto Pa de atención y el punto Pr de referencia requieren de que se mantengan rigurosamente a la misma altura, y una cierta cantidad de error que permite para el punto Pa de atención y el punto Pr de referencia que se consideren a la misma altura permitida.
La unidad 34 de cálculo de diferencia de luminancia determina la diferencia de luminancia entre el punto Pa de atención y el punto Pr de referencia. Si la diferencia de luminancia entre el punto Pa de atención y el punto Pr de referencia es grande, es posible que esté presente un borde entre el punto Pa de atención y el punto Pr de referencia. En particular en la segunda modalidad, una linea imaginaria perpendicular se establece como un segmento de linea que se extiende en la dirección perpendicular en espacio real en relación a la imagen de vita a ojo de pájaro, en orden para detectar un objeto tridimensional presente en las áreas de detección Al, A2. Por lo tanto, hay una alta posibilidad que haya un borde de un objeto tridimensional en la locación donde la línea La de atención se ha establecido cuando la diferencia de luminancia entre la línea La de atención y la línea Lr de referencia es alta. En consecuencia, la unidad 35 de detección de línea de borde ilustrada en la FIGURA 14 detecta una línea de borde en base de la diferencia de luminancia entre el punto Pa de atención y el punto Pr de referencia.
Este punto será descrito con mayor detalle. Las FIGURAS 17 (a) y 17 (b) son unas vistas para describir la operación detallada de la unidad 35 de cálculo de diferencia de luminancia. La FIGURA 17(a) ilustra una imagen de vita a ojo de pájaro del estado de vita a ojo de pájaro, y la FIGURA 17(b) es una vista agrandada de la imagen a vita a ojo de pájaro ilustrada en la FIGURA 17(a) en la FIGURA 17(a), solo el área de detección Al está ilustrada y descrita, pero la diferencia de luminancia se calcula usando el mismo procedimiento para el área de detección A2.
Cuando el vehículo V2 adyacente está siendo desplegado en la imagen capturada tomada por la cámara 10, el vehículo V2 adyacente aparece en el área Al de detección en la imagen de vita a ojo de pájaro, como se ilustro en la FIGURA 17(a). la línea La de atención se establece en una porción de goma de un neumático del vehículo V2 adyacente en la imagen a vita a ojo de pájaro en la FIGURA 17(b), como se ilustra en la vista agrandada del área Bl en la FIGURA 17 (a) en este estado, primero, la unidad 35 de cálculo de diferencia de luminancia establece la linea Lr de referencia. La linea Lr de referencia se establece a lo largo de la dirección perpendicular en una posición que establece una distancia predeterminada en espacio real de la linea La de atención. Específicamente, en el dispositivo la de detección de objetos tridimensionales conforme a la presente modalidad, la línea Lr de referencia se establece en una posición a una distancia de 10 cm fuera del espacio real de la línea La de atención. La línea Lr de referencia es por lo tanto establecida en la rueda del neumático del vehículo V2 adyacente, por ejemplo, a un distancia que corresponde a 10 cm de la goma del neumático del vehículo V2 adyacente en la imagen a vita a ojo de pájaro.
Después, la unidad 34 de cálculo de diferencia de luminancia establece una pluralidad de puntos de atención Pal a PaN en la línea La de atención. En la FIGURA 17(b), seis puntos de atención Pal a Pa6 (referido a continuación como punto de atención Pai cuando se indica un punto arbitrario) se establecen para conveniencia de la descripción. Se puede establecer un número arbitrario de los puntos Pa de atención en la línea La de atención. En la descripción de abajo, N puntos de atención Pa se establecen en la línea La de atención.
La unidad 34 de cálculo de diferencia de luminancia establece subsecuentemente los puntos de referencia Prl a PrN de manera que tenga la misma altura como los puntos de atención Pal a PaN en espacio real. La unidad 34 de cálculo de diferencia de luminancia calcula la diferencia de luminancia entre el punto Pa de atención y el punto Pr de referencia pares a la misma altura. La unidad 34 de cálculo de diferencia de luminancia calcula por lo tanto la diferencia de luminancia entre dos pixeles para cada una de la pluralidad de posiciones (1-N) a lo largo de la linea imaginaria perpendicular que se extiende en la dirección perpendicular en espacio real. La unidad 34 de cálculo de diferencia de luminancia calcula la diferencia de luminancia entre, por ejemplo, un primer punto Pal de atención y un primero punto Prl de referencia, y calcula la diferencia de luminancia entre un segundo punto Pa2 de atención y un segundo punto Pr2 de referencia. La unidad 34 de cálculo de diferencia de luminancia determina por lo tanto la diferencia de luminancia en modo continuo a lo largo de la linea La de atención y la linea Lr de referencia, en otras palabras, la unidad 34 de cálculo de diferencia de luminancia determina secuencialmente la diferencia de luminancia entre el tercero a Nth puntos de atención Pa3 a PaN y el tercero a Nth puntos de referencia Pr3 a PrN.
La unidad 34 de cálculo de diferencia de luminancia repite el proceso de ajustar la linea Lr de referencia descrita arriba, ajustar el punto Pa de atención, ajustar el punto Pr de referencia, y calcular la diferencia de luminancia mientras varia la linea La de atención dentro del área de detección Al. En otras palabras, la unidad 34 de cálculo de diferencia de luminancia ejecuta repetidamente el proceso descrito arriba mientras cambian las posiciones de la linea La de atención y la linea Lr de referencia por la misma distancia en espacio real a lo largo de la dirección en la cual se extiende la linea Ll de suelo. La unidad 34 de cálculo de diferencia de luminancia, por ejemplo, ajusta la linea que fue la linea Lr de referencia in el proceso previo para ser la línea La de atención, ajusta la línea Lr de referencia en relación a la línea La de atención, y determina secuencialmente la diferencia de luminancia.
De esta manera, en la segunda modalidad, la determinación de la diferencia de luminancia del punto Pa de atención en la línea La de atención y el punto Pr de referencia en la línea Lr de referencia, las cuales son sustancialmente la misma altura en el espacio real, permite la diferencia de luminancia que se detecte distintivamente cuando un borde se extienda en la dirección perpendicular que está presente. La precisión para detectar un objeto tridimensional se puede mejorar sin el proceso para detectar el objeto tridimensional que está afectado, incluso cuando se agranda el objeto tridimensional conforme con la altura de la superficie de camino por la conversión a una imagen a vita a ojo de pájaro en orden para comparar la luminancia entre las líneas imaginarias perpendiculares que se extienden en la dirección perpendicular en espacio real.
Regresando a la FIGURA 14, la unidad 35 de detección de línea detecta la linea de borde de la diferencia de luminancia continua calculada por la unidad 34 de cálculo de diferencia de luminancia. Por ejemplo, en el caso ilustrado en la FIGURA 17 (b) , el primero punto Pal de atención y el primer punto Prl de referencia se posicionan en la misma porción del neumático, y por lo tanto la diferencia de luminancia es pequeña. Por el otro lado, del segundo al sexto puntos de atención Pa2 a Pa6 se posicionan en las porciones de goma del neumático, y los de los puntos de referencia segundo al sexto Pr2 a Pr6 se posicionan en la porción de la rueda del neumático. Por lo tanto, la diferencia de luminancia entre el segundo al sexto puntos de atención Pa2 a Pa6 y el segundo al sexto puntos de referencia Pr2 a Pr6 es grande. Por consiguiente, la unidad 35 de detección de línea es capaz de detectar que un borde está presente entre el segundo y el sexto puntos de atención Pa2 a Pa 6 y el segundo al sexto de los puntos de referencia Pr2 a Pr6 donde la diferencia de luminancia es alta.
Específicamente, cuando una línea de borde se detecta, la unidad 35 de detección de línea de borde asigna primero un atributo al j_esimo punto de atención Pai de la diferencia de luminancia entre el _esimo punto de atención Pai (coordenadas (xi, yi)) y el iesimo punto Pri de referencia (coordenadas (xi' , yi' ) ) de acuerdo con la fórmula 1 anotada abajo.
[Formula 1 ] S (xi, yi) = 1 Cuando I(xi, yi) > I(xi', yi') + t S(xi, yi) = -1 Cuando I(xi, yi) < I (xi' , yi' ) - t S (xi, yi) = 0 Cuando lo de arriba no sea cierto.
En la fórmula 1 de arriba, t representa un valor umbral predeterminado, I (xi, yi) representa el valor de luminancia del iesimo punto de atención Pai, y I (xi' , yi' ) representa el valor de luminancia del iesimo punto Pri de referencia. De acuerdo con la fórmula 1, el atributo s(xi, yi) de punto de atención Pai es ? 1' cuando el valor de luminancia del punto de atención Pai es mayor que el valor de luminancia obtenido al añadir el valor umbral t al punto Pri de referencia. Por el otro lado, el atributo s (xi, yi) del punto de atención Pai es y-l' cuando el valor de luminancia del punto de atención Pai es menor que el valor de luminancia obtenido por la sustracción del valor umbral t del punto de referencia Pri. El atributo s(xi, yi) del punto de atención Pai es y0' cuando el valor de luminancia del punto de atención Pai y el valor de luminancia del punto de referencia Pri están en una relación distinta de la mencionada anteriormente .
Después, la unidad 35 de detección de linea de borde evalúa si la linea de atención La es una linea de borde de la continuidad c (xi, yi) del atributo s a lo largo de la linea La de atención en base de la siguiente fórmula 2.
[Formula 2] C(xi, yi) = 1 Cuando s (xi, yi) = s(xi + 1, yi + 1) (excluyendo cuando 0 = 0) c (xi, yi) = 0 Cuando lo de arriba no es verdad.
La continuidad c(xi, yi) es ?1' cuando el atributo s(xi, yi) del punto de atención Pai y el atributo s (xi + 1, yi + 1) del punto de atención adyacente Pai + 1 son lo mismo. La continuidad c(xi, yi) es ?0' cuando el atributo 5 (xi, yi) del punto de atención Pai y el atributo s (xi + 1, yi + 1) del punto de atención adyacente Pai + 1 no son lo mismo.
Después, la unidad 35 de detección de linea de borde determina la suma de las continuidades c de todos los puntos de atención Pa en la linea de atención La. La unidad 35 de detección de linea de borde divide la suma de las continuidades c asi determinadas por el número N de los puntos Pa de atención para de ese modo normalizar la continuidad c. la unidad 35 de detección de linea de borde determina la linea La de atención para ser una linea de borde cuando el valor normalizado ha excedido un valor T umbral. El valor T umbral se establece de antemano por experimentación u otros una unidad.
En otras palabras, la unidad 35 de detección de linea de borde determina si la linea de atención La es una linea de borde en base a la fórmula 3 anotada abajo. La unidad 35 de detección de línea de borde entonces determina si todas la lineas La de atención dibujadas en el área de detección Al son líneas de borde.
[Formula 3] ?c (xi, yi) /N > T De esta manera, en la segunda modalidad, se asigna un atributo al punto de atención Pa en base a la diferencia de luminancia entre el punto Pa de atención en la línea La de atención y el punto Pr de referencia en la línea de referencia Lr, y se determina si la línea La de atención es una línea de borde en la continuidad c de los atributos a lo largo de la línea La de atención. Por lo tanto, los límites entre áreas que tienen alta luminancia y áreas que tienen baja luminancia se detectan como líneas de borde, y se pueden detectar los bordes conforme con los sentidos naturales de un humano. Los resultados de lo anterior se describirán. La FIGURA 18 es una vista que ilustra un ejemplo de imagen para describir el proceso de la unidad 36 de detección de línea de borde. Este ejemplo de imagen es una imagen en la cual un primer patrón 101 de la raya y un segundo patrón 102 de la raya, son adyacentes una de otra, el primer patrón 101 de la raya indica un patrón de raya en el cual las áreas de alta luminancia y las áreas de baja luminancia se repiten, y el segundo patrón 102 de la raya indica un patrón de raya en el cual las áreas de baja luminancia y áreas de alta luminancia se repiten. También, en este ejemplo de imagen, las áreas del primer patrón 101 de la raya en la cual la luminancia es alta, y las áreas del segundo patrón 102 de la raya en el cual la luminancia es baja son adyacentes una de otra, y las áreas del primer patrón 101 de la raya en el cual la luminancia es baja, y las áreas del segundo patrón 102 de la raya en el cual la luminancia es alta son adyacentes una de otra. La locación 103 posicionada en el limite entre el primer patrón 101 de raya y el segundo patrón 102 de raya tiene a no ser percibido como un borde por los sentidos humanos.
En contraste, porgue las áreas de la baja luminancia y las áreas de la alta luminancia son adyacentes una de otra, la locación 103 se reconoce como un borde cuando se detecta un borde solo por diferencia de luminancia. Sin embargo, la unidad 35 de detección de linea de borde evalúa la locación 103 para ser una linea de borde solo cuando hay continuidad en los atributos de la diferencia de luminancia. Por lo tanto, la unidad 35 de detección de linea de borde es capaza de suprimir la evaluación errante en la cual la locación 103, la cual no está reconocida como una linea de borde por los sentidos humanos, se reconoce como una linea de borde, y los bordes se pueden detectar de acuerdo con los sentidos humanos.
Regresando a la FIGURA 14, la unidad 33a de detección de objetos tridimensionales detecta un objeto tridimensional en base en la cantidad de lineas de borde detectadas por la unidad 35 de detección de linea de borde. Como se describió arriba, el dispositivo la de detección de objetos tridimensionales conforme a la presente modalidad detecta una linea que se extiende en la dirección perpendicular en el espacio real. Detectando muchas lineas de borde que se extienden en la dirección perpendicular indica que hay una alta posibilidad de que se presente un objeto tridimensional en las áreas de detección Al, A2. En consecuencia, la unidad 33a de detección de objetos tridimensionales detecta objetos tridimensionales en base a la cantidad de lineas de borde detectadas por la unidad 35 de detección de lineas de borde. Específicamente, la unidad 33a de detección de objetos tridimensionales determina si la cantidad de líneas de borde detectados por la unidad 35 de detección de líneas de borde es un valor ß umbral predeterminado o mayor, las líneas de borde detectadas por la unidad 35 de detección de líneas de borde se determinan para ser las líneas de borde de un objeto tridimensional.
Además, previo a la detección de objetos tridimensionales, la unidad 33a de detección de objetos tridimensionales evalúa si las líneas de borde detectadas por la unidad 35 de detección de líneas de borde son correctas. La unidad 33a de detección de objetos tridimensionales evalúa si un cambio en la luminancia de las líneas de borde es una valor tb umbral predeterminado o mayor a lo largo de las líneas de borde de la imagen a vita a ojo de pájaro. Cuando el cambio en la luminancia en las líneas de borde en las imagen a vita a ojo de pájaro es una valor tb umbral predeterminado o mayor, las líneas de borde están decididos a que se han detectado por la evaluación errante. Por el otro lado, cuando el cambio en luminancia en las líneas de borde en la imagen a vita a ojo de pájaro es menor que una valor tb umbral predeterminado, se evalúa que las líneas de borde son correctas. El valor tb umbral se establece de antemano por la experimentación u otros una unidad.
Las FIGURAS 19(a) y 19(b) son unas vistas que ilustran la distribución de luminancia, la FIGURA 19 (a) ilustra la línea de borde y la distribución de luminancia cuando un vehículo V2 adyacente como un objeto tridimensional se presenta en el área Al de detección, y las FIGURA 19(b) ilustra la línea de borde y la distribución de luminancia cuando el objeto tridimensional no está presente en el área al de detección.
Como se ilustro en la FIGURA 19 (a) , se asume que se ha determinado que la línea La de detección establecida en la porción de neumático del vehículo V2 adyacente en una línea de borde en la imagen de vita a ojo de pájaro. En este caso, el cambio en luminancia en la línea La de atención en la imagen de vita a ojo de pájaro es gradual. Esto es debido a la imagen capturada por la cámara 10 que está convertida de punto de vista a imagen de vita a ojo de pájaro, por lo cual el neumático de vehículo adyacente se agranda dentro de la imagen de vita a ojo de pájaro. Por el otro lado, la linea de atención La se ajusta en la porción "50" de carácter blanco dibujado en la superficie de camino en la imagen de vita a ojo de pájaro que se asume que ha sido evaluada equivocadamente para ser una linea de borde como se ilustra en la FIGURA 19(b) . en este caso, el cambio en luminancia en la linea La de atención en la imagen a punto de vita a ojo de pájaro tiene ondulaciones considerables. Esto es porque la carretera y otras porciones de la luminancia baja se mezclan con las porciones de la alta luminancia en los caracteres blancos en la linea de borde.
La unidad 33a de detección de objetos tridimensionales evalúa si se ha detectado una linea de borde por evaluación errante en base de diferencias en la distribución de luminancia en la linea La de atención descrita arriba. Por ejemplo, un objeto tridimensional incluido en una imagen capturada tiende a aparecer en un estado agrandado en una imagen de vita a ojo de pájaro cuando la imagen capturada adquirida por la cámara 10 se convierte a una imagen a vita a ojo de pájaro. Como se describió arriba, cuando el neumático de un vehículo adyacente de amplia, cambia en la luminancia de la imagen de vita a ojo de pájaro en la dirección agrandada tiende a ser pequeña porque el neumático se amplía en una sonda locación. En contraste, cuando un carácter o similar dibujado en la superficie del camino se evalúa errantemente para ser una línea de borde, áreas tales que la porción del carácter tiene alta luminancia y áreas como la porción de la superficie del camino tienen baja luminancia se incluyen en la imagen de vita a ojo de pájaro en una manera entremezclados. En tal caso, los cambios en la luminancia en la dirección ampliada tienden a ser grandes. En consecuencia, la unidad 33a de detección de objetos tridimensionales determina gue se ha detectado la linea de borde por evaluación errante cuando el cambio en la luminancia a lo largo de la linea de borde es un valor tb umbral predeterminado o es mayor, y se determina que la línea de borde no es causa por un objeto tridimensional. Una reducción en la precisión para detectar un objeto tridimensional se suprime por lo tanto cuando los caracteres blancos como "50" en la superficie de camino, vegetación de lado del camino, y similares se evalúan para ser líneas de borde. Por el otro lado, la unidad 33a de detección de objetos tridimensionales determina que una línea de borde es la línea de borde de un objeto tridimensional y determina que el objeto tridimensional está presente cuando cambia en la luminancia a lo largo de la línea de borde que son menores que un valor tb umbral predeterminado.
Específicamente, la unidad 33a de detección de objetos tridimensionales calcula el cambio en la luminancia de la línea de borde usando la fórmula 4 o 5 anotada más abajo. El cambio en la luminancia de la línea de borde corresponde a la evaluación de valor en espacio real en la dirección perpendicular. La fórmula 4 evalúa la distribución de luminancia usando el valor total de la diferencia del cuadrado entre el iesimo valor de luminancia I(xi, yi) y el valor de luminancia iesimo + i adyacente I (xi + 1, yi + 1) en la linea de atención La. La Fórmula 5 evalúa la distribución de luminancia usando el valor total del valor absoluto de la diferencia entre el valor iesimo de luminancia I (xi, yi) y el valor iesimo + 1 de luminancia I (xi + 1, yi + 1) en la linea La de atención.
[Fórmula 4] El valor de evaluación en la dirección equivalente perpendicular = ?[{I(xi, yi) - I (xi + 1, yi + l)}2] [Fórmula 5] El valor de evaluación en la dirección equivalente perpendicular = ?|I(xi, yi) - I (xi + 1, yi + 1) 1 No se imponen limitación en el uso de la fórmula 5, y también es posible binarizar un atributo b de un valor de luminancia adyacente usando un valor t2 umbral, y lueqo sumar el atributo b binarizado para todos los puntos Pa de atención, como en la fórmula 6 anotada abajo.
[Fórmula 6] El valor de evaluación en la dirección equivalente perpendicular = ?b(xi, yi) donde b(xi, yi) = 1 cuando |I(xi, yi) - I(xi + 1, yi + 1) I > t2 y b(xi, yi) = 0 Cuando lo de arriba no es verdad.
El atributo b(xi, yi) del punto de atención Pa(xi, yi) es l' cuando el valor absoluto de la diferencia de luminancia entre el valor de luminancia del punto de atención Pai y el valor de luminancia del punto Pri de referencia es mayor que un valor t2 umbral. Cuando la relación de arriba no es verdadera, el atributo b(xi, yi) del punto Pai de atención es ?0'.
El valor t2 umbral se establece por adelantado por experimentación u otros una unidad de manera que la línea La de atención no se evalúa para que sea el mismo objeto tridimensional. La unidad 33a de detección de objetos tridimensionales que suma el atributo b para todos los puntos de atención Pa en la línea La de atención y determina el valor de evaluación en la dirección equivalente perpendicular para de este modo si una línea de borde es causada por un objeto tridimensional y que un objeto tridimensional está presente.
La unidad 34a de valoración de objetos tridimensionales ilustrada en la FIGURA 14 similarmente evalúa, en base a la cantidad de variabilidad en la información de imagen, si el objeto dimensional detectado por la unidad 33 de detección de objetos tridimensionales es otro vehículo (vehículo adyacente) viajando en un carril adyacente. Específicamente, en la segunda modalidad, la unidad 34a de evaluación de objetos tridimensionales calcula la velocidad de movimiento relativa del objeto tridimensional en relación al vehículo principal en base en la información de borde (componentes de borde y otra información) en la imagen a vista de pájaro, determina la cantidad de la variabilidad en la información de imagen en base de la cantidad de cambio en tiempo de la velocidad de movimiento relativo del objeto tridimensional, y evalúa si el objeto tridimensional detectado es un objeto no detectado o un vehículo adyacente. Por ejemplo, la unidad 34a de evaluación de objetos tridimensionales determina que la cantidad de variabilidad en la información de imagen es mayor en un modo acorde a un valor mayor absoluto de la cantidad de cambio en el tiempo de la velocidad de movimiento relativo del objeto tridimensional, y determina la posibilidad de ser elevado que el objeto tridimensional detectado es un objeto de no detección. El método para la evaluación que se lleva a cabo por la unidad 34a de evaluación de objetos tridimensionales se describirá posteriormente a detalle.
Después, el método para detectar un vehículo adyacente conforme a la segunda modalidad será descrito. La FIGURA 20 es un diagrama de flujo que ilustra los detalles del método para detectar un vehículo adyacente conforme a la segunda modalidad. En la FIGURA 20, el proceso involucrado con el área Al de detección será descrito por motivo de conveniencia, pero el mismo proceso se ejecuta para el área A2 de detección también.
Primero, en el paso S201, una predeterminada área especificada por el ángulo a de vista y la posición de fijación se captura por la cámara 10, y los datos de imagen de la imagen P capturados tomados por la cámara 10 se adquiere por la computadora 30a. Después, la unidad 31 de conversión de punto de vista convierte el punto de vista de los datos de imagen adquiridas y genera datos de imagen de vita a ojo de pájaro en el paso S202.
Después, en el paso S203, la unidad 34 de cálculo de diferencia de luminancia ajusta la linea La de atención en el área de detección Al. En este tiempo, la unidad 34 de cálculo de diferencia de luminancia establece una linea que corresponde a una linea que se extiende en la dirección perpendicular en el espacio real como la linea La de atención. También, en el paso S204, la unidad 34 de cálculo de diferencia de luminancia también establece la linea Lr de referencia en el área de detección Al. La unidad 34 de cálculo de diferencia de luminancia establece, como la linea Lr de referencia, una linea que corresponde a una linea que se extiende en la dirección perpendicular en el espacio real, la linea también está separada por una distancia predeterminada en el espacio real de la linea La de atención.
Después, en el paso S205, la unidad 34 de cálculo de diferencia de luminancia establece una pluralidad de puntos de atención en la linea La de atención. Al hacerlo, la unidad 34 de cálculo de diferencia de luminancia ajusta un cierto número de puntos Pa de atención que no serán problemáticas durante la detección de bordes por la unidad 35 de detección de linea de borde. También, en el paso S206, la unidad de cálculo de diferencia de luminancia establece puntos de referencia Pr para que los puntos de atención Pa y los puntos de referencia Pr estén sustancialmente a la misma altura en espacio real. Los puntos de atención Pa y los puntos Pr de referencia por lo tanto alinean sustancialmente en dirección horizontal, y la linea de borde se extiende en la dirección perpendicular en espacio real que se puede detectar más fácilmente.
Después, en el paso S207, la unidad 34 de cálculo de diferencia de luminancia calcula la diferencia de luminancia entre los puntos de atención Pa y los puntos de referencia Pr en la misma altura en el espacio real. La unidad 35 de detección de linea de borde calcula el atributo s de los puntos de atención Pa conforme con la fórmula 1 descrita arriba. En el paso S208, la unidad 35 de detección de linea de borde calcula entonces la continuidad c del atributo s de los puntos de atención Pa conforme con la fórmula 2. En el paso S209, la unidad 35 de detección de linea de borde evalúa además si un valor obtenido por la normalización de la suma de la continuidad c es mayor que un valor T umbral de acuerdo con la fórmula 3. Cuando se ha determinado que el valor normalizado es mayor que el valor T umbral (paso S209 = Sí), la unidad 35 de detección de línea de borde detecta la línea La de atención como la línea de borde en el paso S210. El proceso entonces procede al paso S211. Cuando se ha determinado que el valor normalizado no es mayor que el valor T umbral (paso S209 = No) , la unidad 35 de detección de linea de borde no detecta que la linea La de atención es una linea de borde, y el proceso procede al paso S211.
En el paso S211, la computadora 30a determina si los procesos de pasos S203 a S210 se han ejecutado por todas las lineas La de atención que se pueden establecer en el área Al de detección. Cuando se ha determinado que los procesos anteriores no se han llevado a cabo para todas la lineas La de atención (paso S211 = No), el proceso regresa al paso S203, ajusta una nueva linea La de atención, y repite el proceso a través del paso S211. Por el otro lado, cuando se ha determinado que los procesos se han llevado a cabo para todas las lineas La de atención (paso S211 = Si), el proceso procede al paso S212.
En el paso S212, la unidad 33a de detección de objetos tridimensionales calcula el cambio en la luminancia a lo largo de la linea de borde para cada uno de la linea de borde detectada en el paso S210. La unidad 33a de detección de objetos tridimensionales calcula el cambio en la luminancia de lineas de borde conforme con cualquiera de las formulas 4, 5 y 6. Después, en el paso S213, la unidad 33a de detección de objetos tridimensionales, de entre las lineas de borde, lineas en la cual el cambio en la luminancia es un valor tb umbral predeterminado o es mayor. En otras palabras, cuando una linea de borde tiene un cambio grande en luminancia que no se ha evaluado para que sea una linea de borde correcta, la línea de borde no se utiliza para detectar un objeto tridimensional. Como se describió arriba, está hecho en orden para suprimir la detección de caracteres en la superficie de camino, vegetación de la orilla del camino, y similar incluido en el área Al de detección como líneas de borde. Por lo tanto, el valor tb umbral predeterminado se determina por experimentación u otros una unidad de antemano, y el ajuste se basa en el cambio en la luminancia que ocurre debido a los caracteres en la superficie del camino, la vegetación de la orilla del camino, y similares. Por el otro lado, la unidad 33a de detección de objetos tridimensionales determina una línea de borde que tiene un cambio en la luminancia que es menos que un valor tb umbral predeterminado para que sea una línea de borde de un objeto tridimensional, y por lo tanto detecte el objeto tridimensional presente en un carril adyacente.
Después, en el paso S214, se determina por la unidad 33a de detección de objetos tridimensionales so la cantidad de líneas de borde está en una valor ß umbral predeterminado o mayor. Como se usó aquí, el valor ß umbral es un valor obtenido y se ajusta por experimentación con antelación, y cuando, por ejemplo, se ha establecido un vehículo de cuatro ruedas como el objeto tridimensional para que sea detectado, el valor ß umbral se ajusta por experimentación con antelación en base del número de lineas de borde de un vehículo de cuatro ruedas que aparece en el área Al de detección. Cuando se ha evaluado que la cantidad de líneas de borde está en el valor ß umbral o mayor (paso S214 = Sí), la unidad 33a de detección de objetos tridimensionales determina que un objeto tridimensional esté presente en el área Al de detección, y el proceso procede al paso S215. Por el otro lado, cuando se ha evaluado que la cantidad de líneas de borde no está en una valor ß umbral o más grande (paso S214 = No), la unidad 33a de detección de objetos tridimensionales determina que un objeto tridimensional no está presente en el área Al de detección, el proceso procede al paso S232 en la FIGURA 21, y la unidad 34a de evaluación de objetos tridimensionales evalúa que un vehículo adyacente no está presente en el área Al de detección.
En el paso S215, la velocidad de movimiento relativa del objeto tridimensional en relación al vehículo principal se calcula por la unidad 34a de evaluación de objetos tridimensionales. Por ejemplo, la unidad 34a de objetos tridimensionales cuenta el número de pixeles en el cual se ha detectado un predeterminado componente de borde, a lo largo de la dirección en la cual el objeto tridimensional colapsa durante la conversión de punto de vista para formar una distribución de frecuencia de la imagen PBt de vista a ojo de pájaro, por lo tanto se genera una forma de onda dimensional, y la velocidad de movimiento relativa del objeto tridimensional se puede calcular de la diferencia en la forma de onda de borde en un solo momento previo y la forma de onda de borde en el momento actual. El proceso entonces procede al paso S216 en FIGURA 21.
En los pasos S216 a S232, se lleva a cabo el mismo proceso como en los pasos S113 a S126 y los pasos S128 a S130 en la primera modalidad. En otras palabras, la unidad 34a de evaluación de objetos tridimensionales detecta la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional en base a la velocidad de movimiento relativa del objeto tridimensional detectado en el paso S215, y determina si el objeto tridimensional es un objeto de no detección conforme con la cantidad de cambio en el tiempo de la velocidad de movimiento relativo.
Específicamente, cuando el valor absoluto I AV | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional es de 30 km/h o mayor ( | ?V| = 30 km/h (paso S216 = Si) ) y cuando la luminosidad del área Al de detección está en el valor predeterminado o mayor (paso S217 = Si), la unidad 34a de evaluación de objetos tridimensionales aumenta el valor de conteo por XI (paso S218) , y, cuando el brillo del área Al de detección es menor que el valor predeterminado (paso S217 = No) aumenta el valor de conteo a X2 (paso S219) .
Cuando el valor absoluto | ?? | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional sea menor que 30 km/h y 10 km/h o mayor (30 km/h > I ?? I > 10 km/h (paso S220 = Si) ), la unidad 34a de evaluación de objetos tridimensionales disminuye el valor de conteo a Yl (paso S222) cuando el brillo del área al de detección es un valor predeterminado o mayor (paso S221 = Si), y disminuye el valor de conteo a Y2 (paso S223) cuando el brillo del área Al de detección es menor que el valor predeterminado (paso S221 = No) .
Cuando el valor absoluto | ?V | de la cantidad de cambio en el tiempo de la velocidad de movimiento relativa del objeto tridimensional es menor que 10 km/h (10 km/h > | ?V | (paso S220 = No)), la unidad 34a de evaluación de objetos tridimensionales disminuye el valor de conteo por Zl (paso S225) cuando el brillo del área Al de detección está en una valor predeterminado o menor (paso S224 = Sí), y disminuye el valor de conteo a Z2 (paso S226) cuando el brillo del área Al de detección es menor que un valor predeterminado (paso S224 = No) .
La unidad 34a de evaluación de objetos tridimensionales determina si el valor de conteo está en el primero valor Si umbral o mayor ilustrado en la FIGURA 10 (paso S227), evalúa que un objeto tridimensional detectado es un objeto de no detección cuando el valor de conteo está en el primer valor Si umbral o mayor (paso S231), y evalúa que un vehículo adyacente no esté presente en el carril adyacente (paso S232) .
Después de que el valor de conteo se ha hecho menor que el primer valor Si umbral y es igual o mayor que el segundo valor s2 umbral (paso S227 = No, paso S228 = No) , la unidad 34a de evaluación de objetos tridimensionales evalúa el objeto tridimensional para ser un objeto de no detección (paso S231), y determina que un vehículo adyacente no esté presente en el carril adyacente (paso S232) . Por el otro lado, cuando el valor de conteo se ha vuelto menor que el primer valor Si umbral y después de ello se hace igual o más grande que el segundo valor S2 umbral (paso S227 = No, paso S228 = Sí) se evalúo que el objeto tridimensional no sea un objeto de no detección (paso S229) se determina que un vehículo adyacente esté presente en el carril adyacente (paso S230) . El proceso entonces regresa al paso S201 en la FIGURA 20 y se repite el proceso descrito arrib .
De esta manera, en la segunda modalidad, una imagen capturada se convierte en una imagen a vita a ojo de pájaro, y la información de borde del objeto tridimensional se detecte de la imagen de vita a ojo de pájaro. La velocidad de movimiento relativa del objeto tridimensional se detecta de los componentes de borde detectados en la imagen de vita a ojo de pájaro, y se evalúa sí el objeto tridimensional detectado es una planta, nieve, barandilla, u otro objeto de no detección en base del valor absoluto | ?? | de la cantidad de cambio de la velocidad de movimiento relativo del objeto tridimensional. Adicionalmente a los efectos de la primera modalidad, en la segunda modalidad, es por lo tanto posible evaluar adecuadamente si el objeto tridimensional detectado es un objeto de no detección en base en la información de borde incluso cuando un vehículo adyacente se detecte en base de la información de borde. Como resultado, es posible prevenir efectivamente un objeto de no detección de que esta detectado erróneamente como un vehículo adyacente.
Las modalidades descritas arriba se describen en orden para facilitar el entendimiento de la presente invención, y no se describen en orden para limitar la presente invención. Por lo tanto, los elementos revelados en las modalidades anteriores están destinados para incluir todas las modificaciones de diseño y equivalentes los mismos que se encuentras dentro del rango técnico de la presente invención.
Por ejemplo, en las modalidades descritas arriba, se da una configuración como un ejemplo en la cual un objeto de no detección se detecta en base a la variabilidad | ?? | en la cantidad de cambio de la velocidad de movimiento relativo del objeto tridimensional en relación al vehículo principal, pero no se impone ninguna limitación de este modo, y, por ejemplo, también es posible usar una configuración en la cual un objeto de no detección se detecte para analizar la imagen capturada tomada por la cámara 10 usando el análisis de textura bidimensional y detectando la variabilidad en la imagen capturada en base al análisis de resultados. Por ejemplo, es posible evaluar un objeto tridimensional capturado en la imagen capturada es un objeto de no detección cuando los pixeles tienen una diferencia predeterminada en la concentración se detectan en una relación predeterminada o mayor como un resultado de un análisis de textura bidimensional de la imagen capturada. Alternativamente, es posible usar una configuración en la cual se analice la imagen capturada por la rápida transformada de Fourier, y cuando los componentes de alta frecuencia tengan un valor predeterminado o mayor que se detecten en una relación predeterminada o mayor como un resultado del análisis, un objeto tridimensional capturado en la imagen capturada se evalúa que es un objeto de no detección.
Se dio una configuración como un ejemplo en las modalidades descritas anteriormente en la cual se detecta un objeto tridimensional que se evalúa que no es un vehículo adyacente cuando el objeto tridimensional detectado se ha evaluado que es un objeto de no detección, pero de este modo no se impone a ninguna limitación, y también es posible usar una configuración en la cual no se evalúa si un objeto tridimensional detectado es un vehículo adyacente cuando un objeto tridimensional se ha evaluado de que no es un objeto de detección .
Adicionalmente , se da una configuración como un ejemplo en las modalidades descritas anteriormente en cual los valores de pixel de la diferencia PDt de imagen se detectan como "0" y "1" por la unidad 32 de alineación y los pixeles tienen un valor de pixel de "1" en la imagen de diferencia PDt que se cuentan como pixeles de diferencia DP por la unidad 33 de detección de objetos tridimensionales en base de la imagen PDt de diferencia para de este modo detectar un objeto tridimensional, pero la limitación no viene impuesta por esta configuración, y también es posible usar una configuración en la cual la unidad 32 de alineación, por ejemplo, detecta los valores de pixel de la imagen PDt de diferencia usando el valor absoluto de los valores de pixeles de las imágenes a vita a ojo de pájaro PBt, PBt-i, y la unidad 33 de detección de objetos tridimensionales cuenta los pixeles que exceden un valor umbral de diferencia predeterminado como los pixeles DP de diferencia.
Además, en las modalidades descritas arriba, una imagen capturada del momento actual y una imagen en un solo momento previo se convierten a vistas de ojo de pájaro, se alinean las vistas de ojo de pájaro, entonces se genera una imagen PDt de diferencia, y se evalúa la imagen DPt de diferencia generada a lo largo de la dirección de colapso (dirección en la cual colapsa el objeto tridimensional cuando se convierte una imagen capturada a una vita a ojo de pájaro) para generar una forma de onda DWt de diferencia, pero no viene impuesta por tanto ninguna limitación. Por ejemplo, también es posible usar una configuración en la cual solo la imagen se convierte en un solo momento previo a una vita a ojo de pájaro, se alinea la vita a ojo de pájaro, entonces se convierte nuevamente a una imagen capturada equivalente, se genera un imagen de diferencia usando esta imagen y la imagen al tiempo actual, y se evalúa la imagen de diferencia generada a lo largo de la dirección correspondiente a la dirección de colapso (por ejemplo, la dirección obtenida por convertir la dirección colapso a una dirección en la imagen capturada) para de este modo generar la forma de onda DWt de diferencia. En otras palabras, una vita a ojo de pájaro que no requiere expresamente que se genere como una condición necesaria siempre y cuando la imagen en el momento actual y la imagen en un solo momento previo se alineen, se genera una imagen PDt de la diferencia entre las dos imágenes alineadas, y la imagen PDt de diferencia se puede evaluar a lo largo de la dirección colapso de un objeto tridimensional cuando la imagen PDt de diferencia se convierta a una vita a ojo de pájaro.
Adicionalmente, en las modalidades descritas anteriormente, la velocidad del vehículo VI principal se determina en base a una señal del sensor 20 de velocidad, pero por lo tanto ninguna limitación se impone, y también es posible usar una configuración en la cual se estima la velocidad de una pluralidad de imágenes en diferentes momentos. En este caso, el sensor 20 de velocidad no se requiere y se puede configurar la simplificación .
La cámara 10 en las modalidades descritas arriba corresponde la unidad de captura de imagen de la presente invención. La unidad 31 de conversión de punto de vista corresponde a la unidad de conversión de imagen de la presente invención, y la unidad 32 de alineación y la unidad 33 de detección de objetos tridimensionales corresponden a la unidad de detección de objetos tridimensionales de la presente invención. La unidad 33 de detección de objetos tridimensionales corresponde a la unidad de cálculo de velocidad de movimiento de la presente invención, y la unidad 34 de evaluación de objetos tridimensionales corresponde a la unidad de evaluación de objetos tridimensionales, la unidad de evaluación de objetos de no detección, y la unidad de control de la presente invención.
Lista de Signos de Referencia 1: Dispositivo de detección de objetos tridimensionales 10: cámara 20: sensor de velocidad 30: computadora 31: unidad de conversión de punto de vista 32: unidad de alineación 33: unidad de detección de objetos tridimensionales 34: unidad de evaluación de objetos tridimensionales 35: unidad de cálculo de diferencia de luminancia 36: unidad de detección de linea de borde a: ángulo de vista Al, A2 : área de detección CP: punto de cruce DP: pixeles de diferencia DWt, DWt' : forma de onda de diferencia D ti a D m, D m+k a DWtn: áreas pequeñas Ll, L2 : linea de tierra La, Lb : linea en la dirección en la cual colapsa el objeto tridimensional P: imagen capturada PBt: imagen de vista a ojo de pájaro PDt: imagen de diferencia VI: vehículo principal V2 : vehículo adyacente V3 : vehículo adyacente-adyacente

Claims (9)

REIVINDICACIONES
1. Un dispositivo de detección de objetos tridimensionales, caracterizado en que comprende: una unidad de captura de imágenes para capturar un área predeterminada de detección hacia atrás del vehiculo principal; una unidad de conversión de imagen para convertir el punto de vista de una imagen obtenida por la unidad de captura de imagen para crear una imagen de vista a ojo de pájaro; una unidad de detección de objetos tridimensionales para alinear, en una vita a ojo de pájaro, las posiciones de imágenes de vita a ojo de pájaro obtenidas en diferentes tiempos por la unidad de conversión de imagen, generando información en forma de onda de diferencia para contar un número de pixeles que indican una predeterminada diferencia en una imagen de diferencia de las imágenes de vita a ojo de pájaro para formar una distribución de frecuencia, y detectar el objeto tridimensional en base a la información de forma de onda de diferencia; una unidad de cálculo de velocidad de movimiento para calcular la velocidad de movimiento del objeto tridimensional en base a la información de forma de onda de diferencia; una unidad de evaluación de objetos tridimensionales para evaluar si el objeto tridimensional detectado por la unidad de detección de objetos tridimensionales es otro vehiculo presente en el área predeterminada en base en la información de forma de onda de diferencia; una unidad de evaluación de objetos de no detección para calcular repetidamente la cantidad de cambio en el tiempo de la velocidad de movimiento del objeto tridimensional para de este modo detectar una cantidad de la variabilidad en la velocidad de movimiento del objeto tridimensional, y determinar que el objeto tridimensional tiene una posibilidad más grande de ser un objeto de no detección diferente de otro vehículo en modo acorde a una mayor cantidad de variabilidad; y una unidad de control para inhibir, en base a la evaluación de resultados de la unidad de evaluación de objetos de no detección, la unidad de evaluación de objetos tridimensionales de la evaluación que el objeto tridimensional es el otro vehículo.
2. Dispositivo de detección de objetos tridimensionales, caracterizado en que comprende: una unidad de captura de imagen para capturar un área predeterminada de detección hacia atrás de un vehículo adyacente ; una unidad de conversión de imagen para convertir el punto de vista de una imagen obtenida por una unidad de captura de imagen para crear una imagen de vita a ojo de pájaro; una unidad de detección de objetos tridimensionales para detectar información de borde de la imagen de vita a ojo de pájaro obtenido de la unidad de conversión de imagen y detectar los objetos tridimensionales en base de la información de borde ; una unidad de cálculo de velocidad de movimiento para calcular la velocidad de movimiento del objeto tridimensional en base de la información de borde; una unidad de evaluación de objetos tridimensionales para evaluar si el objeto tridimensional detectado por la unidad de detección de objetos tridimensionales es otro vehículo presente en el área predeterminada en base de la información de borde; una unidad de evaluación de no detección de objetos para calcular repetidamente la cantidad de cambio en el tiempo en la velocidad de movimiento del objeto tridimensional para de este modo detectar una cantidad de la variabilidad en la velocidad de movimiento del objeto tridimensional, y determinar que los objetos tridimensionales tienen una mayor posibilidad de ser un objeto de no detección diferente de otro vehículo de manera acorde a una mayor cantidad de variabilidad; y una unidad de control para inhibir, en base a la evaluación de resultados de la unidad de evaluación de no detección de objetos, la unidad de evaluación de objetos tridimensionales de la evaluación de que el objeto tridimensional es otro vehículo.
3. Dispositivo de detección de objetos tridimensionales conforme a la reivindicación 1 o 2, caracterizado en que la unidad de evaluación de no detección de objetos aumenta un valor de cuenta predeterminado cuando la cantidad de variabilidad es un primer valor de evaluación predeterminado o mayor, y disminuye el valor de conteo cuando la cantidad de variabilidad está en un segundo valor de evaluación o menos, la cual es menor que el primer valor de evaluación, para asi aumentar o disminuir el valor de conteo basado en la cantidad de variabilidad y para evaluar si el objeto tridimensional es el objeto de no detección en base en el aumento/disminución del valor de conteo.
4. El dispositivo de detección de objeto tridimensional conforma a la reivindicación 3, caracterizado en que la unidad de evaluación de objetos de no detección evalúa que el objeto tridimensional es el objeto de no detección cuando el valor de conteo se ha vuelto un primer valor umbral predeterminado o mayor como un resultado del valor de conteo que ha aumentado o disminuido en base a la cantidad de variabilidad .
5. El dispositivo de detección de objetos tridimensionales conforma a la reivindicación 4, caracterizado en que la unidad de evaluación de objetos de no detección evalúan que el objeto tridimensional no es un objeto de no detección cuando el valor de conteo se hace menos que un segundo valor umbral predeterminado, el cual es menor que el primer valor umbral, después de que el valor de conteo se ha vuelto al primer valor umbral o mayor.
6. El dispositivo de detección de objetos tridimensionales conforma a cualquiera de las reivindicaciones 3 a 5, caracterizadas en que comprende además: una unidad de detección de brillo para detectar luminosidad o brillantez del área predeterminada, una unidad de evaluación de objetos de no detección que reduce la cantidad de aumento/disminución del valor de conteo en base en la cantidad de variabilidad cuando la luminosidad o brillantez del área predeterminada sea menos en comparación con un valor predeterminado cuando el brillo del área predeterminada este en el valor predeterminado o mayor.
7. El dispositivo de detección de objetos tridimensionales conforme a la reivindicación 1 o cualquiera de la reivindicaciones 3 a 6, el cual depende del mismo, caracterizado en que una unidad de detección de objetos tridimensionales cuenta un número de pixeles que muestran una diferencia predeterminada en la imagen de diferencia a lo largo de una dirección en la cual el objeto tridimensional colapsa cuando la conversión en el punto de vista de la imagen de vita a ojo de pájaro se lleva a cabo, para formar una distribución de frecuencia y asi generar información de forma de onda de diferencia dimensional.
8. El dispositivo de detección de objetos tridimensionales conforme a la reivindicación 2 o cualquiera de las reivindicaciones 3 a 6, la cual depende de la misma, caracterizado en que la unidad de detección de objetos tridimensionales detecta la información de borde a lo largo de la dirección en la cual el objeto tridimensional colapsa cuando se lleva a cabo la conversión en el punto de vista a una imagen de vita a ojo de pájaro.
9. Un dispositivo de detección de objetos tridimensionales comprende: una unidad de captura de imagen para capturar un área predeterminada de detección hacia atrás de un vehículo principal ; una unidad de conversión de imagen para convertir el punto de vista de una imagen obtenida para la unidad de captura de imagen para crear una imagen de vita a ojo de pájaro; una unidad de detección de objetos tridimensionales que detectan el objeto tridimensional en base de la información de distribución de pixeles para detectar la información de distribución de pixeles que tienen una diferencia de luminancia de un valor umbral predeterminado o mayor en una dirección en la cual el objeto tridimensional colapsa cuando se lleva a cabo la conversión en el punto de vista a una imagen de vita a ojo de pájaro en la vita a ojo de pájaro obtenida de la unidad de conversión de imagen; una unidad de cálculo de velocidad de movimiento para calcular la velocidad de movimiento de los objetos tridimensionales en base de la cantidad de cambio en el tiempo de la información de distribución de pixeles; una unidad de evaluación de objetos tridimensionales para evaluar si el objeto tridimensional detectado por la unidad de detección de objetos tridimensionales es otro vehículo presente en el área predeterminada en base en la distribución de información de pixeles; una unidad de evaluación de objetos de no detección para calcular repetidamente la cantidad de cambio en el tiempo de la velocidad de movimiento de objeto tridimensional para así detectar una cantidad de variabilidad en la velocidad de movimiento de los objetos tridimensionales, y determinar que el objeto tridimensional tiene una alta posibilidad de ser otro vehículo cuando la cantidad de variabilidad es menor que un valor predeterminado; y una unidad de control para facilitar la evaluación por la unidad de evaluación de objetos tridimensionales de que el objeto tridimensional es otro vehículo cuando la posibilidad de que el objeto tridimensional sea otro vehículo que se ha evaluado para ser superior por la unidad de evaluación de objetos de no detección. RESUMEN DE LA INVENCIÓN Este dispositivo de detección de objetos tridimensionales se proporciona con: una unidad de captura de imagen (10) para capturar un área predeterminada; una unidad de conversión de imagen (31) para convertir el punto de vista de la imagen capturada para crear una imagen de vita a ojo de pájaro; una unidad de detección de objetos tridimensionales (32, 33) para generar información de forma de onda de diferencia de una imagen de diferencia en la cual las posiciones de las imágenes de vita a ojo de pájaro tomadas en diferentes momentos se han alineado en una vita a ojo de pájaro, y detectar un objeto tridimensional basado en la información de forma de onda de diferencia; una unidad (33) de cálculo de velocidad de movimiento para calcular la velocidad de movimiento del objeto tridimensional; una unidad de evaluación de objetos tridimensionales (34) para evaluar si el objeto tridimensional es otro vehículo presente en el área predeterminada; una unidad de evaluación de objeto de no detección (34) para calcular repetidamente la cantidad de cambio en el tiempo de la velocidad de movimiento del objeto tridimensional para asi detectar una cantidad de variabilidad en la velocidad de movimiento del objeto tridimensional, y asegurar si el objeto tridimensional es un objeto de no detección en base a la cantidad de variabilidad; y una unidad de control (34) para inhibir, en base a la evaluación de resultados de la unidad (34) de evaluación de objetos de no detección, la unidad (34) de evaluación de objetos tridimensionales de la evaluación de que el objeto tridimensional es la otra variable.
MX2014010405A 2012-03-02 2013-02-26 Dispositivo de deteccion de objetos tridimensionales. MX2014010405A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012046629 2012-03-02
PCT/JP2013/054860 WO2013129358A1 (ja) 2012-03-02 2013-02-26 立体物検出装置

Publications (1)

Publication Number Publication Date
MX2014010405A true MX2014010405A (es) 2014-09-22

Family

ID=49082555

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014010405A MX2014010405A (es) 2012-03-02 2013-02-26 Dispositivo de deteccion de objetos tridimensionales.

Country Status (8)

Country Link
US (1) US9239960B2 (es)
EP (1) EP2821957B1 (es)
JP (1) JP5733467B2 (es)
CN (1) CN104094311B (es)
BR (1) BR112014020353B1 (es)
MX (1) MX2014010405A (es)
RU (1) RU2636121C2 (es)
WO (1) WO2013129358A1 (es)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2608149B1 (en) * 2010-08-19 2021-04-21 Nissan Motor Co., Ltd. Three-dimensional object detection device and three-dimensional object detection method
MY171030A (en) * 2011-09-12 2019-09-23 Nissan Motor Three-dimensional object detection device
JP2015170174A (ja) * 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN110460792B (zh) * 2014-08-19 2022-03-08 松下知识产权经营株式会社 再现方法及再现装置
DE102015116572A1 (de) * 2015-09-30 2017-03-30 Claas Selbstfahrende Erntemaschinen Gmbh Verfahren zum Erkennen von Störungen einer Erntegutbergungsanordnung
CN105740792B (zh) * 2016-01-25 2019-03-12 浙江生辉照明有限公司 目标检测方法和装置
JP6859907B2 (ja) 2017-09-08 2021-04-14 トヨタ自動車株式会社 車両制御装置
US11162356B2 (en) 2019-02-05 2021-11-02 Motive Drilling Technologies, Inc. Downhole display

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3034101B2 (ja) * 1991-11-22 2000-04-17 大倉電気株式会社 動きベクトルによる識別方法及び装置
JP3232724B2 (ja) * 1992-12-08 2001-11-26 株式会社デンソー 車間距離制御装置
JP3589138B2 (ja) * 1993-03-03 2004-11-17 株式会社デンソー 車両走行制御装置
US6636257B1 (en) * 1998-08-11 2003-10-21 Honda Giken Kogyo Kabushiki Kaisha Mobile body recognizing apparatus and motor vehicle monitoring apparatus
DE10114932B4 (de) * 2001-03-26 2005-09-15 Daimlerchrysler Ag Dreidimensionale Umfelderfassung
JP3753652B2 (ja) * 2001-12-04 2006-03-08 富士通テン株式会社 Fm−cwレーダのミスペアリング判定及び信号処理方法
US6871121B2 (en) * 2002-10-07 2005-03-22 Blink Engineering Corp. Entertainment system on-board a vehicle for visualizing on a display real-time vehicle data
JP4092509B2 (ja) * 2004-10-08 2008-05-28 日産自動車株式会社 物体判定装置、および物体判定方法
JP4661339B2 (ja) 2005-05-11 2011-03-30 マツダ株式会社 車両用移動物体検出装置
JP4797794B2 (ja) 2006-05-24 2011-10-19 日産自動車株式会社 歩行者検出装置および歩行者検出方法
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2008227646A (ja) 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
JP2008299787A (ja) * 2007-06-04 2008-12-11 Mitsubishi Electric Corp 車両検知装置
US8451107B2 (en) * 2007-09-11 2013-05-28 Magna Electronics, Inc. Imaging system for vehicle
JP2009126270A (ja) * 2007-11-21 2009-06-11 Sanyo Electric Co Ltd 画像処理装置及び方法、運転支援システム、車両
WO2010099416A1 (en) * 2009-02-27 2010-09-02 Magna Electronics Alert system for vehicle
DE102010011093A1 (de) * 2010-03-11 2011-09-15 Daimler Ag Verfahren zur Bestimmung einer Fahrzeugaufbaubewegung
JP5251927B2 (ja) * 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法
RU2432276C1 (ru) * 2010-07-07 2011-10-27 Осман Мирзаевич Мирза Способ наблюдения за дорожной ситуацией с движущегося транспортного средства (варианты)
EP2608149B1 (en) * 2010-08-19 2021-04-21 Nissan Motor Co., Ltd. Three-dimensional object detection device and three-dimensional object detection method

Also Published As

Publication number Publication date
EP2821957A4 (en) 2016-01-06
EP2821957B1 (en) 2020-12-23
RU2636121C2 (ru) 2017-11-20
CN104094311B (zh) 2017-05-31
JP5733467B2 (ja) 2015-06-10
EP2821957A1 (en) 2015-01-07
BR112014020353A2 (pt) 2021-05-25
US9239960B2 (en) 2016-01-19
CN104094311A (zh) 2014-10-08
RU2014139838A (ru) 2016-04-20
JPWO2013129358A1 (ja) 2015-07-30
WO2013129358A1 (ja) 2013-09-06
US20150016681A1 (en) 2015-01-15
BR112014020353B1 (pt) 2021-08-31

Similar Documents

Publication Publication Date Title
MX2014010405A (es) Dispositivo de deteccion de objetos tridimensionales.
US9558556B2 (en) Three-dimensional object detection device
US9591274B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
RU2636120C2 (ru) Устройство обнаружения трехмерных объектов
US9189691B2 (en) Three-dimensional object detection device and three-dimensional object detection method
US9135511B2 (en) Three-dimensional object detection device
US9589193B2 (en) Three-dimensional object detection device and three-dimensional object detection method
JP5682735B2 (ja) 立体物検出装置
US9783127B2 (en) Three-dimensional object detection device
WO2014017521A1 (ja) 立体物検出装置
JP5835459B2 (ja) 立体物検出装置
WO2014017602A1 (ja) 立体物検出装置および立体物検出方法
WO2013129359A1 (ja) 立体物検出装置

Legal Events

Date Code Title Description
FG Grant or registration