MX2014009974A - Dispositivo de deteccion de objetos tridimensionales. - Google Patents

Dispositivo de deteccion de objetos tridimensionales.

Info

Publication number
MX2014009974A
MX2014009974A MX2014009974A MX2014009974A MX2014009974A MX 2014009974 A MX2014009974 A MX 2014009974A MX 2014009974 A MX2014009974 A MX 2014009974A MX 2014009974 A MX2014009974 A MX 2014009974A MX 2014009974 A MX2014009974 A MX 2014009974A
Authority
MX
Mexico
Prior art keywords
vehicle
dimensional object
unit
detection
detection area
Prior art date
Application number
MX2014009974A
Other languages
English (en)
Other versions
MX339625B (es
Inventor
Yasuhisa Hayakawa
Osamu Fukata
Original Assignee
Nissan Motor
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor filed Critical Nissan Motor
Publication of MX2014009974A publication Critical patent/MX2014009974A/es
Publication of MX339625B publication Critical patent/MX339625B/es

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Este dispositivo de detección de objeto tridimensional se provee con: una unidad (10) de formación de imágenes para formar imágenes de la parte trasera de un vehículo; una unidad 5 (34) de establecimiento de áreas de detección que establece un área de detección predeterminada en las secciones del lado izquierdo y derecho de la parte trasera del vehículo; una unidad (31) de conversión de imagen que convierte la perspectiva de una imagen capturada para crear una imagen de vista a ojo de pájaro; una unidad (32, 33) de detección de objeto tridimensional que, utilizando una imagen de diferencia en la cual las posiciones de las imágenes de vista a ojo de pájaro tomadas en diferentes tiempos se alinean como una vista a ojo de pájaro, genera información de la forma de onda de diferencia contando un número de pixeles que indican una diferencia predeterminada y llevando a cabo la distribución de frecuencias para dichos pixeles, y con base en la información de la forma de onda de diferencia, lleva a cabo la detección de objetos tridimensionales en el área de detección; y una unidad (33) de cálculo de la velocidad de movimiento relativo que calcula la velocidad de movimiento relativo de un objeto tridimensional con respecto al vehículo con base en la información de la forma de onda de diferencia. El dispositivo de detección de objeto tridimensional se caracteriza en que la unidad (34) de establecimiento de áreas de detección agranda el área de detección hacia la parte trasera de la dirección de viaje del vehículo cuando un objeto tridimensional se detecta en el área de detección y la velocidad de movimiento relativo del objeto tridimensional es mayor que un valor predeterminado.

Description

DISPOSITIVO DE DETECCIÓN DE OBJETOS TRIDIMENSIONALES CAMPO TÉCNICO La presente invención se refiere a un dispositivo de detección de objeto tridimensional.
Esta solicitud reclama el derecho de prioridad con base en la Solicitud de Patente Japonesa No. 12-037482 presentada el 23 de Febrero de 2012, y en los estados designados que aceptan la incorporación de un documento por referencia, el contenido descrito en la solicitud anteriormente citada se incorpora aqui por referencia y se considera una parte de la descripción de la presente solicitud.
ANTECEDENTES DE LA TÉCNICA En una técnica convencionalmente conocida, dos imágenes capturadas, capturadas en diferentes tiempos se convierten a una imagen de vista a ojo de pájaro, y un obstáculo se detecta con base en las diferencias en las dos imágenes de vista a ojo de pájaro convertidas (véase el documento de patente 1) .
Documentos de la Técnica Anterior Documentos de Patente Documento de Patente 1: Solicitud de Patente Japonesa Abierta al Público No. 2008-227646.
DIVULGACIÓN DE LA INVENCIÓN Problemas a ser solucionados por la Invención Cuando un objeto tridimensional presente en un área de detección debe ser detectado con base en una imagen capturada en la cual se ha capturado la parte trasera de un vehículo principal, puede haber casos en los cuales dos vehículos adyacentes (objetos tridimensionales) que viajan en un carril adyacente, que es adyacente al carril en el cual viaja el vehículo principal, viajen de manera consecutiva, y cuando el vehículo principal es pasado por el vehículo adyacente delantero de los dos vehículos adyacentes consecutivos, el primer vehículo adyacente ya no es detectado en el área de detección y el conductor puede determinar por consiguiente que un vehículo adyacente (objeto tridimensional) no está presente detrás del vehículo principal, sin tener en cuenta el hecho de que el segundo vehículo adyacente está presente detrás del vehículo principal.
El problema a ser solucionado por la presente invención es proporcionar un dispositivo de detección de objeto tridimensional que sea capaz de detectar adecuadamente dos vehículos adyacentes cuando los dos vehículos adyacentes viajan de manera consecutiva.
Medios utilizados para solucionar los problemas anteriormente mencionados La presente invención soluciona el problema mediante el ensanchamiento del área de detección hacia atrás con respecto a la dirección de progreso del vehículo cuando un objeto tridimensional se detecta en el área de detección y la velocidad de movimiento relativo del objeto tridimensional está en un valor predeterminado o mayor.
Efecto de la Invención De conformidad con la presente invención, cuando dos vehículos adyacentes que viajan en un carril adyacente viajan de manera consecutiva, y el primer vehículo adyacente delantero (objeto tridimensional) ha sido detectado y la velocidad de movimiento relativo del primer vehículo adyacente está en un valor predeterminado o mayor, se determina que el vehículo principal ha sido pasado por el primer vehículo adyacente y se ensanchan las áreas de detección hacia atrás con respecto a la dirección de progreso del vehículo, por lo que el segundo vehículo adyacente que sigue al primer vehículo adyacente puede ser detectado adecuadamente .
BREVE DESCRIPCIÓN DE LOS DIBUJOS [FIGURA 1] Diagrama estructural esquemático de un vehículo en el cual se ha montado un dispositivo de detección de objeto tridimensional de acuerdo con la primera modalidad.
[FIGURA 2] Vista en planta que ilustra el estado de viaje del vehículo en la FIGURA 1.
[FIGURA 3] Vista de bloques que ilustra los detalles de la computadora de acuerdo con la primera modalidad.
[FIGURAS 4 (a) y 4 (b) ] Vistas para describir la visión general del procesamiento de la unidad de alineación de acuerdo con la primera modalidad; la FIGURA 4 (a) es una vista en planta que ilustra el estado de movimiento del vehículo, y la FIGURA (b) es una imagen que ilustra una visión general de la alineación.
[FIGURA 5] Vista esquemática que ilustra la manera en la cual la forma de onda de diferencia se genera por la unidad de detección de objeto tridimensional de acuerdo con la primera modalidad.
[FIGURA 6] Vista que ilustra las pequeñas áreas divididas por la unidad de detección de objeto tridimensional de acuerdo con la primera modalidad.
[FIGURA 7] Vista que ilustra un ejemplo del histograma obtenido por la unidad de detección de objeto tridimensional de acuerdo con la primera modalidad.
[FIGURA 8] Vista que ilustra la ponderación utilizada por la unidad de detección de objeto tridimensional de acuerdo con la primera modalidad.
[FIGURA 9] Vista que ilustra otro ejemplo del histograma obtenido por la unidad de detección de objeto tridimensional de acuerdo con la primera modalidad.
[FIGURA 10] Vista para describir el método para evaluar un vehículo adyacente presente en un carril adyacente.
[FIGURAS 11(A) y 11(B)] Vistas para describir el método para establecer las áreas de detección por la unidad de establecimiento de áreas de detección de acuerdo con la primera modalidad.
[FIGURAS 12 (A) y 12 (B) ] Vistas para describir el método para establecer las áreas de detección cuando el vehículo principal está dando vuelta.
[FIGURA 13] Diagrama de flujo que ilustra el método para detectar un vehículo adyacente de acuerdo con la primera modalidad.
[FIGURA 14] Diagrama de flujo que ilustra el método para establecer las áreas de detección de acuerdo con la primera modalidad.
[FIGURA 15] Vista que ilustra un ejemplo de la amplitud de las áreas de detección en la dirección de progreso del vehículo principal establecidas por la unidad de establecimiento de áreas de detección de acuerdo con la primera modalidad.
[FIGURA 16] Vista de bloques que ilustra los detalles de la computadora de acuerdo con la segunda modalidad.
[FIGURAS 17(a) y 17(b)] Vistas que ilustran el estado de viaje del vehículo; la FIGURA 17(a) es una vista en planta que ilustra la relación posicional entre el área de detección y similares, y la FIGURA 17(b) es una vista en perspectiva que ilustra la relación posicional entre el área de detección y similares en el espacio real.
[FIGURAS 18(a) y 18(b)] Vistas para describir la operación de la unidad de cálculo de diferencia de luminancia de acuerdo con la segunda modalidad; la FIGURA 18(a) es una vista que ilustra la relación posicional entre la línea de atención, la línea de referencia, el punto de atención, y el punto de referencia en una imagen de vista a ojo de pájaro, y la FIGURA 18 (b) es una vista que ilustra la relación posicional entre la línea de atención, la línea de referencia, el punto de atención, y el punto de referencia en el espacio real .
[FIGURA 19(a) y 19(b)] Vistas para describir la operación detallada de la unidad de cálculo de diferencia de luminancia de acuerdo con la segunda modalidad; la FIGURA 19 (a) es una vista que ilustra el área de detección en la imagen de vista a ojo de pájaro, y la FIGURA 19(b) es una vista que ilustra la relación posicional entre la línea de atención, la línea de referencia, el punto de atención, y el punto de referencia en la imagen de vista a ojo de pájaro.
[FIGURA 20] Vista que ilustra un ejemplo de imagen para describir la operación de detección de borde.
[FIGURAS 21(a) y 21(b)] Vistas que ilustran la línea de borde y la distribución de luminancia en la línea de borde la FIGURA 21 (a) es una vista que ilustra la distribución de luminancia cuando un objeto tridimensional (vehículo adyacente) está presente en el área de detección, y la FIGURA 21 (b) es una vista que ilustra la distribución de luminancia cuando un objeto tridimensional no está presente en el área de detección.
[FIGURA 22] Diagrama de flujo que ilustra el método para detectar un vehículo adyacente de acuerdo con la segunda modalidad.
[FIGURAS 23A y 23B] Vistas para describir otro ejemplo del método para establecer el área de detección cuando el vehículo principal está dando vuelta.
MODALIDADES PREFERIDAS DE LA INVENCIÓN Modalidad. 1 La FIGURA 1 es un diagrama estructural esquemático de un vehículo en el cual se ha montado un dispositivo de detección de objeto tridimensional de acuerdo con la primera modalidad. Un objeto del dispositivo 1 de detección de objeto tridimensional de acuerdo con la presente modalidad es detectar otro vehículo (en lo siguiente se puede referir como "vehículo adyacente") presente en un carril adyacente donde el contacto es posible si un vehículo VI principal cambia de carril. El dispositivo 1 de detección de objeto tridimensional de acuerdo con la presente modalidad se provee con una cámara 10, un detector 20 de velocidad, una computadora 30, un detector 40 del ángulo de la dirección, y un dispositivo 50 de notificación, según se ilustra en la FIGURA 1.
La cámara 10 se une al vehículo VI principal de modo que el eje óptico sea un ángulo T hacia abajo desde la horizontal en una ubicación en una altura h en la parte trasera del vehículo VI principal, según se ilustra en la FIGURA 1. Desde esta posición, la cámara 10 captura un área predeterminada del ambiente circundante del vehículo VI principal. El detector 20 de velocidad detecta la velocidad de viaje del vehículo VI principal y calcula la velocidad del vehículo a partir de una velocidad de rueda detectada mediante, por ejemplo, un detector de velocidad de rueda para detectar la velocidad rotacional de una rueda. La computadora 30 detecta un vehículo adyacente presente en un carril adyacente hacia atrás del vehículo principal. El detector 40 del ángulo de la dirección es un detector de ángulo unido cerca de la columna de dirección o el volante de dirección y detecta el ángulo rotacional del eje de dirección como el ángulo de la dirección. La información del ángulo de la dirección que se detecta por el detector 40 del ángulo de la dirección se transmite a la computadora 30. El dispositivo 50 de notificación proporciona una alerta al conductor de que un vehículo adyacente está presente cuando, como resultado de la detección de un vehículo adyacente llevada a cabo por la computadora 30, un vehículo adyacente está presente hacia atrás del vehículo principal. El dispositivo 50 de notificación no está particularmente limitado, pero ejemplos incluyen un altavoz para proporcionar como salida una alerta de audio para el conductor, un despliegue para desplegar un mensaje de alerta, y una luz de alerta que proporciona una alerta mediante la iluminación dentro del panel de instrumentos .
La FIGURA 2 es una vista en planta que ilustra el estado de viaje del vehículo VI principal en la FIGURA 1. Según se ilustra en el dibujo, la cámara 10 captura el lado trasero del vehículo en un ángulo a de vista predeterminado. En este momento, el ángulo a de vista de la cámara 10 se establece a un ángulo de vista que permite que los carriles izquierdo y derecho (carriles adyacentes) sean capturados además del carril en el cual viaja el vehículo VI principal.
La FIGURA 3 es una vista de bloques que ilustra los detalles de la computadora 30 en la FIGURA 1. La cámara 10, el detector 20 de velocidad, el detector 40 del ángulo de la dirección, y el dispositivo 50 de notificación también se ilustran en la FIGURA 3 a fin de indicar claramente las relaciones de conexión.
Según se ilustra en la FIGURA 3, la computadora 30 se provee con una unidad 31 de conversión de perspectiva, una unidad 32 de alineación, una unidad 33 de detección de objeto tridimensional, y una unidad 34 de establecimiento de áreas de detección. La configuración de estas unidades se describe a continuación .
Los datos de la imagen capturada del área predeterminada obtenidos mediante la captura llevada a cabo por la cámara 10 se ingresan a la unidad 31 de conversión de perspectiva, y los datos de la imagen capturada así ingresados se convierten a datos de imagen de vista a ojo de pájaro, que es un estado de vista a ojo de pájaro. Un estado de vista a ojo de pájaro es un estado de visualización desde una perspectiva de una cámara imaginaria que mira hacia abajo desde arriba, por ejemplo, verticalmente hacia abajo. La conversión de perspectiva se puede llevar a cabo en la manera descrita en, por ejemplo, la Solicitud de Patente Japonesa Abierta al Público No. 2008-219063. La razón por la que los datos de la imagen capturada se convierten a datos de imagen de vista a ojo de pájaro se basa en el principio de que los bordes perpendiculares únicos para un objeto tridimensional se convierten a un grupo de líneas rectas que pasa a través de un punto fijo específico mediante la conversión de perspectiva a datos de imagen de vista a ojo de pájaro, y utilizando este principio se permite que un objeto plano y un objeto tridimensional sean diferenciados .
Los datos de imagen de vista a ojo de pájaro obtenidos mediante la conversión de perspectiva llevada a cabo por la unidad 31 de conversión de perspectiva se ingresan secuencialmente a la unidad 32 de alineación, y se alinean las posiciones ingresadas de los datos de imagen de vista a ojo de pájaro en diferentes tiempos. Las FIGURAS 4 (a) y 4 (b) son unas vistas para describir la visión general del procesamiento de la unidad 32 de alineación, la FIGURA 4 (a) es una vista en planta que ilustra el estado de movimiento del vehículo VI principal, y la FIGURA 4(b) es una imagen que ilustra una visión general de la alineación.
Según se ilustra en la FIGURA 4 (a) , el vehículo VI principal en el momento actual se posiciona en Pi, y el vehículo VI principal en un solo momento previo se posiciona en Pi' . Se asume que un vehículo V2 adyacente se posiciona en la dirección del lado trasero del vehículo VI principal y viaja paralelamente al vehículo VI principal, y que el vehículo V2 adyacente en el momento actual se posiciona en P2, y el vehículo V2 adyacente en un solo momento previo se posiciona en P2' . También, se asume que el vehículo VI principal se ha movido una distancia d en un solo momento. La frase "en un solo momento previo" puede ser un momento en el pasado por un tiempo establecido de antemano (por ejemplo, un solo ciclo de control) desde el momento actual, o puede ser un momento en el pasado por un tiempo arbitrario.
En tal estado, una imagen PBt de vista a ojo de pájaro en el momento actual se ilustra en la FIGURA 4 (b) . Las líneas blancas dibujadas sobre la superficie de la carretera son rectangulares en esta imagen PBt de vista a ojo de pájaro y son relativamente precisas en una vista plana, pero el vehículo V2 adyacente (posición P2) está colapsado. Lo mismo aplica a la imagen PBt-i de vista a ojo de pájaro en un solo momento previo; las líneas blancas dibujadas sobre la superficie de la carretera son rectangulares y son relativamente precisas en una vista plana, pero el vehículo V2 adyacente (posición P2' ) está colapsado. Según se describe previamente, los bordes perpendiculares de un objeto tridimensional (los bordes que están erguidos en el espacio tridimensional desde la superficie de la carretera también se incluyen en un significado estricto de borde perpendicular) aparecen como un grupo de lineas rectas a lo largo de una dirección de colapso debido al proceso para convertir la perspectiva a datos de imagen de vista a ojo de pájaro, pero debido a que una imagen plana sobre la superficie de la carretera no incluye bordes perpendiculares, tal colapso no ocurre incluso cuando la perspectiva ha sido convertida.
La unidad 32 de alineación alinea las imágenes PBt y PBt-i de vista a ojo de pájaro, tales como aquellas anteriormente descritas, en términos de datos. Cuando se lleva a cabo esto, la unidad 32 de alineación desplaza la imagen PBt-i de vista a ojo de pájaro en un solo momento previo, y aparea la posición con la imagen PBt de vista a ojo de pájaro en el momento actual. La imagen del lado izquierdo y la imagen central en la FIGURA 4 (b) ilustran el estado de desplazamiento por una distancia d' de movimiento. La cantidad d' de desplazamiento es la cantidad de movimiento en los datos de imagen de vista a ojo de pájaro que corresponde a la distancia d de movimiento real del vehículo VI principal que se ilustra en la FIGURA 4 (a) , y se decide con base en una señal del detector 20 de velocidad y el tiempo desde un solo momento previo hasta el momento actual.
Después de la alineación, la unidad 32 de alineación obtiene la diferencia entre las imágenes PBt y PBt-i de vista a ojo de pájaro, y genera datos de imagen PDt de diferencia. En la presente modalidad, la unidad 32 de alineación toma el valor absoluto de la diferencia en los valores de pixel de las imágenes PBt y PBt-i de vista a ojo de pájaro a fin de corresponder a la variación en el ambiente de iluminación, y cuando el valor absoluto es igual a o mayor que un valor th de umbral predeterminado, los valores de pixel de la imagen PDt de diferencia se establecen a "1", y cuando el valor absoluto es menor que un valor th de umbral predeterminado, los valores de pixel de la imagen PDt de diferencia se establecen a "0", lo que permite que los datos de imagen PDt de diferencia tales como aquellos ilustrados en el lado derecho de la FIGURA 4 (b) sean generados .
Regresando a la FIGURA 3, la unidad 33 de detección de objeto tridimensional detecta un objeto tridimensional con base en los datos de imagen PDt de diferencia ilustrados en la FIGURA (b) . En este caso, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento del objeto tridimensional en el espacio real. La unidad 33 de detección de objeto tridimensional primero genera una forma de onda de diferencia cuando el objeto tridimensional es detectado y la distancia de movimiento debe ser calculada.
Específicamente, la unidad 33 de detección de objeto tridimensional genera una forma de onda de diferencia en las áreas de detección establecidas por la unidad 34 de establecimiento de áreas de detección más adelante descrita. El propósito del dispositivo 1 de detección de objeto tridimensional del presente ejemplo es calcular la distancia de movimiento para el vehículo adyacente con el cual hay una posibilidad de contacto si el vehículo VI principal cambia de carril. Consecuentemente, en el presente ejemplo, las áreas Al, A2 de detección, rectangulares, se establecen hacia el lado trasero del vehículo VI principal, según se ilustra en la FIGURA 2. Tales áreas Al, A2 de detección se pueden establecer desde una posición relativa hasta el vehículo VI principal, o se pueden establecer con base en la posición de las líneas blancas. Cuando se establecen con base en la posición de las líneas blancas, el dispositivo 1 de detección de objeto tridimensional puede utilizar, por ejemplo, las técnicas de reconocimiento de líneas blancas conocidas. El método para establecer las áreas de detección según se lleva a cabo por la unidad 34 de establecimiento de áreas de detección se describe más adelante.
La unidad 33 de detección de objeto tridimensional reconoce como líneas Ll, L2 de suelo los bordes de las áreas Al, A2 de detección así establecidas, en el lado del vehículo VI principal (lado a lo largo de la dirección de viaje), según se ilustra en la FIGURA 2. Generalmente, una línea de suelo se refiere a una línea en la cual un objeto tridimensional está en contacto con el suelo, pero en la presente modalidad, una línea de suelo no es una línea en contacto con el suelo, sino más bien se establece en la manera anteriormente descrita. Incluso en tal caso, la diferencia entre la línea de suelo de acuerdo con la presente modalidad y la línea de suelo normal determinada a partir de la posición del vehículo V2 adyacente no es extremadamente grande según se determina por experiencia, y no hay problema en realidad.
La FIGURA 5 es una vista esquemática que ilustra la manera en la cual la forma de onda de diferencia se genera por la unidad 33 de detección de objeto tridimensional. Según se ilustra en la FIGURA 5, la unidad 33 de detección de objeto tridimensional genera una forma de onda DWt de diferencia a partir de la porción que corresponde a las áreas Al, A2 de detección en la imagen PDt de diferencia (dibujo a la derecha en la FIGURA 4 (b) ) calculada por la unidad 32 de alineación. En este caso, la unidad 33 de detección de objeto tridimensional genera una forma de onda DWt de diferencia a lo largo de la dirección de colapso del objeto tridimensional mediante la conversión de perspectiva. En el ejemplo ilustrado en la FIGURA 5, sólo se describirá el área Al de detección por el bien de la conveniencia, pero la forma de onda DWt de diferencia se genera también para el área A2 de detección utilizando el mismo método.
Más específicamente, primero, la unidad 33 de detección de objeto tridimensional define una línea La en la dirección en la cual el objeto tridimensional colapsa en los datos de imagen PDt de diferencia. La unidad 33 de detección de objeto tridimensional cuenta entonces el número de pixeles DP de diferencia que indican una diferencia predeterminada en la línea La. En la presente modalidad, los pixeles DP de diferencia que indican una diferencia predeterminada tienen valores de pixel en la imagen PDt de diferencia que se representan por "0" y "1", y los pixeles indicados por "1" se cuentan como pixeles DP de diferencia.
La unidad 33 de detección de objeto tridimensional cuenta el número de pixeles DP de diferencia, y posteriormente determina el punto de cruce CP de la línea La y la línea Ll de suelo. La unidad 33 de detección de objeto tridimensional correlaciona entonces el punto de cruce CP y el número del conteo, decide la posición del eje horizontal, es decir, la posición sobre el eje en la dirección vertical en el dibujo a la derecha en la FIGURA 5, con base en la posición del punto de cruce CP, decide la posición del eje vertical, es decir, la posición sobre el eje en la dirección lateral en el dibujo a la derecha en la FIGURA 5, a partir del número del conteo, y gráfica las posiciones como el número del conteo en el punto de cruce CP.
De modo semejante, la unidad 33 de detección de objeto tridimensional define las lineas Lb, Le, ... en la dirección en la cual el objeto tridimensional colapsa, cuenta el número de pixeles DP de diferencia, decide la posición del eje horizontal con base en la posición de cada punto de cruce CP, decide la posición del eje vertical a partir del número del conteo (el número de pixeles DP de diferencia) , y gráfica las posiciones. La unidad 33 de detección de objeto tridimensional repite lo anterior en secuencia para formar una distribución de frecuencias y generar por consiguiente una primera forma de onda DWlt de diferencia según se ilustra en el dibujo a la derecha en la FIGURA 5.
Aqui, los pixeles PD de diferencia en los datos de imagen PDt de diferencia son pixeles que han cambiado en la imagen en diferentes momentos, en otras palabras, ubicaciones que pueden interpretarse como donde un objeto tridimensional estuvo presente. Consecuentemente, en las ubicaciones donde un objeto tridimensional estuvo presente, el número de pixeles se cuenta a lo largo de la dirección en la cual el objeto tridimensional colapsa para formar una distribución de frecuencias y generar por consiguiente una forma de onda DWt de diferencia. En particular, el número de pixeles se cuenta a lo largo de la dirección en la cual el objeto tridimensional colapsa, y una forma de onda DWt de diferencia se genera por consiguiente a partir de la información acerca de la dirección de altura en relación al objeto tridimensional.
De esta manera, la forma de onda DWt de diferencia es un modo de información de la distribución de los pixeles que muestra una diferencia de luminancia predeterminada, y la "información de la distribución de los pixeles" en la presente modalidad se puede alinear con la información que indica el estado de distribución de los "pixeles que tienen una diferencia de luminancia en un valor de umbral predeterminado o mayor" según se detecta a lo largo de la dirección en la cual el objeto tridimensional colapsa cuando la imagen capturada se convierte en perspectiva a una imagen de vista a ojo de pájaro. En otras palabras, en una imagen de vista a ojo de pájaro obtenida por la unidad 31 de conversión de perspectiva, la unidad 33 de detección de objeto tridimensional detecta un objeto tridimensional con base en la información de la distribución de los pixeles que tiene una diferencia de luminancia en un valor de umbral predeterminado o mayor a lo largo de la dirección en la cual el objeto tridimensional colapsa cuando la imagen capturada se convierte en perspectiva a una imagen de vista a ojo de pájaro.
Las lineas La y Lb en la dirección en la cual el objeto tridimensional colapsa tienen diferentes distancias que traslapan el área Al de detección, según se ilustra en el dibujo a la izquierda en la FIGURA 5. Consecuentemente, el número de pixeles DP de diferencia es mayor en la linea La que en la linea Lb cuando se asume que el área Al de detección se llena con los pixeles DP de diferencia. Por esta razón, la unidad 33 de detección de objeto tridimensional realiza la normalización con base en la distancia que las lineas La, Lb en la dirección en la cual el objeto tridimensional colapsa y el área Al de detección traslapan cuando la posición del eje vertical se decide a partir del número del conteo de los pixeles DP de diferencia. En un ejemplo especifico, hay seis pixeles DP de diferencia en la linea La y hay cinco pixeles DP de diferencia en la linea Lb en el dibujo a la izquierda en la FIGURA 5. Consecuentemente, cuando la posición del eje vertical se decide a partir del número del conteo en la FIGURA 5, la unidad 33 de detección de objeto tridimensional divide el número del conteo por la distancia de traslape o realiza la normalización de otra manera. Los valores de la forma de onda DWt de diferencia que corresponden a las lineas La, Lb en la dirección en la cual el objeto tridimensional colapsa se hacen por consiguiente sustancialmente iguales.
Después de que se ha generado la primera forma de onda DWt de diferencia, la unidad 33 de detección de objeto tridimensional detecta un vehículo adyacente presente en un carril adyacente con base en la forma de onda DWt de diferencia generada. La unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento mediante la comparación de la forma de onda DWt de diferencia en el momento actual y la forma de onda DWt-i de diferencia en un solo momento previo. En otras palabras, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento a partir del cambio en el tiempo de la forma de onda DWt de diferencia y la forma de onda DWt-i de diferencia.
Más específicamente, la unidad 33 de detección de objeto tridimensional divide la forma de onda DWt de diferencia en una pluralidad de pequeñas áreas DWti a DWtn (donde n es un número entero arbitrario de 2 o mayor) , según se ilustra en la FIGURA 6. La FIGURA 6 es una vista que ilustra las pequeñas áreas DWti a DWtn divididas por la unidad 33 de detección de objeto tridimensional. Las pequeñas áreas DWti a DWtn se dividen a fin de estar mutuamente traslapadas, según se ilustra en, por ejemplo, la FIGURA 6. Por ejemplo, la pequeña área DWti y la pequeña área D t2 traslapan entre si, y la pequeña área DWt2 y la pequeña área DWt3 traslapan entre si.
Posteriormente, la unidad 33 de detección de objeto tridimensional determina la cantidad de desplazamiento (la cantidad de movimiento en la dirección del eje horizontal (dirección vertical en la FIGURA 6) de la forma de onda de diferencia) para cada una de las pequeñas áreas DWti a DWtn. Aquí, la cantidad de desplazamiento se determina a partir de la diferencia (distancia en la dirección del eje horizontal) entre la forma de onda DWt-i de diferencia en un solo momento previo y la forma de onda DWt de diferencia en el momento actual. En este caso, la unidad 33 de detección de objeto tridimensional mueve la forma de onda DWt_i de diferencia en un solo momento previo en la dirección del eje horizontal para cada una de las pequeñas áreas DWti a DWtn, y posteriormente evalúa la posición (la posición en la dirección del eje horizontal) en la cual el error de la forma de onda DWt de diferencia en el momento actual está en un mínimo, y determina como la cantidad de desplazamiento la cantidad de movimiento en la dirección del eje horizontal en la posición en la cual el error de la posición original de la forma de onda DWt-i de diferencia está en un mínimo. La unidad 33 de detección de objeto tridimensional cuenta entonces la cantidad de desplazamiento determinada para cada una de las pequeñas áreas DWti a DWtn y forma un histograma.
La FIGURA 7 es una vista que ilustra un ejemplo del histograma obtenido por la unidad 33 de detección de objeto tridimensional. Según se ilustra en la FIGURA 7, ocurre cierta cantidad de variabilidad en la cantidad de desplazamiento, que es la distancia de movimiento en el cual el error entre las pequeñas áreas DWti a DWtn y la forma de onda DWt-i de diferencia en un solo momento previo está en un mínimo. Consecuentemente, la unidad 33 de detección de objeto tridimensional forma las cantidades de desplazamiento que incluyen la variabilidad en un histograma y calcula la distancia de movimiento a partir del histograma. En este punto, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento del objeto tridimensional a partir del valor máximo en el histograma. En otras palabras, en el ejemplo ilustrado en la FIGURA 7, la unidad 33 de detección de objeto tridimensional calcula la cantidad de desplazamiento que indica el valor máximo del histograma como la distancia r* de movimiento. De esta manera, en la presente modalidad, se puede calcular una distancia de movimiento más altamente precisa a partir del valor máximo, incluso cuando hay variabilidad en la cantidad de desplazamiento. La distancia t* de movimiento es la distancia de movimiento relativo del objeto tridimensional en relación al vehículo principal. Consecuentemente, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento absoluto a partir de la distancia t* de movimiento así obtenida y el detector 20 de velocidad cuando la distancia de movimiento absoluto debe ser calculada.
De esta manera, en la presente modalidad, la distancia de movimiento del objeto tridimensional se calcula a partir de la cantidad de desplazamiento de la forma de onda DWt de diferencia cuando el error en la forma de onda DWt de diferencia generada en diferentes momentos está en un mínimo, y esto permite que la distancia de movimiento sea calculada a partir de la cantidad de desplazamiento, que es la información sobre una dimensión en una forma de onda, y permite que el costo de computación se mantenga bajo cuando se calcula la distancia de movimiento. Además, dividir la forma de onda DWt de diferencia generada en diferentes momentos en una pluralidad de pequeñas áreas D tl a DWtn permite que se obtenga una pluralidad de formas de onda que representan las ubicaciones del objeto tridimensional, permitiendo por consiguiente que la cantidad de desplazamiento en cada ubicación del objeto tridimensional sea determinada y que la distancia de movimiento se determine a partir de una pluralidad de cantidades de desplazamiento. Por consiguiente, se puede mejorar la precisión del cálculo de la distancia de movimiento. En la presente modalidad, la distancia de movimiento del objeto tridimensional se calcula a partir del cambio en el tiempo de la forma de onda D t de diferencia, que incluye la información de la dirección de altura. Consecuentemente, en contraste al enfoque que está solamente sobre el movimiento de un solo punto, la ubicación de detección antes del cambio en el tiempo y la ubicación de detección después del cambio en el tiempo se especifican con la información de la dirección de altura incluida y consecuentemente fácilmente terminan siendo la misma ubicación; la distancia de movimiento se calcula a partir del cambio en el tiempo en la misma ubicación; y se puede mejorar la precisión para calcular la distancia de movimiento.
Cuando se debe formar un histograma, la unidad 33 de detección de objeto tridimensional puede impartir una ponderación a la pluralidad de pequeñas áreas DWti a DWtn, y contar las cantidades de desplazamiento determinadas para cada una de las pequeñas áreas DWti a DWtn de conformidad con la ponderación para formar un histograma. La FIGURA 8 es una vista que ilustra la ponderación utilizada por la unidad 33 de detección de objeto tridimensional.
Según se ilustra en la FIGURA 8, una pequeña área DWm (donde m es un número entero 1 o mayor y n - 1 o menor) es plana. En otras palabras, en la pequeña área DWm, hay una pequeña diferencia entre los valores máximo y mínimo del conteo de número de pixeles que indican una diferencia predeterminada. La unidad 33 de detección de objeto tridimensional reduce la ponderación de este tipo de pequeña área DWm. Esto es porque una pequeña área DWm plana carece de una característica y hay una alta posibilidad de que un error será magnificado cuando se calcule la cantidad de desplazamiento .
Por otra parte, la pequeña área D m+k (donde k es un número entero n - m o menor) tiene abundante ondulación. En otras palabras, en la pequeña área DWm, hay una diferencia considerable entre los valores máximo y mínimo del conteo de número de pixeles que indican una diferencia predeterminada. La unidad 33 de detección de objeto tridimensional incrementa la ponderación de este tipo de pequeña área DWm. Esto es porque una pequeña área DWm+k abundante en ondulación es característica y hay una alta posibilidad de que la cantidad de desplazamiento se calculará de manera exacta. La ponderación de las pequeñas áreas de esta manera posibilita mejorar la precisión para calcular la distancia de movimiento.
La forma de onda DWt de diferencia se divide en una pluralidad de pequeñas áreas DWti a DWtn en la presente modalidad a fin de mejorar la precisión para calcular la distancia de movimiento, pero la división en las pequeñas áreas DWti a DWtn no es requerida cuando la precisión para calcular la distancia de movimiento no es tan necesaria. En este caso, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento a partir de la cantidad de desplazamiento de la forma de onda D t de diferencia cuando el error entre la forma de onda DWt de diferencia y la forma de onda DWt-i de diferencia está en un mínimo. En otras palabras, el método para determinar la cantidad de desplazamiento entre la forma de onda D t_i de diferencia en un solo momento previo y la forma de onda DWt de diferencia en el momento actual no está limitado a los detalles anteriormente descritos.
La unidad 33 de detección de objeto tridimensional en la presente modalidad determina la velocidad de movimiento del vehículo VI principal (cámara 10) y determina la cantidad de desplazamiento para un objeto estacionario a partir de la velocidad de movimiento determinada. Después de que se ha determinado la cantidad de desplazamiento del objeto estacionario, la unidad 33 de detección de objeto tridimensional ignora la cantidad de desplazamiento que corresponde al objeto estacionario dentro del valor máximo del histograma, y calcula la distancia de movimiento del vehículo adyacente .
La FIGURA 9 es una vista que ilustra otro ejemplo del histograma obtenido por la unidad 33 de detección de objeto tridimensional. Cuando un objeto estacionario aparte del vehículo adyacente está presente dentro del ángulo de vista de la cámara 10, dos valores máximos t?, t2 aparecen en el histograma resultante. En este caso, uno de los dos valores máximos rl, r2 es la cantidad de desplazamiento del objeto estacionario. Consecuentemente, la unidad 33 de detección de objeto tridimensional determina la cantidad de desplazamiento para el objeto estacionario a partir de la velocidad de movimiento, ignora el valor máximo que corresponde a la cantidad de desplazamiento, y calcula la distancia de movimiento del objeto tridimensional utilizando el valor máximo restante. Por consiguiente, es posible prevenir una situación en la cual la precisión para calcular la distancia de movimiento del objeto tridimensional se reduce por el objeto estacionario.
Incluso cuando se ignora la cantidad de desplazamiento correspondiente al objeto estacionario, puede haber una pluralidad de vehículos adyacentes presentes dentro del ángulo de vista de la cámara 10 cuando hay una pluralidad de valores máximos. Sin embargo, una pluralidad de objetos tridimensionales presentes dentro de las áreas Al, A2 de detección ocurre muy raras veces. Consecuentemente, la unidad 33 de detección de objeto tridimensional deja de calcular la distancia de movimiento. En la presente modalidad, es posible por consiguiente prevenir una situación en la cual se calcula una distancia de movimiento errante, tal como cuando hay una pluralidad de valores máximos.
La unidad 33 de detección de objeto tridimensional adicionalmente diferencia en tiempo la distancia de movimiento relativo calculada del objeto tridimensional para calcular por consiguiente la velocidad de movimiento relativo del objeto tridimensional en relación al vehículo principal y además suma la velocidad del vehículo principal detectada por el detector 20 de velocidad a la velocidad de movimiento relativo calculada del objeto tridimensional para calcular por consiguiente la velocidad de movimiento relativo del objeto tridimensional .
Después de que se ha generado la forma de onda DWt de diferencia, la unidad 33 de detección de objeto tridimensional detecta un vehículo adyacente presente en el carril adyacente con base en la forma de onda DWt de diferencia generada. Aquí, la FIGURA 10 es una vista para describir el método para evaluar otro vehículo presente en un carril adyacente, y muestra un ejemplo de la forma de onda DWt de diferencia y el valor de umbral para detectar un vehículo adyacente presente en un carril adyacente. Por ejemplo, la unidad 33 de detección de objeto tridimensional determina si el máximo de la forma de onda DWt de diferencia generada está en un valor de umbral o mayor, y cuando el máximo de la forma de onda DWt de diferencia generada está en un valor a de umbral o mayor, el objeto tridimensional detectado se evalúa como un vehículo adyacente presente en el carril adyacente, y cuando el máximo de la forma de onda DWt de diferencia no está en un valor a de umbral o mayor, el objeto tridimensional detectado por la unidad 33 de detección de objeto tridimensional no se evalúa como un vehículo adyacente presente en el carril adyacente, según se ilustra en la FIGURA 10. Cuando el objeto tridimensional detectado se ha evaluado como un vehículo adyacente, la unidad 33 de detección de objeto tridimensional transmite una señal de notificación al dispositivo 50 de notificación, y notifica por consiguiente al conductor que un vehículo adyacente está presente hacia atrás del vehículo principal .
Regresando a la FIGURA 3, la unidad 34 de establecimiento de áreas de detección establece las áreas Al, A2 de detección para detectar un objeto tridimensional. Específicamente, la unidad 34 de establecimiento de áreas de detección determina si el vehículo principal ha sido pasado por el vehículo adyacente con base en los resultados de detección de la unidad 33 de detección de objeto tridimensional, y cuando se ha determinado que el vehículo principal ha sido pasado por el vehículo adyacente, las áreas Al, A2 de detección se ensanchan hacia atrás con respecto a la dirección de progreso del vehículo.
Las FIGURAS 11(A) y 11(B) son unas vistas para describir el método para establecer las áreas de detección por la unidad 34 de establecimiento de áreas de detección. En las FIGURAS 11(A) y 11(B), dos vehículos V2, V2' adyacentes viajan en el carril adyacente de manera consecutiva, e ilustra una situación en la cual se ha detectado el primer vehículo V2 adyacente delantero. En el ejemplo ilustrado en las FIGURAS 11 (A) y 11 (B) , sólo se ilustra y describe el área Al de detección, pero el área A2 de detección se establece de la misma manera.
La unidad 34 de establecimiento de áreas de detección establece la amplitud (longitud) del área Al de detección en la dirección de progreso del vehículo principal de antemano para ser, por ejemplo, 7 m, y la detección de los objetos tridimensionales se lleva a cabo en esta área Al de detección. Según se ilustra en la FIGURA 11 (A) , cuando el primer vehículo V2 adyacente delantero ha sido detectado por la unidad 33 de detección de objeto tridimensional, la unidad 34 de establecimiento de áreas de detección determina si la velocidad de movimiento relativo del vehículo V2 adyacente en relación al vehículo VI principal está en una velocidad predeterminada o mayor. La velocidad predeterminada no está particularmente limitada, pero se puede establecer para ser, por ejemplo, 10 km/h (es decir, la velocidad del vehículo VI principal es 10 km/h mayor que la velocidad del vehículo V2 adyacente) teniendo en consideración el error de detección de la velocidad de movimiento relativo del vehículo V2 adyacente en relación al vehículo VI principal. La velocidad de movimiento relativo del vehículo V2 adyacente en relación al vehículo VI principal se puede adquirir a partir de la unidad 33 de detección de objeto tridimensional, o se puede calcular por la unidad 34 de establecimiento de áreas de detección.
Cuando la velocidad de movimiento relativo del vehículo V2 adyacente en relación al vehículo VI principal está en una velocidad predeterminada o mayor, la unidad 34 de establecimiento de áreas de detección determina que el primer vehículo V2 adyacente está pasando al vehículo VI principal, y el área Al de detección se ensancha hacia atrás con respecto a la dirección de progreso del vehículo VI, según se ilustra en la FIGURA 11(B). Por ejemplo, cuando la amplitud del área Al de detección en la dirección de progreso del vehículo VI principal establecida de antemano es 7 m, la unidad 34 de establecimiento de áreas de detección ensancha las áreas Al, A2 de detección hacia atrás por 2 m con respecto a la dirección de progreso del vehículo cuando se ha determinado que el vehículo VI principal ha sido pasado por el vehículo V2 adyacente, y la amplitud del área Al de detección en la dirección de progreso del vehículo principal se puede establecer a 9 m totales. En la FIGURA 11(B), el rango del área Al de detección ensanchada hacia atrás con respecto a la dirección de progreso del vehículo se ilustra en gris.
De esta manera, cuando se ha determinado que el primer vehículo V2 adyacente está pasando al vehículo VI principal, el ensanchamiento del área Al de detección hacia atrás con respecto a la dirección de progreso del vehículo VI permite que un segundo vehículo V2' adyacente que sigue al primer vehículo V2 adyacente delantero sea detectado en el área Al de detección, según se ilustra en la FIGURA 11 (B) .
Por otra parte, el segundo vehículo V2' adyacente no puede ser detectado en el área Al de detección cuando el primer vehículo V2 adyacente ha pasado al vehículo VI principal en el caso en que el área Al de detección no se ensancha hacia atrás con respecto a la dirección de progreso del vehículo VI en una manera convencional, incluso cuando se ha determinado que el vehículo V2 adyacente está pasando al vehículo VI principal. Por esta razón, se determina que un vehículo adyacente no está presente hacia atrás del vehículo principal y la notificación mediante el dispositivo 50 de notificación no se lleva a cabo por la unidad 33 de detección de objeto tridimensional, incluso aunque un vehículo V2' adyacente esté presente hacia atrás del vehículo principal. De esta manera, en una situación en la cual el primer vehículo V2 adyacente delantero está pasando al vehículo VI principal y no se lleva a cabo la notificación de que un vehículo adyacente está presente hacia atrás del vehículo principal, hay casos en los cuales es posible que el conductor determinará que un vehículo adyacente no está presente en el carril adyacente hacia atrás del vehículo principal, y el conductor cambiará el carril del vehículo VI principal, incluso aunque un segundo vehículo V2' adyacente esté presente hacia atrás del vehículo VI principal, y el vehículo VI principal y el segundo vehículo V2' adyacente se acerquen entre sí. En contraste, en la presente modalidad, cuando se ha determinado que un primer vehículo V2 adyacente delantero está pasando al vehículo VI principal, el ensanchamiento del área Al de detección hacia atrás con respecto a la dirección de progreso del vehículo VI permite que un segundo vehículo V2' adyacente en el área Al de detección sea detectado, y es posible notificar al conductor que un segundo vehículo V2 adyacente está presente.
En la presente modalidad, la unidad 34 de establecimiento de áreas de detección es capaz de variar la cantidad por la cual las áreas Al, A2 de detección se deben ensanchar hacia atrás con respecto a la dirección de progreso del vehículo de conformidad con la velocidad de movimiento relativo del vehículo V2 adyacente en relación al vehículo VI principal. Por ejemplo, la unidad 34 de establecimiento de áreas de detección puede predecir que entre mayor es la velocidad de movimiento relativo del primer vehículo V2 adyacente en relación al vehículo VI principal, más rápida será la velocidad de movimiento relativo del segundo vehículo V2' adyacente, y que el segundo vehículo adyacente pronto alcanzará al vehículo principal, e incrementar la cantidad por la cual las áreas Al, A2 de detección se deben ensanchar en la dirección hacia atrás. Alternativamente, se puede determinar que entre mayor es la velocidad de movimiento relativo del primer vehículo V2 adyacente en relación al vehículo VI principal, el tiempo que el vehículo adyacente estará presente hacia atrás del vehículo principal será más corto, y se puede reducir la cantidad por la cual las áreas Al, A2 de detección se deben ensanchar en la dirección hacia atrás. Además, también es posible utilizar una configuración en la cual se da consideración a la velocidad del vehículo principal donde no se predice que el segundo vehículo V2' adyacente pronto alcanzará al vehículo principal cuando la velocidad del vehículo principal es suficientemente alta y la distancia entre el primer vehículo V2 adyacente y el segundo vehículo V2' adyacente es grande, y la cantidad por la cual las áreas Al, A2 de detección se deben ensanchar no se incrementa, incluso cuando la velocidad de movimiento relativo del primer vehículo V2 adyacente es alta en relación al vehículo VI principal .
Además, la unidad 34 de establecimiento de áreas de detección adquiere la información del ángulo de la dirección a partir del detector 40 del ángulo de la dirección y determina si el vehículo principal está dando vuelta con base en la información del ángulo de la dirección adquirida. Cuando se ha determinado que el vehículo principal está dando vuelta, la unidad 34 de establecimiento de áreas de detección calcula entonces el radio de la vuelta del vehículo principal con base en la información del ángulo de la dirección, y modifica la cantidad por la cual las áreas de detección se deben ensanchar en la dirección hacia atrás de conformidad con el radio de la vuelta calculado cuando el vehículo principal ha sido pasado por un vehículo adyacente. Específicamente, la unidad 34 de establecimiento de áreas de detección tiene mapas o fórmulas computacionales que indican la correlación entre el radio de la vuelta y las áreas Al, A2 de detección que se modifican de conformidad con el radio de la vuelta, y decide la cantidad por la cual las áreas de detección se deben ensanchar en la dirección hacia atrás cuando el vehículo principal ha sido pasado por un vehículo adyacente .
Aquí, las FIGURAS 12(A) y 12(B) son unas vistas para describir el método para establecer el área de detección cuando el vehículo principal está dando vuelta. La FIGURA 12(A) es una vista que ilustra un ejemplo del área de detección establecida cuando el vehículo principal está dando vuelta en la presente modalidad. La FIGURA 12 (B) es una vista que ilustra un ejemplo del área de detección cuando el vehículo principal está dando vuelta y el método para establecer el área de detección en la presente modalidad. En una situación en la cual el vehículo VI principal ha sido pasado por el primer vehículo V2 adyacente delantero, la unidad 34 de establecimiento de áreas de detección modifica la cantidad por la cual el área A2 de detección se ensancha en la dirección hacia atrás de modo que el área de detección no entre en el carril en el cual viaja el vehículo principal cuando se ha determinado que el vehículo principal está dando vuelta, según se ilustra en la FIGURA 12(A). Específicamente, la unidad 34 de establecimiento de áreas de detección reduce la cantidad por la cual el área A2 de detección establecida dentro de la vuelta se debe ensanchar en la dirección hacia atrás, de manera proporcionada a la magnitud del radio de la vuelta del vehículo VI principal de modo que el área de detección no entre en el carril en el cual viaja el vehículo principal.
Por otra parte, cuando el área A2 de detección se ensancha uniformemente por una cantidad fija cuando se determina que el vehículo VI principal está dando vuelta, un vehículo V3 posterior que viaja en el carril en el cual viaja el vehículo VI principal se detecta en el área A2 de detección, según se ilustra en la FIGURA 12 (B) , y hay casos en los cuales el vehículo V3 posterior es, por consiguiente, errantemente detectado como un vehículo adyacente que viaja en un carril adyacente. En respuesta a esto, en la presente modalidad, la cantidad por la cual se ensancha la parte trasera con respecto a la dirección de progreso del vehículo VI se acorta de manera proporcionada a un radio de vuelta más pequeño del vehículo VI principal, según se ilustra en la FIGURA 12 (A) , posibilitando por consiguiente prevenir efectivamente una situación en la cual el vehículo V3 posterior se detecta en el área A2 de detección. Como consecuencia, un vehículo adyacente que viaja en un carril adyacente puede ser detectado adecuadamente.
A continuación se describe el proceso para detectar un vehículo adyacente de conformidad con la presente modalidad. La FIGURA 13 es un diagrama de flujo que ilustra el método para detectar un vehículo adyacente de la primera modalidad. Primero, las áreas Al, A2 de detección para detectar un vehículo adyacente se establecen por la unidad 34 de establecimiento de áreas de detección (etapa S101), según se ilustra en la FIGURA 13. En la etapa S101, las áreas de detección que se establecen son aquellas establecidas en un proceso de establecimiento de áreas de detección más adelante descrito (véase la FIGURA 14).
Los datos de una imagen capturada se adquieren por la computadora 30 a partir de la cámara 10 (etapa S102) , y los datos de una imagen PBt de vista a ojo de pájaro se generan (etapa S103) por la unidad 31 de conversión de perspectiva con base en los datos de la imagen capturada asi adquiridos.
Posteriormente, la unidad 32 de alineación alinea los datos de imagen PBt de vista a ojo de pájaro y los datos de imagen PBt-i de vista a ojo de pájaro en un solo momento previo, y genera los datos de una imagen PDt de diferencia (etapa S104). La unidad 33 de detección de objeto tridimensional cuenta entonces el número de pixeles DP de diferencia que tienen un valor de pixel de "1" para generar por consiguiente una forma de onda DWt de diferencia a partir de los datos de imagen PDt de diferencia (etapa S105) .
La unidad 33 de detección de objeto tridimensional determina entonces si un máximo en la forma de onda DWt de diferencia está en un valor a de umbral predeterminado o mayor (etapa S106) . Cuando el máximo de la forma de onda DWt de diferencia no está en el valor a de umbral o mayor, es decir, cuando esencialmente no hay diferencia, se piensa que un objeto tridimensional no está presente en la imagen capturada. Consecuentemente, cuando se ha determinado que el máximo de la forma de onda DWt de diferencia no está en el valor a de umbral o mayor (etapa S106 = No) , la unidad 33 de detección de objeto tridimensional determina que otro vehículo no está presente (etapa S116) , y posteriormente regresa a la etapa S101 y repite el proceso anteriormente descrito ilustrado en la FIGURA 13.
Por otra parte, cuando se determina que el máximo en la forma de onda DWt de diferencia está en un valor a de umbral o mayor (etapa S106 = Si) , se determina por la unidad 33 de detección de objeto tridimensional que un objeto tridimensional está presente en el carril adyacente y avanza a la etapa S107. La forma de onda D t de diferencia se divide en una pluralidad de pequeñas áreas DWti a DWtn por la unidad 33 de detección de objeto tridimensional. La unidad 33 de detección de objeto tridimensional posteriormente imparte una ponderación a cada una de las pequeñas áreas DWti a DWtn (etapa S108), calcula la cantidad de desplazamiento para cada una de las pequeñas áreas DWtl a DWtn (etapa S109) , y genera un histograma teniendo en consideración las ponderaciones (etapa S110) .
La unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento relativo, que es la distancia de movimiento del vehículo adyacente en relación al vehículo principal, con base en el histograma, diferencia en tiempo la distancia de movimiento relativo calculada para calcular por consiguiente la velocidad de movimiento relativo del objeto tridimensional en relación al vehículo principal (etapa Slll), suma la velocidad del vehículo principal detectada por el detector 20 de velocidad a la velocidad de movimiento relativo calculada, y calcula la velocidad de movimiento absoluto del objeto tridimensional en relación al vehículo principal (etapa S112) .
La unidad 33 de detección de objeto tridimensional posteriormente determina si la velocidad de movimiento relativo del objeto tridimensional es 10 km/h o mayor y si la velocidad de movimiento relativo del objeto tridimensional en relación al vehículo principal es +60 km/h o menos (etapa 5113) . Cuando se satisfacen ambas condiciones (etapa S113 = Sí), la unidad 33 de detección de objeto tridimensional determina que el objeto tridimensional detectado es un vehículo adyacente presente en el carril adyacente y que un vehículo adyacente está presente en el carril adyacente (etapa 5114) . En la subsiguiente etapa S115, el conductor es por consiguiente notificado por el dispositivo 50 de notificación que un vehículo adyacente está presente hacia atrás del vehículo principal. El proceso regresa entonces a la etapa S101, y repite el proceso ilustrado en la FIGURA 13. Por otra parte, cuando no se satisface cualquiera de las condiciones (etapa S113 = No) , la unidad 33 de detección de objeto tridimensional determina que un vehículo adyacente no está presente en el carril adyacente (etapa S116) . El proceso regresa a la etapa S101, y repite el proceso ilustrado en la FIGURA 13.
En la presente modalidad, las áreas Al, A2 de detección son las direcciones del lado trasero del vehículo principal, y se coloca un enfoque sobre si el vehículo principal puede posiblemente hacer contacto con un vehículo adyacente si se hace un cambio de carril. Consecuentemente, se implementa el proceso de la etapa S113. En otras palabras, asumiendo que el sistema en la presente modalidad se acciona en una autopista, cuando la velocidad de un vehículo adyacente es menor que 10 km/h, rara vez sería un problema incluso si un vehículo adyacente estuviera presente debido a que el vehículo adyacente estaría posicionado muy por detrás del vehículo principal cuando se hiciese un cambio de carril. De modo semejante, cuando la velocidad de movimiento relativo de un vehículo adyacente excede +60 km/h en relación al vehículo principal (es decir, cuando el vehículo adyacente se mueve a una velocidad 60 km/h mayor que la velocidad del vehículo principal) , rara vez sería un problema debido a que el vehículo adyacente se habría adelantado al vehículo principal cuando se hiciese un cambio de carril. Por esta razón, se puede decir que la etapa S113 determina los vehículos adyacentes que pueden volverse un problema cuando se hace un cambio de carril En la etapa S113, se determina si la velocidad de movimiento absoluto del vehículo adyacente es 10 km/h o mayor, y si la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es +60 km/h o menos, obteniendo por consiguiente el siguiente efecto. Por ejemplo, un posible caso es que la velocidad de movimiento absoluto de un objeto estacionario se detecte como varios kilómetros por hora dependiendo del error de unión de la cámara 10. Consecuentemente, la determinación de si la velocidad es 10 km/h o mayor posibilita reducir la posibilidad de que el objeto estacionario se determinará como un vehículo adyacente. Además, es posible que la velocidad relativa de un vehículo adyacente en relación al vehículo principal se detectará como en exceso de +60 km/h debido al ruido. Consecuentemente, la determinación de si la velocidad relativa es +60 km/h o menos posibilita reducir la posibilidad de una detección errante debido al ruido.
Adicionalmente es posible determinar que la velocidad de movimiento relativo del vehículo adyacente no es negativa o no es 0 km/h en lugar del procesamiento de la etapa S113.
A continuación se describirá el proceso de establecimiento de áreas de detección de acuerdo con la primera modalidad. La FIGURA 14 es un diagrama de flujo que ilustra el proceso de establecimiento de áreas de detección de acuerdo con la primera modalidad. El proceso de establecimiento de áreas de detección descrito a continuación se lleva a cabo paralelamente al proceso de detección de vehículo adyacente ilustrado en la FIGURA 13, y las áreas Al, A2 de detección, establecidas, por el proceso de establecimiento de áreas de detección se establecen en el proceso de detección de vehículo adyacente ilustrado en la FIGURA 13.
Primero, en la etapa S201, la unidad 34 de establecimiento de áreas de detección determina si un vehículo adyacente está siendo detectado. Específicamente, cuando la unidad 34 de establecimiento de áreas de detección ha determinado que un vehículo adyacente está presente en las áreas Al, A2 de detección en el proceso de detección de vehículo adyacente ilustrado en la FIGURA 13, se determina que un vehículo adyacente está siendo detectado, y el proceso avanza a la etapa S202, y cuando la unidad de establecimiento de áreas de detección ha determinado que un vehículo adyacente no está presente en las áreas Al, A2 de detección, se determina que un vehículo adyacente no está siendo detectado, y el proceso permanece en espera en la etapa S201 hasta que se detecte un vehículo adyacente.
En la etapa S202, la unidad 34 de establecimiento de áreas de detección determina si un vehículo adyacente ha pasado al vehículo principal. Específicamente, la unidad 34 de establecimiento de áreas de detección adquiere la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal a partir de la unidad 33 de detección de objeto tridimensional, y determina si la velocidad de movimiento relativo del vehículo adyacente es una velocidad predeterminada (por ejemplo, 10 km/h) o mayor con base en la velocidad de movimiento relativo adquirida del vehículo adyacente. Cuando la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es una velocidad predeterminada o mayor, se determina que el vehículo adyacente está pasando al vehículo principal, y el proceso avanza a la etapa S203. Por otra parte, cuando la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es menor que la velocidad predeterminada, se determina que el vehículo adyacente no está pasando al vehículo principal, y el proceso regresa a la etapa S201.
En la etapa S203, la unidad 34 de establecimiento de áreas de detección determina si el vehículo principal está dando vuelta. El método para evaluar si el vehículo principal está dando vuelta no está particularmente limitado, pero en la presente modalidad, el siguiente método se utiliza para evaluar si el vehículo principal está dando vuelta.
En otras palabras, la unidad 34 de establecimiento de áreas de detección primero predice si el vehículo VI principal está en un estado de vuelta después de una longitud de tiempo predeterminada (también se puede referir en lo siguiente como predicción del estado de vuelta) . Específicamente, la unidad 34 de establecimiento de áreas de detección se refiere a una imagen capturada adquirida a partir de la cámara 10, detecta los carriles (por ejemplo, las líneas blancas) sobre la superficie de la carretera, y calcula la curvatura del carril como un parámetro que ilustra la forma de la carretera. La unidad 34 de establecimiento de áreas de detección predice entonces la forma de la carretera delante del vehículo principal, es decir, el radio de la vuelta del vehículo principal hasta que ha transcurrido una longitud de tiempo predeterminada, con base en la curvatura del carril computada y la velocidad obtenida a partir del detector 20 de velocidad.
Además, la unidad 34 de establecimiento de áreas de detección calcula el radio de la vuelta actual del vehículo VI principal de conformidad con la Fórmula 1 de abajo, con base en la velocidad del vehículo principal obtenida a partir del detector 20 de velocidad y el ángulo de la dirección obtenido a partir del detector 40 del ángulo de la dirección.
Fórmula 1 = (l + KV2) (nL/$ ... (1) En la fórmula 1, p es el radio de la vuelta, K es el factor de estabilidad, V es la velocidad del vehículo principal, L es la base de la rueda, n es la relación del mecanismo de dirección, y f es el ángulo de la dirección.
La unidad 34 de establecimiento de áreas de detección evalúa que el vehículo VI principal está dando vuelta cuando el radio de la vuelta predicho en la predicción del estado de vuelta anteriormente descrita y el radio de la vuelta actual obtenido con base en la fórmula 1 están en un valor de umbral predeterminado o mayor. Cuando se ha determinado que el vehículo principal está dando vuelta, el proceso avanza a la etapa S211. Por otra parte, cuando se ha determinado que el vehículo principal no está dando vuelta, el proceso avanza a la etapa S204.
En la etapa S204 a S210, el procesamiento se lleva a cabo para ensanchar las áreas de detección hacia atrás con respecto a la dirección de progreso del vehículo con base en la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal y la información de velocidad del vehículo principal.
Específicamente, la unidad 34 de establecimiento de áreas de detección ensancha y establece (etapa S206) las áreas de detección hacia atrás por L (m) a partir de un rango establecido de antemano cuando la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es una primera velocidad o mayor (etapa S204 = Sí) , y la velocidad del vehículo principal es una segunda velocidad o mayor (etapa S205 = Sí) . Por otra parte, la unidad 34 de establecimiento de áreas de detección ensancha y establece (etapa S207) las áreas de detección hacia atrás por L + a(m) a partir del rango establecido de antemano cuando la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es la primera velocidad o mayor (etapa S204 = Sí) , y la velocidad del vehículo principal es menor que la segunda velocidad (etapa S205 = No) . La primera velocidad no está particularmente limitada, y es posible utilizar una velocidad que permita la determinación de que el segundo vehículo adyacente pronto alcanzará al vehículo principal cuando, por ejemplo, un segundo vehículo adyacente viaja en la primera velocidad. Además, la segunda velocidad no está particularmente limitada, y es posible utilizar una velocidad que permita la determinación de que hay congestionamiento cuando, por ejemplo, el vehículo principal viaja en la segunda velocidad .
De esta manera, cuando la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es la primera velocidad o mayor, y la velocidad del vehículo principal es menor que la segunda velocidad, se determina que un segundo vehículo adyacente pronto alcanzará al vehículo principal y la cantidad por la cual las áreas de detección se ensanchan se establece a una cantidad (por ejemplo, L + a( ) ) que es mayor que una cantidad decidida de antemano (por ejemplo, L (m) ) (etapa S207) . El segundo vehículo adyacente que pronto pasará al vehículo principal puede ser detectado adecuadamente. Además, cuando la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es la primera velocidad o mayor, y la velocidad del vehículo principal es la segunda velocidad o mayor, se predice que la velocidad del primer vehículo V2 adyacente es considerablemente alta debido a que la velocidad del vehículo principal es suficientemente alta, y se determina que la distancia entre el primer vehículo V2 adyacente y el segundo vehículo adyacente está incrementando.
Consecuentemente, en comparación con cuando la velocidad del vehículo principal es menor que una segunda velocidad predeterminada, se determina que el segundo vehículo adyacente no alcanzará pronto al vehículo principal y la cantidad por la cual las áreas Al, A2 de detección se ensanchan se establece a una cantidad (por ejemplo, L (m) ) decidida de antemano (etapa S208) .
La unidad 34 de establecimiento de áreas de detección ensancha y establece (etapa S209) las áreas de detección hacia atrás por L - ß (m) a partir de un rango establecido de antemano cuando la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es menor que la primera velocidad (etapa S204 = No) , y la velocidad del vehículo principal es una segunda velocidad o mayor (etapa S208 = Sí) . Por otra parte, la unidad 34 de establecimiento de áreas de detección ensancha y establece (etapa S210) las áreas de detección hacia atrás por L (m) a partir de un rango establecido de antemano cuando la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es menor que la primera velocidad (etapa S204 = No) , y la velocidad del vehículo principal es menor que la segunda velocidad (etapa S208 = No) .
De esta manera, la unidad 34 de establecimiento de áreas de detección puede determinar que hay una alta posibilidad de que se estreche la distancia entre los primer y segundo vehículos adyacentes consecutivos y que dos vehículos adyacentes estén presentes inmediatamente hacia atrás del vehículo principal, y la cantidad por la cual las áreas de detección se deben ensanchar se establece a una cantidad decidida de antemano (por ejemplo, L (m) ) (etapa S210) cuando la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es menor que la primera velocidad y cuando la velocidad del vehículo principal es menor que una segunda velocidad, por ejemplo, en condiciones de congestionamiento . Por otra parte, cuando la velocidad del vehículo principal está en una segunda velocidad predeterminada o mayor, el primer vehículo adyacente también debe estar viajando en una alta velocidad, y se determina por consiguiente que la distancia entre el primer vehículo adyacente y el segundo vehículo adyacente consecutivos es constante y la cantidad por la cual las áreas de detección se deben ensanchar hacia atrás se establece a una cantidad que es menor que la cantidad establecida de antemano (por ejemplo, L - /3(m)) (etapa S209) . De esta manera, decidir la cantidad por la cual las áreas de detección se deben ensanchar con base en la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal y la velocidad del vehículo principal permite que las áreas de detección sean establecidas en un rango adecuado que corresponde a las condiciones de viaje del vehículo principal.
Además, cuando se ha determinado que el vehículo principal está dando vuelta en la etapa S203, la unidad 34 de establecimiento de áreas de detección calcula el radio de la vuelta actual del vehículo principal en la etapa S211. El método para calcular el radio de la vuelta actual del vehículo principal no está particularmente limitado, y en la presente modalidad, el radio de la vuelta actual del vehículo principal se puede calcular en la manera descrita a continuación.
En otras palabras, la unidad 34 de establecimiento de áreas de detección decide el radio de la vuelta actual con base en el radio de la vuelta calculado en la etapa S203. Específicamente, la unidad 34 de establecimiento de áreas de detección se refiere a la información del momento y predice el radio de la vuelta actual con base en el radio de la vuelta que existió hasta que una longitud de tiempo predeterminada había transcurrido según se predijo en la predicción del estado de vuelta de la etapa S203. La unidad 34 de establecimiento de áreas de detección compara el radio de la vuelta actual predicho con el radio de la vuelta calculado en la fórmula 1 anteriormente mencionada, y calcula la probabilidad (es decir, el grado de plausibilidad) en relación al radio de la vuelta actual predicho. La unidad 34 de establecimiento de áreas de detección decide entonces el radio de la vuelta después de que ha transcurrido una longitud de tiempo predeterminada según se predice en la predicción del estado de vuelta para ser el radio de la vuelta máximo cuando la probabilidad está en un valor evaluación predeterminado o mayor, e inversamente decide que el radio de la vuelta se calcula utilizando la fórmula 1 anteriormente mencionada para ser el radio de la vuelta máximo cuando la probabilidad es menor que el valor evaluación predeterminado.
En la etapa S212, la unidad 34 de establecimiento de áreas de detección decide la cantidad por la cual las áreas de detección se deben ensanchar hacia atrás con base en el radio de la vuelta máximo especificado en la etapa S211, y ensancha y establece las áreas de detección por la cantidad decidida mayor que el rango establecido de antemano.
Específicamente, la unidad 34 de establecimiento de áreas de detección reduce la cantidad por la cual las áreas de detección se deben ensanchar hacia atrás de manera proporcionada a un radio de vuelta más pequeño de modo que las áreas de detección no entren en el carril en el cual viaja el vehículo principal, según se ilustra en la FIGURA 13(A). La unidad 34 de establecimiento de áreas de detección tiene mapas o fórmulas computacionales que indican la correlación entre el radio de la vuelta y las áreas Al, A2 de detección que se modifican de conformidad con el radio de la vuelta, y establece la cantidad por la cual las áreas Al, A2 de detección se deben ensanchar utilizando los mapas o las fórmulas computacionales .
En la etapa S213, la unidad 34 de establecimiento de áreas de detección determina si un vehículo adyacente todavía está siendo detectado. Por ejemplo, cuando se determina que el primer vehículo V2 adyacente todavía está siendo detectado en un área de detección, y el proceso permanece en espera en la etapa S213, según se ilustra en la FIGURA 11(A), y por otra parte, cuando el primer vehículo adyacente ya no se detecta, según se ilustra en la FIGURA 11(B), el proceso avanza a la etapa S214. Cuando un segundo vehículo adyacente ha sido detectado antes de que el primer vehículo adyacente ya no esté siendo detectado, se determina si el segundo vehículo adyacente todavía está siendo detectado. Por consiguiente, es posible detectar adecuadamente un tercer vehículo adyacente que sigue al segundo vehículo adyacente.
En la etapa S214, la unidad 34 de establecimiento de áreas de detección evalúa si un tiempo predeterminado (por ejemplo, dos segundos) ha transcurrido después de que un vehículo adyacente ya no es detectado en las áreas de detección. Cuando el tiempo predeterminado no ha transcurrido, el proceso permanece en espera en la etapa S214 hasta que un tiempo predeterminado haya transcurrido, y cuando el tiempo predeterminado ha transcurrido, el proceso avanza a la etapa S215. La unidad 34 de establecimiento de áreas de detección estrecha gradualmente las áreas de detección hacia adelante con respecto a la dirección de progreso del vehículo en una velocidad menor que la velocidad en la cual las áreas de detección se ensanchan y finalmente regresa las áreas de detección a sus tamaños originales antes de ser ensanchadas.
Aquí, la FIGURA 15 es una gráfica que ilustra un ejemplo de la amplitud de las áreas de detección en la dirección de progreso del vehículo principal establecidas en la presente modalidad. Por ejemplo, en el ejemplo situacional ilustrado en la FIGURA 15, cuando el primer vehículo V2 adyacente se detecta en las áreas de detección en el tiempo ti (etapa S201 = Sí), según se ilustra en la FIGURA 11(A), y se ha evaluado que el primer vehículo V2 adyacente está pasando al vehículo VI principal (etapa S202 = Sí), la amplitud de las áreas de detección en la dirección de progreso se incrementa hacia atrás desde wi hasta w2 (w2 > wi) , según se ilustra en la FIGURA 11(B) (etapas S206, S207, S209, S210).
La unidad 34 de establecimiento de áreas de detección determina entonces si el primer vehículo V2 adyacente está siendo detectado después de que las áreas de detección han sido ensanchadas en el tiempo ti (etapa S213) . En el ejemplo ilustrado en la FIGURA 15, el primer vehículo V2 adyacente delantero ya no es detectado en el tiempo t2, y las áreas de detección se estrechan gradualmente hacia adelante desde el tiempo t2 + n en el cual un tiempo n predeterminado ha transcurrido desde el tiempo t2 (etapa S214) . Además, en el ejemplo situacional ilustrado en la FIGURA 15, la amplitud en la dirección de progreso de las áreas de detección finalmente se regresa, en el tiempo t3, a wi antes de que las áreas de detección sean ensanchadas.
De esta manera, dejar las áreas de detección ensanchadas hacia atrás durante una longitud de tiempo predeterminada después de que el primer vehículo V2 adyacente delantero ya no es detectado permite que un segundo vehículo V2' adyacente que se acerca al vehículo principal sea adecuadamente detectado incluso cuando el primer vehículo V2 adyacente y el segundo vehículo V2' adyacente están separados en distancia. Además, cuando una longitud de tiempo predeterminada ha transcurrido después de que el primer vehículo V2 adyacente delantero ya no es detectado, estrechar gradualmente las áreas de detección hacia adelante permite que el segundo vehículo V2' adyacente que se acerca al vehículo principal sea detectado de manera más confiable en comparación con cuando las áreas de detección se estrechan en una sola etapa.
La longitud de tiempo n predeterminada, anteriormente mencionada, se puede modificar de conformidad con la velocidad de movimiento relativo del vehículo V2 adyacente en relación al vehículo VI principal. Por ejemplo, la unidad 34 de establecimiento de áreas de detección se puede configurar a fin de predecir que la velocidad de movimiento del segundo vehículo V2' adyacente es mayor de manera proporcionada a una mayor velocidad de movimiento relativo del primer vehículo V2 adyacente en relación al vehículo VI principal y que el segundo vehículo adyacente pronto alcanzará al vehículo principal, y para incrementar el tiempo n predeterminado. Alternativamente, también es posible utilizar una configuración en la cual se predice que el tiempo que el vehículo adyacente permanece hacia atrás del vehículo principal es más corto de manera proporcionada a una mayor velocidad de movimiento relativo del primer vehículo V2 adyacente en relación al vehículo VI principal, y reducir el tiempo n predeterminado. Adicionalmente es posible utilizar una configuración en la cual se da consideración a la velocidad del vehículo principal y se predice que el segundo vehículo V2' adyacente no alcanzará pronto al vehículo VI principal cuando la velocidad del vehículo principal es suficientemente alta y la distancia entre el primer vehículo V2 adyacente y el segundo vehículo V2' adyacente es grande, y el tiempo n predeterminado no se incrementa, incluso cuando la velocidad de movimiento relativo del primer vehículo V2 adyacente en relación al vehículo VI principal es alta. De esta manera, establecer el tiempo n predeterminado de conformidad con el estado de viaje del vehículo principal permite que el segundo vehículo V2' adyacente sea adecuadamente detectado.
Según se describe anteriormente, en la primera modalidad, una imagen PDt de diferencia se genera con base en la diferencia entre dos imágenes de vista a ojo de pájaro obtenidas en diferentes momentos, el número de pixeles que indican una diferencia predeterminada en la imagen PDt de diferencia se cuenta para formar una distribución de frecuencias y generar por consiguiente una forma de onda de diferencia, y un vehículo adyacente presente en el carril adyacente se detecta con base en la forma de onda de diferencia generada. Además, en la presente modalidad, se determina si el vehículo adyacente ha pasado al vehículo principal, y cuando se ha determinado que el vehículo adyacente ha pasado al vehículo principal, las áreas Al, A2 de detección se ensanchan hacia atrás de la dirección de progresión del vehículo principal. En la primera modalidad, un primer vehículo V2 adyacente se detecta por consiguiente en una situación en la cual dos vehículos adyacentes viajan en una manera consecutiva, según se ilustra en la FIGURA 11 (A) , y cuando se ha determinado que el vehículo VI principal ha sido pasado por el primer vehículo V2 adyacente, el área de detección se ensancha hacia atrás con respecto a la dirección de progreso del vehículo VI, según se ilustra en la FIGURA 11(B), por lo que el segundo vehículo V2' adyacente puede ser detectado, y el conductor puede ser notificado por consiguiente de que un segundo vehículo V2' adyacente está presente hacia atrás del vehículo principal. Como consecuencia, es posible prevenir efectivamente una situación en la cual el primer vehículo V2 adyacente ha pasado al vehículo VI principal, por lo que el conductor determina que un vehículo adyacente no está presente hacia atrás del vehículo principal, el vehículo principal hace un cambio de carril, y el vehículo VI principal y el segundo vehículo V2' adyacente se acercan entre sí.
Modalidad 2 A continuación se describe un dispositivo la de detección de objeto tridimensional de acuerdo con la segunda modalidad. El dispositivo la de detección de objeto tridimensional de acuerdo con la segunda modalidad es el mismo que la primera modalidad, excepto que se proporciona una computadora 30a en lugar de la computadora 30 de la primera modalidad, según se ilustra en la FIGURA 16, y la operación es como se describe a continuación. Aquí, la FIGURA 16 es una vista de bloques que ilustra los detalles de la computadora 30a de acuerdo con la segunda modalidad.
El dispositivo la de detección de objeto tridimensional de acuerdo con la segunda modalidad se provee con una cámara 10 y una computadora 30a, según se ilustra en la FIGURA 16. La computadora 30a se provee con una unidad 31 de conversión de perspectiva, una unidad 35 de cálculo de diferencia de luminancia, una unidad 36 de detección de líneas de borde, una unidad 33a de detección de objeto tridimensional, y una unidad 34 de establecimiento de áreas de detección. La configuración del dispositivo la de detección de objeto tridimensional de acuerdo con la segunda modalidad se describe a continuación.
Las FIGURAS 17(a) y 17(b) son unas vistas que ilustra el rango de la imagen de la cámara 10 en la FIGURA 16, la FIGURA 17(a) es una vista en planta, y la FIGURA 17(b) es una vista en perspectiva en el espacio real hacia atrás del vehículo VI principal. La cámara 10 se establece a un ángulo a de vista predeterminado, y se captura el lado trasero del vehículo VI principal incluido en el ángulo a de vista predeterminado, según se ilustra en la FIGURA 17(a). El ángulo a de vista de la cámara 10 se establece de modo que los carriles adyacentes se incluyan en el rango de captura de la cámara 10 además del carril en el cual viaja el vehículo VI principal, de la misma manera según se ilustra en la FIGURA 2.
Las áreas Al, A2 de detección en el presente ejemplo son trapezoidales en una vista en planta (estado de vista a ojo de pájaro) , y la posición, el tamaño, y la forma de las áreas Al, A2 de detección se deciden con base en las distancias di a d4. Las áreas Al, A2 de detección del ejemplo ilustrado en el dibujo no se limitan a ser trapezoidales, y también pueden ser rectangulares u otra forma en un estado de vista a ojo de pájaro, según se ilustra en la FIGURA 2.
Aquí, la distancia di es la distancia desde el vehículo VI principal hasta las líneas Ll, L2 de suelo. Las líneas Ll, L2 de suelo se refieren a una línea en la cual un objeto tridimensional, que está presente en un carril adyacente al carril en cual viaja el vehículo VI principal, está en contacto con el suelo. En la presente modalidad, un objeto es detectar un vehículo V2 adyacente o similar (incluyendo vehículos de dos ruedas o similares) que viaja en el carril izquierdo o derecho detrás del vehículo VI principal y adyacente al carril del vehículo VI principal. Consecuentemente, la distancia di, que es la posición de las líneas Ll, L2 de suelo del vehículo V2 adyacente, se puede decidir a fin de ser sustancialmente fija desde la distancia dll desde el vehículo VI principal hasta una línea blanca y la distancia dl2 desde la línea blanca W hasta la posición en la cual se predice que el vehículo V2 adyacente viaja.
La distancia di no se limita a ser decidida de manera fija, y puede ser variable. En este caso, la computadora 30a reconoce la posición de la línea blanca en relación al vehículo VI principal utilizando reconocimiento de líneas blancas u otra técnica, y la distancia dll se decide con base en la posición de la línea blanca W reconocida. La distancia di se establece por consiguiente variablemente utilizando la distancia dll decidida. En la presente modalidad descrita debajo, la posición en la cual viaja el vehículo V2 adyacente (la distancia dl2 desde la linea blanca W) y la posición en la cual viaja el vehículo VI principal (la distancia dll desde la línea blanca W) son en su mayoría predecibles, y la distancia di se decide de manera fija.
Una distancia d2 es la distancia que se extiende desde la parte extrema trasera del vehículo VI principal en la dirección de progreso del vehículo. La distancia d2 se decide de modo que las áreas Al, ?2 de detección se acomodan dentro de al menos el ángulo a de vista de la cámara 10. En la presente modalidad en particular, la distancia d2 se establece a fin de estar en contacto con un rango particionado dentro del ángulo a de vista. La distancia d3 indica la longitud de las áreas Al, A2 de detección en la dirección de progresión del vehículo. La distancia d3 se decide con base en el tamaño del objeto tridimensional a ser detectado. En la presente modalidad, el objeto a ser detectado es un vehículo V2 adyacente o similar, y por consiguiente la distancia d3 se establece a una longitud que incluye el vehículo V2 adyacente.
La distancia d4 indica la altura, que se ha establecido de modo que las llantas del vehículo V2 adyacente o similar se incluyan en el espacio real, según se ilustra en la FIGURA 17(b). En una imagen de vista a ojo de pájaro, la distancia d4 es la longitud ilustrada en la FIGURA 17 (a) . La distancia d4 también puede ser una longitud que no incluye carriles adicionales adyacentes a los carriles adyacentes izquierdo y derecho en la imagen de vista a ojo de pájaro (es decir, carriles adyacentes al adyacente a dos carriles de distancia) . Esto es porque cuando se incluyen los carriles a dos carriles de distancia del carril del vehículo VI principal, ya no es posible distinguir si un vehículo V2 adyacente está presente en los carriles adyacentes a la izquierda y derecha del carril en el cual viaja el vehículo VI principal, o si un vehículo adyacente al adyacente está presente en un carril adyacente al adyacente a dos carriles de distancia.
Según se describe anteriormente, se deciden las distancias di a d4, y se deciden por consiguiente la posición, el tamaño, y la forma de las áreas Al, A2 de detección. Más específicamente, la posición del lado bl superior de las áreas Al, A2 de detección que forman un trapecio se decide por la distancia di. La posición Cl de inicio del lado bl superior se decide por la distancia d2. La posición C2 extrema del lado bl superior se decide por la distancia d3. El lado b2 lateral de las áreas Al, A2 de detección que forman un trapecio se decide por una línea L3 recta que se extiende desde la cámara 10 hacia la posición Cl de inicio. De modo semejante, el lado b3 lateral de las áreas Al, A2 de detección que forman un trapecio se decide por una línea L4 recta que se extiende desde la cámara 10 hacia la posición C2 extrema. La posición del lado b4 inferior de las áreas Al, A2 de detección que forman un trapecio se decide por la distancia d4. De esta manera, las áreas rodeadas por los lados bl a b4 son las áreas Al, A2 de detección. Las áreas Al, A2 de detección son cuadrados regulares (rectángulos) en el espacio real hacia atrás del vehículo VI principal, según se ilustra en la FIGURA 17 (b) .
Regresando a la FIGURA 16, la unidad 31 de conversión de perspectiva acepta el ingreso de los datos de la imagen capturada de un área predeterminada capturada por la cámara 10. La unidad 31 de conversión de perspectiva convierte la perspectiva de los datos de imagen capturada ingresados en datos de imagen de vista a ojo de pájaro, que es un estado de vista a ojo de pájaro. Un estado de vista a ojo de pájaro es un estado de visualización desde la perspectiva de una cámara imaginaria que mira hacia abajo desde arriba, por ejemplo, verticalmente hacia abajo (o ligeramente inclinado hacia abajo) . La conversión de perspectiva se puede llevar a cabo utilizando la técnica descrita en, por ejemplo, la Solicitud de Patente Japonesa Abierta al Público No. 2008-219063.
La unidad 35 de cálculo de diferencia de luminancia calcula las diferencias de luminancia en los datos de imagen de vista a ojo de pájaro, que han experimentado una conversión de perspectiva por la unidad 31 de conversión de perspectiva, a fin de detectar los bordes de un objeto tridimensional incluido en la imagen de vista a ojo de pájaro. La unidad 35 de cálculo de diferencia de luminancia calcula, para cada una de una pluralidad de posiciones a lo largo de una linea imaginaria perpendicular que se extiende a lo largo de la dirección perpendicular en el espacio real, la diferencia de luminancia entre dos pixeles cerca de cada posición. La unidad 35 de cálculo de diferencia de luminancia es capaz de calcular la diferencia de luminancia mediante un método para establecer una sola linea imaginaria perpendicular que se extiende en la dirección perpendicular en el espacio real, o un método para establecer dos lineas imaginarias perpendiculares.
A continuación se describe el método especifico para establecer dos lineas imaginarias perpendiculares. La unidad 35 de cálculo de diferencia de luminancia establece una primera linea imaginaria perpendicular que corresponde a un segmento de linea que se extiende en la dirección perpendicular en el espacio real, y una segunda linea imaginaria perpendicular que es diferente de la primera linea imaginaria perpendicular y que corresponde al segmento de linea que se extiende en la dirección perpendicular en el espacio real. La unidad 35 de cálculo de diferencia de luminancia determina la diferencia de luminancia entre un punto sobre la primera linea imaginaria perpendicular y un punto sobre la segunda linea imaginaria perpendicular de manera continua a lo largo de la primera linea imaginaria perpendicular y la segunda linea imaginaria perpendicular. La operación de la unidad 35 de cálculo de diferencia de luminancia se describe en detalle a continuación.
La unidad 35 de cálculo de diferencia de luminancia establece una primera linea La imaginaria perpendicular (en lo siguiente referida como linea La de atención) que corresponde a un segmento de linea que se extiende en la dirección perpendicular en el espacio real y que pasa a través del área Al de detección, según se ilustra en la FIGURA 18 (a) . La unidad 35 de cálculo de diferencia de luminancia establece una segunda linea Lr imaginaria perpendicular (en lo siguiente referida como linea Lr de referencia) que es diferente de la linea La de atención, corresponde al segmento de linea que se extiende en la dirección perpendicular en el espacio real, y pasa a través del área Al de detección. Aquí, la linea Lr de referencia se establece a una posición en una distancia desde la linea La de atención por una distancia predeterminada en el espacio real. Las lineas que corresponden a los segmentos de linea que se extienden en la dirección perpendicular en el espacio real son lineas que se extienden en la dirección radial desde la posición Ps de la cámara 10 en una imagen de vista a ojo de pájaro. Estas lineas que se extienden en la dirección radial son lineas que siguen la dirección de colapso del objeto tridimensional al convertirse a una vista a ojo de pájaro.
La unidad 35 de cálculo de diferencia de luminancia establece un punto Pa de atención sobre la linea La de atención (un punto sobre la primera linea imaginaria perpendicular) . La unidad 35 de cálculo de diferencia de luminancia establece un punto Pr de referencia sobre la linea Lr de referencia (un punto sobre la segunda linea imaginaria perpendicular) . La linea La de atención, el punto Pa de atención, la linea Lr de referencia, y el punto Pr de referencia tienen la relación en el espacio real ilustrada en la FIGURA 18(b). Es evidente a partir de la FIGURA 18(b) que la linea La de atención y la linea Lr de referencia son lineas que se extienden en la dirección perpendicular en el espacio real, y que el punto Pa de atención y el punto Pr de referencia son puntos establecidos a sustancialmente la misma altura en el espacio real. No se requiere necesariamente que el punto Pa de atención y el punto Pr de referencia se mantengan rigurosamente a la misma altura, y se permite una cierta cantidad de error que permite que el punto Pa de atención y el punto Pr de referencia se consideren como que están a la misma altura.
La unidad 35 de cálculo de diferencia de luminancia determina la diferencia de luminancia entre el punto Pa de atención y el punto Pr de referencia. Si la diferencia de luminancia entre el punto Pa de atención y el punto Pr de referencia es grande, es posible que un borde esté presente entre el punto Pa de atención y el punto Pr de referencia. En la segunda modalidad en particular, una linea imaginaria perpendicular se establece como un segmento de línea que se extiende en la dirección perpendicular en el espacio real en relación a la imagen de vista a ojo de pájaro, a fin de detectar un objeto tridimensional presente en las áreas Al, A2 de detección. Por consiguiente, hay una alta posibilidad de que haya un borde de un objeto tridimensional en la ubicación donde la línea La de atención ha sido establecida cuando la diferencia de luminancia entre la línea La de atención y la línea Lr de referencia es alta. Consecuentemente, la unidad 36 de detección de líneas de borde ilustrada en la FIGURA 16 detecta una línea de borde con base en la diferencia de luminancia entre el punto Pa de atención y el punto Pr de referencia .
Este punto se describirá en mayor detalle. Las FIGURAS 19 (a) y 19 (b) son unas vistas para describir la operación detallada de la unidad 35 de cálculo de diferencia de luminancia. La FIGURA 19(a) ilustra una imagen de vista a ojo de pájaro del estado de vista a ojo de pájaro, y la FIGURA 19 (b) es una vista agrandada de una porción Bl de la imagen de vista a ojo de pájaro ilustrada en la FIGURA 19(a). En las FIGURAS 19(a) y 19(b), sólo se ilustra y describe el área Al de detección, pero la diferencia de luminancia se calcula utilizando el mismo procedimiento para el área A2 de detección.
Cuando el vehículo V2 adyacente está siendo desplegado en la imagen capturada, capturada por la cámara 10, el vehículo V2 adyacente aparece en el área Al de detección en la imagen de vista a ojo de pájaro, según se ilustra en la FIGURA 19(a). La línea La de atención se establece sobre una porción de caucho de una llanta del vehículo V2 adyacente en la imagen de vista a ojo de pájaro en la FIGURA 19(b), según se ilustra en la vista agrandada del área Bl en la FIGURA 19(a). En este estado, primero, la unidad 35 de cálculo de diferencia de luminancia establece la línea Lr de referencia. La línea Lr de referencia se establece a lo largo de la dirección perpendicular en una posición establecida en una distancia predeterminada en el espacio real desde la línea La de atención. Específicamente, en el dispositivo la de detección de objeto tridimensional de acuerdo con la presente modalidad, la línea Lr de referencia se establece en una posición en una distancia de 10 cm lejos en el espacio real de la línea La de atención. La línea Lr de referencia se establece por consiguiente sobre la rueda de la llanta del vehículo V2 adyacente establecida, por ejemplo, en una distancia que corresponde a 10 cm desde el caucho de la llanta del vehículo V2 adyacente en la imagen de vista a ojo de pájaro.
Posteriormente, la unidad 35 de cálculo de diferencia de luminancia establece una pluralidad de puntos Pal a PaN de atención sobre la línea La de atención. En la FIGURA 19(b), se establecen seis puntos Pal a Pa6 de atención (en lo siguiente referido como punto Pai de atención al indicar un punto arbitrario) por conveniencia de la descripción. Un número arbitrario de puntos Pa de atención se puede establecer sobre la linea La de atención. En la descripción de abajo, se establecen N puntos Pa de atención sobre la linea La de atención .
La unidad 35 de cálculo de diferencia de luminancia establece subsiguientemente los puntos Prl a PrN de referencia a fin de tener la misma altura que los puntos Pal a PaN de atención en el espacio real. La unidad 35 de cálculo de diferencia de luminancia calcula la diferencia de luminancia entre los pares de punto Pa de atención y punto Pr de referencia a la misma altura. La unidad 35 de cálculo de diferencia de luminancia calcula por consiguiente la diferencia de luminancia entre dos pixeles para cada una de la pluralidad de posiciones (1 - N) a lo largo de la linea imaginaria perpendicular que se extiende en la dirección perpendicular en el espacio real. La unidad 35 de cálculo de diferencia de luminancia calcula la diferencia de luminancia entre, por ejemplo, un primer punto Pal de atención y un primer punto Prl de referencia, y calcula la diferencia de luminancia entre un segundo punto Pa2 de atención y un segundo punto Pr2 de referencia. La unidad 35 de cálculo de diferencia de luminancia determina por consiguiente la diferencia de luminancia de manera continua a lo largo de la linea La de atención y la linea Lr de referencia. En otras palabras, la unidad 35 de cálculo de diferencia de luminancia determina secuencialmente la diferencia de luminancia entre los tercer a enésimo puntos Pa3 a PaN de atención y los tercer a enésimo puntos Pr3 a PrN de referencia.
La unidad 35 de cálculo de diferencia de luminancia repite el proceso de establecer la linea Lr de referencia anteriormente descrita, establecer el punto Pa de atención, establecer el punto Pr de referencia, y calcular la diferencia de luminancia mientras se cambia la linea La de atención dentro del área Al de detección. En otras palabras, la unidad 35 de cálculo de diferencia de luminancia ejecuta repetidamente el proceso anteriormente descrito mientras cambia las posiciones de la linea La de atención y la linea Lr de referencia por la misma distancia en el espacio real a lo largo de la dirección en la cual se extiende la linea Ll de suelo. La unidad 35 de cálculo de diferencia de luminancia, por ejemplo, establece la linea que era la linea Lr de referencia en el proceso previo para ser la linea La de atención, establece la linea Lr de referencia en relación a la linea La de atención, y determina secuencialmente la diferencia de luminancia.
De esta manera, en la segunda modalidad, determinar la diferencia de luminancia a partir del punto Pa de atención sobre la linea La de atención y el punto Pr de referencia sobre la linea Lr de referencia, que están en sustancialmente la misma altura en el espacio real, permite que la diferencia de luminancia sea detectada claramente cuando está presente un borde que se extiende en la dirección perpendicular. La precisión para detectar un objeto tridimensional se puede mejorar sin que se afecte el proceso para detectar el objeto tridimensional, incluso cuando el objeto tridimensional se agranda de conformidad con la altura desde la superficie de la carretera por la conversión a una imagen de vista a ojo de pájaro a fin de comparar la luminancia entre las lineas imaginarias perpendiculares que se extienden en la dirección perpendicular en el espacio real.
Regresando a la FIGURA 16, la unidad 36 de detección de lineas de borde detecta la linea de borde a partir de la diferencia de luminancia continua calculada por la unidad 35 de cálculo de diferencia de luminancia. Por ejemplo, en el caso ilustrado en la FIGURA 19 (b) , el primer punto Pal de atención y el primer punto Prl de referencia se posicionan en la misma porción de la llanta, y por consiguiente la diferencia de luminancia es pequeña. Por otra parte, los segundo a sexto puntos Pa2 a Pa6 de atención se posicionan en las porciones de caucho de la llanta, y los segundo a sexto puntos Pr2 a Pr6 de referencia se posicionan en la porción de rueda de la llanta. Por consiguiente, la diferencia de luminancia entre los segundo a sexto puntos Pa2 a Pa6 de atención y los segundo a sexto puntos Pr2 a Pr6 de referencia es grande. Consecuentemente, la unidad 36 de detección de lineas de borde es capaz de detectar que un borde está presente entre los segundo a sexto puntos Pa2 a Pa6 de atención y los segundo a sexto puntos Pr2 a Pr6 de referencia donde la diferencia de luminancia es alta.
Específicamente, cuando se debe detectar una línea de borde, la unidad 36 de detección de líneas de borde primero asigna un atributo al iésimo punto Pai de atención a partir de la diferencia de luminancia entre el iésimo punto Pai de atención (coordenadas (xi, yi)) al iésimo punto Pri de referencia (coordenadas (xi' , yi' ) ) de conformidad con la fórmula 2 mostrada a continuación.
Fórmula 2 s(xi, yi) = 1 cuando I(xi, yi) > I(xi', yi' ) + t s(xi, yi) = -1 cuando I(xi, yi) < I (xi' , yi' ) - t s (xi, yi) = 0 cuando lo anterior no conserva su validez.
En la fórmula 2 anterior, t representa un valor de umbral predeterminado, I (xi, yi) representa el valor de luminancia del iésimo punto Pai de atención, y I(xi', yi') representa el valor de luminancia del iésimo punto Pri de referencia. De conformidad con la fórmula 2, el atributo s (xi, yi) del punto Pai de atención es 1' cuando el valor de luminancia del punto Pai de atención es mayor que el valor de luminancia obtenido sumando el valor t de umbral al punto Pri de referencia. Por otra parte, el atributo s(xi, yi) del punto Pai de atención es ?-1' cuando el valor de luminancia del punto Pai de atención es menor que el valor de luminancia obtenido sustrayendo el valor t de umbral a partir del punto Pri de referencia. El atributo s(xi, yi) del punto Pai de atención es ?0' cuando el valor de luminancia del punto Pai de atención y el valor de luminancia del punto Pri de referencia están en una relación diferente de aquella indicada anteriormente .
Posteriormente, la unidad 36 de detección de líneas de borde evalúa si la línea La de atención es una línea de borde a partir de la continuidad c(xi, yi) del atributo s a lo largo de la línea La de atención con base en la siguiente fórmula 3.
Fórmula 3 c(xi, yi) = 1 cuando s(xi, yi) = s (xi + 1, yi + 1) (excepto cuando 0 = 0) c(xi, yi) = 0 cuando lo anterior no conserva su validez.
La continuidad c(xi, yi) es ?1' cuando el atributo s(xi, yi) del punto Pai de atención y el atributo s(xi + 1, yi + 1) del punto Pai + 1 de atención adyacente son iguales. La continuidad c(xi, yi) es 0' cuando el atributo s(xi, yi) del punto Pai de atención y el atributo s(xi + 1, yi + 1) del punto Pai + 1 de atención adyacente no son iguales.
Posteriormente, la unidad 36 de detección de lineas de borde determina la suma de las continuidades c de todos los puntos Pa de atención sobre la linea La de atención. La unidad 36 de detección de lineas de borde divide la suma de las continuidades c asi determinada por el número N de puntos Pa de atención para normalizar por consiguiente la continuidad c. La unidad 36 de detección de lineas de borde determina la linea La de atención para ser una linea de borde cuando el valor normalizado ha excedido un valor T de umbral. El valor T de umbral se establece de antemano mediante experimentación o de otra manera.
En otras palabras, la unidad 36 de detección de lineas de borde determina si la linea La de atención es una linea de borde con base en la fórmula 4 mostrada a continuación. La unidad 36 de detección de lineas de borde determina entonces si todas las lineas La de atención dibujadas en el área Al de detección son lineas de borde.
Fórmula 4 ?c(xi, yi)/N > T De esta manera, en la segunda modalidad, un atributo se asigna al punto Pa de atención con base en la diferencia de luminancia entre el punto Pa de atención sobre la linea La de atención y el punto Pr de referencia sobre la linea Lr de referencia, y se determina si la linea La de atención es una linea de borde con base en la continuidad c de los atributos a lo largo de la linea La de atención. Por consiguiente, los limites entre las áreas que tienen alta luminancia y las áreas que tienen baja luminancia se detectan como lineas de borde, y los bordes se pueden detectar de conformidad con los sentidos naturales de un humano. Los resultados de lo anterior serán descritos. La FIGURA 20 es una vista que ilustra un ejemplo de imagen para describir el procesamiento de la unidad 36 de detección de lineas de borde. Este ejemplo de imagen es una imagen en la cual un primer patrón 101 de franjas y un segundo patrón 102 de franjas son adyacentes entre si, el primer patrón 101 de franjas que indica un patrón de franjas en el cual se repiten las áreas de alta luminancia y las áreas de baja luminancia, y el segundo patrón 102 de franjas que indica un patrón de franjas en el cual se repiten las áreas de baja luminancia y las áreas de alta luminancia. Además, en este ejemplo de imagen, las áreas del primer patrón 101 de franjas en el cual la luminancia es alta, y las áreas del segundo patrón 102 de franjas en el cual la luminancia es baja son adyacentes entre si, y las áreas del primer patrón 101 de franjas en el cual la luminancia es baja, y las áreas del segundo patrón 102 de franjas en el cual la luminancia es alta son adyacentes entre si. La ubicación 103 posicionada en el límite entre el primer patrón 101 de franjas y el segundo patrón 102 de franjas tiende a no ser percibida como un borde por los sentidos del humano.
En contraste, debido a que las áreas de baja luminancia y las áreas de alta luminancia son adyacentes entre sí, la ubicación 103 se reconoce como un borde cuando un borde se detecta sólo por la diferencia de luminancia. Sin embargo, la unidad 36 de detección de líneas de borde evalúa la ubicación 103 como una línea de borde sólo cuando hay continuidad en los atributos de la diferencia de luminancia. Por consiguiente, la unidad 36 de detección de líneas de borde es capaz de suprimir la evaluación errante en la cual la ubicación 103, que no se reconoce como una línea de borde por los sentidos del humano, se reconoce como una línea de borde, y los bordes se pueden detectar de conformidad con los sentidos del humano.
Regresando a la FIGURA 16, la unidad 33a de detección de objeto tridimensional detecta un objeto tridimensional con base en la cantidad de líneas de borde detectadas por la unidad 36 de detección de líneas de borde. Según se describe anteriormente, el dispositivo la de detección de objeto tridimensional de acuerdo con la presente modalidad detecta una línea de borde que se extiende en la dirección perpendicular en el espacio real. La detección de muchas líneas de borde que se extienden en la dirección perpendicular indica que hay una alta posibilidad de que un objeto tridimensional esté presente en las áreas Al, A2 de detección. Consecuentemente, la unidad 33a de detección de objeto tridimensional detecta un objeto tridimensional con base en la cantidad de lineas de borde detectadas por la unidad 36 de detección de lineas de borde. Específicamente, la unidad 33a de detección de objeto tridimensional determina si la cantidad de líneas de borde detectadas por la unidad 36 de detección de líneas de borde es un valor ß de umbral predeterminado o mayor, y cuando la cantidad de líneas de borde es un valor ß de umbral predeterminado o mayor, se determina que las líneas de borde detectadas por la unidad 36 de detección de líneas de borde son las líneas de borde de un objeto tridimensional, y se detecta por consiguiente un objeto tridimensional con base en las líneas de borde como un vehículo V2 adyacente.
Además, antes de detectar el objeto tridimensional, la unidad 33a de detección de objeto tridimensional evalúa si las líneas de borde detectadas por la unidad 36 de detección de líneas de borde son correctas. La unidad 33a de detección de objeto tridimensional evalúa si un cambio en la luminancia en las líneas de borde es un valor tb de umbral predeterminado o mayor a lo largo de las líneas de borde de la imagen de vista a ojo de pájaro. Cuando el cambio en la luminancia en las líneas de borde en la imagen de vista a ojo de pájaro es un valor tb de umbral predeterminado o mayor, se determina que las líneas de borde han sido detectadas por una evaluación errante. Por otra parte, cuando el cambio en la luminancia en las líneas de borde en la imagen de vista a ojo de pájaro es menor que un valor tb de umbral predeterminado, se evalúa que las líneas de borde son correctas. El valor tb de umbral se establece de antemano mediante experimentación o de otra manera .
Las FIGURAS 21(a) y 21(b) son unas vistas que ilustran la distribución de luminancia en la línea de borde, la FIGURA 21(a) ilustra la línea de borde y la distribución de luminancia cuando un vehículo V2 adyacente como un objeto tridimensional está presente en el área Al de detección, y la FIGURA 21 (b) ilustra la línea de borde y la distribución de luminancia cuando un objeto tridimensional no está presente en el área Al de detección.
Según se ilustra en la FIGURA 21(a), se asume que se ha determinado que la línea La de atención establecida en la porción de caucho de la llanta del vehículo V2 adyacente está en una línea de borde en la imagen de vista a ojo de pájaro. En este caso, el cambio en la luminancia en la línea La de atención en la imagen de vista a ojo de pájaro es gradual. Esto se debe a la imagen capturada por la cámara 10 que se convierte en perspectiva a una imagen de vista a ojo de pájaro, por lo que la llanta del vehículo adyacente se agranda dentro de la imagen de vista a ojo de pájaro. Por otra parte, se asume que la línea La de atención establecida en la porción del carácter blanco "50" dibujado sobre la superficie de la carretera en la imagen de vista a ojo de pájaro ha sido errantemente evaluada como una linea de borde, según se ilustra en la FIGURA 21 (b) . En este caso, el cambio en la luminancia en la linea La de atención en la imagen de vista a ojo de pájaro tiene ondulaciones considerables. Esto es porque la carretera y otras porciones de baja luminancia se mezclan con las porciones de alta luminancia en los caracteres blancos en la linea de borde.
La unidad 33a de detección de objeto tridimensional evalúa si una linea de borde ha sido detectada por una evaluación errante con base en las diferencias en la distribución de luminancia en la linea La de atención según se describe anteriormente. La unidad 33a de detección de objeto tridimensional determina que la linea de borde ha sido detectada por una evaluación errante cuando el cambio en la luminancia a lo largo de la linea de borde está en un valor tb de umbral predeterminado o mayor, y determina que la linea de borde no es causada por un objeto tridimensional. Una reducción en la precisión para la detección del objeto tridimensional se suprime por consiguiente cuando los caracteres blancos tales como "50" en la superficie de la carretera, la vegetación al lado de la carretera, y similares se evalúan como lineas de borde. Por otra parte, la unidad 33a de detección de objeto tridimensional determina que una linea de borde es la linea de borde de un objeto tridimensional y determina que un objeto tridimensional está presente cuando los cambios en la luminancia a lo largo de la linea de borde son menores que un valor tb de umbral predeterminado.
Específicamente, la unidad 33a de detección de objeto tridimensional calcula el cambio en la luminancia de la línea de borde utilizando la fórmula 5 o 6 mostradas debajo. El cambio en la luminancia de la línea de borde corresponde al valor de evaluación en el espacio real en la dirección perpendicular. La fórmula 5 evalúa la distribución de luminancia utilizando el valor total del cuadrado de la diferencia entre el iésimo valor de luminancia I (xi, yi) y el iésimo + 1 valor de luminancia adyacente I (xi + 1, yi + 1) en la línea La de atención. La fórmula 6 evalúa la distribución de luminancia utilizando el valor total del valor absoluto de la diferencia entre el iésimo valor de luminancia I (xi, yi) y el iésimo + 1 valor de luminancia adyacente I (xi + 1, yi + 1) en la línea La de atención.
Fórmula 5 Valor de evaluación en la dirección equivalente perpendicular = ?[{I(xi, yi) - I (xi + 1, yi + I)}2] Fórmula 6 Valor de evaluación en la dirección equivalente perpendicular = ?|I(xi, yi) - I (xi + 1, yi + 1) | No se impone limitación alguna en el uso de la fórmula 6, y también es posible binarizar un atributo b de un valor de luminancia adyacente utilizando un valor t2 de umbral, y posteriormente sumar el atributo b binarizado para todos los puntos Pa de atención, como en la fórmula 7 mostrada debajo.
Fórmula 7 Valor de evaluación en la dirección equivalente perpendicular = ?b(xi, yi) donde b(xi, yi) = 1 cuando |I(xi, yi) - I (xi + 1, yi + 1) 1 > t2 y b(xi, yi) = 0 cuando lo anterior no conserva su validez.
El atributo b(xi, yi) del punto Pa(xi, yi) de atención es 1' cuando el valor absoluto de la diferencia de luminancia entre el valor de luminancia del punto Pai de atención y el valor de luminancia del punto Pri de referencia es mayor que un valor t2 de umbral. Cuando la relación anterior no conserva su validez, el atributo b(xi, yi) del punto Pai de atención es x0' . El valor t2 de umbral se establece de antemano mediante experimentación o de otra manera de modo que la linea La de atención no se evalúe para estar en el mismo objeto tridimensional. La unidad 33a de detección de objeto tridimensional suma entonces el atributo b para todos los puntos Pa de atención sobre la linea La de atención y determina el valor de evaluación en la dirección equivalente perpendicular para evaluar por consiguiente si una linea de borde es causada por un objeto tridimensional y que un objeto tridimensional está presente.
De esta manera, la forma de onda del borde es un modo de información de la distribución de los pixeles que indica una diferencia de luminancia predeterminada, y la "información de la distribución de los pixeles" en la presente modalidad se puede posicionar con información que indica el estado de la distribución de los "pixeles que tienen una diferencia de luminancia en un valor de umbral predeterminado o mayor" según se detecta a lo largo de la dirección en la cual el objeto tridimensional colapsa cuando la imagen capturada se convierte en perspectiva a una imagen de vista a ojo de pájaro. En otras palabras, la unidad 33a de detección de objeto tridimensional detecta un objeto tridimensional en una imagen de vista a ojo de pájaro obtenida por la unidad 31 de conversión de perspectiva, con base en la información de la distribución de los pixeles que tienen una diferencia de luminancia en un valor de umbral predeterminado o mayor a lo largo de la dirección en la cual el objeto tridimensional colapsa cuando la perspectiva se convierte a una imagen de vista a ojo de páj aro .
La unidad 34 de establecimiento de áreas de detección determina si el vehículo adyacente ha pasado al vehículo principal de la misma manera que en la primera modalidad, y cuando se ha determinado que el vehículo adyacente ha pasado al vehículo principal, las áreas Al, A2 de detección se ensanchan hacia atrás con respecto a la dirección de progreso del vehículo.
A continuación se describirá el método para detectar un vehículo adyacente de acuerdo con la segunda modalidad. La FIGURA 22 es un diagrama de flujo que ilustra los detalles del método para detectar un vehículo adyacente de acuerdo con la segunda modalidad. En la FIGURA 22, el proceso involucrado con el área Al de detección se describirá por el bien de la conveniencia, pero el mismo proceso se ejecuta también para el área A2 de detección.
Primero, en la etapa S301, las áreas Al, A2 de detección para detectar el vehículo adyacente se establecen de la misma manera que en la etapa S101 de la primera modalidad. En la etapa S301, las áreas de detección establecidas en el proceso de establecimiento de áreas de detección ilustrado en la FIGURA 14 se establecen de la misma manera que la primera modalidad.
En la etapa S302, un área predeterminada especificada por el ángulo a de vista y la posición de unión se captura por la cámara 10, y los datos de imagen de la imagen capturada, capturada por la cámara 10 se adquieren por la computadora 30a. Posteriormente, la unidad 31 de conversión de perspectiva convierte la perspectiva de los datos de imagen adquiridos y genera datos de imagen de vista a ojo de pájaro en la etapa S303.
Posteriormente, en la etapa S304, la unidad 35 de cálculo de diferencia de luminancia establece la linea Lr de referencia y la linea La de atención en el área Al de detección. En este momento, la unidad 35 de cálculo de diferencia de luminancia establece una linea correspondiente a una linea que se extiende en la dirección perpendicular en el espacio real como la linea La de atención, y establece, como la linea Lr de referencia, una linea que corresponde a una linea que se extiende en la dirección perpendicular en el espacio real y que está separada por una distancia predeterminada en el espacio real de la linea La de atención.
Posteriormente, en la etapa S305, la unidad 35 de cálculo de diferencia de luminancia establece una pluralidad de puntos de atención sobre la linea La de atención, y establece puntos Pr de referencia de modo que los puntos Pa de atención y los puntos Pr de referencia estén en sustancialmente la misma altura en el espacio real. Los puntos Pa de atención y los puntos Pr de referencia se alinean por consiguiente en sustancialmente la dirección horizontal, y la linea de borde que se extiende en la dirección perpendicular en el espacio real es más fácilmente detectada. La unidad 35 de cálculo de diferencia de luminancia establece un cierto número de puntos Pa de atención que no serán problemáticos durante la detección del borde mediante la unidad 36 de detección de lineas de borde.
Posteriormente, en la etapa S306, la unidad 35 de cálculo de diferencia de luminancia calcula la diferencia de luminancia entre los puntos Pa de atención y los puntos Pr de referencia en la misma altura en el espacio real. La unidad 36 de detección de lineas de borde calcula el atributo s de los puntos Pa de atención de conformidad con la fórmula 2 anteriormente descrita. En la etapa S307, la unidad 36 de detección de lineas de borde calcula entonces la continuidad c del atributo s de los puntos Pa de atención de conformidad con la fórmula 3. En la etapa S308, la unidad 36 de detección de lineas de borde evalúa adicionalmente si un valor obtenido normalizando la suma de la continuidad c es mayor que un valor T de umbral de conformidad con la fórmula . Cuando se ha determinado que el valor normalizado es mayor que el valor T de umbral (etapa S308 = Si), la unidad 36 de detección de lineas de borde detecta la linea La de atención como la linea de borde en la etapa S309. El proceso avanza entonces a la etapa S310. Cuando se ha determinado que el valor normalizado no es mayor que el valor T de umbral (etapa S308 = No) , la unidad 36 de detección de lineas de borde no detecta que la linea La de atención es una linea de borde, y el proceso avanza a la etapa S310.
En la etapa S310, la computadora 30a determina si los procesos de las etapas S304 a S310 se han ejecutado para todas las líneas La de atención que se puede establecer en el área Al de detección. Cuando se ha determinado que los procesos anteriores no se han llevado a cabo para todas las líneas La de atención (etapa S310 = No) , el proceso regresa a la etapa S304, establece una nueva línea La de atención, y repite el proceso hasta la etapa S311. Por otra parte, cuando se ha determinado que los procesos se han llevado a cabo para todas las líneas La de atención (etapa S310 = Sí) , el proceso avanza a la etapa S311.
En la etapa S311, la unidad 33a de detección de objeto tridimensional calcula el cambio en la luminancia a lo largo de la línea de borde para cada línea de borde detectada en la etapa S309. La unidad 33a de detección de objeto tridimensional calcula el cambio en la luminancia de las líneas de borde de conformidad con cualquiera de las fórmulas 5, 6, y 7. Posteriormente, en la etapa S312, la unidad 33a de detección de objeto tridimensional excluye, de entre las líneas de borde, las líneas de borde en las cuales el cambio en la luminancia está en un valor tb de umbral predeterminado o mayor. En otras palabras, cuando una línea de borde que tiene un cambio grande en la luminancia no se evalúa como una línea de borde correcta, la línea de borde no se utiliza para detectar un objeto tridimensional. Según se describe anteriormente, esto se hace a fin de suprimir la detección de los caracteres en la superficie de la carretera, la vegetación al lado de la carretera, y similares incluidos en el área Al de detección como lineas de borde. Por consiguiente, el valor tb de umbral predeterminado se determina mediante experimentación o de otra manera de antemano, y se establece con base en el cambio en la luminancia que ocurre debido a los caracteres en la superficie de la carretera, la vegetación al lado de la carretera, y similares. Por otra parte, la unidad 33a de detección de objeto tridimensional determina una linea de borde que tiene un cambio en la luminancia que es menor que un valor tb de umbral predeterminado como una linea de borde de un objeto tridimensional, y detecta por consiguiente el objeto tridimensional presente en un vehículo adyacente.
Posteriormente, en la etapa S313, se determina por la unidad 33a de detección de objeto tridimensional si la cantidad de líneas de borde es un valor ß de umbral o mayor. Cuando se ha evaluado que la cantidad de líneas de borde está en un valor ß de umbral o mayor (etapa S313 = Sí) , la unidad 33a de detección de objeto tridimensional evalúa en la etapa S314 que un vehículo adyacente está presente en el área Al de detección. En la subsiguiente etapa S315, el dispositivo 50 de notificación proporciona la notificación de que un vehículo adyacente está presente hacia atrás del vehículo principal. Por otra parte, cuando se ha avaluado que la cantidad de líneas de borde no está en un valor ß de umbral o mayor (etapa S313 = No) , la unidad 33a de detección de objeto tridimensional evalúa en la etapa S316 que un vehículo adyacente no está presente en el área Al de detección. Posteriormente se termina el proceso ilustrado en la FIGURA 22.
En la segunda modalidad, el proceso de establecimiento de áreas de detección ilustrado en la FIGURA 14 se lleva a cabo en paralelo al proceso de detección de vehículo adyacente ilustrado en la FIGURA 22, de la misma manera que la primera modalidad. El área de detección de vehículo adyacente ilustrada en la FIGURA 22 se lleva a cabo en las áreas de detección establecidas por el proceso de establecimiento de áreas de detección.
Según se describe anteriormente, en la segunda modalidad, la imagen capturada se convierte a una imagen de vista a ojo de pájaro, y la información de borde del objeto tridimensional se detecta a partir de la imagen de vista a ojo de pájaro así convertida, y se detecta por consiguiente un vehículo adyacente presente en un carril adyacente. Además, en la segunda modalidad, cuando se ha evaluado que el vehículo adyacente ha pasado al vehículo principal, las áreas de detección se ensanchan hacia atrás con respecto a la dirección de progreso del vehículo, de la misma manera que la primera modalidad, por lo que, además de los efectos de la primera modalidad, es posible por consiguiente detectar adecuadamente si el segundo vehículo adyacente que sigue al primer vehículo adyacente ha pasado al vehículo principal cuando dos vehículos adyacentes viajan de manera consecutiva, incluso cuando un vehículo adyacente se detecta con base en la información de borde .
Las modalidades anteriormente descritas se describen a fin de facilitar la comprensión de la presente invención, y no se describen a fin de limitar la presente invención. Por consiguiente, los elementos divulgados en las modalidades anteriores pretenden incluir todas las modificaciones de diseño y los equivalentes de los mismos que yacen dentro del alcance técnico de la presente invención.
Por ejemplo, en las modalidades anteriormente descritas, cuando el vehículo VI principal está dando vuelta, según se ilustra en la FIGURA 12 (A) , se proporcionó una configuración como un ejemplo en el cual la cantidad por la cual el área A2 de detección se ensancha hacia atrás se reduce de modo que el área de detección no entre en el carril en el cual viaja el vehículo principal, pero no se impone limitación alguna por consiguiente, y también es posible utilizar una configuración en la cual, por ejemplo, el área A2 de detección no se ensancha hacia atrás, y el área A2 de detección es inversamente estrechada hacia adelante cuando el vehículo VI principal está dando vuelta, según se ilustra en la FIGURA 23 (A) , incluso cuando el primer vehículo V2 adyacente está pasando al vehículo VI principal. En otras palabras, es posible utilizar una configuración en la cual la longitud del área A2 de detección establecida dentro de la vuelta en la dirección de progreso del vehículo VI principal se puede establecer para ser menor que la longitud del área Al de detección establecida fuera de la vuelta en la dirección de progreso del vehículo VI principal (la longitud establecida de antemano cuando el vehículo VI principal no está siendo pasado por el vehículo V2 adyacente), como se muestra en la FIGURA 23(A). También es posible utilizar una configuración en la cual las áreas Al, A2 de detección se rotan y establecen a fin de inclinarse en la dirección de vuelta en relación a la dirección de progreso del vehículo VI principal, según se ilustra en la FIGURA 23(B), de modo que las áreas de detección no entren en el carril en el cual viaja el vehículo principal. Adicionalmente es posible utilizar una configuración en la cual las áreas de detección se ensanchan hacia atrás del vehículo principal dentro de un rango en el cual no se detecta un vehículo V3 adyacente posterior que viaja en el carril en el cual viaja el vehículo principal, aunque las áreas de detección entrarán en el carril en el cual viaja el vehículo principal .
Además, en las modalidades anteriormente descritas, se proporcionó una configuración como un ejemplo en el cual la determinación de si el vehículo principal está dando vuelta se hace con base en la forma de la carretera predicha a partir de la imagen capturada, capturada por la cámara 10 o el ángulo de la dirección detectado por el detector 40 del ángulo de la dirección. Sin embargo, no se impone limitación alguna mediante esta configuración, y, por ejemplo, también es posible adquirir el radio de curvatura de la curva en la cual viaja el vehículo principal a partir de la información de mapa obtenida por un dispositivo de navegación, y determinar por consiguiente si el vehículo principal está dando vuelta. Además, se puede determinar si el vehículo principal está dando vuelta, con base en la tasa de rotación y la velocidad del vehículo principal.
Además, en las modalidades anteriormente descritas, se proporcionó una configuración como un ejemplo en el cual las áreas de detección se estrechan hacia adelante con respecto a la dirección de progreso del vehículo cuando un tiempo predeterminado ha transcurrido después de que el vehículo adyacente ya no puede ser detectado en las áreas de detección. Sin embargo, no se impone limitación alguna mediante esta configuración, y también es posible utilizar una configuración en la cual las áreas de detección se estrechan hacia adelante con respecto a la dirección de progreso del vehículo cuando el vehículo principal ha viajado una distancia predeterminada después de que un vehículo adyacente ya no puede ser detectado en las áreas de detección. Además, en este caso, es posible utilizar una configuración en la cual la distancia predeterminada anteriormente mencionada se modifica con base en la velocidad de movimiento relativo del vehículo V2 adyacente en relación al vehículo VI principal. Por ejemplo, la unidad 34 de establecimiento de áreas de detección se puede configurar a fin de predecir que la velocidad de movimiento relativo del segundo vehículo V2' adyacente es mayor de manera proporcionada a una mayor velocidad de movimiento relativo del primer vehículo V2 adyacente en relación al vehículo VI principal y que el segundo vehículo adyacente pronto alcanzará al vehículo principal, y para incrementar la distancia predeterminada. Alternativamente, es posible utilizar una configuración en la cual se determina que el tiempo que el vehículo adyacente permanece hacia atrás del vehículo principal es más corto de manera proporcionada a una mayor velocidad de movimiento relativo del primer vehículo V2 adyacente en relación al vehículo VI principal, y para reducir la distancia predeterminada. Adicionalmente es posible utilizar una configuración en la cual se da consideración a la velocidad del vehículo principal y se predice que el segundo vehículo V2' adyacente no alcanzará pronto al vehículo principal cuando la velocidad del vehículo principal es suficientemente alta y la distancia entre el primer vehículo V2 adyacente y el segundo vehículo V2' adyacente es grande, y la distancia predeterminada no se incrementa, incluso cuando, por ejemplo, la velocidad de movimiento relativo del primer vehículo V2 adyacente en relación al vehículo VI principal es alta. De esta manera, establecer la distancia predeterminada de conformidad con el estado de viaje del vehículo principal permite que el segundo vehículo V2' adyacente sea adecuadamente detectado.
En las modalidades anteriormente descritas, se proporcionó una configuración como un ejemplo en el cual las áreas de detección se ensanchan hacia atrás con respecto a la dirección de progreso del vehículo, pero es posible utilizar una configuración en la cual las áreas de detección se ensanchan en una sola etapa o las áreas de detección se ensanchan gradualmente cuando las áreas de detección se deben ensanchar hacia atrás con respecto a la dirección de progreso del vehículo.
La cámara 10 en las modalidades anteriormente descritas corresponde al medio de captura de imagen de la presente invención. La unidad 31 de conversión de perspectiva corresponde al medio de conversión de imagen de la presente invención, la unidad 32 de alineación, la unidad 33, 33a de detección de objeto tridimensional, la unidad 35 de cálculo de diferencia de luminancia, y la unidad 36 de detección de líneas de borde corresponden al medio de detección de objeto tridimensional de la presente invención. La unidad 33, 33a de detección de objeto tridimensional corresponde al medio de cálculo de la velocidad de movimiento relativo de la presente invención, y la unidad 34 de establecimiento de áreas de detección corresponde al medio de establecimiento de áreas de detección y la unidad de detección del comportamiento de vuelta de la presente invención.
Lista de Símbolos de Referencia 1, la: Dispositivo de detección de objeto tridimensional 10: Cámara 20: Detector de velocidad 30, 30a: Computadora 31: Unidad de conversión de perspectiva 32: Unidad de alineación 33, 33a: Unidad de detección de objeto tridimensional 34: Unidad de establecimiento de áreas de detección 35: Unidad de cálculo de diferencia de luminancia 36: Unidad de detección de lineas de borde 40: Detector del ángulo de la dirección 50: Dispositivo de notificación a: Ángulo de vista Al, A2 : Área de detección CP; Punto de cruce DP: Pixeles de diferencia DWt, D t' : Forma de onda de diferencia DWti a DWm, DWm+k a D tn Pequeñas áreas Ll, L2 : Linea de suelo La, Lb: Linea en la dirección en la cual colapsa el objeto tridimensional PBt: Imagen de vista a ojo de pájaro PDt: Imagen de diferencia VI: Vehículo principal V2 : Vehículo adyacente

Claims (12)

REIVINDICACIONES
1. Un dispositivo de detección de objetos tridimensionales, caracterizado porque comprende: una unidad de captura de imagen para capturar una imagen de un área hacia atrás de un vehículo principal; una unidad de establecimiento de áreas de detección para establecer un área de detección predeterminada en una dirección lateral hacia atrás del vehículo principal; una unidad de conversión de imagen para convertir la perspectiva de la imagen capturada obtenida por la unidad de captura de imagen para crear una imagen de vista a ojo de páj aro; una unidad de detección de objeto tridimensional para alinear, en una vista a oj o de pájaro, las posiciones de imágenes de vista a ojo de pájaro obtenidas en diferentes tiempos por la unidad de conversión de imagen, generar información de la forma de onda de diferencia contando un número de pixeles que indican una diferencia predeterminada en una imagen de diferencia de las imágenes de vista a ojo de pájaro alineadas y formando una distribución de frecuencias, y detectar un objeto tridimensional en las áreas de detección con base en la información de la forma de onda de diferencia; y una unidad de cálculo de la velocidad de movimiento relativo para calcular la velocidad de movimiento relativo del objeto tridimensional en relación al vehículo principal con base en la información de la forma de onda de diferencia generada por la unidad de detección de objeto tridimensional, la unidad de establecimiento de áreas de detección que ensancha el área de detección hacia atrás con respecto a una dirección de progreso del vehículo, cuando el objeto tridimensional se detecta en el área de detección por la unidad de detección del objeto tridimensional y la velocidad de movimiento relativo del objeto tridimensional está en un valor predeterminado o mayor.
2. Un dispositivo de detección de objetos tridimensionales, caracterizado porque comprende: una unidad de captura de imagen para capturar una imagen de un área hacia atrás de un vehículo principal; una unidad de establecimiento de áreas de detección para establecer un área de detección predeterminada en una dirección lateral hacia atrás del vehículo principal; una unidad de conversión de imagen para convertir una perspectiva de la imagen capturada obtenida por la unidad de captura de imagen para crear una imagen de vista a ojo de páj aro; una unidad de detección de objeto tridimensional para detectar la información del borde a partir de una imagen de vista a ojo de pájaro obtenida por la unidad de conversión de imagen, y detectar un objeto tridimensional en el área de detección con base en la información del borde; y una unidad de cálculo de la velocidad de movimiento relativo para calcular la velocidad de movimiento relativo del objeto tridimensional en relación al vehículo principal con base en la información del borde detectada por la unidad de detección de objeto tridimensional, la unidad de establecimiento de áreas de detección que ensancha el área de detección hacia atrás con respecto a una dirección de progreso del vehículo cuando el objeto tridimensional ha sido detectado en el área de detección por la unidad de detección de objeto tridimensional y la velocidad de movimiento relativo del objeto tridimensional es un valor predeterminado o mayor.
3. El dispositivo de detección de objetos tridimensionales de acuerdo con la reivindicación 1 o 2, caracterizado porque la unidad de establecimiento de áreas de detección ensancha el área de detección hacia atrás con respecto a la dirección de progreso del vehículo, y posteriormente estrecha el área de detección hacia adelante con respecto a la dirección de progreso del vehículo.
4. El dispositivo de detección de objetos tridimensionales de acuerdo con la reivindicación 3, caracterizado porque la unidad de establecimiento de áreas de detección ensancha el área de detección hacia atrás con respecto a la dirección de progreso del vehículo, y posteriormente no estrecha el área de detección hacia adelante con respecto a la dirección de progreso del vehículo hasta que transcurre un tiempo predeterminado.
5. El dispositivo de detección de objetos tridimensionales de acuerdo con la reivindicación 4, caracterizado porque la unidad de establecimiento de áreas de detección establece el tiempo predeterminado para ser más corto en correspondencia con una velocidad de movimiento relativo más alta del objeto tridimensional.
6. El dispositivo de detección de objetos tridimensionales de acuerdo con la reivindicación 4, caracterizado porque la unidad de establecimiento de áreas de detección establece el tiempo predeterminado para ser más largo en correspondencia con una velocidad de movimiento relativo más alta del objeto tridimensional.
7. El dispositivo de detección de objetos tridimensionales de acuerdo con la reivindicación 3, caracterizado porque la unidad de establecimiento de áreas de detección ensancha el área de detección hacia atrás con respecto a la dirección de progreso del vehículo, y posteriormente no estrecha el área de detección hacia adelante con respecto a la dirección de progreso del vehículo hasta que el vehículo principal ha viajado una distancia predeterminada.
8. El dispositivo de detección de objetos tridimensionales de acuerdo con la reivindicación 7, caracterizado porque la unidad de establecimiento de áreas de detección establece la distancia predeterminada para ser menor en correspondencia con una velocidad de movimiento relativo más alta del objeto tridimensional.
9. El dispositivo de detección de objetos tridimensionales de acuerdo con la reivindicación 7, caracterizado porque la unidad de establecimiento de áreas de detección establece la distancia predeterminada para ser mayor en correspondencia con una velocidad de movimiento relativo más alta del objeto tridimensional.
10. El dispositivo de detección de objetos tridimensionales de acuerdo con cualquiera de las reivindicaciones 3 a 9, caracterizado porque la unidad de establecimiento de áreas de detección ensancha el área de detección en una primera velocidad cuando el área de detección se debe ensanchar hacia atrás con respecto a la dirección de progreso del vehículo, y estrecha el área de detección en una segunda velocidad que es menor que la primera velocidad cuando el área de detección se debe estrechar hacia adelante en la dirección de la progresión del vehículo principal.
11. El dispositivo de detección de objetos tridimensionales de acuerdo con cualquiera de las reivindicaciones 1 a 10, caracterizado porque adicionalmente comprende una unidad de detección del comportamiento de vuelta para detectar el comportamiento de vuelta del vehículo principal, en donde la unidad de establecimiento de áreas de detección determina si el vehículo principal está dando vuelta, con base en el comportamiento de vuelta del vehículo principal cuando el área de detección se debe ensanchar hacia atrás con respecto a la dirección de progreso del vehículo, y reduce una cantidad por la cual el área de detección se debe ensanchar en correspondencia con un radio de vuelta más pequeño del vehículo principal según se determina a partir del comportamiento de vuelta del vehículo principal cuando se determina que el vehículo principal está dando vuelta.
12. Un dispositivo de detección de objetos tridimensionales, caracterizado porque comprende: una unidad de captura de imagen para capturar una imagen de un área hacia atrás de un vehículo principal; una unidad de establecimiento de áreas de detección para establecer un área de detección predeterminada en una dirección lateral hacia atrás del vehículo principal; una unidad de conversión de imagen para convertir la perspectiva de la imagen capturada obtenida por la unidad de captura de imagen para crear una imagen de vista a ojo de pájaro; una unidad de detección de objeto tridimensional para detectar el objeto tridimensional presente en el área de detección en la imagen de vista a ojo de pájaro obtenida por la unidad de conversión de imagen, con base en la información de la distribución de los pixeles en que una diferencia de luminancia está en un valor de umbral predeterminado o mayor a lo largo de una dirección en la cual el objeto tridimensional colapsa cuando la perspectiva se convierte a la imagen de vista a ojo de pájaro; y una unidad de cálculo de la velocidad de movimiento relativo para calcular la velocidad de movimiento relativo del objeto tridimensional en relación al vehículo principal con base en un cambio en el tiempo de la información de la distribución de los pixeles, la unidad de establecimiento de áreas de detección que ensancha el área de detección hacia atrás con respecto a una dirección de progreso del vehículo cuando el objeto tridimensional ha sido detectado en el área de detección por la unidad de detección de objeto tridimensional y la velocidad de movimiento relativo del objeto tridimensional es un valor predeterminado o mayor. RESUMEN DE LA INVENCIÓN Este dispositivo de detección de objeto tridimensional se provee con: una unidad (10) de formación de imágenes para formar imágenes de la parte trasera de un vehículo; una unidad (34) de establecimiento de áreas de detección que establece un área de detección predeterminada en las secciones del lado izquierdo y derecho de la parte trasera del vehículo; una unidad (31) de conversión de imagen que convierte la perspectiva de una imagen capturada para crear una imagen de vista a ojo de pájaro; una unidad (32, 33) de detección de objeto tridimensional que, utilizando una imagen de diferencia en la cual las posiciones de las imágenes de vista a ojo de pájaro tomadas en diferentes tiempos se alinean como una vista a ojo de pájaro, genera información de la forma de onda de diferencia contando un número de pixeles que indican una diferencia predeterminada y llevando a cabo la distribución de frecuencias para dichos pixeles, y con base en la información de la forma de onda de diferencia, lleva a cabo la detección de objetos tridimensionales en el área de detección; y una unidad (33) de cálculo de la velocidad de movimiento relativo que calcula la velocidad de movimiento relativo de un objeto tridimensional con respecto al vehículo con base en la información de la forma de onda de diferencia. El dispositivo de detección de objeto tridimensional se caracteriza en que la unidad (34) de establecimiento de áreas de detección agranda el área de detección hacia la parte trasera de la dirección de viaje del vehículo cuando un objeto tridimensional se detecta en el área de detección y la velocidad de movimiento relativo del objeto tridimensional es mayor que un valor predeterminado . RESUMEN DE LA INVENCION Este dispositivo de detección de objeto tridimensional se provee con: una unidad (10) de formación de imágenes para formar imágenes de la parte trasera de un vehículo; una unidad (34) de establecimiento de áreas de detección que establece un área de detección predeterminada en las secciones del lado izquierdo y derecho de la parte trasera del vehículo; una unidad (31) de conversión de imagen que convierte la perspectiva de una imagen capturada para crear una imagen de vista a ojo de pájaro; una unidad (32, 33) de detección de objeto tridimensional que, utilizando una imagen de diferencia en la cual las posiciones de las imágenes de vista a ojo de pájaro tomadas en diferentes tiempos se alinean como una vista a ojo de pájaro, genera información de la forma de onda de diferencia contando un número de pixeles que indican una diferencia predeterminada y llevando a cabo la distribución de frecuencias para dichos pixeles, y con base en la información de la forma de onda de diferencia, lleva a cabo la detección de objetos tridimensionales en el área de detección; y una unidad (33) de cálculo de la velocidad de movimiento relativo que calcula la velocidad de movimiento relativo de un objeto tridimensional con respecto al vehículo con base en la información de la forma de onda de diferencia. El dispositivo de detección de objeto tridimensional se caracteriza en que la unidad (34) de establecimiento de áreas de detección agranda el área de detección hacia la parte trasera de la dirección de viaje del vehículo cuando un objeto tridimensional se detecta en el área de detección y la velocidad de movimiento relativo del objeto tridimensional es mayor que un valor predeterminado .
MX2014009974A 2012-02-23 2013-02-13 Dispositivo de deteccion de objetos tridimensionales. MX339625B (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012037482 2012-02-23
PCT/JP2013/053328 WO2013125404A1 (ja) 2012-02-23 2013-02-13 立体物検出装置

Publications (2)

Publication Number Publication Date
MX2014009974A true MX2014009974A (es) 2014-09-08
MX339625B MX339625B (es) 2016-06-02

Family

ID=49005591

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014009974A MX339625B (es) 2012-02-23 2013-02-13 Dispositivo de deteccion de objetos tridimensionales.

Country Status (9)

Country Link
US (1) US9558556B2 (es)
EP (1) EP2819090B1 (es)
JP (1) JP5924399B2 (es)
CN (1) CN104115186B (es)
BR (1) BR112014020316B1 (es)
MX (1) MX339625B (es)
MY (1) MY172250A (es)
RU (1) RU2629433C2 (es)
WO (1) WO2013125404A1 (es)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5413516B2 (ja) * 2010-08-19 2014-02-12 日産自動車株式会社 立体物検出装置及び立体物検出方法
JP6054777B2 (ja) * 2013-03-01 2016-12-27 日立オートモティブシステムズ株式会社 ステレオカメラ装置
JP6165085B2 (ja) * 2014-03-07 2017-07-19 日立建機株式会社 作業機械の周辺監視装置
CN110460792B (zh) * 2014-08-19 2022-03-08 松下知识产权经营株式会社 再现方法及再现装置
US10019805B1 (en) * 2015-09-29 2018-07-10 Waymo Llc Detecting vehicle movement through wheel movement
JP2017114155A (ja) * 2015-12-21 2017-06-29 三菱自動車工業株式会社 運転支援装置
JP6477562B2 (ja) * 2016-03-18 2019-03-06 株式会社デンソー 情報処理装置
US9947226B2 (en) 2016-04-12 2018-04-17 Denso International America, Inc. Methods and systems for blind spot monitoring with dynamic detection range
US9931981B2 (en) 2016-04-12 2018-04-03 Denso International America, Inc. Methods and systems for blind spot monitoring with rotatable blind spot sensor
US9975480B2 (en) * 2016-04-12 2018-05-22 Denso International America, Inc. Methods and systems for blind spot monitoring with adaptive alert zone
US9994151B2 (en) 2016-04-12 2018-06-12 Denso International America, Inc. Methods and systems for blind spot monitoring with adaptive alert zone
US10336326B2 (en) * 2016-06-24 2019-07-02 Ford Global Technologies, Llc Lane detection systems and methods
KR102033883B1 (ko) * 2016-12-30 2019-11-08 현대자동차주식회사 차선 변경 결정 지원 시스템을 구현하는 장치 및 방법
KR102640423B1 (ko) * 2017-01-31 2024-02-26 삼성전자주식회사 음성 입력 처리 방법, 이를 지원하는 전자 장치, 및 시스템
CN111448597B (zh) * 2017-10-10 2022-06-10 日产自动车株式会社 驾驶控制方法以及驾驶控制装置
CN109344677B (zh) 2017-11-07 2021-01-15 长城汽车股份有限公司 识别立体物的方法、装置、车辆和存储介质
CN109145764B (zh) * 2018-07-27 2020-10-27 中国铁道科学研究院集团有限公司 综合检测车的多组检测波形的未对齐区段识别方法及装置
KR102483649B1 (ko) * 2018-10-16 2023-01-02 삼성전자주식회사 차량 위치 결정 방법 및 차량 위치 결정 장치
JP6859374B2 (ja) * 2019-01-11 2021-04-14 本田技研工業株式会社 予測装置、予測方法、およびプログラム
US10769457B1 (en) * 2019-09-26 2020-09-08 Pony Al Inc. System and method for detecting airborne objects
EP3872692A1 (en) * 2020-02-25 2021-09-01 Zenuity AB Compensation for vertical road curvature in road geometry estimation
CN112991535B (zh) * 2021-04-19 2021-07-27 中国人民解放军国防科技大学 高度信息增强墨卡托地图的三维空间态势表征方法和装置
KR102607947B1 (ko) * 2021-11-26 2023-12-04 이인텔리전스 주식회사 차량 제동 제어 장치 및 제어 방법
CN115880973B (zh) * 2023-02-02 2023-05-05 北京东方瑞丰航空技术有限公司 伪球面坐标系的飞行模拟机视景生成方法、装置和设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7418346B2 (en) * 1997-10-22 2008-08-26 Intelligent Technologies International, Inc. Collision avoidance methods and systems
JPH0918863A (ja) 1995-06-26 1997-01-17 Yazaki Corp 車両用後側方監視装置
JP2002298299A (ja) * 2001-03-30 2002-10-11 Toshiba Corp 車両の運転支援装置
JP4156214B2 (ja) * 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
JP2003306102A (ja) * 2002-04-11 2003-10-28 Toshiba Corp 追越車両検出装置と運転支援システムの後側方警報装置
JP4887932B2 (ja) * 2006-06-23 2012-02-29 日産自動車株式会社 道路端認識装置、自動車、及び道路端認識方法
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2008227646A (ja) 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
JP2009169776A (ja) * 2008-01-18 2009-07-30 Hitachi Ltd 検出装置
JP5464885B2 (ja) 2009-03-31 2014-04-09 日野自動車株式会社 並走警報装置、車両およびプログラム
RU2533645C2 (ru) * 2010-05-27 2014-11-20 Сергей Анатольевич Королев Интеллектуальная транспортная система и способ её использования
JP5251927B2 (ja) 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法
JP5533323B2 (ja) * 2010-06-21 2014-06-25 日産自動車株式会社 移動量推定装置及び移動量推定方法

Also Published As

Publication number Publication date
JPWO2013125404A1 (ja) 2015-07-30
EP2819090A4 (en) 2015-06-03
EP2819090A1 (en) 2014-12-31
BR112014020316A2 (pt) 2021-05-25
CN104115186A (zh) 2014-10-22
EP2819090B1 (en) 2022-08-24
US20150302586A1 (en) 2015-10-22
WO2013125404A1 (ja) 2013-08-29
JP5924399B2 (ja) 2016-05-25
RU2014138290A (ru) 2016-04-10
MX339625B (es) 2016-06-02
US9558556B2 (en) 2017-01-31
BR112014020316B1 (pt) 2021-09-14
CN104115186B (zh) 2018-08-28
RU2629433C2 (ru) 2017-08-29
MY172250A (en) 2019-11-19

Similar Documents

Publication Publication Date Title
MX2014009974A (es) Dispositivo de deteccion de objetos tridimensionales.
RU2636120C2 (ru) Устройство обнаружения трехмерных объектов
JP5776795B2 (ja) 立体物検出装置
MX2014010245A (es) Dispositivo de deteccion de objetos tridimensionales.
JP5733467B2 (ja) 立体物検出装置
JP5874831B2 (ja) 立体物検出装置
JP5682735B2 (ja) 立体物検出装置
EP2821981A1 (en) Three-dimensional object detection device
RU2619724C2 (ru) Устройство обнаружения трехмерных объектов
WO2013121911A1 (ja) 立体物検出装置及び立体物検出方法
JP5783319B2 (ja) 立体物検出装置及び立体物検出方法
WO2013125335A1 (ja) 立体物検出装置及び立体物検出方法
JP5938940B2 (ja) 立体物検出装置
JP5999183B2 (ja) 立体物検出装置および立体物検出方法
JP5817913B2 (ja) 立体物検出装置及び立体物検出方法
JP5668891B2 (ja) 立体物検出装置

Legal Events

Date Code Title Description
FG Grant or registration