MXPA05001880A - Metodos de adquisicion y procesamiento de imagen para control automatico de iluminacion exterior vehicular. - Google Patents

Metodos de adquisicion y procesamiento de imagen para control automatico de iluminacion exterior vehicular.

Info

Publication number
MXPA05001880A
MXPA05001880A MXPA05001880A MXPA05001880A MXPA05001880A MX PA05001880 A MXPA05001880 A MX PA05001880A MX PA05001880 A MXPA05001880 A MX PA05001880A MX PA05001880 A MXPA05001880 A MX PA05001880A MX PA05001880 A MXPA05001880 A MX PA05001880A
Authority
MX
Mexico
Prior art keywords
vehicle
light
light source
brightness
automatic
Prior art date
Application number
MXPA05001880A
Other languages
English (en)
Inventor
Brock R Rycenga
Original Assignee
Gentex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gentex Corp filed Critical Gentex Corp
Publication of MXPA05001880A publication Critical patent/MXPA05001880A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/18Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights being additional front lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • B60Q1/085Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/17Operational modes, e.g. switching from manual to automatic mode or prohibiting specific operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/05Special features for controlling or switching of the light beam
    • B60Q2300/052Switching delay, i.e. the beam is not switched or changed instantaneously upon occurrence of a condition change
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/05Special features for controlling or switching of the light beam
    • B60Q2300/054Variable non-standard intensity, i.e. emission of various beam intensities different from standard intensities, e.g. continuous or stepped transitions of intensity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/05Special features for controlling or switching of the light beam
    • B60Q2300/056Special anti-blinding beams, e.g. a standard beam is chopped or moved in order not to blind
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/11Linear movements of the vehicle
    • B60Q2300/112Vehicle speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/12Steering parameters
    • B60Q2300/122Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/13Attitude of the vehicle body
    • B60Q2300/132Pitch
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/13Attitude of the vehicle body
    • B60Q2300/134Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/20Indexing codes relating to the driver or the passengers
    • B60Q2300/21Manual control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/31Atmospheric conditions
    • B60Q2300/312Adverse weather
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/31Atmospheric conditions
    • B60Q2300/314Ambient light
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/32Road surface or travel path
    • B60Q2300/322Road curvature
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/331Driving situation characterised by the driving side, e.g. on the left or right hand side
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/332Driving situation on city roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/332Driving situation on city roads
    • B60Q2300/3321Detection of streetlights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/41Indexing codes relating to other road users or special conditions preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/42Indexing codes relating to other road users or special conditions oncoming vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

La presente invencion se refiere a varios aparatos, algoritmos y metodos para adquirir y procesar imagenes de una escena. Los detalles de varios aspectos de las imagenes asociadas son identificados y podrian ser utilizados para generar distintas senales de control de equipo vehicular.

Description

WO 2004/034183 A2 111» ?????? II HUI Dlil lllli WQ lili 1 II III ???? lili! IIII1 HUI fllll I1H1III11111 ?? 311 Published: For tv/o-Ietier codes and other abbrevialions, refer lo the "G id- — wilhoui iniemalional search repon and lo be republished ance Nales on Codes and Abbrevialions" appearing ai ¡he begin- pon receipt of thai repon ning of each regular tssue oflhe PCT Gazene.
METODOS DE ADQUISICION Y PROCESAMIENTO DE IMAGEN PARA CONTROL AUTOMATICO DE ILUMINACION EXTERIOR VEHICULAR ANTECEDENTES DE LA INVENCIÓN Desde hace mucho tiempo ha sido deseable proporcionar el control automático de iluminación del vehículo, tanto para mejorar la seguridad de conducción como para proporcionar comodidad al conductor. Este control automático de iluminación podría incluir la activación y desactivación automáticas de los faros delanteros de luz a distancia de un vehículo controlado como una función de las condiciones de conducción. Esta función ha sido ampliamente intentada utilizando varios tipos de sensores ópticos que detectan las condiciones de iluminación ambiental, los faros delanteros de los vehículos que se aproximan y las luces traseras de los vehículos delanteros . De manera más reciente, han sido propuestos sensores que utilizan un sensor electrónico de imagen. Estos sistemas son descritos en las Patentes comúnmente asignadas de los Estados Unidos Nos. 5, 837,994; 6, 049,171; 6, 631,316; 6, 611,610 y 6, 587,573. Las descripciones de cada uno de estos documentos son incorporadas en su totalidad en la presente como referencia. La percepción de la fuente luminosa dentro de la detección de imagen presenta muchos retos. Por ejemplo, podría ser difícil diferenciar entre los faros delanteros del vehículo que se REF. 161831 aproxima y las reflexiones de los faros delanteros apagados del vehículo controlado de otras señales u otros objetos. Además, podría ser difícil detectar las luces traseras distantes- en la proximidad de otras fuentes luminosas, tal como por ejemplo, las lámparas colgantes del alumbrado público debido a que estas fuentes luminosas podrían hacerse borrosas en la imagen diluyendo el color rojo de las luces traseras . Algunos de estos problemas podrían ser resueltos mediante sistemas de formación de imagen de más alta resolución. Sin embargo, la construcción de este sistema requiere un sensor de imagen que es más costoso, un lente de alta calidad, mayor poder de procesamiento y más memoria, los cuales en el tiempo actual serían de costo prohibitivo. Además, todos los problemas con los sistemas actualmente descritos no. son probables que serán resueltos sólo con el aumento de resolución., e incluso haciendo caso omiso de las cuestiones económicas. La presente invención busca superar las limitaciones de la técnica anterior al proporcionar métodos mejorados de adquisición y análisis de imágenes a partir de un sensor de imagen con el propósito de detectar los faros delanteros de los vehículos que se aproximan y las luces traseras de los vehículos delanteros y para diferenciar estas fuentes luminosas de otras fuentes de luz dentro de una imagen. La información obtenida por el aparato y métodos descritos en este documento podría ser utilizada para controlar, de manera automática, el equipo del vehículo, tal como para controlar las luces exteriores, los limpiadores del parabrisas, el eliminador de escarcha del vehículo controlado o para otros propósitos . SUMARIO DE LA INVENCIÓN Al menos en una modalidad de la presente invención, es proporcionado un aparato para la adquisición de imágenes de una escena. En una modalidad relacionada, es proporcionado un aparato para el procesamiento y almacenamiento de la información relacionada. Además, se proporciona un dispositivo de señal del diferencial de baja tensión con una memoria intermedia para la interconexión de un formador de imagen con un microprocesador. Al menos en una modalidad, una imagen de intervalo de alta dinámica es sintetizada para acomodar los diversos niveles de brillantez asociados con las distintas fuentes luminosas que se anticipa estarán presentes en el campo asociado de observación del formador de imagen. Al menos en una modalidad, un algoritmo de detección de pico es empleado para detectar las fuentes luminosas individuales. Los algoritmos de detección de pico descritos proporcionan un medio que percibe por separado las fuentes luminosas que se encuentran juntas muy cerca y, o, que se superponen parcialmente . Al menos en una modalidad, los algoritmos de clasificación de fuente luminosa son empleados para identificar las fuentes luminosas que inducen respuestas del sistema. Un sinnúmero de los algoritmos de clasificación que incorporan funciones de probabilidad y, o, redes neurales son descritos . Al menos en una modalidad, los métodos de cambio o conmutación son empleados para variar, en forma automática, la operación de las luces exteriores vehiculares. Son descritas varias técnicas para controlar las luces bi-modales sustancialmente variables en forma continua y continuamente variables . Las rutinas de entrenamiento son proporcionadas al menos en una modalidad para la calibración de los algoritmos de clasificación. Los datos empíricos, experimentales, de tiempo real y estadísticos podrían ser utilizados, de manera individual, o en varias combinaciones, para facilitar el entrenamiento . BREVE DESCRIPCIÓN DE LAS FIGXJRAS La Figura 1 representa un vehículo controlado con relació a otros vehículos que se aproximan y a vehículos delanteros ; La Figura 2 representa una modalidad de un formador de imagen; La Figura 3 representa una modalidad de un sensor de imagen con los componentes relacionados; La Figura 4 representa un dispositivo de señal de diferencial de baja tensión con una memoria intermedia conectada entre un formador de imagen y un microprocesador; La Figura 5 representa un diagrama de flujo para un algoritmo que ajusta el estado de una luz exterior en base a distintas fuentes luminosas en una imagen; La Figura 6 representa un diagrama de flujo para un algoritmo que sintetiza una imagen de intervalo de alta dinámica; La Figura 7 representa una gráfica de los resultados de un algoritmo de compresión de datos; La Figura 8 representa un diagrama de flujo para un algoritmo de compresión de datos; Las Figuras 9a y 9b muestran la representación en incrementos sucesivos de un algoritmo de compresión de datos; La Figura 10 representa un diagrama de flujo para un algoritmo de detección de pico; La Figura 11 representa un diagrama de flujo para un algoritmo que determina las características intercuadro de la fuente luminosa; La Figura 12 representa un diagrama de flujo para un algoritmo que determina el estado de una luz exterior en base a varias fuentes luminosas en una imagen; La Figura 13 representa un diagrama de flujo de ejemplo de una red neural; La Figura 14 representa un diagrama de flujo de transición de estado para el control de luz exterior; La Figura 15 representa un primer diagrama de flujo de transición de estado para el control de la luz exterior; La Figura 16 representa un diagrama de la segunda transición de estado para el control de luz exterior; La Figura 17 representa una gráfica del ciclo de trabajo contra el nivel de transición para el control de luz exterior; La Figura 18 representa una vista en despiece de un montaje de espejo retrovisor exterior; La Figura 19 representa un montaje de un espejo retrovisor interior; La Figura 20 representa una vista en corte del montaje de espejo de la Figura 19, tomada a lo largo de la línea de corte 20-20; y La Figura 21 representa una vista en despiece de un montaje de espejo retrovisor interior. DESCRIPCIÓN DETALLADA DE LA INVENCIÓN La funcionalidad de la presente invención se describe mejor con referencia inicial a la Figura 1. Un vehículo controlado 101 contiene un formador de imagen y un sistema de procesamiento de imagen que tiene la capacidad de adquirir y analizar imágenes de la región generalmente delantera del vehículo controlado. El formador de imagen y el sistema de procesamiento de imagen se encuentran preferiblemente contenidos en el montaje de espejo retrovisor 102 del vehículo controlado, proporcionando de esta manera una vista clara hacia adelante 103 a partir de una perspectiva similar del conductor a través del parabrisas en la región frotada por los limpiadores del parabrisas. De manera alterna, el formador de imagen podría ser colocado en cualquier posición adecuada en el vehículo y el sistema de procesamiento podría estar contenido con el formador de imagen o podría ser situado en cualquier lugar. Un sinnúmero de configuraciones alternas es descrito en este documento, así como también, dentro de varias referencias incorporadas. Los métodos de análisis de imagen descritos en este documento podrían ser implementados por un- procesador único, tal como un microcontrolador o DSP, por múltiples procesadores distribuidos, o podrían ser implementados en un hardware ASIC o FPGA. El formador de imagen adquiere las imágenes, de manera que los faros delanteros 104 del vehículo que se aproxima 105 y las luces traseras 106 del vehículo delantero 107 podrían ser detectadas en cualquier lugar que se encuentren dentro de un área en donde los conductores de los vehículos 105 ó 106 pudieran percibir el deslumbramiento de los faros delanteros del vehículo controlado 101. Cuando sean detectados los faros delanteros o las luces traseras, las luces a distancia del vehículo controlado 101 podrían ser apagadas o el patrón del haz de luz podría ser modificado de otra manera, de tal forma que reduzca el deslumbramiento hacia los ocupantes de los otros vehículos . Un formador de imagen 200 para uso con la presente invención se muestra en la Figura 2. Un lente 201 que contiene dos elementos separados de lente 202 y 203 forma dos imágenes de la escena asociada en un sensor de imagen 204. Una imagen de la escena es filtrada por un filtro de rojo 205 colocado sobre la superficie del sensor de imagen 204 y que cubre una mitad de los píxeles. Mediante la comparación de los píxeles en las imágenes filtradas y no filtradas que corresponden con las mismas regiones del espacio, puede ser determinado el enrojecimiento relativo de las fuentes luminosas detectadas por estos píxeles. También podrían ser utilizados otros métodos de diferenciación de color, tal como el uso de filtros de tablero de ajedrez rojo/claro, filtros de tira roja/clara o filtros de mosaico o de tira roja/verde/azul. Las descripciones detalladas de los sistemas ópticos para uso con la presente invención se encuentran contenidos en las Patentes copendientes comúnmente asignadas de los Estados Unidos Nos. 6, 130,421 y 6, 674,988, con la presente invención y que se incorporan en este documento en su totalidad como referencia. A continuación, con referencia en la Figura 3, se representa un diagrama de bloque de un sensor de imagen para uso con la presente invención. Como se muestra, el formador de imagen comprende una serie de píxel 305, una referencia de tensión/corriente 310, los convertidores digitales a analógicos (DACs) 315, los reguladores de tensión 320, una señal diferencial de baja tensión I/O 325, un bloque digital 330, los decodificadores en hilera 335, el refuerzo de reconexión 340, un sensor de temperatura 345, un convertidor de línea analógica a digital (ADC) 350, la etapa de ganancia 355, una interfaz de oscilador de cristal 360, una columna analógica 365 y los decodificadores de columna 370. De preferencia, estos dispositivos se encuentran integrados en una placa de circuito común o substrato de sílice. Sin embargo, cualquiera o todos de los dispositivos individualmente identificados podrían ser montados en una estructura separada. Los pormenores de un formador de imagen preferido de acuerdo con lo que se muestra en la Figura 3 se describen en detalle en la Solicitud comúnmente asignada de los Estados Unidos con número de serie 10/921,076 titulada Optical Elements, Related Manufacturing Methods and Assemblies Incorporating Optical Elements, la descripción de la cual se incorpora en su totalidad en este documento como referencia.
En una modalidad preferida, el formador de imagen es un diseño CMOS configurado para cumplir con los requerimientos de aplicaciones automotrices. De preferencia, el formador de imagen proporciona 144 columnas y 176 hileras de píxeles basados en fotodiodo . De preferencia, el formador de imagen también tiene provisiones que detectan la temperatura, que controlan al menos una señal de salida, para proporcionar la regulación de tensión a los componentes internos y las instalaciones incorporadas de verificación o prueba del dispositivo. De preferencia, las instrucciones del formador de imagen proporcionan el control de una variedad de ajustes de exposición, ajustes de modo y analógicos. De preferencia, el formador de imagen es capaz de tomar dos sub-ventanas de imagen, de manera simultánea, de distintas hileras de inicio; esta característica permite imágenes altamente sincronizadas en un sistema de lentes dobles como se describió con referencia a la Figura 2. En una modalidad preferida, una instrucción única de comando es enviada al formador de imagen y a continuación, el formador de imagen responde con dos imágenes secuenciales que tienen tiempos únicos de exposición. Otra opción preferida permite que las ganancias análogas sean aplicadas en una imagen de tablero de ajedrez para aplicaciones en donde un filtro sea empleado en el formador de imagen en un patrón de tablero de ajedrez. De preferencia, los datos pueden ser transmitidos en un modo de 10 bits, en un modo comprimido de 8 bits en donde el valor de 10 bits es representado en 8 bits (como se describe en mayor detalle en otro lugar de este documento) , o un modo truncado de 8 bits en donde sólo son trasmitidos los 8 bits más significantes de cada valor de píxel de 10 bits. Con referencia a la Figura 4, se prefiere que las señales de control y de datos sean comunicadas entre una imagen y el microprocesador asociado por medio de una interfaz periférica de serie de señalización diferencial de baja tensión (LVDS SPI) 405. Como se muestra en la Figura 4, la LVDS SPI proporciona una interfaz de comunicación entre el sensor de imagen 410 y el microcontrolador 415. La LVDS SPI preferida comprende un transceptor LVDS 420, un bloque de lógica de datos de entrada 425, una memoria de doble puerto 430 y un bloque de lógica de interfaz de microcontrolador 435. Debe observarse que un sinnúmero de dispositivos conocidos LVDS se encuentran comercialmente disponibles y se considera que los LVDSs distintos de los que se muestran en la Figura .4, podrían ser utilizados con la presente invención. Por ejemplo, la memoria de doble puerto podría ser omitida y las señales de control y de datos serán directamente transmitidas a través del enlace LVDS. Una descripción más detallada de la interfaz LVDS SPI de acuerdo con la que se muestra en la Figura 4 está contenida en la Solicitud comúnmente asignada de los Estados Unidos número de serie 10/921,076, la descripción de la cual se incorpora en su totalidad en este documento como referencia. En una modalidad preferida, la memoria de doble puerto es proporcionada para permitir que el microcontrolador realice otras funciones mientras que los datos de imagen están siendo enviados a partir del formador de imagen. A continuación, el microcontrolador lee los datos de imagen de la memoria de doble puerto una vez que se encuentra libre para hacerlo. De preferencia, la memoria de doble puerto permite el acceso secuencial a los registros individuales de memoria de uno por uno. En una' lectura de salida especial de modo alterno, dos indicadores de lectura son proporcionados para permitir el acceso alterno a dos distintas regiones de la memoria. Esta característica es particularmente benéfica cuando sea utilizada junto con la característica de tiempo doble de integración de los sensores de imagen. El sensor de imagen enviará dos imágenes, en forma secuencial, .que tienen distintos tiempos de integración. En el modo alternativo de lectura de salida, el primer indicador es ajustado para el inicio de la primera imagen y el segundo indicador para el inicio de la segunda imagen. Por lo tanto, para cada posición de píxel, el primer valor de píxel de tiempo de integración primero es leído, seguido por el valor de píxel de la segunda integración. Un método de adquisición y análisis de imagen de la presente invención se describe con referencia en primer lugar a la Figura 5. El control procede como una secuencia de los ciclos de adquisición y procesamiento 500, que es repetido de manera indefinida si el control se encuentra activo. La operación cíclica podría suceder a una velocidad regular, por ejemplo, una vez cada 200 ras. En forma alterna, la velocidad cíclica podría ser ajustada en función del nivel de actividad o del estado actual de las lámparas del vehículo. Los ciclos podrían ser interrumpidos por otras funciones. Por ejemplo, el sistema de procesamiento también podría controlar un espejo retrovisor de reducción automática de intensidad, una brújula, un sensor de lluvia, la iluminación, los botones de interfaz de usuario, los micrófonos, las pantallas, las interconexiones del vehículo, las funciones de telemetría, la comunicación multiplexada de enlace común, así como también otras características. Si una de estas características requiriera la atención del procesador, el ciclo 500 podría ser suspendido, interrumpido o pospuesto. El ciclo 500 inicia con la adquisición de una o más imágenes 501, las cuales se encuentran almacenadas, por lo menos en parte, en la memoria para su procesamiento. Las imágenes correspondientes podrían ser imágenes sintéticas de intervalo dinámico alto como se describe además en este documento. A continuación, en la etapa 502, varios objetos y propiedades de estos objetos son extraídos de las imágenes adquiridas. Normalmente, estos objetos son fuentes luminosas que deben ser detectadas y clasificadas. El término "fuente luminosa" como se utiliza en este documento, incluye fuentes que emiten rayos de luz, así como también, objetos que reflejan rayos de luz. En la etapa 503, el movimiento de las fuentes luminosas y otro comportamiento histórico es determinado mediante la búsqueda e identificación de las fuentes luminosas a partir de los ciclos anteriores y la asociación de ellas con las fuentes luminosas en el ciclo actual . Las fuentes luminosas son clasificadas en la etapa 504 para determinar si éstas son faros delanteros vehiculares, luces traseras de vehículo u otros tipos de fuentes luminosas. Finalmente, en la etapa 505, el estado de las lámparas de vehículo controlado es modificado, si fuera necesario, en base a la salida de la etapa 504 y otras entradas de vehículo. Debe entenderse que aunque son mostradas las etapas en la Figura 5 como etapas secuenciales , es posible alterar el orden de las etapas o realizar varias etapas en paralelo. Por ejemplo, como se discute en mayor detalle más adelante, el algoritmo preferido de extracción de objeto solamente requiere que cuatro o incluso tan pocas como dos de las imágenes sean almacenadas en la memoria en cualquier tiempo dado, facilitando de esta manera al menos una extracción parcial del objeto en paralelo con la adquisición de la imagen. Asimismo, un método de adquisición de imagen presentado en este documento podría sintetizar una imagen de intervalo de alta dinámica (HDR) a través de múltiples exposiciones, y posteriormente, podría procesar la imagen de intervalo de alta dinámica después de la síntesis. En forma alterna, las imágenes con cada ajuste de exposición podrían ser procesadas, de manera independiente, entre sí. Finalmente, cada una de las etapas en la Figura 5 no necesita ser completada antes que comience la siguiente etapa. Por ejemplo, una vez que sea detectada una fuente luminosa en la etapa 502, su información histórica podría ser inmediatamente determinada en la etapa 503 y la fuente luminosa podría ser clasificada, en forma inmediata, en la etapa 504. A continuación, si existiera la siguiente fuente luminosa, ésta podría ser identificada en la etapa 502. También debe entenderse que cualquiera de las etapas de la Figura 5 podría ser aplicada, en forma benéfica, a los sistemas de formación de imagen de vehículo en forma independiente de otras etapas, en varias combinaciones con otras etapas o con modalidades de la técnica anterior. El amplio intervalo de niveles de luz que debe ser detectado por el sistema de formación de imagen presenta un reto significante. Los faros delanteros brillantez son varios miles de veces más intensos que las luces traseras distantes. Muchas de las técnicas empleadas para distinguir las luces entre sí se benefician de medidas relativamente precisas de la brillantez y el color; por lo tanto, la saturación en la imagen debido a fuentes luminosas más brillantez podría conducir a una mala identificación. Los formadores de imagen de intervalo dinámico alto han sido desarrollados de manera que pudieran ser benéficamente utilizados; sin embargo, estos se mantienen casi oscuros y costosos. Los detalles asociados con la creación de una imagen sintética de intervalo alto dinámico son incluidos en la Publicación copendiente comúnmente asignada de Solicitud de Patente de los Estados Unidos No. 2004/0008410 Al, la descripción de la cual se incorpora en este documento en su totalidad como referencia. Al menos en una modalidad de la presente invención, los problemas asociados han sido superados a través de la creación de una imagen sintética de intervalo de alta dinámica (HDR) . Con referencia a la Figura 6, el proceso de adquisición y síntesis de una imagen HDR incluye la adquisición de dos o más imágenes en distintas exposiciones para cubrir diferentes rangos de luminosidad. Mientras que cualquier número de imágenes podría ser tomado en distintos intervalos de exposición, serán utilizadas tres imágenes, como un ejemplo, con los tiempos de exposición de 1, 6 y 36 ms. En una modalidad preferida un HDR es sintetizado utilizando cinco imágenes, cada una con un periodo único de integración. Por ejemplo, con exposiciones de 0.25, 0.5, 2, 8 y 30 ms . Como se describió en este documento, un formador de imagen preferido proporciona la capacidad de adquirir dos imágenes con periodos únicos de integración con una instrucción única; podría ser deseable crear un HDR utilizando dos imágenes que tienen periodos únicos de integración, por ejemplo, utilizando tiempos de integración entre 0.5 y 50 ms . Podría ser deseable, sin considerar el número de imágenes utilizadas, emplear tiempos de integración que fluctúan de 0.5 a 50 ms . Podría ser deseable utilizar cualquier número de imágenes individuales, por ejemplo, podría utilizarse un intervalo de 1 a 10 imágenes. En primer lugar, en la etapa 601, la memoria de imagen se encuentra puesta en ceros. A continuación, en la etapa 602, es adquirida la primera imagen con la exposición más corta (1 ms) . La etapa 603 es irrelevante para la primera imagen debido a que en la memoria existen todos los ceros. La etapa 604 representa una etapa opcional utilizada para corregir el ruido del formador de imagen de patrón fijo. La mayoría de los sensores de imagen presentan algún tipo de ruido de patrón fijo debido a las variaciones de manufactura de píxel a píxel . El ruido de patrón fijo podría ser presentado como una variación de un desplazamiento, una ganancia o una inclinación o una combinación de las mismas. La corrección del ruido de patrón fijo podría mejorar el funcionamiento total asegurando que el nivel detectado de luz de una fuente luminosa de formación de imagen sea el mismo sin considerar el píxel sobre el cual es formada la imagen. Las mejoras en el proceso de fabricación del formador de imagen pueden hacer esta corrección innecesaria: Si la corrección fuera garantizada, la corrección en el desplazamiento (etapa 604) , en la inclinación (etapa 606) o en ambas, podría ser conseguida por medio del siguiente método. Para proporcionar la corrección, cada sensor es medido durante la manufactura y es generada una tabla de búsqueda de píxel -por-píxel , de manera que almacene el error de desplazamiento y/o inclinación para cada píxel. En la etapa 604, el desplazamiento es corregido agregando o restando el valor de error almacenado en la tabla para el píxel actual (ith) . La corrección de inclinación también podría ser aplicada en este punto mediante la multiplicación del valor de píxel por el factor de error de inclinación. No obstante, debido a que se prefiere que la imagen sea convertida en valores normalizados logarítmicos, la corrección de inclinación podría ser aplicada mediante la adición o sustracción computacionalmente menos costosa en el valor logarítmico en la etapa 606. En una modificación de este método, varios intervalos distintos de respuesta de píxel son identificados y es creada una correspondiente tabla de búsqueda de corrección, cada una de las cuales es identificada como un depósito particular. Durante el proceso de manufactura, cada píxel de un formador de imagen es medido y también es identificada la tabla de búsqueda más cercana de corrección. A continuación, al píxel le es asignado un número de depósito que es almacenado en la memoria no volátil de los procesadores . Cuando las imágenes son tomadas durante la operación, es aplicada la tabla de búsqueda de corrección que corresponde con el depósito del pixel dado y el formador de imagen es mejorado de manera uniforme. En la etapa 505, el valor de píxel (más la corrección opcional de desplazamiento de la etapa 604) es convertido para la creación de la imagen HDR. En primer lugar, esta conversión podría incluir una etapa opcional de linearización . Muchas arquitecturas de píxel podrían responder en forma no lineal a los niveles de luz incidente. Esta forma no lineal podría ser manifestada como una curva de forma de S que inicia respondiendo lentamente al incremento en los niveles de- luz, después, en una forma más lineal y posteriormente, se hace gradual hasta la saturación. Está respuesta podría inducir un error cuando se intente los cálculos de brillantez o de color. De manera afortunada, la forma no lineal puede repetirse usualmente y es normalmente consistente para -un diseño dado del formador de imagen. Esta corrección es la más eficientemente conseguida a través de una tabla de búsqueda que mapea la respuesta del píxel no lineal a un valor lineal. Si la forma no lineal fuera una función consistente para todos los formadores de imagen del mismo diseño, la tabla de búsqueda podría ser codificada con dificultad en el procesador. De otro modo, esta podría ser medida y almacenada en una base de chip-a-chip, como es el caso para la corrección de ruido de patrón fijo. Los sensores que presentan una respuesta sustancialmente lineal no requerirán de una corrección de forma lineal . El valor de cada salida de píxel también debe estar a escala mediante la relación entre la exposición máxima y la exposición actual. En el caso de este ejemplo, los datos de la imagen de 1 ms deben ser multiplicados por 36. Finalmente, para acomodar el amplio intervalo dinámico, es benéfico tomar el logaritmo de este valor y almacenarlo en la memoria. Esto permite que el valor de pixel sea mantenido como un número de 8 bits, reduciendo de esta manera el requerimiento de memoria. Si una cantidad suficiente de memoria estuviera disponible, la compresión logarítmica podría ser omitida. Mientras que el logaritmo (log) natural es comúnmente utilizado, el logaritmo de base 2 podría ser alternativamente utilizado. Los algoritmos de cálculo altamente eficiente podrían ser utilizados para calcular el logaritmo y el antilogaritmo de base 2. El cálculo completo de la etapa 605, la linearización, la escala y la toma del logaritmo son preferiblemente realizados en una tabla única de búsqueda. Una tabla de búsqueda con estos factores previamente calculados, es creada para cada ajuste de exposición y es utilizada para convertir el valor de la etapa 604 en el valor que será almacenado en la memoria. En forma alterna, como se describió en este documento con referencia a las Figuras 7, 8, 9a y 9b, podría ser empleado un algoritmo de compresión de 10 bits a 8 bits. Finalmente, si fuera utilizada la corrección de ruido de patrón fijo, la corrección de error de inclinación podría ser aplicada en la etapa 606 al valor logarítmico de la etapa 605. El valor final es almacenado en la memoria en la etapa 607. Este proceso total procede para cada píxel en la imagen como se indica mediante la etapa 608. Una vez que la primera imagen es almacenada, la siguiente imagen de exposición más alta podría ser adquirida. El procesamiento para esta y todas las subsiguientes imágenes procede en forma similar excepto para la etapa 603. Para la segunda y última imágenes , los valores solamente serían almacenados en la memoria si ningún valor de una imagen de sensitividad más baja fuera detectado. Si un valor se encontrara actualmente en la memoria no existiría la necesidad para el valor, el cual está probablemente saturado o más cerca de la saturación, de una imagen de sensitividad más alta. En esencia, las imágenes de sensitividad más alta simplemente sirven para "llenar los espacios en blanco" dejados por aquellos píxeles que no detectaron ninguna luz en las imágenes anteriores. Finalmente, cuando sea adquirida la imagen de exposición más alta (36 ms en este ejemplo) , ninguna escala será necesaria. Con referencia a la discusión anterior, la persona experta en la técnica podría identificar muchas variaciones en el método anterior que se encuentran dentro del espíritu de la presente invención. Por ejemplo, el proceso podría suceder hacia atrás, comenzando con la imagen de sensitividad más alta. En este caso, los píxeles que están saturados de las imágenes de sensitividad más alta podrían ser reemplazados por píxeles no saturados de imágenes de sensitividad más baja. Las múltiples imágenes podrían ser tomadas en cada sensitividad y podrían ser promediadas para reducir el ruido. Las distintas funciones de la función logarítmica podrían ser utilizadas para comprimir el intervalo de la imagen tal como la derivación de un factor normalizado de unidad. Las profundidades de bits distintas de 8 bits podrían ser utilizadas para adquirir y almacenar la imagen tal como de 9 bits, 10 bits, 16 bits, 32 bits y 64 bits. Finalmente, los métodos distintos que varían el tiempo de exposición, tal como la variación de los parámetros de ganancia o conversión A/D, podrían ser utilizados para alterar la sensitividad de las imágenes adquiridas. Finalmente, también es posible almacenar, en forma independiente, las imágenes individuales de distintas sensitividades, más que almacenar una imagen sintética única de intervalo de alta dinámica. Este método es útil cuando una cantidad suficiente de memoria se encuentra disponible para almacenar más de una imagen, como puede ser el caso cuando sea proporcionada una memoria intermedia como se discutió con respecto a la interfaz LVDS SPI de la Figura 4, que se discute en mayor detalle en este documento más adelante. En este caso, el valor de píxel es elegido de la imagen de exposición adecuada y es convenientemente escalada durante la detección de objeto de la etapa 502. La compresión de intervalo dinámico de los valores de imagen en escala de gris también podría suceder en el hardware, ya sea como una característica proporcionada en un chip con el sensor de imagen o a través del conjunto de circuitos asociados. Esto es especialmente benéfico cuando sean proporcionados convertidores A/D de una resolución de 10 bits o más alta, debido a que muchos protocolos de comunicación de canal o conexión, tal como el canal o conexión SPI, normalmente transmiten datos en palabras de 8 bits o múltiplos de 8 bits. Por lo tanto, un valor de 10 bits sería normalmente transmitido como una palabra de 16 bits y en realidad tomaría el doble del ancho de banda y de memoria de un valor de 8 bits. Para funciones de control basadas por cámara, tal como la función de control de los faros delanteros, los requerimientos para la lectura de la resolución normalmente se encuentran más cercanamente alineados con el porcentaje constante de lectura que con el porcentaje constante de escala total. El cambio porcentual de una variable codificada en forma lineal es un porcentaje constante de la escala total para cada etapa incremental en la lectura, mientras que el cambio porcentual en el valor lineal que corresponde con su contraparte codificada en forma logarítmica es un porcentaje constante de la lectura lineal para cada etapa incremental en su valor asociado codificado del logaritmo. Con la codificación lineal, el cambio incremental para un valor pequeño que se encuentra cerca de cero es un porcentaje muy grande de la lectura o el valor del cambio incremental para un valor grande que se encuentra cerca a la escala total, es un porcentaje muy pequeño de la lectura o el valor . En un convertidor de analógico a digital de cámara, la conversión es normalmente lineal y debe ser convertida o mapeada a otra forma cuando sea necesaria esta conversión. A menos que se señale de otro modo, será generalmente supuesto que la exactitud incremental se refiere a los valores ya convertidos o que son convertidos de regreso a sus intervalos lineales. Para los valores codificados en forma lineal, los cuales se encuentran cerca del cero, la etapa incremental es un gran porcentaje de la lectura y el mapeo de estos en lecturas en donde el cambio incremental en el valor lineal asociado es más pequeño lo que originará valores de entrada únicos que son . mapeados en valores múltiples de salida. Un objeto de la codificación de valores de un conjunto más grande a uno más pequeño, es preservar la información necesaria con un número más pequeño de bits o puntos de datos disponibles para codificar los valores. Por ejemplo, para convertir un valor de 10 bits en un valor comprimido de 8 bits, el número disponible de puntos de datos se reduce mediante un factor de 4 a partir de 1024 en el conjunto de entrada a 256 en el conjunto convertido de salida. Para hacer un uso efectivo del número más pequeño de puntos disponibles, un número dado de códigos de entrada en el espacio de entrada más grande no debe mapearse en general en un número más grande de códigos en el espacio de salida. Si esto fuera hecho, por ejemplo, en la conversión de 10 bits a 8 bits, no se dejarían tantos puntos en el espacio de salida de 8 bits en donde la compresión suelta sea requerida para mapear los códigos de número más grande de 10 bits en el número mucho más pequeño de códigos de 8 bits. A partir de esto, puede observarse que el mapeo de conversión necesita ser planeado, de modo que para cada intervalo de los valores de entrada que serán mapeados, la información necesaria es preservada mientras se reserva en el uso de los códigos de salida. Para valores pequeños, la información disponible es normalmente necesaria y cualquiera de las pérdidas de codificación, incluyendo los errores de redondeo, podrían ser objetables de modo que un procedimiento prudente sea mapear los valores pequeños en forma directa hacia el espacio de salida sin la conversión distinta de la posible adición o sustracción de un valor constante. La codificación logarítmica es deseable para valores más grandes a fin de mantener un cambio porcentual aproximadamente igual del valor asociado de entrada lineal para cada etapa incremental en el intervalo de salida. El logaritmo también tiene la propiedad deseable que el efecto de la aplicación de un multiplicador constante en el dominio lineal podría ser desplazado por la sustracción del logaritmo de este multiplicador en el dominio de logaritmo. De esta manera, como es normalmente realizado cuando se utilizan logaritmos para el cálculo, una variante de notación científica podría ser utilizada aplicando un multiplicador y expresando el número como un valor en un intervalo específico de veces de una potencia de entero de este intervalo. Para números binarios, es normalmente más conveniente elegir un intervalo de dos a uno, un octavo y expresar el número como un valor normalizado que se extiende un octavo de veces una potencia de dos. A continuación, para el intervalo de logaritmo, en función de los códigos de salida disponibles, podría ser elegido el número de los valores de salida por octavo.
Debe entenderse que muchos algoritmos de linearización monotónica podrían ser utilizados además de una linearización logarítmica para la compresión de datos. Además, los algoritmos sin disminución podrían ser empleados para la compresión de datos. Una definición conveniente de la resolución expresada como un porcentaje o fracción de una lectura lineal es necesaria para la discusión. Esto podría ser definido para un valor dado de salida como la relación de la diferencia del equivalente lineal del siguiente valor en la secuencia de salida de los valores menos el equivalente lineal del valor dado de salida en el equivalente lineal del valor dado de salida. Se permite que el valor de salida ith en la secuencia de salida del decodificador sea expresado como o (i) y se permite que el equivalente lineal de este valor sea expresado como Llnv(o(i)). Se permite que la lectura lineal definida en base a la resolución sea denotada por Rlrb(o(i)) . Entonces (1) Rlrb(o(i)) = 100* (Llnv(o(i + 1) -Llnv(o(i) ) ) /Llnv(o(i) ) Para una codificación logarítmica con n valores por octavo, Rlrb es constante (los errores imperceptibles de redondeo de conversión) para los valores codificados en forma logarítmica y es (2) Rlrb (o) = 100* (exp(log(2) /n) -1) en donde exp (x) es el número natural e elevado a la potencia x y log(x) es el logaritmo natural de x. Para una codificación lineal de salida de uno a uno (3) o(i)= i y (4)Rlrb(i) = 100/i Como un ejemplo, para codificar una entrada de 10 bits como una salida comprimida de 8 bits, se mapean los primeros 64 valores de entrada, 0-63, directamente hacia 0-63 de la salida y posteriormente, es mapeado en forma logarítmica cada uno de los cuatro octavos, 64-127, 128-255, 256-511 y 512-1023, de manera respectiva, hasta los intervalos de salida de conteo 48, 64-111, 112-159, 160-207 y 208-255. Entonces, de la ecuación (2), Rlrb es aproximadamente igual a 1.45% por incremento para los valores en el intervalo de conversión logarítmica que se mapea en el intervalo de salida 64-1023 hacia el intervalo de salida 64-255. Para el extremo superior, 63, del intervalo lineal, de las ecuaciones (3) y (4), Rlrb (63) es aproximadamente igual a 1.59% por incremento, el cual está cerca de 1.45% por incremento para la codificación logarítmica haciéndolo un buen lugar para la transición de un- mapeo lineal de uno a uno a un mapeo logarítmico. De hecho, en la implementación preferida para la cual el mapeo de entrada a salida es representado por la curva en la Figura 7, la conversión de logaritmo para el octavo de 64-127 mantiene el mapeo de uno a uno de la salida a la entrada a través del valor 77. Mediante el cambio adecuado de los datos de entrada, la misma conversión lineal a logaritmo de un octavo podría ser utilizada para cada uno de los cuatro octavos. Con la codificación, una variable que es más grande que otra en el intervalo de salida garantiza que la misma relación sea mantenida para el par relacionado de valores en el intervalo de entrada. Las cámaras que incorporan la compresión lineal en incrementos sucesivos son conocidas por el inventor puesto que son cámaras con arreglos de detección que tienen características no lineales y quizás logarítmicas de detección de luz, para conseguir un intervalo extendido. No son conocidas las cámaras que combinan intervalos, de modo que parte del intervalo de salida sea lineal y parte sea logarítmica. Ningún tipo de cámaras para la aplicación de reducción de luz de faro delantero que incorporan cualquier forma de compresión en el módulo -de la cámara son conocidas por el inventor. Una modalidad preferida de la invención es detallada en la forma de diagrama de bloque en las Figuras 9a y 9b. La implementación descrita es un circuito combinatorio aunque las implementaciones secuenciales o asincrónicas se encuentran dentro del alcance de la invención. La señal de entrada digital in!0[9:0] (901) de diez bits es entrada al circuito y la salida combinatoria es una señal out8[7:0] de 8 bits (902) . En el bloque 903, es generada una señal de indicación de intervalo alto bd[4:0] con una de las 5 líneas de bd[4:0]high y los otros ceros para cada uno de los intervalos de entrada como se indica. Los intervalos de valor de entrada para inl0[9:0] son mostrados en la primera columna en décimos como números sin separadores subrayados o un prefijo Ox. Los prefijos de los números de salida por Ox se encuentran en un formato hexadecimal . Los números binarios en el bloque 308 son indicados por. un subrayado que separa cada grupo de 4 dígitos binarios 0 y 1. Estas convenciones serán utilizadas para cada uno de los bloques en las Figuras 9a y 9b. Una designación de intervalo de 0 a 4 se muestra en la columna intermedia del bloque 903 y es por motivos de conveniencia debido a que el intervalo es referido con frecuencia en la lógica y en esta descripción. Los valores de entrada que se encuentran en el intervalo 0 (valores de entrada desde 0 hasta 63) son directamente pasados hacia out8[7:0] de salida sin alteración. Cada uno de los otros 4 intervalos se extiende un octavo. (En estas discusiones, el octavo es tomado para incluir el número más bajo y el número dos veces que este número es incluido con el siguiente octavo, de modo que cada uno de los valores de entrada relacionados con el octavo sea, por medio de esta definición, incluido exactamente en un octavo) . Como será detallado la descripción de los bloques asociados, cuando un valor de entrada se encuentra en cualquiera de los cuatro intervalos de un octavo 1-4, el valor es escalado y, o, es desplazado de acuerdo con lo cual el intervalo se encuentra en y es mapeado en un intervalo de valor de salida 48 utilizando un bloque común de decodificador en la lógica. El valor de salida relacionado en forma logarítmica de la etapa de un octavo 48 es entonces escalado y, o, desplazado de acuerdo con el intervalo en el que se encuentra el valor de entrada y es dirigido hacia la salida. En el bloque 906, el valor de entrada es escalado y, o, desplazado de acuerdo con el intervalo en que este se encuentra, como se indica mediante el valor de bd[4:0] y una salida como de señal in9s[8:0] hacia el primer bloque 908 del decodificador logarítmico. Las conversiones logarítmicas son utilizadas para intervalos del 1-4 y debido al criterio de clasificación de intervalo, el siguiente bit más alto que sería inlO [6] a InlO [9] para intervalos de 1-4, de manera respectiva, siempre será 1. Debido a que este bit siempre es 1 y no agrega información variable, este es omitido de la comparación y también es. excluido como un décimo de bit delantero en las columnas impresas de logaritmo 3 y 6 del bloque 908. Para un valor de entrada en el intervalo 4, todos los 9 de los bits variables se encuentran incluidos en la comparación para la conversión logarítmica. Para una entrada en el intervalo 3, el valor es cambiado a la izquierda 1 como se indica mediante la multiplicación por 2 y un 1 es colocado en el lsb, bit in9s [0] El 1 en cero bits mediante la comparación subjetiva produjo el resultado de conversión más suave . Para una entrada en el intervalo 2 , el valor es cambiado a la izquierda 2 lugares y el número binario 10 es colocado en los dos últimos bits significantes para proporcionar un resultado de conversión suave. Para una entrada en el intervalo 1, el valor es cambiado a la izquierda 3 lugares y el número binario 010 es colocado en los tres últimos bits significantes para proporcionar una conversión suave . Los bloques 908, 909 y 910 son utilizados para realizar la conversión logarítmica de número binario de 10 bits o etapa 48 por octavo con 0 a 47 como log[5:0] de salida. El bloque 908 es un grupo de 48 funciones de comparación utilizadas para el aseguramiento de los bloques en la conversión. Los términos ge [x, in9s [8 : 0] ] son ciertos sí y solo si ge [x, in9s [8 : 0] ] de entrada de 9 bits es un valor cuyo log[5:0] de salida es más grande que o igual a x. Estas funciones son útiles debido a que prueban que un log[5:0] de salida para un in9s[8:0] de entrada se encuentra en un intervalo que es más grande que o igual, aunque menor que b, la siguiente expresión podría ser utilizada: ge [a, in9s [8 ·.0] ] y no ge[b, in9s[8: 0] ] Muchos de estos intervalos deben ser decodificados para proporcionar expresiones lógicas para cada uno de los 6 bits en el intervalo de salida de valor 48. Por conveniencia, en algunas de las figuras y en la descripción, el término ge [x] será utilizado puesto que significa lo mismo que ge [x, in9s [8:0]] . El término ge[0, in9s[8:0]] siempre es cierto de modo que no aparece en forma explícita en los términos de aseguramiento. El valor x en las columnas 1 y 4 es el índice para el valor Xth del valor del octavo y del valor de ceroth, x = 0, es el inicio del valor del octavo y el valor 47th, x =47, es el último valor antes del inicio del siguiente octavo. El término ge[x, in9s[8:0]] es la función que representa la función lógica combinatoria cuyo valor sería 1 si y solo si in9s[8:0] fuera más grande que o igual al valor asociado de log (x) inverso mostrado en la tercera o sexta columna del bloque 908. Como se indicó con anterioridad, no es mostrado el msb que es 1. Los valores de logaritmo inverso podrían ser generados por la ecuación exp( ( (x/48) +9) *log (2) ) En donde exp (y) es la función exponencial con el número natural e elevado a la potencia yth y el log(z) es el log natural de z . El valor de los intervalos anteriores de 512 a través del valor que se encuentra en una etapa anterior de 1024 para el cual x serla igual a 48. Los valores para esta función producen el octavo deseado (entre los octavos sucesivos el valor para x igual a 48 es incluido como el valor para x = 0 en el siguiente octavo) . El bit más significante 1 es omitido en las columnas 3 y 6 del bloque 908. Debido a que los términos ge [x, in9s[8:0]] 47 son utilizados y para los cuales los circuitos lógicos deben ser proporcionados, es ventajoso crear términos intermedios comunes que podrían ser compartidos para muchos términos lógicos iguales más grandes que sean necesarios . Los circuitos de decodificación que indican que los intervalos específicos de los bits consecutivos en in9s[8:0] son todos útiles puesto que están decodificando circuitos que indican que los intervalos específicos de los bits consecutivos son más grandes que o iguales a uno (no todos ceros) . Estos términos han sido utilizados en forma extensiva en el código que permite compartir los términos lógicos para las expresiones del decodificador 47 que son implementadas . En el bloque 909, una etapa opcional de codificación de código de gris es utilizada y, de manera opcional, la codificación podría ser directamente realizada en forma binaria aunque requeriría unos pocos términos más lógicos . La codificación para cada uno de los glog [0] -glog [5] de 6 bits de un código de gris es realizada con cada uno de los bits glog que están siendo expresados como una función de los términos ge [x] . El código de gris fue elegido debido a que sólo cambia uno de los 6 bits en glog [5] para cada etapa sucesiva en el valor de salida glog. Esto genera un número mínimo de grupos de unos consecutivos para decodificar para los códigos consecutivos de salida para cada uno de los glog [0] -glog [5] de bits de salida. Por lo tanto, un número mínimo de términos ge [x] es requerido en las expresiones lógicas en la columna 2 del bloque 909. En el bloque 910, la entrada glog [5] del código de gris es convertida a una salida binaria log[5] . En el bloque 907, es creado el número que se agrega a log[5] generando el valor de salida en base al logaritmo adecuado para entradas en intervalos de 1 a 4. El intervalo hexadecimal del valor inl0[9:0] está listado en la primera columna y el número que se agrega de 4 a 7 bits de olog[7:0] se indica en formato hexadecimal en la segunda columna. La tercera columna indica el desplazamiento actual agregado para cada uno de los intervalos cuando son contadas las posiciones de bit en las cuales el valor es agregado. En el bloque 905, es agregado el valor desplazado va[3:0], los bits 0 y 1, a los bits 4-5, de manera respectiva, de log [5 : 0] y los portadores adecuados son generados en los bits 5, 6 y 7 para crear un olog[7:0] de salida de base de log de 8 bits.
En el bloque 904, la codificación lineal directa inlO [5 : 0] cero completada en los bits 6 y 7 es seleccionada para entradas en el intervalo 0 y el valor codificado en forma logarítmica olog[7:0] es seleccionado para los otros intervalos 1-4 para generar out8[7:0] de salida de 8 bits. La Figura 7 representa la salida 700a como una función de la entrada 700 de un circuito de compresión de datos tal como la función detallada en el diagrama de bloque de la Figura 8. Los intervalos de entrada se extienden en un primer intervalo desde 0 hasta 701 (no se incluye) y en forma similar en cuatro intervalos de un octavo desde 701 hasta 702, de 702 a 703, de 703 a 704 y finalmente de 704 a 705. El primer intervalo se mapea directamente en el intervalo de 0 hasta 701a (no se incluye) y los cuatro intervalos de un octavo se mapean de manera respectiva en 48 intervalos de valor de salida de 701a a 702a, de 702a a 703a, de 703a a 704a y finalmente, de 704a a 705a. En una implementación preferida, la salida para cada uno de los cuatro intervalos de salida de un octavo es procesada mediante un convertidor común de entrada a log mediante una primera determinación de qué intervalo y por lo tanto, cual octavo, si existiera, es la entrada in y posteriormente, escalando la entrada para colocarla en el octavo superior de 704 a 705, después, convirtiendo el valor de entrada a una salida de base de log 48 de cuenta 0-47. El desplazamiento en 701a, 702a, 703a o 704a es entonces agregado en forma selectiva, si la entrada estuviera en el primero, segundo, tercero o cuarto octavo, de manera respectiva. Finalmente, si el valor estuviera en el intervalo 0, la salida lineal directa sería seleccionada y serla calculado de otro modo el valor basado en log como se describió sería seleccionado para crear el mapeo de salida representado por la curva 710. La Figura 8 es una forma de procedimiento de la conversión detallada en el diagrama de bloque de las Figuras 9a y 9b. En el bloque 801, es determinado el intervalo en que la entrada se encuentra. En el bloque 802 el valor es previamente escalado y, o, traducido para acondicionar el valor del intervalo en el que la entrada se encuentra para utilizar el algoritmo de conversión común. En el bloque 803, el algoritmo de conversión es aplicado en uno o en dos o posiblemente más de dos etapas. En el bloque 804, el valor comprimido es escalado y, o, traducido de modo que el valor de salida sea adecuado para el intervalo en el que se encuentra la entrada. En el bloque 8OS, el algoritmo de compresión de los bloques 801-804 sería utilizado si el intervalo en el que se encuentra la entrada es adecuado para los datos y el valor es salido en el bloque 807. De otro modo, una conversión alterna adecuada en el rango especial es salida en el bloque 806. La extracción de las fuentes luminosas (también denominadas como objetos) de la imagen generada en la etapa 501, es realizada en la etapa 502. El objetivo de la operación de extracción es identificar la presencia y posición de las fuentes luminosas dentro de la imagen y determinar varias propiedades de las fuentes luminosas que pueden ser utilizadas para caracterizar los objetos como faros delanteros de los vehículos que se aproximan, las luces traseras de los vehículos delanteros u otras fuentes luminosas. Los métodos de la técnica anterior para la extracción de objeto utilizaron un algoritmo de tipo "llenar con semilla" que identificó grupos de píxeles iluminados conectados. Mientras que en este método es exitoso en gran medida para identificar muchas fuentes luminosas, ocasionalmente falla en distinguir entre múltiples fuentes luminosas en proximidad cercana en la imagen que se hace borrosa junto a un objeto único. La presente invención supera esta limitación al proporcionar un algoritmo de detección de pico que identifica la posición de la brillantez pico de la fuente luminosa. Con lo cual, dos fuentes luminosas que podrían hacerse borrosas juntas en forma sustancial, aunque todavía tienen picos distintos, podrían ser distinguidas entre sí . A continuación, sigue una descripción detallada de este algoritmo de detección de pico con referencia a la Figura 10. Las etapas mostradas proceden en un modo de circuito explorando a través de la imagen. Cada etapa es normalmente realizada para cada pixel iluminado. La primera prueba 1001 sólo determina si el pixel actualmente examinado es más grande que cada uno de sus píxeles próximos o vecinos . Si no, el pixel no sería un pico y el procesamiento continuaría para examinar el siguiente pixel 1008. Cualquiera de los vecinos en posición ortogonal solos o los píxeles próximos en posición diagonal y los vecinos ortogonales son probados. Asimismo, es útil el uso de una operación más grande que o igual que en una dirección y una operación más grande que en la otra. De este modo, si dos píxeles vecinos de valor igual forman el pico, sólo uno de ellos será identificado como el pixel pico. Si el pixel fuera más grande que sus vecinos, la -agudeza del pico sería determinada en la etapa 1002. Sólo los picos con un gradiente más grande que una magnitud o umbral son seleccionados para evitar las reflexiones - de identificación de los objetos grandes tales como la carretera y los bancos de nieve. Los inventores han observado que las fuentes luminosas de interés que tienden a tener picos muy distintos, proporcionaron la imagen que no es saturada en el pico (los objetos saturados son manejados en un modo distinto que se discute en mayor detalle más adelante) . Existen muchos métodos numéricos para el cálculo del gradiente de un conjunto discreto de muestras tal como una imagen y son considerados que se encuentran dentro del alcance de la presente invención. Un método muy simple se beneficia de la representación de imagen logarítmica generada en la etapa 501. En este método, es calculada la inclinación entre el píxel actual y los cuatro píxeles vecinos en dos píxeles de direcciones ortogonales, mediante la resta del valor log del píxel actual de acuerdo con la consideración del valor log de los vecinos. Estas cuatro inclinaciones son entonces promediadas y este promedio es utilizado como el valor del gradiente. Las inclinaciones de más vecinos o vecinos en distancias distintas también podrían ser utilizadas. Con imágenes de resolución más alta, el uso de píxeles vecinos en una distancia más grande podría ser ventajoso. Una vez que el gradiente sea calculado, este es comparado con un umbral o magnitud en la etapa 1003. Sólo los píxeles con un gradiente más grande que el umbral son considerados como picos. En forma alterna, el centroide de una fuente luminosa y, o, la brillantez podrían ser calculados utilizando una técnica de colocación de curva paraboloide. Una vez que el pico ha sido identificado, el valor pico es almacenado en una lista de iluminación (etapa 1004) . Mientras que el valor pico sólo podría ser utilizado como un indicador de la brillantez de la fuente luminosa, se prefiere utilizar la suma de los valores de píxel en la proximidad local del píxel pico. Esto es benéfico debido a que el pico actual de la fuente luminosa podría ser formado entre dos o más píxeles, extendiendo la energía a través de estos pixeles, lo que originaria potencialmente un error significante si sólo fuera utilizado el pico. Por lo tanto, la suma del pixel pico más los vecinos ortogonales y diagonales es preferiblemente calculada. Si fuera utilizada la representación de imagen logarítmica, los valores de píxel primero deben ser convertidos a un valor lineal antes de realizar la suma, de preferencia, utilizando una tabla de búsqueda para convertir el valor logaritmico en un valor lineal con una profundidad más grande de bit. De preferencia, esta suma es entonces almacenada en una lista de iluminación en la etapa 1005 y es utilizada como la brillantez de la fuente de iluminación. El cálculo y almacenamiento del centroide de la fuente luminosa sucede en la etapa 1006. El método más simple sólo utiliza las coordenadas del pico como el centroide. Una posición fraccional de centroide más precisa podría ser calculada mediante la siguiente fórmula: x+l y+l ? ? val(i,j)i x+l y+l ? ? val(ij) x+l y+l ? ? val (i, j) i i=x-\ j=y-\ Y= x+l y+l ? ? val(i,j) i=x-l j=y-\ En donde x es la coordenada-x del pixel pico, y es la coordenada-y del pixel pico y X e Y es el centroide que se origina. Obviamente, los vecinos distintos de la proximidad local 3X3 que rodean el pixel pico podrían ser utilizados con la modificación adecuada a la fórmula. Finalmente, el color de la fuente luminosa es determinado en la etapa 1007. Para la discusión anterior, se supone que un sistema de formación de imagen similar al de las Figuras 2 y 3 es utilizado y la imagen filtrada de rojo es empleada para situar el centroide y realizar todas las etapas anteriores en la Figura 10. La relación de color rojo-a-blanco podría ser calculada mediante el cómputo de la correspondiente suma de la proximidad 3X3 en la imagen clara y posteriormente, se divide el valor de brillantez de imagen roja entre este número. En forma alterna, sólo el valor pico de pixel en la imagen roja podría ser dividido entre el correspondiente valor de pixel pico en la imagen clara. En otra alternativa, cada pixel en la proximidad de 3X3 podría tener un factor asociado de escala por medio del cual este sea multiplicado antes de realizar la suma . Por ejemplo, el pixel central podría tener un factor de escala más grande que los píxeles vecinos y los píxeles ortogonales podrían tener un factor de escala más alto que los píxeles vecinos que se encuentren en posición diagonal. Los mismos factores de escala podrían ser aplicados en la correspondiente proximidad de 3X3 en la imagen clara.
La mala alineación en la colocación del lente 201 con respecto a la serie de imágenes 204 podría ser medida durante la prueba de producción de los dispositivos y podría ser almacenada como un factor de calibración para cada sistema. Esta mala alineación podría ser factorizada cuando se calcule la relación de color. Esta mala alineación podría ser corregida al tener distintos factores de ponderación para cada píxel en la proximidad de 3X3 de la imagen clara si se compara con la de la imagen roja. Por ejemplo, si existiera una cantidad pequeña de desalineación, de manera que el pico en la imagen clara sea la 1/2 del píxel izquierdo del pico en la imagen roja, el píxel vecino izquierdo en la imagen clara podría tener un aumento en el factor de escala y el píxel vecino derecho podría tener una reducción en el factor de escala. Del mismo modo que con anterioridad, también podría ser utilizados los pixeles vecinos de tamaños distintos de 3X3. Para sistemas ópticos que emplean métodos alternativos de filtrado de color, tal como un sistema que utiliza un patrón de filtro de mosaico o un patrón de filtro de tiras, el color podría ser calculado utilizando técnicas convencionales de interpolación de color que son conocidas en la técnica y la información de color de "enro ecimiento" o completo podría ser utilizada. El procesamiento de color podría realizarse en la imagen total inmediatamente después de la adquisición o podría realizarse sólo para aquellos grupos de pixeles determinados que son fuentes luminosas. Por ejemplo, se considera un sistema de formación de imagen que tiene un patrón de filtro de tablero de ajedrez rojo/claro. El proceso representado en la Figura 10 podría ser realizado considerando sólo los pixeles filtrados de rojo y saltando todos los pixeles claros. Cuanto un pico sea detectado, el color en la etapa 1006 sería determinado al dividir el valor pico de píxel (es decir, un píxel filtrado de rojo) entre el promedio de sus 4 pixeles claros próximos. Asimismo, podrían ser considerados más pixeles, por ejemplo, cuatro quintos del promedio del píxel pico más sus cuatro pixeles vecinos en diagonal (también filtrados de rojo) podría ser divididos entre los cuatro pixeles vecinos claros ortogonales . Varias otras características útiles podrían ser extraídas en la etapa 502 y podrían ser utilizadas además para ayudar a la clasificación de la fuente luminosa en la etapa 504. La altura de la fuente luminosa podría ser calculada examinando los pixeles en aumento de las direcciones verticales, positiva y negativa, a partir del pico hasta que el valor de píxel cae por debajo de una magnitud que podría ser un múltiplo del pico, por ejemplo, 1/2 del valor pico. El ancho de un objeto podría ser determinado en forma similar. Un algoritmo de tipo "llenado por semilla" también podría ser implementado para realizar la determinación de los alcances totales y el número de pixeles en el obj eto .
El algoritmo descrito con anterioridad tiene muchas ventajas que incluyen la realización de un cálculo eficiente completo. En el caso en donde sólo los píxeles vecinos intermedios y dos hileras o vecinos de columna distante sean examinados, sólo cuatro hileras más un píxel de la imagen serían requeridos. Por lo tanto, el análisis podría ser efectuado a medida que la imagen está siendo adquirida, o si estuviera presente un intervalo dinámico suficiente a partir de una imagen única, sólo sería necesaria una suficiente memoria de imagen para esta cantidad limitada de datos. Otros algoritmos para la localización de los picos de fuentes luminosas en la imagen también podrían ser utilizados. Por ejemplo, el algoritmo de llenado por semilla utilizado en la técnica anterior podría ser modificado sólo para incluir píxeles que se encuentran dentro de un cierto intervalo de brillantez del pico, permitiendo de esta manera, diferenciar las fuentes luminosas cercanas al menos con un hueco razonable entre ellas. Un método de detección de pico de red neural también es discutido en mayor detalle en este documento . Una limitación posible del esquema de detección de pico que se discutió con anterioridad, sucede cuando las fuentes luminosas brillantez saturan la imagen, incluso cuando una imagen HDR sea utilizada o que aparezcan otros objetos muy brillantez. En este caso, los objetos podrían ser tan brillantez o grandes que ningún pico aislado sería detectado y por lo tanto, el objeto sería ignorado. Esta limitación podría ser superada en unos cuantos modos. En primer lugar, cualquier píxel único que estuviera saturado o que excediera una magnitud o umbral máximo de brillantez podría ser identificado como una fuente luminosa, sin considerar si este es un pico o no. De hecho, para muchas luces brillantez, el proceso total de la Figura 5 podría ser suspendido y los faros delanteros de gran alcance o luz a distancia podrían ser apagados. En otra alternativa, es calculada la suma de un número dado de pixeles que circundan el píxel actualmente examinando. Si esta suma excediera una magnitud de alta brillantez, esta sería inmediatamente identificada como una fuente luminosa o el control sería suspendido y los faros delanteros de luz a distancia reducirían su intensidad. Por lo regular, dos condiciones son utilizadas para calificar los pixeles como picos, el píxel debe ser más grande que (o más grande que o igual a) sus pixeles vecinos y, o, el gradiente debe estar por encima de un umbral o magnitud. Para los pixeles saturados, la condición de gradiente podría ser saltada debido a que el gradiente no podría ser exactamente calculado cuando se encuentre saturado . Los indicios significantes que son útiles para diferenciar las fuentes luminosas vehiculares de otras fuentes luminosas podrían ser ganados mediante el monitoreo del comportamiento de las fuentes luminosas con respecto a varios ciclos. En la etapa 503, las fuentes luminosas de los ciclos anteriores son comparadas con las fuentes luminosas de un ciclo actual para determinar el movimiento de las fuentes luminosas, el cambio en la brillantez de las fuentes luminosas, y, o, para determinar el número total de ciclos para los cuales ha sido detectada una fuente luminosa. Mientras que este análisis es posible mediante el almacenamiento de varias imágenes a través del tiempo y posteriormente, al comparar las fuentes luminosas dentro de estas imágenes, las limitaciones actuales de memoria de los procesadores de bajo costo hace más atrayente la creación y almacenamiento de listas de iluminación. Aunque, los conceptos de almacenamiento de toda la imagen, o porciones de la misma, se encuentran dentro del alcance de la presente invención y deben ser considerados como procedimientos alternos. Es más económico almacenar estas listas de fuentes luminosas encontradas en uno o más ciclos anteriores y algunas, o todas, de las propiedades de las fuentes luminosas individuales. Estas listas del ciclo anterior podrían ser examinadas para determinar si una fuente luminosa que es detectada en el ciclo actual tiene un "origen" en el ciclo anterior. La identificación de origen de la fuente luminosa del ciclo anterior es realizada de acuerdo con la Figura 11.
El proceso en la Figura 11 sucede para todas las fuentes luminosas del ciclo actual . Cada luz del ciclo actual es comparada con todas las luces del ciclo anterior para encontrar el origen más probable, si existiera. En primer lugar, en la etapa 1101, la distancia entre la fuente luminosa en el ciclo actual y la fuente luminosa del ciclo anterior (de aquí en adelante son denominadas la luz actual y la luz anterior) es calculada mediante la sustracción de sus coordenadas pico y posteriormente, es comparada con un umbral o magnitud en la etapa 1102. Si la luz anterior estuviera más allá de la magnitud, el control procedería hacia la etapa 1105 y la siguiente luz anterior sería examinada. El umbral o magnitud en la etapa 1102 podría ser determinado en una diversidad de modos que incluyen un umbral o magnitud constante, la velocidad y/o posición en función del umbral, y podría tomarse en cuenta la información de cambio de dirección del vehículo si estuviera disponible. En la etapa 1103, la distancia entre la luz anterior y la luz actual sería verificada para observar si esta es la distancia mínima en todas las luces anteriores verificadas hasta ahora. Si fuera así, esta luz anterior sería el mejor candidato actual para la identificación como el origen. Otro factor para la determinación de la fuente luminosa de origen es comparar una característica de relación de color de las fuentes luminosas de dos imágenes y, o, realizar la comparación con un umbral de relación de color. También dentro del alcance de la presente invención se encuentra la utilización de un valor de brillantez de la determinación de una fuente luminosa de origen. Como se indicó en la etapa 1105, este proceso continúa hasta que todas las luces del ciclo anterior sean verificadas. Una vez que todas las luces anteriores sean verificadas, la etapa 1106 determinaría si fuera encontrada una luz de origen de la lista de luz del ciclo anterior. Si fuera identificado un origen, varios parámetros útiles podrían ser calculados. En la etapa 1107, el vector de movimiento es calculado como las diferencias de coordenadas pico X e Y entre la luz actual y el origen. El cambio de brillantez en la fuente luminosa es calculado en la etapa 1108 como la diferencia entre la luz actual y la luz de origen. El enve ecimiento de la luz actual, definido que es el número de ciclos consecutivos para los cuales la luz ha estado presente, es establecido como el enve ecimiento de la luz de origen más uno. Además, en estos promedios de parámetros del vector de movimiento y el cambio de brillantez podrían probar más utilidad que el cambio instantáneo entre dos ciclos, debido al ruido y la variación o perturbación en la imagen. Los promedios pueden ser calculados almacenando la información de más de un ciclo anterior y determinando las fuentes luminosas de origen abuelo y bisabuelo, etc. en forma alterna, un promedio en curso podría ser calculado aliviando la necesidad de almacenamiento de múltiples generaciones. El promedio en curso podría tomar, por ejemplo, una fracción (por ejemplo, 1/3) del vector de movimiento actual o el cambio de brillantez más otra fracción (por ejemplo, 2/3) del promedio anterior y podría formar un nuevo promedio en curso. Finalmente, las listas de iluminación que contienen la información de posición y la posibilidad de otras propiedades tales como la brillantez y el color de las fuentes detectadas de iluminación podrían ser almacenadas para múltiples ciclos. Entonces, esta información podría ser utilizada para la clasificación de los objetos a partir del ciclo actual en la etapa 504. Los métodos más avanzados de determinación de la información de la historia de luz serán apreciados por una persona experta la técnica. Por e emplo, la determinación de la fuente luminosa anterior más probable como el origen también podría considerar las propiedades tales como la diferencia de brillantez entre la fuente luminosa actual y la fuente luminosa anterior, el vector de movimiento de la fuente luminosa anterior y la diferencia de color entre las fuentes luminosas. Asimismo, dos fuentes luminosas del ciclo actual podrían tener el mismo origen. Esto es común cuando un par de faros delanteros son formados originalmente como una fuente luminosa, aunque en base al acercamiento hacia el vehículo controlado se divide en dos objetos distintos.
La tendencia del movimiento del objeto podría ser utilizada para seleccionar cuál de los múltiples objetos de una imagen anterior es el origen del objeto actual bajo consideración. Las técnicas para el seguimiento o rastreo de movimiento de los objetos son conocidas en los campos del procesamiento de imagen y de video y en otros campos, tal como por ejemplo, el seguimiento de los objetivos de radar. Estos métodos podrían ser empleados en donde sea adecuado y práctico. La etapa de clasificación 504 utiliza las propiedades de fuentes luminosas extraídas en la etapa 502 y el comportamiento histórico de las fuentes luminosas determinado en la etapa 503 para distinguir los faros delanteros y las luces traseras de otras fuentes luminosas. En resumen, las siguientes propiedades han sido identificadas hasta ahora: la brillantez pico, la brillantez total, la posición del centroide, el gradiente, el ancho, la altura y el color. La siguiente información histórica también podría ser utilizada: vector de movimiento (x e y), cambio de brillantez, variación de movimiento, envejecimiento, vector promedio de movimiento y cambio promedio de brillantez . Las propiedades adicionales podrían ser identificadas que pueden mejorar la diferenciación cuando son utilizadas con los métodos de clasificación presentados más adelante. Además de los parámetros extraídos del procesamiento de imagen, varios parámetros del estado del vehículo podrían ser utilizados para mejorar la clasificación. Estos podrían incluir: la velocidad del vehículo, la brillantez de la fuente luminosa que corresponde con la brillantez de la luz exterior del vehículo controlado (que es indicativo de las reflexiones) , el nivel de luz ambiental, la velocidad del cambio de dirección del vehículo (a partir de la información de imagen, el ángulo del volante de dirección, la brújula, la velocidad de conducción, GPS, etc.), el sistema de seguimiento del carril de manejo, la inclinación u oscilación del vehículo y la posición geográfica o el tipo de carretera (de GPS) . Aunque los usos específicos para los parámetros individuales podrían ser discutidos, la presente invención no debe ser interpretada que es limitada a estas implementaciones específicas. Más bien, el objetivo de la presente invención es proporcionar un método generalizado de clasificación de fuente luminosa que pueda ser aplicado a cualquiera, o a todos, de los parámetros enlistados con anterioridad o parámetros adicionales para uso en la identificación de objetos en las imágenes. Finalmente, la clasificación de las fuentes luminosas podría ser complementada por la información de otra clasificación del sistema de procesamiento de imagen, tal como por ejemplo, la detección de radar de los objetos. Un esquema de clasificación de ejemplo procede de acuerdo con la Figura 12. La secuencia de control de la Figura 12 se repite para cada fuente luminosa identificada en el ciclo actual como se indica en 1212. En la primera etapa 1201, la brillantez de la fuente luminosa es comparada con una magnitud o umbral de reducción de intensidad inmediata. Si la brillantez excediera de este umbral o magnitud indicando que una luz muy brillante ha sido detectada, el procesamiento de la Figura 2 concluiría y las luces a distancia serían reducidas en brillantez o el patrón de haz de luz sería modificado de otra manera, si no es que fuera apagado. Esta característica evita cualquier posible mala clasificación de fuentes luminosas muy brillantez y asegura una respuesta rápida a aquellas que son detectadas. La etapa 1202 proporciona la diferenciación de las luces del alumbrado público mediante la detección de una fluctuación u oscilación rápida en intensidad de las fuentes luminosas, que no es visible para los humanos, que se origina a partir de su fuente de energía de corriente alterna (CA) . Las luces vehiculares, que son alimentadas con energía a partir de una fuente de corriente directa (CD) , no presentan esta fluctuación u oscilación. La fluctuación podría ser detectada adquiriendo varias imágenes de la región que rodea la fuente luminosa en una velocidad de cuadro que es más grande que la velocidad de fluctuación, de preferencia, a 240 Hz y de la manera más preferible a 480 Hz . Estos cuadros son entonces analizados para detectar un componente CA y estas luces que presentan la fluctuación son ignoradas (etapa 1203). Además, un conteo, o densidad promedio, de las luces del alumbrado público podría ser derivado para determinar si el vehículo está probablemente desplazándose en un área urbana o en un área bien iluminada de otro modo. En este caso, el uso de la luz a distancia podría ser impedido, o podría ser activado un modo de iluminación urbana, sin considerar la presencia de otros vehículos. Los detalles de este análisis son proporcionados en la Patente de los Estados Unidos No. 6, 587,573 referida con anterioridad, la cual se incorpora en su totalidad en este documento como referencia. Un método alternativo de análisis de red neural se discute en mayor detalle. En primer lugar, es determinado un criterio de magnitud mínima de enrojecimiento con el cual el color es comparado en la etapa 1204. Se supone que todas las luces traseras tendrán un enrojecimiento que es al menos tan alto como esta magnitud. Las fuentes luminosas que presentan un enro ecimiento más grande que este umbral o magnitud son clasificadas a través de una red de clasificación de luces traseras en la etapa 1205. La red de clasificación podría tomar varias formas. De la manera más simple, la red de clasificación podría contener un conjunto de reglas y magnitudes con las cuales las propiedades de la fuente luminosa serían comparadas . Los umbrales o magnitudes para brillantez, color, movimiento y otros parámetros podrían ser medidos, en forma experimental, para imágenes de luces traseras conocidas con el fin de crear estas reglas . Estas reglas podrían ser determinadas mediante el examen de la función de distribución de probabilidad de cada uno de los parámetros, o combinaciones de parámetros, para cada tipo de clasificación. Sin embargo, frecuentemente el número de variables y el efecto combinado de múltiples variables hacen que sea compleja la generación de reglas adecuadas. Por ejemplo, el vector de movimiento de una fuente luminosa podría, en sí misma, no ser un diferenciador útil de una luz trasera de otra fuente luminosa. Un vehículo en movimiento podría presentar el mismo movimiento vertical y horizontal como una señal de vía pública. Sin embargo, el vector de movimiento observado en combinación con la posición de la fuente luminosa, el color de la fuente luminosa, la brillantez de la fuente luminosa y la velocidad del vehículo controlado, por ejemplo, podrían proporcionar una diferenciación excelente. Al menos en una modalidad, las funciones de probabilidad son empleadas para clasificar las fuentes luminosas individuales. Las funciones individuales de probabilidad podrían ser. una primera, una segunda, una tercera o una cuarta ecuaciones de orden. En forma alterna, las funciones de probabilidad individual podrían contener una combinación de términos que son derivados de cualquiera de la primera, segunda, tercera o cuarta ecuaciones de orden mezcladas entre si. En cualquier caso, las funciones dadas de probabilidad podrían tener factores únicos ponderados de multiplicación asociados con cada término dentro de la función dada. Los factores ponderados de multiplicación podrían ser estadísticamente derivados mediante el análisis de las imágenes que contienen las fuentes luminosas conocidas y, u, obtenidas durante las condiciones conocidas de conducción o manejo. En forma alterna, los factores ponderados de multiplicación podrían ser derivados, de manera experimental, mediante el análisis de varias imágenes y, o, clasificaciones erróneas a partir de datos empíricos. La salida de la red de clasificación podría ser, ya sea un valor verdadero-falso de Boole, que es indicativo de una luz trasera o no una luz trasera o podría ser una función sustancialmente continua indicativa de la probabilidad que el objeto es una luz trasera. Lo mismo es aplicable con respecto a los faros delanteros. Las funciones de salida sustancialmente continuas son ventajosas debido a que proporcionan una medición de conflabilidad que el objeto detectado se ajusta al patrón asociado con las propiedades y comportamiento de un faro delantero o luz trasera. Esta probabilidad o medición confiable podría ser utilizada para controlar, en forma variable, la velocidad de cambio de las luces exteriores del vehículo controlado, con una confianza más alta que provoca un cambio más rápido. Con respecto a dos luces exteriores de estado, una magnitud de medición de probabilidad, o confiabilidad, distinta de 0% y 100% podría ser utilizada para iniciar la actividad de control automático. En una modalidad preferida, un esquema de clasificación excelente que considera estas relaciones de variable compleja es implementado como una red neural . La entrada a esta red son muchas de las variables previamente mencionadas que podrían incluir, por ejemplo, la brillantez, el color, la posición, el vector de movimiento y el envejecimiento de la fuente luminosa junto con la velocidad del vehículo y la información de la velocidad del cambio de dirección si estuvieran disponibles. Más detalles de la construcción de esta red neural serán presentados en este documento en base a -la terminación de la discusión de la secuencia de control de_ la Figura 5. Las reglas para la clasificación, o la red neural utilizada, podrían ser diferentes si las luces a distancia estuvieran apagadas que si estuvieran encendidas. Por ejemplo, un esquema de clasificación que tiende a favorecer la clasificación de objetos como una luz trasera cualquiera que sea la duda, podría ser utilizado si las luces a distancia estuvieran apagadas para evitar la posibilidad que las luces a distancia se enciendan en la presencia de otro vehículo. Sin embargo, cuando las luces a distancia se encuentran encendidas, una certeza más alta podría ser requerida para evitar la reducción de luz molesta de las luces a distancia. Debido a que la tarea de clasificación es más simple y no es tan crítica cuando las luces a distancia están apagadas, una regla más simple basada en un clasificador podría ser utilizada en el estado apagado y una red neural más compleja sería utilizada en el estado encendido. Si el objeto fuera identificado como una luz trasera en la etapa 1206, el proceso de clasificación continuaría para el resto de las fuentes luminosas (1212) hasta que todas las fuentes luminosas sean clasificadas (1209) . Si la fuente luminosa no fuera una luz trasera, esta podría ser adicionalmente probada para observar si ésta es un faro delantero. En forma similar, las fuentes luminosas con niveles de enrojecimiento por debajo de la magnitud en la etapa 1204, son probadas para observar si son faros delanteros. En primer lugar, en la etapa 1207 la brillantez de la fuente luminosa es verificada para determinar si es un candidato para ser un faro delantero. El umbral o magnitud de la etapa 1207 podría ser un umbral único, o de manera más preferible, es una función de posición del objeto, el estado actual de iluminación exterior del vehículo controlado, y en forma opcional, de la velocidad u otros parámetros del vehículo controlado. Si la fuente luminosa fuera más brillante que el umbral o magnitud, esta sería probada para determinar si es un faro delantero. La etapa 1208 realiza, en forma similar, a la etapa 1205, la clasificación para luces traseras . La presencia de un faro delantero podría ser determinada mediante un conjunto de reglas establecidas a través de la experimentación o, de la manera más preferible, mediante una red neural . La salida de la etapa 1208 podría ser una indicación de verdadero/falso de la presencia de un faro delantero de un vehículo que se aproxima o una medición de la probabilidad que el objeto sea un faro delantero de un vehículo que se aproxima. Del mismo modo que con la etapa 1205, la clasificación en la etapa 1208 podría ser realizada en una forma sustancialmente distinta si los faros delanteros estuvieran encendidos que si estuvieran apagados . En forma similar, se determina la probabilidad de que un objeto sea una luz trasera de un vehículo delantero . Como se mencionó con anterioridad con respecto a las etapas 1205 y 1208, la presente invención utiliza de preferencia una o más redes neurales para clasificar las fuentes luminosas detectadas . Las descripciones detalladas de las redes neurales y sus implementaciones para los problemas de clasificación se proporcionan en los libros Neural Networks for Pattern Recognición, de Christopher M. Bishop y publicado por Oxford University Press (protegido por derechos de autor, 1995) y Practical Neural Network Recipies in C++, de Timothy Masters y publicado por Academic Press (protegido por derechos de autor, 1993) . Los algoritmos de red neural podrían ser diseñados, simulados y entrenados utilizando el software Neuro Solutions 4 disponible a partir de NeuroDimension Inc., situada en Gainesville Florida. El texto de cada una de estas referencias se incorpora en su totalidad en este documento como referencia. Una descripción de una red neural de ejemplo para uso con la presente invención es dada con referencia a la Figura 13. Una red neural 1300 podría consistir de una o más entradas 1301, las neuronas de entrada 1302, de una o más salidas 1304, de las neuronas ocultas de capa 1305 y las conexiones 1303, las conexiones 1303 también son comúnmente referidas como sinapsis. Para los propósitos de este documento, las neuronas de entrada 1302 representan los parámetros utilizados para la clasificación de las fuentes luminosas. Las sinapsis entre las neuronas de entrada 1302 y las primeras neuronas ocultas de capa 1303 representan los valores o factores de ponderación mediante los cuales estas entradas son multiplicadas. Las neuronas 1303 suman estos valores ponderados y aplicar una función de activación a la suma. La función de activación casi siempre es una función no lineal, y de preferencia es sigmoidal, tal como una función logística o de tangente hiperbólica. A continuación, la salida de estas neuronas es conectada con la siguiente capa de neuronas mediante sinapsis que una vez más representan el factor de ponderación mediante el cual este valor es multiplicado. Finalmente, una neurona de salida proporciona un valor de salida de la red 1304. La red mostrada en la Figura 13 es una estructura generalizada. Cualquier número de neuronas de entrada podría ser utilizado y ningún o cualquier número de capas intermedias ocultas podría ser utilizado, aunque sólo una o dos capas ocultas son normalmente necesarias. La red neural es mostrada que se encuentra totalmente conectada, lo cual significa que la salida de cada neurona en una capa es conectada mediante una sinapsis con cada neurona en la siguiente capa. Las redes neurales también podrían ser conectadas en forma parcial. El factor de ponderación de cada una de las sinapsis es ajustado para proporcionar a la red neural su funcionalidad y establecer su funcionamiento en una tarea dada de reconocimiento o clasificación de patrón. Los factores de ponderación son ajustados mediante el "entrenamiento" de la red neural. El entrenamiento es realizado al proporcionar la red neural con numerosas muestras catalogadas de los datos que a su vez serán clasificados. En la invención actual, numerosas fuentes luminosas son capturadas por el sistema de formación de imagen, después son almacenadas y posteriormente, son clasificadas en forma manual mediante el examen de las imágenes. La clasificación manual podría ocurrir anotando el tipo actual de fuente luminosa cuando se capture los datos o mediante un examen posterior de los datos grabados . Para ayudar en la clasificación manual, un video adicional podría ser capturado, en forma sincronizada, utilizando un sistema de formación de imagen de resolución más alta o de sensitividad más alta. Finalmente, la clasificación para el entrenamiento también podría suceder en forma automática utilizando un sistema de procesamiento de video más poderoso que el utilizado para el despliegue de la producción. Este sistema automático podría utilizar información adicional, tal como un video de resolución más alta para ayudar en la clasificación de los objetos. En cualquier caso, las personas o el sistema automático utilizados para clasificar los datos que posteriormente son empleados -para entrenar una red neural (o que son utilizados para, desarrollar otros tipos de algoritmos de clasificación estadística) podrían ser denominados que tienen "conocimiento experto" del problema de clasificación. Los factores de ponderación de sinapsis podrían ser establecidos en forma aleatoria y podrían ser ajustados hasta que sea conseguida la velocidad máxima alcanzable de la clasificación correcta de las muestras de entrenamiento. De preferencia, las muestras adicionales clasificadas en forma manual son utilizadas para probar la red neural a fin de garantizar que ésta sea capaz de generalizar más allá el entrenamiento de los datos establecidos. El programa Neuro Solutions mencionado con anterioridad, podría ser utilizado para diseñar la red neural y realizar el entrenamiento. En forma ideal, la red neural de complejidad mínima que realiza en forma satisfactoria la tarea de clasificación es utilizada para minimizar los requerimientos de computación del sistema. Las neuronas, capas ocultas y sinapsis adicionales podrían ser agregadas para mejorar el funcionamiento, si fuera necesario . El entrenamiento de la red neural se basa en una función de error que proporciona una medición de la forma como realiza correctamente la red neural la tarea de clasificación. El objetivo del programa de entrenamiento es la convergencia sobre un conjunto de factores de ponderación de sinapsis que minimizan la función de error. La función de error más simple podría ser una medición del porcentaje de tiempo que la red neural clasifica en forma incorrecta una fuente luminosa. Una función de error más adecuada podría asociar un coeficiente de ponderación de mala clasificación con las muestras de entrenamiento. Por ejemplo, una mala clasificación de un faro delantero cercano como un faro no delantero sería más inaceptable que una mala clasificación de un faro delantero distante. Por lo tanto, una ponderación más alta podría ser colocada en estos errores. La mala clasificación de un faro delantero débil a distancia, podría ser menos severo que una mala clasificación de una señal débil debido a la reducción molesta de intensidad que podría hacer más objetable que un retraso ligero en la reducción de intensidad para un faro delantero distante. El castigo de error podría ser manualmente establecido para cada muestra de entrenamiento o podría ser una función de la brillantez u otro parámetro de la fuente luminosa. Una vez que la red neural ha sido entrenada, una red neural de recuperación podría ser implementada para su despliegue en la aplicación. La red neural de recuperación tiene los factores de ponderación fijos a partir del entrenamiento y es normalmente implementada en el software en el procesador, aunque también son posibles rmplementacxones del hardware a través -de un hardware ASIC o una serie lógica programable . De preferencia, debe tomarse gran cuidado para entrenar la red neural en el mismo modo que la red neural de recuperación será implementada. De preferencia, las funciones de activación son calculadas en el mismo modo para el entrenamiento y la recuperación. Se prefiere que la precisión numérica utilizada sea idéntica. Asimismo, los datos utilizados para el entrenamiento deben ser adquiridos empleando sensores de imagen que sean sustancialmente idénticos, o casi parecidos, a los componentes actuales de producción. De preferencia, los datos de entrenamiento son adquiridos utilizando múltiples componentes que son representativos de las variaciones de producción que podría suceder en los dispositivos actuales. Las entradas a la red neural podrían ser los parámetros mencionados con anterioridad con referencia a la etapa 1205 de la Figura 12. Mientras que los valores nuevos de estos parámetros podrían ser utilizados, la complejidad de la red neural podría ser reducida mediante la escala de estos parámetros, de manera que cada variable tenga aproximadamente el mismo intervalo de magnitud. Para variables tales como la brillantez, que posiblemente tiene un intervalo muy grande, es benéfica la utilización del logaritmo de este valor como una entrada hacia la red neural. Otros valores, tales como la relación de color podrían ser mejor expresados como el grado de membresía en un ajuste de membresía lógica confusa. Por ejemplo, los valores inferiores de color rojo podrían indicar que una fuente luminosa ciertamente no es roja, por lo tanto, la membresía de este valor, en un ajuste de "enrojecimiento" es cero. Los valores intermedios podrían indicar la membresía parcial en un ajuste "enrojecimiento" y podrían indicar que la fuente luminosa es posiblemente roja aunque no con certeza es roja. Finalmente, los valores de rojo por encima de un umbral indican una membresía completa en un ajuste de "enrojecimiento" . Los valores medidos más altos de color rojo por encima de este umbral no implican que la fuente luminosa tenga más "enrojecimiento" debido a que la certeza de la fuente luminosa de que sea roja ha sido determinada. En forma similar, los valores de color rojo por encima de este umbral no aumentarían la probabilidad de que una fuente luminosa sea una luz trasera una vez que sea determinada la certeza total que la fuente luminosa es roja. Por lo tanto, el criterio confuso de membresía de enrojecimiento podría ser una entrada más adecuada para la red neural que el valor de color directamente. Aunque el valor de color podría ser utilizado como una entrada directa. Otro parámetro que podría ser ventajosamente modificado para la entrada a la red neural son las coordenadas de posición del centroide X e Y. Normalmente, estas coordenadas son establecidas como coordenadas del formador de imagen. Sin embargo, podría ser más útil presentar estas coordenadas en la red neural como una distancia positiva o negativa desde el centro del campo de observación. Debido a que la mayoría de fuentes luminosas de interés están situadas en el centro de la imagen y que el movimiento de la mayoría de señales emana hacia afuera a partir del centro, un parámetro desplazado del centro podría producir mejores resultados o reducir la complejidad de la red neural . La posición central de la imagen, a partir de la cual es calculada la posición X e Y desplazada, podría ser ajustada de acuerdo con la velocidad de cambio de dirección del vehículo y, o, paso del vehículo. La posición central de imagen podría ser establecida en base al centro de intento de diseño o, de manera más preferible, podría ser calibrado en forma dinámica. La calibración dinámica sucede mediante el monitoreo de las imágenes para la situación cuando las fuentes luminosas todavía débiles están solas en la imagen junto al centro. Cuando se presenta esta situación en sí misma es probable que esté presente una luz distante que se aproxima o una luz trasera precedente . Una red neural también podría ser implementada para detectar esta condición o una salida adicional de la red de clasificación existente podría indicar si la fuente luminosa es un buen candidato de clasificación. La información de la velocidad del vehículo y/o velocidad de cambio de dirección podrían ser monitoreadas para asegurar que el vehículo está desplazándose casi continuamente y es probable que no cambie de dirección. Una vez que sea detectada la fuente luminosa de calibración, las coordenadas X e Y de esta fuente luminosa son promediadas con la posición central actual de la imagen. La contribución proporcional del nuevo valor se prefiere que sea muy pequeña, por ejemplo, menor de 1% y de la manera más preferible, menor de 0.1%. No obstante, para un factor más grande de nuevo vehículo, podría utilizarse para establecer un factor de calibración más rápido. Una vez que un número de umbral o muestras de calibración han sido colectados por el nuevo vehículo, es reducida la contribución promedio de las muestras subsiguientes. Una secuencia de botón de recalibración también podría ser proporcionada para forzar una recalibración rápida, lo cual podría ser deseado en casos tales como cuando el parabrisas sea reemplazado. Un conmutador manual podría ser proporcionado para activar/desactivar la calibración automática. Antes del ordenamiento por medio de la red de clasificación, las fuentes luminosas primero podrían ser evaluadas para asegurar que cumplen con un criterio mínimo, por ejemplo, un umbral o magnitud mínima de brillantez. Si al hacerlo así no cumplen con este criterio, entonces no son consideradas por la red de clasificación. El criterio podría incluir un intervalo de color, un umbral en función de la posición o un umbral en función del envejecimiento. Las fuentes luminosas débiles podrían ser requeridas que alcancen un cierto envejecimiento antes de su examen, sin embargo, las fuentes luminosas brillantez podrían ser examinadas con anticipación. Varias combinaciones de reglas podrían ser utilizadas para rechazar o identificar las fuentes luminosas antes de la red de clasificación. Esto es particularmente útil cuando las fuentes luminosas son particularmente fáciles de identificar o rechazar y por lo tanto, el tiempo de cálculo es reducido para estos objetos. Una implementación de ejemplo de red neural para uso con la presente invención contiene veintitrés entradas y dos salidas continuas, una salida para la clasificación de faro delantero y una salida para la clasificación de luz trasera. Las entradas son como sigue: la posición X (como un desplazamiento a partir del centro) , la posición Y (como un desplazamiento a partir del centro) , la brillantez (en escala en forma logarítmica) , la relación de color rojo-a-claro, el envejecimiento, el ancho y la altura. También la posición X, la posición Y, la brillantez y las relaciones de color de rojo-a-claro de los cuatro ciclos anteriores son entrados, totalizando de esta manera 23. Todas las entradas son a escala con respecto a sus intervalos desde -1000 a 1000. Se utilizaron doce neuronas de capa oculta. La red neural en este ejemplo fue entrenada mediante el accionamiento y grabación de imágenes de cámara. Muchos miles de ejemplos de fuentes luminosas fueron extraídos de las correspondientes imágenes utilizando las técnicas descritas con anterioridad antes de la clasificación. A continuación, las fuentes luminosas fueron clasificadas en forma manual. La red neural fue entrenada utilizando el software Neural Solutions. La red entrenada de recuperación fue implementada en base a un microprocesador Motorota 68HCS912 utilizando una aritmética de número entero signada de 16 bits. La eficiencia computacional se benefició de la inclusión de una instrucción acumulada múltiple (MAC) en este procesador que se utilizó para calcular los productos por punto de entrada en cada nota de red. Debido a que el software Neural Solutions utiliza las matemáticas de punto flotante con entradas a escala desde -1.0 hasta 1.0, fue necesario escalar los factores ponderados que se originaron para el procesamiento embebido con las matemáticas de número entero. Como se mencionó con anterioridad, otras entradas podrían ser utilizadas. Por ejemplo, podría utilizarse la velocidad del vehículo, la velocidad de cambio de dirección del vehículo o la condición actual de iluminación del vehículo (tal como el sitio de trabajo de los faros delanteros de luz a distancia) . En otro ejemplo, una entrada que indica el cambio de brillantez de una fuente luminosa entre varios ciclos es utilizada cuando también existe un cambio en la brillantez del faro delantero del vehículo controlado, permitiendo de esta manera que la red neural detecte los cambios en las reflexiones de señal debido a la reducción en la brillantez de los faros delanteros de luz a distancia. Todavía en otra modalidad, los valores actuales de píxel de un área seleccionada que rodea el pico de una fuente luminosa podrían ser utilizados como una entrada a la red neural, permitiendo de esta manera la detección de la distribución de sombra o de luz del objeto. En particular, este método es útil cuando se realiza el procesamiento de capacidades que permiten grandes números de entradas . Cuando son utilizados patrones de filtro de tablero de ajedrez o de tira, la inclusión de los valores de píxel vecino podrían permitir que la red neural infiera el color directamente de los datos nuevos, más que calcular por separado la relación de color. Una vez que la clasificación de todas las luces es completa el estado adecuado de iluminación se determina en la etapa 505. También es posible que la clasificación sea suspendida y la etapa 505 sea invocada debido a la detección de una fuente luminosa muy brillante, en tal caso las luces a distancia son reducidas en brillantez si no es que son apagadas. Si más de una fuente luminosa fuera detectada, el control podría estar basado en la fuente luminosa que genera la respuesta más larga. A continuación, se proporciona una descripción de varias redes alternas de clasificación de fuente luminosa después de la discusión con respecto a la determinación del estado adecuado de iluminación exterior del vehículo controlado. La determinación del comportamiento adecuado está en función en gran medida de las características particulares del sistema de iluminación que será controlado. En un sistema simple de encendido/apagado de gran alcance o de luz a distancia, las luces a distancia son desconectadas una vez que sea detectado el faro delantero que se aproxima o la luz trasera precedente. Para prevenir la reducción de luz molesta, un faro delantero o luz trasera podría necesitar ser detectado para un número de imágenes antes que sea efectuado un cambio. De preferencia, la cantidad de retraso es una función de la brillantez de la fuente luminosa detectada, permitiendo de esta manera una respuesta relativamente rápida a las fuentes luminosas brillantez y una respuesta más lenta a las fuentes luminosas de menor reducción de luz. Este retraso también podría estar en función de la velocidad del vehículo controlado. El retraso más lento podría permitir que las señales mal diagnosticadas como los faros delanteros que se aproximan pasen antes que sea activada una respuesta. El envejecimiento de la fuente luminosa, que se determina en 1108, podría ser utilizado para establecer el punto adecuado de respuesta. En forma similar, cuando las luces a distancia sean apagadas, las imágenes podrían ser requeridas para estar libres de las fuentes luminosas del vehículo para un número de umbral de cuadros antes que los faros delanteros de luz a distancia sean reactivados en forma automática. En otra modalidad, los faros delanteros de luz a distancia aumentan o reducen gradualmente la brillantez más que cambiar abruptamente de un encendido total a un apagado total y, o, de un apagado total a un encendido total. En este caso, la velocidad de reducción gradual podría estar en función de la brillantez de la fuente luminosa detectada, y de manera opcional, en base a la probabilidad de la clasificación correcta determinada en las etapas 1205 y 1208. La velocidad del vehículo controlado también podría ser utilizada para determinar la velocidad de cambio. De este modo, los faros delanteros de luz a distancia reaccionan en forma lenta para reducir la intensidad de las fuentes luminosas. Esto permite la posibilidad que los faros delanteros de luz a distancia sean corregidos y regresen para alumbrar sin sobresaltar o alarmar al conductor en el caso de una mala clasificación. Si la brillantez del faro delantero detectado que se aproxima es alta y garantiza una reducción rápida en la brillantez de los faros delanteros de luz a distancia del vehículo controlado aunque la probabilidad de clasificación sea baja, los faros delanteros de luz a distancia podrían ser reducidos de manera más gradual, si en los ciclos subsiguientes la brillantez del objeto se redujera con la disminución en la brillantez de la luz a distancia, el objeto sería probablemente una señal, u otra reflexión, y los faros delanteros de luz a distancia podrían ser regresados a la brillantez total, una vez más con poca interrupción para el conductor del vehículo controlado. Los sistemas de iluminación más avanzados podrían permitir la señalización o direccionamiento variable de los faros delanteros en las direcciones horizontal y, o, vertical o podrían permitir una conformación arbitraria del haz de luz asociado. Estos sistemas del faro delantero son descritos en mayor detalle en la Publicación de Solicitud de Patente copendiente, comúnmente asignada, de los Estados Unidos No. 2003/0107323 Al, titulada Headlamp Control to Prevent Glare, la cual se incorpora en este documento en su totalidad como referencia. Con estos sistemas el patrón del haz de luz puede ser alterado para proporcionar la máxima iluminación adecuada para el conductor del vehículo controlado sin interrumpir a los conductores de otros vehículos. Los principios de la presente invención podrían ser aplicados a estos sistemas mediante la identificación exacta de la distancia y la dirección en otras fuentes luminosas vehiculares y podrían proporcionar una señal de control para modificar el objetivo o patrón del haz de los faros delanteros del vehículo controlado para evitar el deslumbramiento a otros conductores .
También debe entenderse que los métodos alternativos de detección y procesamiento o combinaciones de métodos de detección también podrían ser utilizados con la presente invención incluyendo los sensores de RADAR, los localizadores de señal de láser, y los sensores ultrasónicos, los sensores de visión estéreo, y la comunicación entre vehículos RF. Las técnicas descritas para determinar el estado adecuado de iluminación de las luces exteriores del vehículo controlado, como resultado de la detección de otras fuentes luminosas, podrían ser empleadas cuando cualquiera uno o una combinación de estos y otros sensores sean utilizados. La presente invención podría ser utilizada con luces exteriores que tienen un punto discreto de cambio y, o, una transición sustancialmente continua. Los ejemplos de iluminación discreta de cambio incluyen: el cambio entre los estados individuales de haz de luz alta y baja mediante la activación de distintos filamentos de una lámpara, el cambio entre las lámparas separadas de haz de luz alto y bajo, la activación y desactivación de una lámpara de haz de luz alta mientras una lámpara de haz de luz baja permanece activada, y el cambio discreto de un ángulo de señalamiento de una lámpara, o lámparas. Una nueva tecnología adicional de lámpara, denominada una lámpara HID de Xenón de dos modos o simplemente bi-Xenón, utiliza una sombra que puede moverse en forma mecánica para modificar el patrón del haz de luz de una lámpara única de descarga de alta intensidad. Los ejemplos de luces de cambio continuo incluyen: la variación de la tensión en una lámpara de filamento incandescente, la variación del ciclo de trabajo PWM en una lámpara de filamento, el cambio de la dirección de una lámpara, el control variable de una sombra mecánica o la modificación de otro modo del patrón del haz de luz a través de una variedad de técnicas ópticas. Las lámparas variables sustancialmente continuas también podrían incluir lámparas que pueden transitar a través de una serie de etapas discretas, más que lámparas que sean totalmente continuas. Finalmente, nuevas tecnologías de iluminación tales como aquellas descritas en la Publicación de Solicitud de Patente, comúnmente asignada, de los Estados Unidos No. 2003/0107323 Al podrían incluir faros delanteros de diodos emisores de luz (LED) , o lámparas en donde el patrón del haz luminoso sea modificado a través del uso de un modulador espacial de luz, tal como un atenuador o reflector variable. Estas nuevas tecnologías de iluminación podrían ser controladas entre estados discretos o sustancialmente continuos. La descripción de esta Solicitud se incorpora en su totalidad en este documento como referencia. Varias modalidades para el control de ambos sistemas de cambio, tanto continuo como discreto, son descritas con referencia a la Figura 1 . Mientras que de acuerdo con el control automático, los faros delanteros del vehículo pueden estar en uno de tres estados: un ESTADO DE APAGADO 1401, un ESTADO DE TRANSICIÓN 1402 o el ESTADO DE ENCENDIDO 1403. En cualquier momento durante la operación automática, la sobreposición manual podría ser efectuada por el conductor que puede provocar las decisiones que el control automático sea ignorado o forzado a que éste se encuentre ya sea en un ESTADO DE APAGADO o el ESTADO DE ENCENDIDO. Los vehículos que tienen portalámparas únicas de faros delanteros que funcionan como faros delanteros de bajo haz de luz y de alto haz de luz, ya sea que sean cambiados en forma discreta o que sean variables en una forma sustancialmente continua, podrían ser proporcionados con un control manual para seleccionar de una multitud de patrones de brillantez y, o, iluminación. Como se mencionó con anterioridad, el procesamiento progresa en un modo cíclico. En cada ciclo, que podría tomar por ejemplo, 200 ms, al menos una imagen es adquirida y analizada. Después del análisis, se realiza una decisión para cambiar los estados o para permanecer en el estado actual . Al menos en una modalidad, un sistema automático de control de faros delanteros es configurado para regular los faros delanteros de cambio discreto. Para el propósito de discusión, el control del faro delantero podría comenzar en el ESTADO DE APAGADO 1401. Para de ar el ESTADO DE APAGADO, podría ser requerido que se cumplan varias condiciones. Una lista de condiciones de ejemplo y el razonamiento para cada condición sigue más adelante. Varias modalidades podrían implementar todas, o sólo algunas, de las condiciones .
TABLA 1 # de Condición para Razonamiento Condición dejar el ESTADO APAGADO 1 Que la escena Garantiza que los vehículos que se libre de faros aproximan y delanteros se encuentran delanteros y luces libres de deslumbramiento traseras con brillantez esté por encima del umbral 2 Que sea menor que Evita la activación en área urbanas u el número de otras áreas bien iluminadas umbral de luces AC en imagen 3 Que sea menor que Evita la activación en donde están el número de presentes varias fuentes luminosas, umbral de luces en incluso si ninguna estuviera clasificada la imagen como faros delanteros o luces traseras. En áreas muy bien iluminadas, las luces del vehículo podrían volverse indistinguibles de otras luces 4 Que sea alcanzado Garantiza que la escena está despejada de el número de faros delanteros y luces traseras para un umbral de ciclos período de tiempo de ajuste. Podría estar claros continuos en función de la velocidad, el tipo de camino o la densidad del tráfico 5 Que la velocidad Evita la activación automática cuando se del vehículo detiene o viaja lentamente controlado esté por encima del umbral 6 Que la Si un vehículo estuviera desacelerando, desaceleración tal como cuando se va a detener, las luces esté por debajo altas podrían ser impedidas de su del umbral activación # de Condición para Razonamiento Condición dejar él ESTADO APAGADO 7 Que la magnitud Evita la activación automática cuando se del ángulo del cambia de dirección rápidamente en volante de esquinas. Esto es importante debido a que dirección del es probable que otros vehículos estén vehículo fuera de visión cuando se cambia de controlado se dirección rápidamente. Otras medidas de encuentre por velocidad de cambio de dirección podrían debajo del valor ser utilizadas, tal como la información de umbral del GPS, brújula u otros sensores. 8 Que haya El sincronizador IMPEDIR o RESTRINGIR es transcurrido el iniciado cuando es entrado el ESTADO sincronizador APAGADO. Garantiza que las lámparas IMPEDIR permanecen apagadas durante un periodo mínimo de tiempo para evitar la oscilación rápida entre los estados . El retraso del sincronizador de restricción podría ser una función de la velocidad del vehículo. Asimismo, la distancia de umbral desplazada podría ser utilizada en lugar de un sincronizador. 9 Que haya ün sincronizador de inactividad rastrea el transcurrido el tiempo transcurrido desde que el control sincronizador automático ha estado en el ESTADO INACTIVIDAD ENCENDIDO. Si este tiempo transcurrido excediera un umbral, un retraso adicional de INACTIVIDAD sería agregado obligando a que el control permanezca en el ESTADO APAGADO durante un número adicional de cuadros claros consecutivos mediante el aumento del número de magnitud de cuadros en la condición . ün umbral desplazado de distancia podría ser utilizado en lugar de un umbral de tiempo. 10 Que el Si la condición de alcance de luces funcionamiento del traseras fuera detectada, tal como sincronizador de mediante la observación de luces traseras ADELANTE A LA LUZ brillantes que abandonan la imagen hacia TRASERA la derecha o la izquierda, el control permanece en el estado APAGADO durante un tiempo de duración mínima (o número de ciclos) después que la condición sea detectada. Este tiempo podría estar en función de la velocidad del vehículo. El retraso del ADELANTO de sincronizador ayuda a evitar la activación de luces altas mientras pasa un vehículo, ün retraso desplazado de distancia podría tomar el lugar de un retraso de tiempo. # de Condición para Razonamiento Condición dejar el ESTADO APAGADO 11 Que sea clara la Impide la activación de luces si la condición de niebla o nieve fuerte fuera detectada. NIEBLA 12 Que sea clara la Impide la activación si fueran activados condición de los limpiadores de parabrisas por encima LLUVIA de una velocidad especifica o si el sensor de lluvia detectara una lluvia fuerte 13 Que la densidad Un valor de tiempo promedio del número de alumbrado de lámparas de alumbrado público por Público se imagen es calculado. Este valor debe encuentre por estar por debajo de una magnitud para su debajo de umbral activación. Esta característica evita la activación de las luces altas en un área urbana bien alumbrada, lo cual es un requerimiento legal para algunos países. La alta densidad de las lámparas de alumbrado público también podría ser utilizada para apagar las luces altas cuando se entra a un área urbana. 14 Que haya retraso Un valor de tiempo promedio del número de densidad de de luces del vehículo por imagen es tráfico calculado. Un retraso adicional podría ser agregado en base a este valor, haciendo de esta manera que el sistema sea más indeciso para activar las luces altas cuando se encuentre en situaciones de densidad de tráfico más alto.
Una vez que las condiciones deseadas sean cumplidas, el control continúa a partir del ESTADO DE APAGADO 1401 al ESTADO DE TRANSICIÓN 1402 como se indica mediante 1404. El comportamiento en el ESTADO DE TRANSICIÓN 1402 para el cambio discreto de lámparas que se ilustra la Figura 15. Comenzando la discusión con las lámparas apagadas, el control entra en el ESTADO DE TRANSICIÓN 1402 en el punto 1501. Para cada ciclo sucesivo en el cual ninguna otra de las lámparas de vehículo sea identificada, el nivel en el estado de transición es aumentado. Cuando el nivel alcanza el punto de ENCENDIDO 1503, las luces a distancia son activadas y el estado de control es ajustado en el ESTADO DE ENCENDIDO 1403 a través de la transición 1405. Sí no fuera aumentado, durante la transición de los puntos 1501 a 1503 son identificadas otras luces de vehículo, el nivel del estado de transición y podría cambiarse las direcciones y comenzar a disminuir . Una vez en el ESTADO DE ENCENDIDO 1403, una luz identificada podría provocar que el control se mueva hacia el ESTADO DE TRANSICIÓN 1402 en el punto 1502 a través de la transición 1407. Las luces identificadas en forma subsiguiente podrían provocar que disminuya el nivel del estado de transición. La cantidad mediante la cual el nivel de transición es disminuida podría estar en función de una variedad de factores tales como el tipo de fuente luminosa identificada, la brillantez de la fuente luminosa, la posición de la fuente luminosa y la certeza de clasificación de la fuente luminosa. Otros factores, tales como la velocidad del vehículo y el ángulo del volante de dirección también podrían influir en la velocidad de disminución en el nivel del estado de transición. Si un ciclo estuviera despejado de las fuentes luminosas identificadas, el nivel del estado de transición no disminuirá y podría incrementarse. Finalmente, una vez que el nivel del estado de transición alcance el punto de APAGADO 1504 el control continúa hacia el ESTADO DE APAGADO 1401 a través de la transición 905 y las luces serían desactivadas. Como se indicó, el grado en el cual el nivel es reducido para cada ciclo de imagen podría estar en función de una diversidad de factores. Los ejemplos de estos factores y una explicación de cada uno son proporcionados en la TABLA 2. Los distintos factores podrían ser utilizados en combinación entre sí para determinar la reducción neta en el nivel del estado de transición. Varias modalidades podrían implementar algunos de todos estos factores en distintas combinaciones y en grados variables. Además de los factores de la Tabla 2, la velocidad de cambio en el nivel de transición también podría estar en función de la acción tomada en los ciclos anteriores. Por ejemplo, si el nivel de transición estuviera disminuyendo en realidad, una luz vehicular identificada podría provocar una disminución continua. Sin embargo, el nivel fue aumentado en el ciclo anterior, una luz identificada podría provocar el aumento para interrumpir aunque no para provocar una disminución inmediata hasta los últimos ciclos. Esta característica ayuda a limitar las oscilaciones rápidas que podrían presentarse con reflexiones de señal o con otras condiciones molestas.
Tabla 2 Factor Descripción Razonamiento 1 Brillantez de la fuente Las luces más brillantez podrían luminosa provocar una disminución más grande en el nivel de transición y por lo tanto, un tiempo de respuesta más rápido debido a la probabilidad de cercanía de la luz. 2 Posición de la fuente Las luces en el centro, y por lo tanto, luminosa expuestas a la porción más brillante de la luz a distancia del vehículo controlado podría ser respondida con mayor rapidez. 3 Confianza de Los métodos estadísticos de clasificación clasificación, que incluyen las redes neurales, podrían indicar la probabilidad que la fuente luminosa dada sean un faro delantero o una luz trasera. La probabilidad más grande de que el objeto sea otra luz vehicular, más que una reflexión de otra fuente luminosa molesta, podría proporcionar una respuesta más rápida. 4 Tipo de fuente luminosa Los faros delanteros podrían requerir una respuesta más rápida que las luces traseras . 5 Velocidad del vehículo La velocidad de respuesta podría ser controlado aumentada cuando se viaja a velocidades más altas. En especial, esto es necesario en carreteras de muy alta velocidad, tal como la autopista Autobahn Alemana, en donde es alta la velocidad de acercamiento de un vehículo que se acerca o un vehículo precedente 6 Velocidad de cambio de Cuando se cambia de dirección, la dirección del vehículo velocidad de respuesta podría ser controlado aumentada para los vehículos en la dirección del cambio de dirección, reduciendo de esta manera el tiempo en aquellos vehículos que podrían estar expuestos al deslumbramiento. Cuando se viaja en caminos estrechos es mucho más probable que las fuentes luminosas en ángulos horizontales altos sean reflexiones molestas .
De acuerdo con ciertas circunstancias, el control podría continuar del ESTADO DE APAGADO 1401 al ESTADO DE ENCENDIDO 1403 directamente a través de la transición 1409 o del ESTADO DE ENCENDIDO 1403 al ESTADO DE APAGADO 1401 directamente a través de la transición 1408. La transición 1409 podría suceder por ejemplo, para implementar un comportamiento de rápido retorno a la iluminación. Cuando se viaja en una carretera o camino oscuro a una alta velocidad, es deseable activar los faros delanteros de luz a distancia tan pronto como sea posible una vez que ha pasado un vehículo que se aproxima. Las luces del vehículo que se aproxima - habrán reducido la sensitividad de visión nocturna el conductor del vehículo controlado y por lo tanto, la activación rápida de los faros delanteros de luz a distancia podría ayudar a compensar. Además, -el comportamiento rápido del sistema automático proporciona una percepción de acción y seguridad al conductor y por lo tanto es estéticamente agradable, en particular para los conductores de ciertos vehículos tales como los carros deportivos. La transición 1408 directamente del ESTADO DE ENCENDIDO 1403 al ESTADO DE APAGADO 1401 podría suceder cuando sea detectada una luz muy brillante. Esto proporciona la respuesta más rápida posible y minimiza cualquier deslumbramiento en un vehículo que se aproxima o en un vehículo delantero. En una modalidad de ejemplo, el uso del diagrama de estado de la Figura 14 y el diagrama de nivel de transición simplemente es una implementación de ejemplo de los conceptos presentados. El concepto de los distintos niveles discretos indicados en la Figura 15 es un mecanismo conveniente para implementar el retraso de reacción variable en varias fuentes luminosas y la capacidad para que la decisión de cambio sea pospuesta e invertida cuando las fuentes luminosas aparecen y desaparecen. Una persona experta en la técnica podría implementar el comportamiento y los conceptos de la presente invención a través de una variedad de medios, tal como un sincronizador o temporizador de retraso continuamente variable. El mecanismo presentado en la modalidad para la implementación de fuentes luminosas de cambio discreto podría ser extendido con facilidad para controlar también las fuentes luminosas variables sustancialmente continuas. El comportamiento de los estados de la Figura 14 permanece sustancialmente igual. Los niveles dentro del estado de transición 1402 aumentan y disminuyen de acuerdo con el comportamiento previamente descrito . Sin embargo, no existen puntos discretos de encendido y apagado. Más bien, como se muestra en la Figura 16, el nivel de transición aumenta comenzando en el punto 1501, 1601 con la condición que ningún tipo de vehículo sea detectado. Si los faros delanteros de luz a distancia estuvieran encendidos, y los vehículos fueron detectados, el estado de transición podría ser entrado en un alto nivel 1502, 1602, y posteriormente, podría ser disminuido. Como se discutió con anterioridad, la dirección del cambio en el nivel de transición podría ser variada si los vehículos aparecieran o desaparecieran mientras se encuentran en el estado de transición 1402. El criterio de la Tabla 2 para determinar el comportamiento del estado de transición 1402 también se aplica para controlar las luces variables sustancialmente continuas . El nivel de transición actual podría ser utilizado para establecer el nivel de salida actual de una lámpara variable sustancialmente continua. Por ejemplo, como se muestra en la Figura 17, el nivel del estado de transición podría ser utilizado para determinar el ciclo de trabajo PWM de un faro delantero de halógeno. Las distintas formas de la gráfica en la Figura 17 podrían proporcionar diferentes comportamientos de reducción gradual para los distintos tipos de lámparas o para proporcionar una apariencia diferente. En forma alterna, el nivel del estado de transición podría ser utilizado para determinar el ángulo vertical y, o, horizontal de una lámpara de objetivo variable, o una combinación de intensidad y ángulo de una lámpara. Una función distinta para la Figura 17 podría ser la utilización cuando se entre en el estado de transición 1402 desde el estado de encendido 1403 o el estado de apagado 1404 para proporcionar comportamientos distintos que encienden o apagan los faros delanteros. El control del indicador de medición para la condición del faro delantero podría ser proporcionado en base al nivel de transición. El indicador o medidor podría ser variable con la brillantez controlada por una función tal como la función de la Figura 17 o podría tener un punto discreto de encendido y apagado en niveles particulares dentro del estado de transición 1402. La implementación de un clasificador de red de faro delantero en la etapa 1208 y el clasificador de luz trasera en la etapa 1207 sólo es una de muchas implementaciones posibles de una red neural para la tarea de controlar en forma automática las luces exteriores del vehículo. Una red neural única podría ser utilizada con todas las entradas que alimentan y que contienen dos salidas, una para un faro delantero y una para una luz trasera. Esta red neural será más complej a y demandante en forma computacional , debido a que la tarea de clasificación es más compleja, no obstante, esta será realizada probablemente al menos también como dos redes neurales independientes . Un caso aún más general sería proporcionar el estado actual del faro delantero del vehículo controlado como una entrada y una salida del nuevo estado del faro delantero.
Si la potencia de procesamiento fuera limitada, un número más grande de redes neurales más simples podría ser utilizado como en el caso para la Figura 12, en donde la clasificación es dividida mediante la relación de color. La clasificación además podría ser dividida por brillantez. Por ejemplo, si una fuente luminosa fuera más brillante que un umbral o magnitud y que una luz trasera brillante sea roja, la red neural podría ser empleada para evaluar el objeto. Si ésta luz fuera débil y no roja, una red neural de faro delantero débil podría ser empleada para evaluar el objeto. Cada una de estas redes neurales podría ser diseñada y entrenada en forma individual utilizando datos representativos de los cuales la red neural de recuperación será expuesta durante la operación. Incluso, es contemplada la división adicional de la tarea en varios intervalos de brillantez, o mediante otros parámetros. Por ejemplo, el extremo posterior de muchos grandes camiones y remolques de camión poseen una pluralidad de luces y, o, reflectores. En función de la configuración específica, el extremo posterior de un camión o remolques dado podría comprender características que se encuentran más cercanamente relacionadas con las señales, reflectores o iluminación laterales de la carretera. Por lo tanto, podría ser deseable proporcionar una red neural que sea específicamente configurada y entrenada para la identificación del extremo posterior de los camiones y, o, remolques delanteros. Una red neural para esta tarea podría ser entrenada utilizando datos de imagen conocidos de manera que contengan ejemplos específicos del extremo posterior de los camiones y, o, remolques . Las mismas técnicas de red neural podrían ser utilizadas para resolver otros problemas de clasificación e identificación de este sistema de formación de imagen. Por ejemplo, la identificación de las luces CA podría ser mejorada a través del uso de redes neurales . En la técnica anterior, la fluctuación o variación pequeña de tensión de corriente alterna (CA) es cuantificada mediante el cálculo de la magnitud del componente de la serie de Fourier de 120 Hz presente en las muestras de imagen. Las redes neurales son especialmente útiles para identificar patrones en datos ruidosos. Más que calcular las series de Fourier, la brillantez de la luz en cada una de las imágenes rápidamente muestreadas podría ser presentado como una entrada a la red neural . La salida de la red neural podría ser un valor de Boole indicativo de una luz del alumbrado público o un valor continuo que además podría ser alimentado, por ejemplo, en la red de clasificación de faro delantero . - Otros parámetros, tal como el movimiento vertical y, o, la posición de la fuente luminosa también podría ser presentado a una red neural para confirmar adicionalmente si el objeto es probable que sea una luz del alumbrado público. Una red neural de luz de CA podría ser entrenada al proporcionar muestras de imagen de alta velocidad por cuadro, o las sumas de pixeles que forman el alumbrado público a partir de cada imagen, tanto de los alumbrados públicos como de otras luces a la red neural. Una vez entrenada, la red neural de recuperación podría ser proporcionada para implementar la etapa 1202 de la Figura 12. Recientemente, las luces traseras de dicho emisor de luz (LED) se han vuelto comercialmente disponibles. Estas luces traseras podrían tener su brillantez controlada mediante modulación de ancho por impulso en frecuencias comparables con aquellas de las lámparas de alumbrado público de CA. Por lo tanto, la técnica anterior podría determinar erróneamente que una luz trasera de LED sea de un alumbrado público. El color de la luz podría ser utilizado para distinguir las luces traseras rojas de las lámparas de alumbrado público, incluso cuando ambas presentan una modulación de intensidad. Este problema es adicionalmente complicado por el hecho que el color de la fuente luminosa podría ser determinado, en forma incorrecta, por la imagen original debido a que la imagen podría ser tomada en varias fases de la modulación de brillantez de las luces traseras. En este caso, las imágenes rápidamente adquiridas utilizadas para el análisis de CA también podrían ser utilizadas para determinar el color. Las imágenes de ambos pixeles de filtrado de rojo y claro son adquiridas. Si la fuente luminosa fuera determinada que tiene una alta fluctuación u oscilación de CA, una nueva relación de color sería calculada a partir de la suma de todos los píxeles de las imágenes filtradas de rojo y la suma de todos los píxeles claros, garantizando de esta manera que sean utilizadas las imágenes que cubren el periodo total de modulación. Las luces que sean sustancialmente rojas no serían entonces identificadas como luces de alumbrado público. Otra fuente potencial de reducción de luz equivocada es la presencia de señales colgantes de fulgor o centelleo de alumbrado público. La propiedad de centelleo de estas señales podría ser determinada mediante el almacenamiento de la brillantez de las fuentes luminosas durante varios ciclos. A una velocidad de ciclo de 200 ms, 5 valores de ciclos de la historia de brillantez serían suficientes. El cambio periódico en la brillantez de estos objetos es indicativo de su fulgor o centelleo . Mientras que el centelleo podría ser determinado sólo mediante el examen de la velocidad de cambio en la brillantez de la fuente luminosa, una red neural podría realizar, la tarea con más precisión. En este caso, una red neural podría ser diseñada con niveles de brillantez de la fuente luminosa en una imagen actual y al menos una anterior como entradas. La salida de la red neural podría ser un valor de Boole indicativo de si o no está centellando la fuente luminosa. La salida de la red neural también podría ser alimentada en la red neural de clasificación de faro delantero y, o luz trasera. En especial, esto podría ser importante debido a que la red neural podría tomar en cuenta otros factores, tal como la posición de la fuente luminosa para determinar si la fuente luminosa es un destellador colgante, más que por ejemplo, una señal de cambio de dirección de un vehículo precedente. Todas las redes neurales podrían ser entrenadas utilizando ejemplos tanto de destelladores colgantes como de otras fuentes luminosas, que incluyen las señales de cambio de dirección del vehículo precedente . Todavía en otra modalidad, una red neural podría ser utilizada para corregir la falsa reducción de intensidad de las reflexiones de señal . En forma ocasional , a pesar de cada esfuerzo por evitar esta mala clasificación, la reflexión de las lámparas apagadas de una señal del vehículo controlado, u otro objeto, podrían ser falsamente detectadas como una luz de un vehículo que se aproxima o un vehículo delantero. Cuando esto sucede, los faros delanteros de luz a distancia del vehículo controlado reducirán la intensidad y la brillantez de la reflexión apagada de la señal también será reducida. Si fuera detectada esta reducción, los faros delanteros de luz a distancia del vehículo controlado podrían ser regresados a la intensidad total con poca o ninguna interrupción para el conductor del vehículo controlado. Esta tarea es complicada por el hecho que la brillantez de la reflexión apagada de la señal podría ser aumentada, en forma simultánea, debido a la distancia de acercamiento entre el vehículo y la señal a una velocidad proporcional al cuadrado de la velocidad del vehículo controlado . Mientras que esta relación puede ser calculada y detectada en forma analítica, la variedad de las condiciones presentes y el ruido inherente en el sistema, debido a los baches o protuberancias de los caminos u otros factores, hace que la identificación de esta correlación entre la brillantez de los faros delanteros de luz a distancia y la brillantez de la reflexión de la señal del vehículo controlado sea un problema ideal para su solución por medio de una red neural . La red neural para este propósito podría ser utilizada cuando los faros delanteros de luz a distancia del vehículo controlado se encuentren en el proceso de reducción gradual de la brillantez. En cuanto al esquema de detección del destellador discutido con anterioridad, la brillantez de una fuente luminosa con respecto a unos cuantos ciclos anteriores es almacenada. Estos valores de brillantez, junto con la brillantez de los faros delanteros de luz a distancia y la velocidad del vehículo controlado podrían ser alimentados en la red neural. La red neural podría ser entrenada utilizando varias condiciones cuando las luces a distancia sean reducidas en brillantez, tanto debido a la reflexión de la señal como debido a las respuestas adecuadas a los faros delanteros que se aproximan y a las luces traseras precedentes. Estas muestras son clasificadas en forma manual como cualquiera de las respuestas correctas o respuestas de señal . La salida de la red neural podría ser cualquiera de un valor de Boole indicando que el objeto es una señal o una salida que es alimentada en las redes de clasificación de faro delantero y, o, luz trasera, en tal caso, podría ser proporcionadas redes neurales especiales de clasificación de faro delantero y luz trasera para casos cuando los faros delanteros de luz a distancia del vehículo controlado se encuentren en transición. En los ejemplos anteriores de usos de las redes neurales con la presente invención, podrían ser utilizados varios parámetros calculados ya sea en el proceso de extracción de objeto 502 o en el proceso de identificación de origen 503, junto con los parámetros de estado del vehículo como entradas a la red neural . Mientras que este método es probablemente el más eficiente, en forma computacional , y proporciona resultados excelentes, también se contempla la utilización de datos de imagen nueva a partir de cualquiera de las imágenes originales o las imágenes sintetizadas HDR como entradas a la red neural. El ejemplo más extremo de esto sería alimentar la imagen completa en una red neural con cada píxel como una neurona individual de entrada. La información histórica podría ser obtenida presentando múltiples imágenes a la red neural o alimentando algunas salidas almacenadas de la red neural del ciclo previo en entradas adicionales para el ciclo actual, creando de esta manera una red neural con una dimensión temporal. Con la condición que un conjunto de imágenes de entrenamiento sea manualmente clasificada que contiene fuentes luminosas de interés, esta técnica podría ser realizada como función. Sin embargo, los requerimientos de cómputo y de memoria se extenderían más allá de aquellos de otras modalidades de la presente invención. Los inventores no descartan la evolución rápida en la capacidad de procesamiento, por lo tanto, presentan esta opción como una modalidad posible que es útil ya sea en un momento futuro o para aplicaciones que no sean económicamente restringidas. Una aplicación más razonable de cómputo en donde la información de píxel de imagen es directamente alimentada en una red neural utiliza un núcleo de imagen. Un núcleo de imagen se refiere a una operación que es normalmente efectuada en un pequeño subconjunto de pixeles dentro de una imagen al mismo tiempo. Por lo regular, el núcleo es cuadriculado o un fondo explorado a través de la imagen, de manera que el núcleo podría ser temporalmente centrado en cada píxel dentro de la imagen. Por ejemplo, si se considera un núcleo de 3x3 en el cual el píxel actualmente visitado, junto con sus cuatro vecinos ortogonales y cuatro vecinos diagonales son entrados a la operación. La salida del núcleo es uno o más valores indicativos de alguna característica de este pequeño grupo de píxeles. En la presente invención, el núcleo podría ser una red neural con nueve entradas, una para el píxel visitado y ocho para sus vecinos más cercanos. Las salidas podrían ser, por ejemplo, un valor de Boole que identifica sí el píxel es un pico y, o, un valor continuo indicativo de la brillantez de la fuente. Por lo tanto, una red neural puede ser programada para realizar la función de detección de pico de la etapa 502 en la Figura 5. Un conjunto de datos de entrenamiento que contienen una amplia variedad del tamaño del núcleo de los segmentos de imagen, conteniendo picos y no picos, podría ser proporcionado junto con el valor deseado para la brillantez total . Los núcleos de red neural de varios tamaños podrían ser utilizados. Los núcleos podrían ser explorados a través de la imagen píxel -por-píxel o podrían ser saltados a través de brincos del tamaño del núcleo. Asimismo, el núcleo sólo podría ser aplicado en píxeles que estuvieran encendidos, o píxeles que sean más grandes que sus vecinos, para ahorrar el tiempo de cálculo de la aplicación del núcleo en todos los píxeles. Finalmente, un núcleo podría ser aplicado en un píxel que ya ha sido identificado como un pico y sus vecinos circundantes con el propósito de clasificar el tipo de fuente luminosa asociada con el pico. Una red neural podría ser diseñada y entrenada durante la etapa de desarrollo del producto y sólo una red neural fija de recuperación sería implementada en el producto final . También se considera que el entrenamiento adicional podría ser proporcionado en el producto final. Por ejemplo, si fallara el sistema de control al identificar un faro delantero que se aproxima o una luz trasera precedente, es probable que el conductor anule el sistema en forma manual. Si sucediera una intervención de anulación manual, la red neural tendría la posibilidad de aprender de este evento. Si es claro que una fuente luminosa sea detectada durante el evento de anulación aunque sea mal clasificada o determinada de otro modo que no es de interés, los factores de ponderación de la red neural podrían ser modificados, en forma automática, para evitar que suceda nuevamente la misma mala clasificación. Si la fuente luminosa fuera adecuadamente clasificada aunque el conductor todavía redujera manualmente la intensidad de los faros delanteros de luz a distancia, por ejemplo, podría determinarse que el conductor prefiere una respuesta más rápida a otro tráfico y en consecuencia, podrían ser automáticamente modificados los factores de ponderación de la red neural, las velocidades de cambio de faro delantero de luz a distancia o las magnitudes de sensitividad del sistema. Se considera que una serie de entradas que pueden ser seleccionadas por el usuario, por ejemplo, cambios manuales u opciones que pueden ser configuradas a través de un centro de información de múltiples funciones para el conductor, podrían ser proporcionados para ajustar cualquiera de los factores dados o todos los factores de ponderación de la red neural . Al menos en una modalidad, la escena de formación de imagen podría ser dividida en una pluralidad de regiones. Las fuentes luminosas detectadas en una región dada podrían ser analizadas con una función diferente de probabilidad o una red neural que las fuentes luminosas detectadas en otras regiones. Por ejemplo, la escena de formación de imagen podría ser dividida en nueve regiones. En situaciones de conducción o manejo a mano derecha, sería más probable que las fuentes luminosas a la derecha del centro serían reflexiones de señales apagadas, reflectores laterales del camino o iluminación de la carretera. Una vez más para situaciones de conducción a mano derecha, sería más probable que las fuentes luminosas a la izquierda del centro serían los vehículos que se aproximan. Las fuentes luminosas detectadas junto a la parte central de la imagen podrían ser similares para los países de conducción a mano derecha y a mano izquierda. Características generales similares podrían ser unidas con las porciones superior e inferior de cada región. Podría ser ventajoso dividir la escena de formación de imagen en tres regiones de lado a lado o de la parte superior a la parte inferior. En un sistema que divide la escena de formación de imagen en nueve regiones, podría ser ventajoso unir un factor más alto de ponderación de multiplicación con el movimiento de la fuente luminosa y, o, con el tamaño en las regiones laterales si se compara con la región central y un factor más alto de ponderación de multiplicación con el color de la fuente luminosa y, o, con la brillantez en la región central si se compara con la regiones laterales. Cuando sean empleadas redes neurales dentro de un sistema que tiene regiones individuales, las redes neurales para cada región podrían ser entrenadas con datos que sean únicamente asociados con la región dada. Se anticipa que distintas redes podrían necesitar ser desarrolladas y entrenadas para diferentes vehículos o distintas situaciones de conducción. Por ejemplo, muchas de las diferencias de posición y movimiento serán distintas para países de conducción a mano derecha y de conducción a mano izquierda. Los distintos países podrían utilizar diferentes tipos y colores de señales de vía pública. Finalmente, diferentes vehículos, con distintos tipos de faro delantero podrían funcionar de manera distinta. Las redes neurales asociadas podrían ser entrenadas en forma independiente utilizando un conjunto de datos de entrenamiento que son representativos de la velocidad específica y, o, las condiciones específicas del camino en las cuales el vehículo será operado. En forma ideal, para simplificar la logística de mantenimiento de una gran base de software, el número de configuraciones podría ser mantenido en su mínimo y por lo tanto, sería utilizada una base de muestra de entrenamiento ampliamente representativa de muchas regiones geográficas y, o, varios vehículos. Cuando sean necesarias diferentes redes neurales, sería útil almacenar todas las configuraciones dentro de la memoria del programa del procesador y cambiar automáticamente a la red neural adecuada. Por ejemplo, un sistema de posicionamiento global (GPS) podría ser utilizado para determinar la región en la cual el vehículo está siendo conducido y para cambiar a una red neural entrenada para estas condiciones de conducción. El conductor también podría establecer la región actual de manejo a través de un menú u otro ajuste de cambio. El vehículo podría anunciar su modelo con respecto a la conexión del vehículo y la red neural adecuada que es seleccionada. Las condiciones de conducción a mano derecha y a mano izquierda podrían ser identificadas mediante el monitoreo de la posición prevaleciente y el movimiento de las fuentes luminosas para un periodo inicial .
En los países de conducción de carril derecho, los faros delanteros aparecerán en la izquierda de la imagen y se moverán hacia la izquierda conforme se aproximan. La situación contraria será cierta en los países de conducción de carril izquierdo. La señalización del camino también podría ser utilizada para identificar estas situaciones. Los ejemplos señalados en este documento no deben ser interpretados que limitan la presente invención a las modalidades específicas descritas. La presente invención no debe ser interpretada que es limitada a cualquier estructura particular de red neural, ni a cualquier algoritmo estadístico particular, tampoco a cualquier combinación particular de entradas o salidas. Muchas redes neurales pequeñas o algunas grandes podrían ser combinadas en una diversidad de modos dentro del espíritu de la presente invención para proporcionar un método de identificación y clasificación de fuentes luminosas dentro de las imágenes. En forma similar, debe entenderse que podrían ser empleadas funciones individuales de probabilidad. Las funciones individuales de probabilidad podrían comprender el análisis estadístico único o podrían ser un subconjunto de otras funciones de probabilidad. También debe entenderse que varios aspectos de la presente invención podrían ser utilizados, en forma independiente, de otros aspectos de la invención. Por ejemplo, cada una de las etapas representadas en la Figura 5 podría ser utilizada de manera independiente con otras etapas y en un orden distinto o configuración diferente que las presentadas. También se anticipa que varios aspectos útiles de la técnica anterior, cuando son combinados con aspectos de la presente invención, podrían funcionar adecuadamente hacia la consecución de los objetivos de la presente invención. Además de proporcionar un método de identificación y clasificación de fuentes luminosas para el control de iluminación vehicular, varios aspectos de la presente invención podrían ser útiles para otros propósitos, tanto para funciones de control vehicular como para otras aplicaciones de formación de imagen y sin formación de imagen. Por ejemplo, se considera un sensor de lluvia que detecta el nivel de humedad en un parabrisas del vehículo y que en consecuencia, activa automáticamente los limpiadores del parabrisas del vehículo. Estos dispositivos podrían utilizar un sistema de formación de imagen para adquirir una imagen de la superficie del parabrisas y para analizar la imagen debido a la presencia de la lluvia. Los ejemplos de estos sistemas están contenidos en las Patentes comúnmente asignadas de los Estados Unidos Nos. 5, 923,027 y 6, 681,163, ambas de las cuales son incorporadas en su totalidad en este documento como referencia. Como una alternativa a los métodos propuestos por la técnica anterior, un núcleo de red neural como se describió con anterioridad, podría ser utilizado para identificar la presencia de una gota de lluvia dentro de la imagen. El núcleo podría funcionar en una sub-ventana pequeña, por ejemplo, una región de 5x5 píxel y podría proporcionar una salida indicativa de la presencia en la imagen de la gota de de lluvia dentro de esta región. La red neural podría ser entrenada proporcionando la misma con muchos segmentos clasificados de imagen, algunos de los cuales contienen gotas de lluvia y otros no. Como una alternativa para el uso del núcleo, los objetos o picos podrían ser extraídos a partir de la imagen utilizando técnicas tales como el llenado por semilla, o la detección de pico, el algoritmo y las propiedades de estos objetos alimentados en una red neural. Una dificultad de estos sistemas de detección de humedad se refiere a la diferenciación entre los objetos de fondo de la escena hacia adelante del vehículo controlado y los objetos en el intervalo cercano sobre el parabrisas. La técnica anterior intenta resolver este problema al proporcionar un sistema óptico configurado para objetos distantes borrosos mientras enfoca los objetos cercanos. Mientras que esta configuración es exitosa en gran medida, las fuentes luminosas ocasionalmente brillantez, tales como los faros delanteros que se aproximan, saturan la imagen provocando irregularidades que podrían ser mal tomadas como gotas de lluvia. La adquisición de imagen sintética HDR y la técnica de síntesis podrían servir para aliviar este problema. Asimismo, el ruido de patrón fijo podría proporcionar otra fuente del problema para los sensores de lluvia que puede ser superado mediante la técnica de corrección de ruido de patrón fijo presentada en este documen o . Otro método de distinción entre las caídas o gotas de lluvia y los objetos de fondo es rastrear la posición de los objetos fuera de tiempo en un modo similar al que se presentó en este documento para el seguimiento del movimiento de las fuentes luminosas. Las gotas de lluvia son probables que no se muevan en la imagen mientras que la mayoría de objetos en el fondo se moverán. Esta distinción además ayuda a diferenciar entre las gotas de lluvia y otros objetos. Todavía otro método de distinción de gotas de lluvia de otros objetos involucra la toma de dos imágenes, una encendida con una fuente luminosa, tal como un LED, y una sin fuente luminosa. El LED es colocado de manera que la luz que proviene del LED se extienda a partir de las gotas de lluvia que pueden ser configuradas por el formador de imagen. Dos imágenes son tomadas, una con el LED encendido y otra con el LED apagado. La diferencia de estas dos imágenes es utilizada para identificar las gotas de lluvia. En forma alterna, ambas imágenes podrían ser procesadas aunque sólo los objetos que aparecen sólo cuando el LED esta encendido son consideradas gotas de lluvia. La diferenciación podría ser además mejorada al proporcionar un filtro para el formador de imagen que sólo permite que la luz de la longitud de onda aproximada del LED sea trasmitida y formada como imagen. Estos sensores de lluvia podrían ser proporcionados mediante la utilización de un sensor único de imagen para realizar tanto el control de luz exterior como las funciones de detección de lluvia. En forma alterna, podrían ser utilizados sensores separados de imagen con lentes separados para cada función. En este caso, las dos funciones podrían beneficiarse al compartir muchos componentes tales como un microcontrolador, una memoria, una interfaz LVDS SPI, una placa de circuitos, el suministro de alimentación de energía, un oscilador, cables e interconexiones, estructuras de montaje mecánico y otros. Ambas funciones, y posiblemente otras funciones de formación de imagen, podrían ser proporcionadas juntas en un espejo retrovisor de vehículo. Las cámaras podrían compartir una conexión eléctrica común, como se describió en las Publicaciones de Solicitud de Patente comúnmente asignadas de los Estados Unidos Nos . 2002/0156559 Al y 2004/0143380 Al, las descripciones de las cuales son incorporadas en este documento en su totalidad como referencia. La salida del sensor de lluvia podría ser utilizada para mejorar adicionalmente la función de control de luz exterior. El sensor de lluvia podría indicar que el parabrisas está, ya sea húmedo o brumoso y posteriormente, el control automático de luz exterior debe ser suspendido. Las luces para niebla u otras luces para mal tiempo podrían ser activadas. Obviamente, cualquier función podría ser proporcionada sola, ya sea dentro de un espejo retrovisor o en cualquier lugar. La presente invención ha sido descrita que incorpora un elemento de espejo electrocrómico dentro del alojamiento de espejo del montaje de espejo retrovisor inventivo. Será apreciado por aquellas personas expertas en la técnica que varios otros accesorios y componentes del vehículo podrían ser incorporados en el montaje de espejo retrovisor en su conjunto o en parte y en varias combinaciones. Estos accesorios y componentes del vehículo podrían ser colocados dentro, sobre o en el alojamiento de espejo, el montaje de espejo, una unión con el montaje o alojamiento de espejo, o en una consola u otro alojamiento asociado con el montaje de espejo retrovisor. Además, cualquiera de estos accesorios de vehículo podrían compartir los componentes entre sí, tales como procesadores, sensores, alimentaciones de energía eléctrica, arnés alámbrico y enchufes, señales acústicas, interruptores, antena, etcétera. Los ejemplos de otros accesorios, componentes o características del vehículo son descritos adicionalmente en este documento.
A continuación, con referencia a la Figura 18, se muestra una vista en despiece de un montaje de espejo retrovisor exterior 1805 que tiene un alojamiento 1810 conectado con un número de unión 1815 por medio de una extensión telescópica 1820. Al menos en una modalidad, la extensión telescópica 1820 comprende un brazo único que tiene un actuador lineal que extiende y retrae la extensión telescópica desde dentro del vehículo asociado. La extensión telescópica 1820 podría comprender un actuador lineal de tipo piñón y cremallera, un actuador lineal de tipo válvula solenoide eléctrica, un actuador de pistón neumático o hidráulico. El alojamiento 1810 podría ser configurado, de manera que el alojamiento gira en forma axial alrededor de la extensión telescópica. Además, la extensión telescópica podría ser configurada, de manera que el alojamiento pueda ser doblado o plegado hacia adentro en dirección del vehículo asociado y hacia afuera del vehículo asociado. El miembro de unión 1815 es configurado para ser recibido por un montaje de vehículo 1825. El montaje de vehículo podría ser fijado en un panel de puerta, un poste o soporte-A, una cubierta de protección frontal, un montaje de ventana o cualquier otra posición en donde el conductor pueda observar la escena generalmente hacia atrás del vehículo asociado. Debe entenderse que la extensión telescópica podría comprender dos o más brazos y que el alojamiento podría ser configurado para girar y doblarse sin considerar el número de brazos empleados. También debe entenderse que el alojamiento podría ser conectado con una extensión no telescópica en una posición mostrada como el número de referencia 1820a, de manera que el alojamiento gira alrededor de la conexión 1820a de modo que el espejo podría ser colocado más cerca o más lejos del vehículo si se desea; esta característica podría ser acompañada por un mecanismo de posicionamiento de energía eléctrica, de manera que el accionamiento podría ser realizado en el interior del vehículo. Debe entenderse que el alojamiento de espejo, la extensión y el miembro de unión podrían ser configurados de manera que las operaciones telescópicas, de giro y de plegamiento requieran de una operación manual . Un arnés de alambrado 1830 con un conector 1835 son proporcionados para la interconexión del espejo exterior con el aparato asociado que se encuentra situado en el interior del vehículo asociado. El arnés de alambrado podría ser configurado para proporcionar la extensión, el plegamiento y el giro del alojamiento y también podría ser configurado para proporcionar el control reflectivo del elemento, la alimentación de energía eléctrica, el accionamiento de la señal de cambio de dirección, el control del calefactor del espejo, el posicionamiento del elemento de espejo, la interfaz del sensor de iluminación, la interfaz de la placa de circuito del espejo exterior, la interfaz del transceptor, la interfaz de la pantalla de información, la interfaz de la antena, la energía y el control de la fuente luminosa, la interfaz del destellador de emergencia y todas las otras características eléctricas como se describen en este documento. Debe entenderse que las interconexiones del operador son proporcionadas dentro del vehículo para cada una de estas características en donde sea adecuado . Un posicionador de elemento de espejo 1840 es proporcionado para alinear el elemento reflectivo asociado dentro del alojamiento desde el interior del vehículo asociado. Debe entenderse que una correspondiente interfaz del operador es proporcionada dentro del vehículo para el posicionamiento del elemento reflectivo. El posicionador 1840 es mecánicamente conectado con un portador que proporciona una estructura segura para soportar y desplazar el elemento reflectivo asociado. Los ejemplos de portadores adecuados son descritos en las Patentes de los Estados Unidos Nos. 6, 195, 194 y 6, 239, 899, las descripciones de las cuales se incorporan en este documento en su totalidad como referencia .
Al menos en una modalidad, una espuma adhesiva de doble lado 1850 es empleada para unir el elemento reflectivo con el portador. En ciertos ejemplos, las aperturas 1851 podrían ser proporcionadas en la espuma adhesiva de doble lado para acomodar el posicionamiento de varios componentes. Al menos en una modalidad, una placa de circuito eléctrico 1855 es proporcionada en el montaje de espejo retrovisor. La placa de circuito eléctrico podría comprender una fuente luminosa tal como una luz de señal de cambio de dirección, un iluminador de bocallave, o un iluminador del área de la puerta exterior, como es enseñado en la Patente de los Estados Unidos No. 6, 441,943, la descripción total de la cual se incorpora en su totalidad en este documento como referencia, una pantalla de información, una antena, un transceptor, un control de elemento reflectivo, un sistema de comunicación de espejo exterior, un sistema distante de entrada de bocallave, sensores de proximidad e interconexiones para otros aparatos descritos en este documento. Las Patentes de los Estados Unidos Nos. 6, 244,716, 6, 523,976, 6, 521,916, 6, 441,943, 6, 335,548, 6, 132,072, 5, 803,579, 6, 229,435, 6, 504,142, 6, 402,328, 6, 379,013 y 6, 359,274 describen varios componentes eléctricos y placas de circuito eléctrico que podrían ser empleados en una o más modalidades, las descripciones de cada una de estas Patentes de los Estados Unidos son incorporadas en este documento en su totalidad como referencia.
Al menos en una modalidad, un montaje de espejo retrovisor es proporcionado con un calefactor 1860 que mejora la operación del dispositivo y para fundir la precipitación congelada que pudiera estar presente. Los ejemplos de varios dispositivos de calefacción o calefactores son descritos en las Patentes de los Estados Unidos Nos. 5, 151,824, 6, 244,716, 6, 426,485, 6, 441,943 y 6, 356,376, las descripciones de cada una de estas Patentes son incorporadas en su totalidad en este documento como referencia. Al menos en una modalidad, el elemento reflectivo tiene una característica de reflectancia variable. El elemento reflectivo de reflectancia variable podría comprender un primer substrato 1865 y un segundo substrato 1870 asegurados en una relación separada por medio de un sello 1875 para definir una cámara entre los mismos. El elemento reflectivo podría ser configurado para definir un elemento convexo, un elemento asférico, un elemento plano, un elemento no plano, un campo ancho de elemento visual o una combinación de estas configuraciones diversas en diferentes áreas para definir una forma compleja de elemento de espejo. La primera superficie del primer substrato podría comprender un revestimiento hidrofílico o hidrofóbico para mejorar la operación. El elemento reflectivo podría comprender propiedades transflectivas , de manera que una fuente luminosa, o pantalla de información, podría ser colocada por detrás del elemento y podrían sobresalir rayos de luz a través del mismo. El elemento reflectivo podría comprender una capa contra los rayones, o capas, sobre las superficies expuestas del primer y, o, segundo substratos. El elemento reflectivo podría comprender área(s) desprovistas de material reflectivo, tal como de un ataque químico en barras o palabras para definir el área(s) de presentación de información. Los ejemplos de varios elementos reflectivos son descritos en las Patentes de los Estados Unidos Nos. 5, 682,267, 5, 689,370, 6, 064,509, 6, 062,920, 6, 268,950, 6, 195,194, 5, 940,201, 6, 246,507, 6, 057,956, 6, 512,624, 6, 356,376, 6, 166,848, 6, 111,684, 6, 193,378, 6, 239,898, 6, 441,943, 6, 037,471, 6, 020,987, 5, 825,527, 6, 111,684 y 5, 998,617, las descripciones de cada una de estas Patentes son incorporadas en su totalidad como referencia. De preferencia, la cámara contiene un medio electrocrómico . De preferencia, el medio electrocrómico es capaz de atenuar, de manera selectiva, la luz que se desplaza a través del mismo y se prefiere que tenga al menos un material electrocrómico de fase por solución y de preferencia, al menos un material adicional electroactivo que podría ser de fase por solución, confinado por superficie o uno que sea revestido sobre una superficie. No obstante, los medios actualmente preferidos son electrocrómicos de fase por solución redox, tal como aquellos descritos en las Patentes comúnmente asignadas de los Estados Unidos Nos. 4, 902,108, 5, 128,799, 5, 278,693, 5, 280,380, 5, 282,077, 5, 294,376, 5, 336,448, 5, 808,778 y 6, 020,987; las descripciones completas de las cuales son incorporadas en este documento en su totalidad como referencia. Si fuera utilizado un medio electrocrómico de fase por solución, este podría ser introducido en la cámara a través de un puerto de llenado sellable por medio de técnicas bien conocidas, tal como el rellenado por vacío y similares. De preferencia, el medio electrocrómico incluye materiales electrocrómicos anódicos y catódicos que pueden ser agrupados en las siguientes categorías : De capa única - el medio electrocrómico es una capa única de material que podría incluir regiones pequeñas no homogéneas e incluye dispositivos de fase por solución en donde un material está contenido en la solución en el electrolito de conducción iónica y permanece en la solución en el electrolito cuando es oxidado o reducido en forma electroquímica. Las Patentes de los Estados Unidos Nos. 6, 193,912; 6, 188,505; 6, 262,832; 6, 137,620; 6, 195,192; 6, 392,783 y 6, 249,369 describen materiales anódicos y catódicos que podría ser utilizados en un medio electrocrómico de capa única, las descripciones totales de las cuales son incorporadas en este documento como referencia. Los materiales electroactivos de fase por solución podrían estar contenidos en la fase de solución continua de una matriz de polímero de enlace cruzado o reticulante de acuerdo con las enseñanzas de la Patente de los Estados Unidos No. 5, 928,572 o la Solicitud de Patente Internacional No. PCT/US98/05570 titulada El ctrochromic Polimeric Solid Films, Manufacturing Electrochromic Devices üsing Solid Films and Processes For Making Such Solid Films and Devices, las descripciones totales de las cuales son incorporadas en este documento como referencia. Al menos tres materiales electroactivos, por lo menos dos de los cuales son electrocrómicos, pueden ser combinados para proporcionar un color preseleccionado como se describe en la Patente de los Estados Unidos No. 6, 020,987, la descripción total de la cual se incorpora en este documento como referencia. Esta capacidad para seleccionar el color del medio electrocrómico es particularmente ventajosa cuando se diseñan las pantallas de información con elementos asociados . Los materiales anódicos y catódicos pueden ser combinados o reticulados mediante una unidad de conexión como se describe en la Solicitud internacional No. PCT/W097/EP498 , titulada "ELECTROCHROMIC SYSTEM" , la descripción total de la cual se incorpora en este documento como referencia. También es posible enlazar materiales anódicos o materiales catódicos por medio de métodos similares . Los conceptos descritos en estas Solicitudes además pueden ser combinados para producir una variedad de materiales electrocrómicos que sean reticulados . Además, un medio de capa única incluye el medio en donde los materiales anódicos y catódicos pueden ser incorporados en la matriz de polímero como se describe en la Solicitud internacional No. PCT/W098/EP3862 titulada "ELECTROCHROMIC POLYMER SYSTEM" , en la Patente de los Estados Unidos No. 6, 002,511, o en la Solicitud de Patente internacional No. PCT/US98/05570 titulada "ELECTROCHROMIC POLIMERIC SOLID FILMS, MANUFACTURING ELECTROCHROMIC DEVICES USING SOLID FILMS AND PROCESSES FOR MAKING SUCH SOLID FILMS AND DEVICES", las descripciones totales de las cuales son incorporadas en este documento como referencia. También se incluye un medio en donde uno o más materiales en el medio experimenta un cambio de fase durante la operación del dispositivo, por ejemplo, un sistema de deposición en donde un material está contenido en la solución en el electrolito de conducción iónica que forma una capa, o una capa parcial en el electrodo de conducción electrónica cuando es oxidado o reducido en forma electroquímica. (ii) Capas múltiples - el medio está constituido en capas e incluye al menos un material directamente unido con un electrodo de conducción electrónica o confinado en proximidad cercana con el mismo, el cual permanece unido o confinado cuando es oxidado o reducido en forma electroquímica. Los ejemplos de este tipo de medio electrocrómico son las películas de óxido de metal, tal como el óxido de tungsteno, el óxido de iridio, el óxido de níquel y el óxido de vanadio. Un medio, que contiene una o más capas orgánicas electrocrómicas , tal como politiofeno, polianilina o polipirrola unidos con el electrodo también sería considerado en un medio de múltiples capas. Además, el medio electrocrómico también podría contener otros materiales tales como absorbentes de luz, estabilizadores de luz, estabilizadores térmicos, antioxidantes, adherentes o modificadores de viscosidad. Podría ser deseable incorporar un gel en el dispositivo electrocrómico como se discute en la Patente comúnmente asignada de los Estados Unidos No. 5, 940,201, la descripción total de esta Patente de los Estados Unidos se incorpora en este documento como referencia. Al menos en una modalidad, se proporciona un montaje de espejo retrovisor con un elemento electro-óptico que tiene un sello sustancialmente transparente. Los ejemplos de sellos sustancialmente transparentes y métodos de conformado de sellos sustancialmente transparentes son proporcionados en la Patente de los Estados Unidos No. 5, 790,298, la descripción total de la cual se incorpora en este documento como referencia.
Al menos en una modalidad, el montaje de espejo retrovisor se proporciona con un faro o visera de automóvil 1880 para proteger el sello asociado de los daños de los rayos de luz y para proporcionar una apariencia estéticamente agradable. Los ejemplos de varias viseras son descritos en las Patentes de los Estados Unidos Nos. 5, 448,397, 6, 102,546, 6, 195,194, 5, 923,457, 6, 238,898, 6, 170,956 y 6, 1471,362, las descripciones de las cuales se incorporan en este documento en su totalidad como referencia. A continuación, con referencia a la Figura 19, un montaje de espejo 1902 se muestra que comprende un faro o visera 1955 y una cubierta 1956. La visera y la cubierta se combinan para definir el alojamiento de espejo para la incorporación de características además del elemento reflectivo y las pantallas de información. Las Patentes comúnmente designadas de los Estados Unidos Nos. 6, 102,546, 6, 410,607, 6, 1407,468, 6, 420,800, y 6, 471,362, las descripciones de las cuales se incorporan en su totalidad en este documento como referencia, describen ejemplos de varias viseras, cubiertas y la construcción asociada de botón que podría ser utilizada con la presente invención. Como se representa en la Figura 19, el montaje de espejo podría comprender un primer y un segundo micrófonos 1959, 1960. Los ejemplos de micrófonos para uso con la presente invención son descritos en la Solicitud de Patente comúnmente asignada de los Estados Unidos No. 09/444,176; en la Patente de los Estados Unidos No. 6, 614,911; y en la Publicación de Solicitud de Patente de los Estados Unidos No. US 2002/0110256 Al, y en la Solicitud PCT No. PCT/US02/32386, las descripciones de las cuales son incorporadas en su totalidad como referencia. Como se representa en las Figuras 19, 20 y 21, el micrófono o micrófonos podrían ser colocados en la parte superior del montaje de espejo, en la parte inferior del montaje de espejo, en el lado trasero de la cubierta de espejo o en cualquier lugar dentro de la cubierta o visera de espejo. De preferencia, dos micrófonos son incorporados, uno en cada extremo, en el montaje de espejo en el lado trasero de la cubierta de espejo dentro de la porción rebajada 2059a y que tiene un amortiguador acústico 2059b como se muestra en las Figuras 19, 20 y 21. Estos sistemas podrían ser integrados, al menos en parte, en un control común con pantallas de información y/o podrían compartir componentes con las pantallas de información. Además, el estado de estos sistemas y/o dispositivos controlados con lo cual, podrían ser visualizados en las pantallas asociadas de información. Con referencia adicional a la Figura 19, el montaje de espejo 1902 podría incluir un primer y segundo montajes de iluminación 1967, 1971. Varios montajes de iluminación e iluminadores para uso con la presente invención son descritos en las Patentes comúnmente designadas de los Estados Unidos Nos. 5, 803,579; 6, 335,548; 6, 441,943; 6, 521,916; 6, 523,976; 6, 670,207 y 6, 805,474, así como también, en la Publicación de Solicitud comúnmente asignada de Patente de los Estados Unidos No. US 2004/0239243 Al, las descripciones de las cuales son incorporadas en su totalidad en este documento como referencia. Como se representa adicionalmente en la Figura 21, se prefiere que cada montaje de iluminación esté constituido de un reflector, un lente y un iluminador (no se muestran) . También existen dos montajes de iluminación generalmente colocados para iluminar el área de asiento del pasajero frontal y un segundo montaje generalmente colocado para iluminar el área de asiento del conductor. En forma alterna, sólo podría existir un montaje de iluminación que ilumine ambas áreas de asiento y/o podrían existir montajes adicionales de iluminación tal como uno que ilumine el área de la consola central, el área de la consola sobre la cabeza o el área entre los asientos frontales . Con referencia adicional a la Figura 19, el montaje de espejo 1902 incluye un primer y segundo conmutadores o interruptores 1975, 1977. Los conmutadores adecuados para uso con la presente invención son descritos en detalle en las Patentes comúnmente designadas de los Estados Unidos Nos. 6, 407,468, 6, 420,800, 6, 426,568, y 6, 471,362, así como también, la Publicación de Solicitud de Patente comúnmente asignada de los Estados Unidos, No. US 2002/0024713 Al, las descripciones de las cuales son incorporadas en su totalidad en este documento como referencia. Estos conmutadores podrían ser incorporados para controlar los montajes de iluminación, las pantallas, la reflectividad del espejo, un sistema activado por voz, el sistema de brújula, el sistema de telefonía, la interfaz de cabina de red regional de autopista, un sistema de telemetría, un controlador de faros delanteros, un sensor de lluvia, un sistema de monitoreo de presión de los neumáticos, un sistema de navegación, un sistema de advertencia de salida o abandono de carril, un sistema adaptivo de control de circulación, etc. Cualquier otra pantalla o sistema descritos en este documento o dentro de las referencias incorporadas como informe, podrían ser incorporadas en cualquier posición dentro del vehículo asociado y podrían ser controlados utilizando los conmutadores o interruptores . Con referencia adicional a la Figura 19, el montaje de espejo 1902 incluye un primer y un segundo indicadores 1980, 1983. Varios indicadores para uso con la presente invención son descritos en las Patentes comúnmente designadas de los Estados Unidos Nos. 5, 803,579; 6, 335,548; 6, 441,943; 6, 521,916; 6, 523,976; 6, 670,207 y 6, 805,474 así como también, en la Publicación de Solicitud de Patente comúnmente asignada de los Estados Unidos No. US 2004/0239243 Al, las descripciones de las cuales se incorporan en su totalidad en este documento como referencia. Estos indicadores podrían señalar el estado de las pantallas, la reflectividad de espejo, el sistema activado por voz, un sistema de brújula, el sistema de telefonía, la interfaz de cabina de red regional de autopista, un sistema de telemetría, un controlador de faros delanteros, un sensor de lluvia, un sistema de seguridad, etc. Cualquier otra pantalla o sistema descritos en este documento o dentro de las referencias incorporadas como informe podrían ser incorporados en cualquier posición dentro del vehículo asociado y podrían tener un estado representado por los indicadores . Con referencia adicional a la Figura 19, el montaje de espejo 1902 podría incluir un primer y un segundo sensores de luz 1986, 1988 (los sensores de deslumbramiento y ambiental 2187, 2189 en la Figura 21) . Los sensores preferidos de luz para uso dentro de la presente invención son descritos en detalle en las Patentes comúnmente designadas de los Estados Unidos Nos. 5, 923,027; 6, 313,457; 6, 359,274; 6, 379,013; 6, 402,328; y 6, 831,268 y en la Publicación de Solicitud de Patente de los Estados Unidos No. US 2002/0056806 Al, las descripciones de las cuales son incorporadas en su totalidad en este documento como referencia. El sensor de deslumbramiento y/o el sensor de ambiente controlan, en forma automática, la reflectividad de un elemento reflectivo de auto reducción gradual, así como también la intensidad de las pantallas de información y/o la iluminación posterior. El sensor de deslumbramiento o brillo es utilizado para detectar los faros delanteros de los vehículos traseros o posteriores y el sensor de ambiente es utilizado para detectar las condiciones de iluminación ambiental en la que está operando el sistema. En otra modalidad, un sensor de espacio aéreo podría ser incorporado, de manera que sea situado para detectar los niveles de luz generalmente por encima y en la parte frontal de un vehículo asociado, el sensor de espacio aéreo podría ser utilizado para controlar, en forma automática, la reflectividad de un elemento de auto reducción de intensidad, las luces exteriores de un vehículo controlado y/o la intensidad de las pantallas de información. El montaje de espejo además podría incluir sensores de carga por sol que detectan los niveles de luz hacia el lado del conductor y el lado del pasajero del vehículo de manera que se regule el sistema de control de clima del vehículo. Con referencia adicional a la Figura 19, el montaje de espejo 1902 podría incluir una primera, una segunda, una tercera y una cuarta interfaces de operador 1990, 1991, 1992, 1993 situadas en la visera de espejo 1955. Cada interfaz de operador se muestra que comprende la pantalla de información de iluminación trasera "A" "AB" "Al" y "12" . Debe entenderse que estas interfaces de operación pueden ser incorporadas en cualquier lugar en el vehículo asociado, por ejemplo, en la cubierta de espejo, en el módulo de accesorios, en el panel de instrumentos, en la consola sobre la cabeza, en el tablero de instrumentos, en los asientos, en la consola central, etc. La construcción adecuada de cambio se describe en detalle en las Patentes comúnmente designadas de los Estados Unidos Nos. 6, 407,468, 6, 420,800, 6, 426,568, y 6, 471,362, así como también en la Publicación de Solicitud de Patente comúnmente asignada de los Estados Unidos, No. US 2002/0024713 Al, las descripciones de las cuales se incorporan en su totalidad como referencia. Estas interfaces de operador podrían controlar los montajes de iluminación, las pantallas, la reflectividad de espejo, un sistema activado por voz, el sistema de brújula, el sistema de telefonía, la interfaz de cabina de red regional de autopista, un sistema -de telemetría, un controlador de faros delanteros, un sensor de lluvia, un sistema de monitoreo de presión de los neumáticos, un sistema de navegación, un sistema de advertencia de salida o abandono de carril, o sistema adaptivo de control de circulación, etc. Cualquier otra pantalla o sistema descritos en este documento o dentro de las referencias incorporadas como informe, podrían ser incorporadas en cualquier posición dentro del vehículo asociado y podrían ser controlados utilizando una interfaz o interfaces de operador. Por ejemplo, el usuario podría programar una pantalla o pantallas para que representen la información predeterminada o podría programar una pantalla o pantallas para desplazarse a través de una serie de información, o podría entrar puntos de ajuste asociados con cierto equipo de operación con entradas asociadas de sensor para visualizar cierta información sobre la ocurrencia de un evento dado. En una modalidad, por ejemplo, una pantalla dada podría estar en un estado no iluminado hasta que la temperatura del motor se encuentre por encima de un umbral o magnitud, entonces, la pantalla es automáticamente ajustada para presentar la temperatura del motor. Otro ejemplo es que los sensores de proximidad situados en la parte posterior del vehículo podrían ser conectados con un controlador y podrían ser combinados con una pantalla en un espejo retrovisor para indicar al conductor la distancia a un objeto; la pantalla podría ser configurada como una barra que tiene una longitud proporcional a la distancia dada. Aunque las posiciones y números específicos de estas características adicionales son representadas en la Figura 19, debe entenderse que una menor cantidad o más dispositivos individuales podrían ser incorporados en cualquier posición dentro del vehículo asociado y como se describe dentro de las referencias incorporadas en este documento .
A continuación, con referencia a la Figura 20, se muestra una vista en corte de un montaje de espejo 2002. La sección representada de la Figura 20 es tomada a lo largo de la línea de corte 20-20 de la Figura 19. La Figura 20 muestra una relación posicional preferida de una tercera y cuarta pantallas de información 2026, 2041 con respecto al elemento reflectivo 2005 junto con la tercera iluminación posterior de pantalla de información 2027 dentro de un alojamiento definido por la cubierta 2056 y la visera 2055. El montaje de espejo 2002 también se muestra que comprende un micrófono 2059; una primera interfaz de operador 2090; junto con la placa de circuito 2095; el montaje de espejo 2057 y el módulo de accesorios 2058. El montaje de espejo 2057 y/o el módulo de accesorios 2058 podrían comprender sensores de brújula, una cámara, un control de faros delantero, un microprocesador adicional, un sensor de lluvia, pantallas adicionales de información, interfaces- adicionales de operador, etc. A continuación, con referencia a la Figura 21, se muestra una vista en despiece de un montaje de espejo 2102. La Figura 21 proporciona el detalle adicional con respecto a una relación posicional preferida de componentes individuales, así - como también, proporciona el detalle estructural adicional de un montaje de espejo. El montaje de espejo 2102 comprende un elemento reflectivo 2105 dentro de una visera 2155 y una cubierta de espejo 2156. Un montaje de espejo 2157 es incluido para la colocación del montaje de espejo dentro de un vehículo. Debe entenderse que un sinnúmero de accesorios podrían ser incorporados en el montaje 2157 tal como un sensor de lluvia, una cámara, un control de faros delanteros, un microprocesador adicional, pantallas adicionales de información, sensores de brújula, etc. Estos sistemas podrían ser integrados, al menos en parte, en un control común con pantallas de información y/o podrían compartir componentes con las pantallas de información. Además, el estado de estos sistemas y/o dispositivos controlados con lo cual, podrían ser visualizados en las pantallas asociadas de información. El montaje de espejo 2102 se muestra en la Figura 21 que además comprende una tercera pantalla de información 2126 con una tercera iluminación trasera de pantalla de información 2137, 2138, 2139; un primer y un segundo micrófonos 2159, 2160; un primer reflector 2168 con un primer lente 2169; un segundo reflector 2172 con un segundo lente 2173; un sensor de brillo 2187; un sensor de luz ambiental 2189; una primera, segunda, tercera y cuarta interfaces de operador 2190, 2191, 2192, 2193 con una primera, segunda, tercera y cuarta iluminación posterior de interfaces de operador 2190a, 2191a. 2192a, 2193a; una placa de circuito 2195 que tiene un módulo de sensor de brújula 2199; y una placa hija o descendiente 2198 con una interfaz de conexión de entrada/salida 2197.
El primer reflector 2168 se combina con el primer lente 2169 y una primera fuente luminosa (no se muestra) para formar un primer montaje de iluminación. El segundo reflector 2172 se combina con el segundo lente 2173 y una segunda fuente luminosa (no se muestra) para formar un segundo montaje de iluminación. De preferencia, los montajes de iluminación con fuentes luminosas asociadas son construidos con las enseñanzas de las Patentes comúnmente asignadas de los Estados Unidos Nos. 5, 803,579; 6, 335,548; 6, 441,943; 6, 521,916; 6, 523,976; 6, 670,207 y 6, 805,474 así como también, la Publicación de Solicitud de Patente comúnmente asignada de los Estados Unidos No. US 2004/0239243 Al, las descripciones de las cuales se incorporan en su totalidad en este documento como referencia. De preferencia, el sensor de luz de brillo 2187 y el sensor de luz ambiental 2189 son sensores de luz activa como se describió en las Patentes comúnmente asignadas de los Estados Unidos Nos. 6, 359,274 y 6, 402,328, las descripciones de las cuales se incorporan en su totalidad en este documento como referencia. La señal de salida eléctrica que proviene de cualquiera o de ambos de los sensores 2187, 2189 podrían ser utilizadas como entradas a un controlador 2196 para regular la reflectividad del elemento reflectivo 2105 y, o, la intensidad de la tercera iluminación posterior de pantalla de información 2127. Los detalles de varios circuitos de control para uso con el mismo son descritos en las Patentes comúnmente asignadas de los Estados Unidos Nos . 5, 883,605, 5, 956,012, 6, 084,700, 6, 222,177, 6, 224,716, 6, 247,819, 6, 249,369, 6, 392, 783 y 6, 402,328, las descripciones de las cuales se incorporan en su totalidad en este documento como referencia. Estos sistemas podrían ser integrados, al menos en parte, en un control común con pantallas de información y/o podrían compartir componentes con las pantallas de información. Además, el estado de estos sistemas y/o los dispositivos controlados con lo cual podrían ser visualizados en las pantallas asociadas de información. Aunque el módulo de sensor de brújula 2199 se muestra que es montado en la placa de circuito 2195 en la Figura 21, debe entenderse que el módulo de sensor podría ser colocado dentro del montaje 2157, en un módulo de accesorio 2158 colocado junto al montaje de espejo 2102 o en cualquier posición dentro de un vehículo asociado tal como debajo del tablero de instrumentos, en una consola sobre la cabeza, una consola central, un conducto de ventilación, un compartimiento de motor, etc. Las Patentes comúnmente asignadas de los Estados Unidos Nos. 6, 023,229; 6, 140,933; 6, 653,831, así como también, las Publicaciones de Solicitud de Patente comúnmente asignada de los Estados Unidos Nos. US 2003/0167121 Al; y US 2004/0254727 Al, las descripciones de las cuales se incorporan en su totalidad en este documento como referencia, describen en detalle varios sistemas de brújula para uso con la presente invención. Estos sistemas podrían ser integrados, al menos en parte, en un control común con pantallas de información y/o podrían compartir componentes con las pantallas de información. Además, el estado de estos sistemas y/o los dispositivos controlados con lo cual podrían ser visualizados en las pantallas asociadas de información. La placa hija o descendiente 2198 se encuentra en comunicación operativa con la placa de circuito 2195. La placa de circuito 2195 podría comprender un controlador 2196, tal como un microprocesador, y una placa descendiente 2198 podría comprender una pantalla de información (no se muestra en la Figura 21) . El procesador podría recibir, por ejemplo la señal (es) que provienen del módulo de sensor de brújula 2199 y podría procesar la señal (es) y transmitir la señal (es) a la tablilla o placa descendiente para controlar una pantalla que indique la correspondiente conducción del vehículo . Como se describe en este documento y dentro de las referencias incorporadas como informe en la presente, el controlador podría recibir señal (es) que provienen del sensor (es) de luz, del sensor (es) de lluvia (no se muestran) , del control (es) automático de luz exterior del vehículo (no se muestra), del micrófono (s) , de los sistemas de posicionamiento global (no se muestran) , de los sistemas de telecomunicación (no se muestran) , de la interfaz(es) de operador y de un sinnúmero de otros dispositivos, y el control de la pantalla (s) de información para proporcionar indicaciones adecuadas visuales. El controlador 2196 (o controladores) podrían regular, al menos en parte, la reflectividad de espejo, las luces exteriores, el sensor de lluvia, la brújula, las pantallas de información, los limpiadores de parabrisas, el calefactor, el descongelador, desempañado , el acondicionamiento de aire, los sistemas de telemetría, los sistemas de reconocimiento de voz tales como los sistemas de accionamiento de voz basados en un procesador de señal digital, y la velocidad del vehículo. El controlador 2196 (o controladores) podría recibir las señales que provienen de los conmutadores y, o, sensores asociados con cualquiera de los dispositivos descritos en este documento y en las referencias incorporadas como informe en este documento para manipular, en forma automática, cualquier otro dispositivo descrito en este documento o descrito en las referencias incluidas como informe. El controlador 2196 podría ser situado, por lo menos en parte, fuera del montaje de espejo o podría comprender un segundo controlador en cualquier lugar en el vehículo o podría comprender controladores adicionales a través de todo el vehículo. Los procesadores individuales podrían ser configurados para comunicarse en serie, en paralelo, por medio del protocolo Bluetooth, por comunicación inalámbrica, a través de la conexión del vehículo, a través de una conexión CAN o cualquier otra comunicación adecuada. Los sistemas de control de iluminación exterior como se describen en las Patentes comúnmente asignadas de los Estados Unidos Nos. 5, 990,469; 6, 008,486; 6, 130,421; 6, 130,448; 6, 255,639; 6, 049,171; 5, 837,994; 6, 403,942; 6, 281,632; 6, 291,812; 6, 469,739; 6, 465,963; 6, 429,594; 6, 379,013; 6, 611,610; 6, 621,616; 6, 587,573; y 6, 774,988; y en las Publicaciones de Solicitud de Patente de los Estados Unidos Nos. US 2002/0005472 Al; US 2004/0143380 Al; y US 2003/0107323 Al, las descripciones de las cuales son incorporadas en su totalidad en este documento como referencia, podrían ser incorporadas de acuerdo con la presente invención. Estos sistemas podrían ser integrados, al menos en parte, en un control común con las pantallas de información y/o podrían compartir componentes con las pantallas de información. Además, el estado de estos sistemas y/o los dispositivos controlados con lo cual podrían ser visualizados en las pantallas asociadas de información. Los sensores de humedad y sistemas de detección de niebla de parabrisas son descritos en las Patentes comúnmente asignadas de los Estados Unidos Nos. 5, 923,027; 6, 313,457; 6, 681,163; y 6, 617,564, las descripciones de las cuales son incorporadas en su totalidad en este documento como referencia. Estos sistemas podrían ser integrados, al menos en parte, en un control común con pantallas de información y/o podrían compartir componentes con las pantallas de información. Además, el estado de estos sistemas y/o los dispositivos controlados con lo cual podrían ser visualizados en las pantallas asociadas de información. La Patente comúnmente asignada de los Estados Unidos No. 6, 262,831, la descripción de la cual se incorpora en este documento como referencia en su totalidad, describe suministros de alimentación de energía eléctrica para uso con la presente invención. Estos sistemas podrían ser integrados, al menos en parte, en un control común con pantallas de información y/o podrían compartir componentes con las pantallas de información. Además, el estado de estos sistemas y/o los dispositivos controlados con lo cual podrían ser visualizados en las pantallas asociadas de información. El montaje de espejo además podría incluir una o más antenas para la recepción y/o transmisión de señales RF. Los circuitos adecuados de recepción, transmisión, y/o procesamiento además podrían ser incluidos en o unidos con el montaje de espejo. Estas antenas podrían ser utilizadas para un sistema de telefonía celular, un sistema de transmisión/recepción BLUETOOTHTM, un sistema de entrada de código (RKE) , un sistema de abertura de puerta de garaje susceptible de ser entrenado, un sistema de monitoreo de presión de neumáticos, un sistema de satélite de posicionamiento global, un sistema LORAN, etc. Algunos de estos sistemas podrían compartir una antena común asi como circuitos de recepción, transmisión, procesamiento y visualización, en donde sea adecuado. Los ejemplos de un sistema de monitoreo de presión de neumáticos incorporados en un montaje de espejo retrovisor son descritos en las Patentes comúnmente asignadas de los Estados Unidos Nos. 6, 215,389; 6, 431,712; y 6, 696,935; y en la Solicitud de Patente de los Estados Unidos No. 09/359,144, las descripciones totales de las cuales son incorporadas en este documento como referencia. Los ejemplos de un sistema GPS incorporado en un montaje de espejo retrovisor son descritos en las Patentes comúnmente asignadas de los Estados Unidos Nos. 6, 166,698; 6, 297,781; 6, 396,446, y en la Solicitud publicada de Patente de los Estados Unidos No. US 2002/0032510 Al, las descripciones totales de las cuales son incorporadas en este documento como referencia. Un ejemplo de un sistema LORAN incorporado en un montaje de espejo retrovisor se describe en la Publicación de Solicitud de Patente comúnmente asignada de los Estados Unidos No. US 2002/0193946 Al, la descripción total de la cual se incorpora en este documento como referencia. Un ejemplo de ambos sistemas de telefonía/telemática y un sistema BLUETOOTH™ incorporado en un montaje de espejo retrovisor se describe en la Solicitud publicada de Patente comúnmente asignada de los Estados Unidos No. US 2002/0032510 Al, la descripción total de la cual se incorpora en este documento en su totalidad como referencia. Ejemplos de sistemas de abertura de puerta de garaje susceptibles de ser entrenados y sistemas RKE incorporados en un montaje de espejo retrovisor son descritos en la Patente de los Estados Unidos No. 6, 091,343, las descripciones de los cuales son incorporadas en este documento como referencia. El espejo además podría incluir un transmisor/receptor infrarrojo (IR) para realizar la transmisión/recepción de información hacia y desde el montaje de espejo y posiblemente hacia y desde el vehículo. Un ejemplo de este montaje de espejo retrovisor se describe en la Patente comúnmente asignada de los Estados Unidos No. 6, 407,712, la descripción total de la cual se incorpora en este documento como referencia. El montaje de espejo además podría incluir uno o más de los mismos o distintos tipos de pantallas. Los ejemplos de distintos tipos de pantallas incluyen pantallas fluorescentes de vacío, LCD, LCD inverso, LED, LED orgánico, matriz de puntos, índices de iluminación posterior, etc. Para las pantallas pretendidas que presentan en forma simultánea cantidades significantes de información, la pantalla en la Patente comúnmente asignada de los Estados Unidos No. 6, 346,698 podría ser utilizada, la descripción total de la cual se incorpora en este documento como referencia. Los ejemplos de pantallas de panel de indicios de iluminación posterior son descritos en las Patentes comúnmente asignadas de los Estados Unidos Nos. 6, 170,956; 6, 356,376; y 6, 572,233; y la Solicitud de Patente de los Estados Unidos No. 09/586,813 las descripciones totales de las cuales se incorporan en este documento como referencia. Varias pantallas utilizadas en espejos retrovisores son descritas en la Patente comúnmente asignada de los Estados Unidos No. 6, 356,376 y la Publicación de Solicitud de Patente de los Estados Unidos No. US 2002/0154379 Al, las descripciones totales de las cuales son incorporadas en este documento como referencia. El alambrado para los accesorios del vehículo en el alojamiento del montaje de espejo retrovisor podrían correr a través del soporte de montaje y a lo largo del parabrisas (si el soporte de montaje ya no se hubiera extendido hacia el titulador) de acuerdo con un montaje de canal. Un ejemplo de montaje de espejo retrovisor en el cual el alambrado para los accesorios en el alojamiento de montaje de espejo son enrutados a través del soporte de montaje se describe en la Patente comúnmente asignada de los Estados Unidos No. 6, 467,919, la descripción total de la cual se incorpora en este documento como referencia. Mientras que los mejores modos para llevar a cabo la invención han sido descritos en detalle, existen otras posibilidades dentro del espíritu y alcance de la presente invención. Aquellas personas familiares con la técnica a la cual esta invención se refiere reconocerán varios diseños y modalidades alternativas para poner en práctica de la invención como se define mediante las siguientes reivindicaciones. Se hace constar que con relación a esta fecha el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (64)

137 REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones :
1. Un control automático de luz exterior vehicular, caracterizado porque comprende: un controlador configurado para generar al menos una señal de control de luz exterior como una función de una red de clasificación, el controlador además es configurado para ejecutar un algoritmo que incluye por lo menos un estado de transición seleccionado a partir del grupo que está constituido de: un estado de transición de estado de encendido a estado de apagado y un estado de transición de estado de apagado a estado de encendido, en donde la red de clasificación es entrenada utilizando fuentes luminosas que son clasificadas mediante el empleo del conocimiento experto.
2. El control automático de luz exterior vehicular de conformidad con la reivindicación 1, caracterizado porque la red de clasificación es seleccionada a partir del grupo que comprende: una red neural y una función de probabilidad.
3. El control automático de luz exterior vehicular de conformidad con la reivindicación 1, caracterizado porque el conocimiento experto es seleccionado a partir del grupo 138 que comprende: datos empíricos, datos experimentales, datos estadísticos y datos manualmente clasificados.
4. Un control automático de luz exterior vehicular, caracterizado porgue comprende: un controlador configurado para generar al menos una señal de control de luz exterior como una función de un análisis de red neural.
5. El control automático de luz exterior vehicular de conformidad con la reivindicación 4, caracterizado porque el análisis de red neural comprende: una pluralidad de entradas y una pluralidad de factores de ponderación, al menos uno de los cuales es asociado con cada entrada.
6. El control automático de luz exterior vehicular de conformidad con la reivindicación 5, caracterizado además porque comprende al menos una salida, en donde por lo menos una salida está basada al menos en una del grupo que comprende: la suma de las entradas, los productos de las entradas, la suma de las entradas con factores asociados de ponderación y los productos de las entradas con factores asociados de ponderación.
7. El control automático de luz exterior vehicular de conformidad con la reivindicación 4, caracterizado porque el análisis de red neural además comprende: al menos un nodo oculto de capa; y 139 al menos un factor de ponderación, en donde cada nodo oculto de capa es asociado por lo menos con un factor de ponderación.
8. El control automático de luz exterior vehicular de conformidad con la reivindicación 7, caracterizado porque el valor de cada nodo oculto de capa está basado en el producto al menos de una o más entradas y por lo menos de un factor de ponderación asociado con cada entrada.
9. El control automático de luz exterior vehicular de conformidad con la reivindicación 8, caracterizado porque la señal de control de luz exterior está basada en el producto al menos de un nodo oculto de capa y los factores asociados de ponderación.
10. El control automático de luz exterior vehicular de conformidad con la reivindicación 4, caracterizado porque las variables de entrada son seleccionadas a partir del grupo de las características de fuente luminosa que comprenden: la brillantez pico, la brillantez total, la posición del centroide, el gradiente, el ancho, la altura, el color, el movimiento en dirección-x, el movimiento en dirección-y, el cambio de brillantez, el enveecimiento, el movimiento promedio en dirección-x, el movimiento promedio en dirección-y, la variación de movimiento, el cambio en la brillantez que se correlaciona con un cambio en la brillantez de una luz exterior de un vehículo controlado y el cambio promedio de brillantez. 140
11. El control automático de luz exterior vehicular de conformidad con la reivindicación 4, caracterizado porque las variables de entrada son seleccionadas a partir del grupo de parámetros controlados de operación asociados con el vehículo que comprenden: la velocidad del vehículo, el nivel de luz ambiental, la velocidad de cambio de dirección del vehículo, el seguimiento del carril, la inclinación del vehículo, la oscilación del vehículo, la ubicación geográfica y el tipo de camino o carretera.
12. El control automático de luz exterior vehicular de conformidad con la reivindicación 11, caracterizado porque la velocidad de cambio de dirección del vehículo es determinada al menos por medio de uno de los factores seleccionados del grupo que comprende: el ángulo del volante de dirección, una brújula, la velocidad de conducción, GPS y los resultados del análisis de imagen.
13. El control automático de luz exterior vehicular de conformidad con la reivindicación 4, caracterizado porque la red neural además comprende al menos una salida seleccionada a partir del grupo que comprende: un valor verdadero-falso de Boole y un valor sustancialmente continuo que es indicativo de una probabilidad.
14. El control automático de luz exterior vehicular de conformidad con la reivindicación 4, caracterizado porque el controlador además es configurado para determinar si al 141 menos una fuente luminosa es cualquiera de un faro delantero de un vehículo que se aproxima, una luz trasera de un vehículo delantero o una fuente luminosa que no es vehicular como una función del análisis de red neural .
15. El control automático de luz exterior vehicular de conformidad con la reivindicación 14, caracterizado porque la determinación además es una función de la brillantez de la fuente luminosa.
16. El control automático de luz exterior vehicular de conformidad con la reivindicación 14, caracterizado porque la determinación además es una función de cualquier fluctuación de corriente alterna CA que podría estar presente en la fuente luminosa.
17. El control automático de luz exterior vehicular de conformidad con la reivindicación 4, caracterizado porque la red neural es entrenada utilizando datos empíricos.
18. El control automático de luz exterior vehicular de conformidad con la reivindicación 17, caracterizado porque los datos empíricos son obtenidos mediante el análisis al menos de una imagen que corrprende fuentes luminosas conocidas.
19. El control automático de luz exterior vehicular de conformidad con la reivindicación 4, caracterizado porque comprende veintitrés variables de entrada.
20. Un control automático de luz exterior vehicular, caracterizado porque comprende: 142 un controlador configurado para generar al menos una señal de control de luz exterior como una función al menos de una función de probabilidad, en donde al menos una función de probabilidad incluye una pluralidad de variables y un valor de salida sustancialmente continuo que es indicativo de una probabilidad.
21. El control automático de luz exterior vehicular de conformidad con la reivindicación 20, caracterizado porque las variables son seleccionadas a partir del grupo de las características de fuente luminosa que comprenden: la brillantez pico, la brillantez total, la posición del centroide, el gradiente, el ancho, la altura, el color, el movimiento en dirección-x, el movimiento en dirección-y, el cambio de brillantez, el envejecimiento, el movimiento promedio en dirección-x, el movimiento promedio en dirección-y, la variación de movimiento, el cambio en la brillantez que se correlaciona con un cambio en la brillantez de una luz exterior de un vehículo controlado y el cambio promedio de brillantez.
22. El control automático de luz exterior vehicular de conformidad con la reivindicación 20, caracterizado porque las variables son seleccionadas a partir del grupo de parámetros controlados de operación asociados con el vehículo que comprenden: la velocidad del vehículo, el nivel de luz ambiental, la velocidad de cambio de dirección del vehículo, el seguimiento del carril, la inclinación del vehículo, del 143 la oscilación del vehículo, la ubicación geográfica y el tipo de camino o carretera.
23. El control automático de luz exterior vehicular de conformidad con la reivindicación 22, caracterizado porque la velocidad de cambio de dirección del vehículo es determinada al menos por medio de uno de los factores seleccionados del grupo que comprende : el ángulo del volante de dirección, una brújula, la velocidad de conducción, GPS y los resultados del análisis de imagen.
24. El control automático de luz exterior vehicular de conformidad con la reivindicación 20, caracterizado porque el controlador además es configurado para determinar si al menos una fuente luminosa es cualquiera de un faro delantero de un vehículo que se aproxima, una luz trasera de un vehículo delantero o una fuente luminosa que no es vehicular como una función de la función de probabilidad.
25. El control automático de luz exterior vehicular de conformidad con la reivindicación 24, caracterizado porque la determinación además es una función de la brillantez de la fuente luminosa.
26. El control automático de luz exterior vehicular de conformidad con la reivindicación 24 , caracterizado porque la determinación además es una función de cualquier fluctuación de corriente alterna CA que podría estar presente en la fuente luminosa. 144
27. El control automático de luz exterior vehicular de conformidad con la reivindicación 20, caracterizado porque la función de probabilidad es seleccionada a partir del grupo que comprende: una primera ecuación de orden, una segunda ecuación de orden, una tercera ecuación de orden y una cuarta ecuación de orden.
28. Un control automático de luz exterior vehicular, caracterizado porque comprende: un controlador configurado para generar al menos una señal de control de luz exterior como una función al menos de una función de probabilidad, en donde por lo menos una función de probabilidad comprende una pluralidad de variables, una pluralidad de factores de ponderación y una salida .
29. El control automático de luz exterior vehicular de conformidad con la reivindicación 28, caracterizado porque las variables son seleccionadas a partir del grupo de las características de fuente luminosa que comprenden: la brillantez pico, la brillantez total, la posición del centroide, el gradiente, el ancho, la altura, el color, el movimiento en dirección-x, el movimiento en dirección-y, el cambio de brillantez, el envejecimiento, el movimiento promedio en dirección-x, el movimiento promedio en dirección-y, la variación de movimiento, el cambio en la brillantez que se correlaciona con un cambio en la brillantez de una luz 145 exterior de un vehículo controlado y el cambio promedio de brillantez .
30. El control automático de luz exterior vehicular de conformidad con la reivindicación 28, caracterizado porque las variables son seleccionadas a partir del grupo de parámetros controlados de operación asociados con el vehículo que comprenden: la velocidad del vehículo, el nivel de luz ambiental, la velocidad de cambio de dirección del vehículo, el seguimiento del carril, la inclinación del vehículo, la oscilación del vehículo, la ubicación geográfica y el tipo de camino o carretera.
31. El control automático de luz exterior vehicular de conformidad con la reivindicación 30, caracterizado porque la velocidad de cambio de dirección del vehículo es determinada al menos por medio de uno de los factores seleccionados del grupo que comprende: el ángulo del volante de dirección, una brújula, la velocidad de conducción, GPS y los resultados del análisis de imagen.
32. El control automático de luz exterior vehicular de conformidad con la reivindicación 31, caracterizado porque el controlador además es configurado para determinar si al menos una fuente luminosa es cualquiera de un faro delantero de un vehículo que se aproxima, una luz trasera de un vehículo delantero o una fuente luminosa que no es vehicular como una función de la función de probabilidad. 146
33. El control automático de luz exterior vehicular de conformidad con la reivindicación 32, caracterizado porque la determinación además es una función de la brillantez de la fuente luminosa.
34. El control automático de luz exterior vehicular de conformidad con la reivindicación 32, caracterizado porque la determinación además es una función de cualquier fluctuación de corriente alterna CA que podría estar presente en la fuente luminosa.
35. El control automático de luz exterior vehicular de conformidad con la reivindicación 28, caracterizado porque al menos una salida es seleccionada a partir del grupo que comprende: un valor verdadero-falso de Boole y un valor sustancialmente continuo que es indicativo de una probabilidad.
36. El control automático de luz exterior vehicular de conformidad con la reivindicación 28, caracterizado porque los factores de ponderación son determinados en forma experimental mediante el examen al menos de una imagen que contiene por lo menos una fuente luminosa conocida.
37. El control automático de luz exterior vehicular de conformidad con la reivindicación 28, caracterizado porque los factores de ponderación son determinados mediante el examen de datos estadísticos.
38. El control automático de luz exterior vehicular de conformidad con la reivindicación 37, caracterizado porque 147 los datos estadísticos son derivados a partir de una pluralidad de imágenes que contienen fuentes luminosas conocidas .
39. El control automático de luz exterior vehicular de conformidad con la reivindicación 28, caracterizado porque la función de probabilidad es seleccionada a partir del grupo que comprende: una primera ecuación de orden, una segunda ecuación de orden, una tercera ecuación de orden y una cuarta ecuación de orden.
40. Un control automático de luz exterior vehicular, caracterizado porque comprende: un controlador configurado para generar una señal de control de luz exterior, el controlador además es configurado para ejecutar un algoritmo que incluye por lo menos un estado de transición seleccionado a partir del grupo que comprende: un estado de transición de estado de encendido a estado de apagado y un estado de transición de un estado de apagado a un estado de encendido. ·
41. El control automático de luz exterior vehicular de conformidad con la reivindicación 40, caracterizado porque el estado de transición de estado de apagado es entrado cuando el menos una de las condiciones sea satisfecha, la cual es seleccionada a partir del grupo que consiste de: que una escena libre de faros delanteros y luces traseras con brillantez se encuentre por encima de un umbral, que sea 148 menor que el número de umbral de luces AC en la imagen, que sea menor que el número de umbral de luces en la imagen, que sea alcanzado el número de umbral de ciclos claros continuos, que la velocidad del vehículo controlado se encuentre por encima del umbral, que la magnitud del ángulo del volante de dirección del vehículo controlado se encuentre por debajo el valor de umbral, que haya transcurrido el sincronizador RETENER, que haya transcurrido el sincronizador de INACTIVIDAD, que el funcionamiento del sincronizador se ADELANTE A LA LUZ TRASERA, que sea clara la condición de NIEBLA, que sea clara la condición de LLUVIA, que la densidad de la lámpara de alumbrado público se encuentra por debajo del umbral y que haya retraso en la densidad de tráfico.
42. El control automático de luz exterior vehicular de conformidad con la reivindicación 40, caracterizado porque el estado de transición de estado de encendido es entrado cuando el menos sea detectada una fuente luminosa.
43. El control automático de luz exterior vehicular de conformidad con la reivindicación 40, caracterizado porque al menos uno de los estados de transición comprende una serie de niveles y el movimiento entre niveles es una función por lo menos de una de las variables seleccionadas a partir del grupo que comprende: la brillantez de la fuente luminosa, la posición de la fuente luminosa, la confianza de la clasificación, el tipo de fuente luminosa, la velocidad del 149 vehículo controlado y la velocidad de cambio de dirección del vehículo controlado.
44. Un control automático de luz exterior vehicular incluye un método de clasificación de fuentes luminosas detectadas, caracterizado porque el método comprende las etapas de: clasificar al menos una fuente luminosa detectada con una red de clasificación, en donde una salida de la red de clasificación es indicativa de la probabilidad que la fuente luminosa detectada sea un faro delantero de un vehículo que se aproxima o una luz trasera de un vehículo delantero.
45. El método de conformidad con la reivindicación 44, caracterizado además porque comprende la etapa de: determinar el estado de control al menos de una luz exterior del vehículo controlado en base a la salida de la red de clasificación.
46. El método de conformidad con la reivindicación 44, caracterizado porque la red de clasificación es seleccionada a partir del grupo que comprende : una red neural y una función de probabilidad.
47. Un control automático de luz exterior vehicular incluye un método de clasificación de fuentes luminosas detectadas, caracterizado porque el método comprende las etapas de : clasificar al menos una fuente luminosa detectada con una red de clasificación, en donde la red de clasificación determina el tipo de fuente luminosa detectada 150 en base al menos a una característica por lo menos de una fuente luminosa previamente clasificada, la cual es verificada para que sea clasificada con exactitud.
48. El método de conformidad con la reivindicación 47, caracterizado además porgue comprende la etapa de: determinar el estado de control al menos de una luz exterior del vehículo controlado en base a una salida de la red de clasificación.
49. El método de conformidad con la reivindicación 47, caracterizado porque la red de clasificación es seleccionada a partir del grupo que comprende: una red neural y una función de probabilidad.
50. Un control automático de luz exterior vehicular incluye un método de clasificación de fuentes luminosas detectadas, caracterizado porque el método comprende las etapas de: clasificar al menos una fuente luminosa detectada con una red de clasificación susceptible de ser entrenada, en donde la red de clasificación es entrenada utilizando al menos una fuente luminosa clasificada mediante el empleo del conocimiento experto.
51. El método de conformidad con la reivindicación 50, caracterizado porque el conocimiento experto es seleccionado a partir del grupo que comprende: datos empíricos, datos experimentales, datos estadísticos y datos manualmente clasificados. 151
52. El método de conformidad con la reivindicación 50, caracterizado porque la red de clasificación es seleccionada a partir del grupo que comprende: una red neural y una función de probabilidad.
53. El método de conformidad con la reivindicación 50, caracterizado porque además porque comprende la etapa de: determinar el estado de control al menos de una luz exterior del vehículo de control en base a una salida de la red de clasificación.
54. Un control automático de luz exterior vehicular incluye un método de análisis de los valores de píxel a partir de un formador de imagen, caracterizado porque el método comprende las etapas de : adquirir múltiples imágenes en sensitividades múltiples, para cada posición de píxel examinado, seleccionar un valor de píxel a partir de una de las imágenes para su procesamiento en base al valor del píxel .
55. El método de conformidad con la reivindicación 54, caracterizado porque al menos una de las múltiples imágenes es almacenada en una ubicación de memoria.
56. El método de conformidad con la reivindicación 55, caracterizado porque la ubicación de memoria se encuentra dentro de una interfaz/memoria intermedia de sensor de imagen. 152
57. El método de conformidad con la reivindicación 54, caracterizado porque al menos dos de las imágenes múltiples son sintetizadas en una imagen de intervalo dinámico alto.
58. Un control automático de luz exterior vehicular, caracterizado porque comprende: un controlador configurado para cambiar las luces del vehículo entre un estado sustancialmente de ENCENDIDO y un estado sustancialmente de APAGADO, en donde un cambio en el retraso de tiempo de un estado de ENCENDIDO a APAGADO es variable, y en donde el retraso de tiempo es una función de la probabilidad de la detección exacta de la fuente luminosa del vehículo.
59. El control automático de luz exterior vehicular de conformidad con la reivindicación 58, caracterizado porque el retraso de tiempo además es una función de uno o más del grupo que comprende: la brillantez de la fuente luminosa detectada, la posición de una fuente luminosa, el tipo de fuente luminosa detectada, el color de la fuente luminosa detectada, la velocidad del vehículo controlado y la velocidad de cambio de dirección del vehículo controlado.
60. Un control automático de luz exterior vehicular, caracterizado porque comprende: un controlador configurado para realizar la transición de las luces del vehículo entre dos o más patrones 153 de iluminación, en donde la velocidad de transición entre los patrones de iluminación es variable, y en donde la velocidad de transición es una función de la confianza de detección de una fuente luminosa del vehículo.
61. El control automático de luz exterior vehicular de conformidad con la reivindicación 60, caracterizado porque al menos una luz del vehículo es sustancialmente variable en forma continua entre los patrones de iluminación.
62. El control automático de luz exterior vehicular de conformidad con la reivindicación 60, caracterizado porque la velocidad de transición además es una función de uno o más del grupo que comprende: la brillantez de una fuente luminosa detectada, la posición de una fuente luminosa, el tipo de la fuente luminosa detectada, el color de la fuente luminosa detectada, la velocidad del vehículo controlado y la velocidad de cambio de dirección del vehículo controlado.
63. Un control automático de luz exterior vehicular, caracterizado porque comprende: un controlador configurado para detectar una condición clara o limpia cuando ninguna de las otras fuentes luminosas de otros vehículos sean detectadas dentro de un intervalo, el controlador además es configurado para activar, en forma automática, al menos una luz exterior vehicular en base a la detección de la condición clara, en donde el tiempo entre la detección y la condición clara y la activación 154 automática al menos de una luz exterior vehicular es variable, y en donde el retraso de tiempo es una función de la velocidad del vehículo.
64. Un control automático de luz exterior vehicular, caracterizado porque comprende : un controlador configurado para detectar una condición clara cuando no existan otras luces de otros vehículos que sean detectadas dentro de un intervalo, en donde la activación automática de los faros delanteros es impedida por medio de uno o más eventos del grupo que comprende: que sea excedido el número de umbral de las luces de alumbrado público, que sea excedida la densidad de la magnitud de las luces del alumbrado público, que sea excedido el umbral de la magnitud del ángulo del volante de dirección.
MXPA05001880A 2002-08-21 2003-08-20 Metodos de adquisicion y procesamiento de imagen para control automatico de iluminacion exterior vehicular. MXPA05001880A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US40487902P 2002-08-21 2002-08-21
PCT/US2003/026407 WO2004034183A2 (en) 2002-08-21 2003-08-20 Image acquisition and processing methods for automatic vehicular exterior lighting control

Publications (1)

Publication Number Publication Date
MXPA05001880A true MXPA05001880A (es) 2005-06-03

Family

ID=32093752

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA05001880A MXPA05001880A (es) 2002-08-21 2003-08-20 Metodos de adquisicion y procesamiento de imagen para control automatico de iluminacion exterior vehicular.

Country Status (9)

Country Link
US (1) US7565006B2 (es)
EP (1) EP1573479B1 (es)
JP (1) JP4818609B2 (es)
KR (1) KR20050037582A (es)
CN (1) CN101023407A (es)
AU (1) AU2003298558A1 (es)
CA (1) CA2494723C (es)
MX (1) MXPA05001880A (es)
WO (1) WO2004034183A2 (es)

Families Citing this family (305)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US8041483B2 (en) 1994-05-23 2011-10-18 Automotive Technologies International, Inc. Exterior airbag deployment techniques
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
US7852462B2 (en) * 2000-05-08 2010-12-14 Automotive Technologies International, Inc. Vehicular component control methods based on blind spot monitoring
US7697027B2 (en) 2001-07-31 2010-04-13 Donnelly Corporation Vehicular video system
US6882287B2 (en) 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
US7046827B2 (en) * 2002-02-15 2006-05-16 International Business Machines Corporation Adapting point geometry for storing address density
ES2391556T3 (es) 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
MXPA05001880A (es) 2002-08-21 2005-06-03 Gentex Corp Metodos de adquisicion y procesamiento de imagen para control automatico de iluminacion exterior vehicular.
US7541743B2 (en) * 2002-12-13 2009-06-02 Ford Global Technologies, Llc Adaptive vehicle communication controlled lighting system
US20050073586A1 (en) * 2003-10-06 2005-04-07 Songnian Li Digital camera interface
US7308341B2 (en) 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
JP4262072B2 (ja) * 2003-12-05 2009-05-13 株式会社日立製作所 自動車用補助機器制御装置
US7248955B2 (en) * 2003-12-19 2007-07-24 Lear Corporation Vehicle accessory proximity sensor slide switch
US7389171B2 (en) * 2003-12-22 2008-06-17 Ford Global Technologies Llc Single vision sensor object detection system
JP4175266B2 (ja) * 2004-02-06 2008-11-05 株式会社デンソー ワイパ装置
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US7881496B2 (en) 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
DE102004047962A1 (de) * 2004-10-01 2006-04-06 Patent-Treuhand-Gesellschaft für elektrische Glühlampen mbH Sensorsystem
US8924078B2 (en) 2004-11-18 2014-12-30 Gentex Corporation Image acquisition and processing system for vehicle equipment control
WO2006055541A2 (en) 2004-11-18 2006-05-26 Gentex Corporation Improved image acquisition and processing systems for vehicle equipment control
FR2877892B1 (fr) * 2004-11-18 2008-05-30 Valeo Vision Sa Procede et dispositif de commande de commutation automatique de projecteur d'eclairage
US7720580B2 (en) * 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
TWM275131U (en) * 2004-12-31 2005-09-11 Mai Sz Wei Technology Co Ltd Rearview mirror with navigation function
DE102005007802A1 (de) * 2005-02-21 2006-08-24 Robert Bosch Gmbh Verfahren zur Objektplausibilisierung in Fahrerassistenzsystemen
JP4587301B2 (ja) * 2005-02-23 2010-11-24 本田技研工業株式会社 車両用被認識装置
DE102006016073A1 (de) * 2005-08-24 2007-03-22 Dr.Ing.H.C. F. Porsche Ag Verfahren zur Steuerung der Leuchtweite eines Kraftfahrzeuges
US20070052555A1 (en) * 2005-09-08 2007-03-08 Visteon Global Technologies, Inc. Predictive adaptive front lighting integrated system
US7417221B2 (en) * 2005-09-08 2008-08-26 Gentex Corporation Automotive vehicle image sensor
DE102005048581B4 (de) * 2005-10-06 2022-06-09 Robert Bosch Gmbh Teilnehmerschnittstelle zwischen einem FlexRay-Kommunikationsbaustein und einem FlexRay-Teilnehmer und Verfahren zur Übertragung von Botschaften über eine solche Schnittstelle
FR2892360B1 (fr) * 2005-10-25 2009-05-15 Valeo Vision Sa Procede de controle d'une operation de commutation de faisceaux lumineux.
US7310190B2 (en) * 2006-02-09 2007-12-18 Delphi Technologies, Inc. Vehicle imaging system with windshield condition determination
JP5577038B2 (ja) 2006-03-09 2014-08-20 ジェンテックス コーポレイション 高輝度ディスプレイを含む車両リアビューアセンブリ
FR2898310B1 (fr) * 2006-03-10 2009-04-17 Valeo Vision Sa Procede de commande de commutation automatique de projecteur de vehicule.
EP1837803A3 (en) * 2006-03-24 2008-05-14 MobilEye Technologies, Ltd. Headlight, taillight and streetlight detection
US7423821B2 (en) * 2006-03-24 2008-09-09 Gentex Corporation Vision system
JP4473232B2 (ja) * 2006-04-26 2010-06-02 株式会社日本自動車部品総合研究所 車載用車両前方環境検出装置および車両用照明装置
JP4466608B2 (ja) * 2006-05-18 2010-05-26 株式会社デンソー 車両用前照灯装置
JP4743037B2 (ja) * 2006-07-28 2011-08-10 株式会社デンソー 車両検出装置
JP4853160B2 (ja) * 2006-08-02 2012-01-11 株式会社デンソー 車両検出装置及びヘッドランプ制御装置
US8139112B2 (en) * 2006-08-07 2012-03-20 Sightlogix, Inc. Methods and apparatus related to improved surveillance
US20080043099A1 (en) * 2006-08-10 2008-02-21 Mobileye Technologies Ltd. Symmetric filter patterns for enhanced performance of single and concurrent driver assistance applications
EP1887492A1 (en) * 2006-08-10 2008-02-13 MobilEye Technologies, Ltd. Symmetric filter patterns for enhanced performance of single and concurrent driver assistance applications
US7972045B2 (en) 2006-08-11 2011-07-05 Donnelly Corporation Automatic headlamp control system
WO2008025435A1 (de) * 2006-08-29 2008-03-06 Daimler Ag Verfahren und vorrichtung zur umschaltung der ausleuchtcharakteristik eines scheinwerfers für links- bzw. rechtsverkehr
JP4544233B2 (ja) * 2006-10-11 2010-09-15 株式会社デンソー 車両検出装置及びヘッドランプ制御装置
DE102006055903A1 (de) * 2006-11-27 2008-05-29 Adc Automotive Distance Control Systems Gmbh Erkennung von Fahrzeuglichtern mit einer Kamera
DE102006055904A1 (de) * 2006-11-27 2008-05-29 Adc Automotive Distance Control Systems Gmbh Erkennung und Kategorisierung von Lichtpunkten mit einer Kamera in einer Fahrzeugumgebung
DE102006055908A1 (de) 2006-11-27 2008-05-29 Adc Automotive Distance Control Systems Gmbh Verfahren zur automatischen Fernlichtsteuerung
US7929753B2 (en) 2006-11-29 2011-04-19 Kwe International Inc. Image processing including, but not limited to, logarithimic coding in color coordinate systems including systems with a coordinate defined by a square root of a quadratic polynomial in tristimulus values and, possibly, by a sign of a function of one or more of tristimulus values
US8082979B2 (en) * 2007-01-30 2011-12-27 Ford Global Technologies, Llc System and method for environmental management of a vehicle
JP4914234B2 (ja) * 2007-01-31 2012-04-11 富士重工業株式会社 先行車両検出装置
ITMI20070243A1 (it) * 2007-02-09 2008-08-10 Uni Degli Studi Perugia Metodo per la commutazione della posizione dei fari di una vettura
JP4415996B2 (ja) 2007-02-26 2010-02-17 株式会社日立製作所 車載用画像認識装置及び配光制御装置、並びに配光制御方法
ATE516171T1 (de) * 2007-04-05 2011-07-15 Gm Global Tech Operations Inc Verfahren zum betreiben eines scheinwerfersystems und scheinwerfersystem
US8035320B2 (en) 2007-04-20 2011-10-11 Sibert W Olin Illumination control network
ATE537662T1 (de) * 2007-04-27 2011-12-15 Honda Motor Co Ltd System, programm und verfahren zur fahrzeugsperipherieüberwachung
US7916938B2 (en) * 2007-08-01 2011-03-29 Kwe International, Inc. Computer-implemented gamut mapping
US8017898B2 (en) * 2007-08-17 2011-09-13 Magna Electronics Inc. Vehicular imaging system in an automatic headlamp control system
US8451107B2 (en) 2007-09-11 2013-05-28 Magna Electronics, Inc. Imaging system for vehicle
US8446470B2 (en) 2007-10-04 2013-05-21 Magna Electronics, Inc. Combined RGB and IR imaging sensor
US8270710B2 (en) * 2007-10-11 2012-09-18 Unified Color Technologies, Llc Representation and quantization of digital images and evaluation of color differences
US8019150B2 (en) * 2007-10-11 2011-09-13 Kwe International, Inc. Color quantization based on desired upper bound for relative quantization step
US8587456B2 (en) 2007-10-25 2013-11-19 Adc Automotive Distance Control Systems Gmbh Method for distinguishing between reflectors arranged on the roadside and vehicle lights in the dark
DE102007051268A1 (de) * 2007-10-26 2009-04-30 Hella Kgaa Hueck & Co. Anordnung für Kraftfahrzeuge zum Erkennen der Umgebungshelligkeit während der Fahrt des Kraftfahrzeuges
ATE471254T1 (de) * 2007-11-21 2010-07-15 Delphi Tech Inc Optisches modul
TW200925023A (en) * 2007-12-07 2009-06-16 Altek Corp Method of displaying shot image on car reverse video system
DE102008005314A1 (de) * 2008-01-21 2009-07-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erfassen eines vorbeifahrenden Fahrzeuges bei Dunkelheit
JP2009214812A (ja) * 2008-03-12 2009-09-24 Koito Mfg Co Ltd 車両用前照灯装置およびその制御方法
JP4874280B2 (ja) * 2008-03-19 2012-02-15 三洋電機株式会社 画像処理装置及び方法、運転支援システム、車両
US8634941B2 (en) * 2008-04-01 2014-01-21 Infineon Technologies Austria Ag System and method for multi-channel control system
US8287141B2 (en) * 2008-06-23 2012-10-16 Gibbs John M Adjustable, anti-glare automobile side mirror
JP4937199B2 (ja) * 2008-06-25 2012-05-23 日立オートモティブシステムズ株式会社 オートライト装置
DE102008048309A1 (de) * 2008-09-22 2010-04-01 Volkswagen Ag Verfahren und Vorrichtung zum Detektieren von Fahrzeugen bei Dunkelheit
DE102008042537B4 (de) * 2008-10-01 2023-05-25 Robert Bosch Gmbh Verfahren zum Kalibrieren eines Bilderfassunssystems in einem Kraftfahrzeug und Bilderfassungssystem
JP4702426B2 (ja) * 2008-10-10 2011-06-15 株式会社デンソー 車両検出装置、車両検出プログラム、およびライト制御装置
JP4666049B2 (ja) * 2008-10-17 2011-04-06 株式会社デンソー 光源識別装置、光源識別プログラム、車両検出装置、およびライト制御装置
DE102009050368A1 (de) 2008-10-24 2010-05-27 Magna Electronics Europe Gmbh & Co.Kg Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
DE102008059629A1 (de) * 2008-11-28 2010-06-02 Adc Automotive Distance Control Systems Gmbh Verfahren zur adaptiven Erkennung von Fahrzeuglichtern und Retroreflektoren mit einem Kamerasystem
JP5363085B2 (ja) * 2008-12-03 2013-12-11 株式会社小糸製作所 前照灯制御装置
US8964032B2 (en) 2009-01-30 2015-02-24 Magna Electronics Inc. Rear illumination system
DE102009002101A1 (de) * 2009-04-01 2010-10-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ausleuchtung von Fahrbahnseitenbereichen
US8376595B2 (en) 2009-05-15 2013-02-19 Magna Electronics, Inc. Automatic headlamp control
WO2011014497A1 (en) 2009-07-27 2011-02-03 Magna Electronics Inc. Vehicular camera with on-board microcontroller
EP2473871B1 (en) 2009-09-01 2015-03-11 Magna Mirrors Of America, Inc. Imaging and display system for vehicle
JP4970516B2 (ja) * 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 周囲確認支援装置
DE102009054227A1 (de) * 2009-11-21 2011-05-26 Volkswagen Ag Verfahren zum Steuern einer Scheinwerferanordnung für ein Fahrzeug und Scheinwerferanordnung
US9150155B2 (en) 2010-01-13 2015-10-06 Magna Electronics Inc. Vehicular camera and method for periodic calibration of vehicular camera
US8456327B2 (en) 2010-02-26 2013-06-04 Gentex Corporation Automatic vehicle equipment monitoring, warning, and control system
DE102010016653A1 (de) * 2010-04-27 2011-10-27 Ford Global Technologies, Llc Verfahren und Vorrichtung zum Betreiben einer Beleuchtungseinrichtung eines Fahrzeugs
US9090207B2 (en) * 2010-05-27 2015-07-28 Boxx Corp. Two wheeled vehicle with lighting system that generates defined image on riding surface
DE102010040650B4 (de) * 2010-09-13 2020-08-13 Robert Bosch Gmbh Vorrichtung und Verfahren zur Einstellung der Beleuchtung eines Fahrzeugs bei uneinsichtigen Kurven
FR2965354B1 (fr) * 2010-09-28 2012-10-12 France Etat Ponts Chaussees Procede et dispositif de detection de brouillard, la nuit
US8287055B2 (en) * 2010-09-28 2012-10-16 Robert Bosch Gmbh Brake control of a vehicle based on driver behavior
US20170354018A1 (en) * 2010-11-19 2017-12-07 Ge Lighting Solutions Llc Gps-based lighting control system
US9900522B2 (en) 2010-12-01 2018-02-20 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
JP2012122727A (ja) * 2010-12-06 2012-06-28 Furuno Electric Co Ltd 底質判別装置、超音波探知機、パラメータ設定方法及びパラメータ設定プログラム
JPWO2012077202A1 (ja) * 2010-12-08 2014-05-19 トヨタ自動車株式会社 車両用情報伝達装置
DE102010054214A1 (de) * 2010-12-11 2012-06-14 Valeo Schalter Und Sensoren Gmbh Verfahren zum Unterstützen eines Fahrers beim Führen eines Kraftfahrzeugs und Fahrerassistenzsystem
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
US9497466B2 (en) 2011-01-17 2016-11-15 Mediatek Inc. Buffering apparatus for buffering multi-partition video/image bitstream and related method thereof
US8990435B2 (en) * 2011-01-17 2015-03-24 Mediatek Inc. Method and apparatus for accessing data of multi-tile encoded picture stored in buffering apparatus
US9085261B2 (en) 2011-01-26 2015-07-21 Magna Electronics Inc. Rear vision system with trailer angle detection
US8814373B2 (en) 2011-02-28 2014-08-26 Gentex Corporation Rearview device support assembly
WO2012118749A1 (en) 2011-02-28 2012-09-07 Gentex Corporation Rearview device support assembly
US8498779B2 (en) * 2011-03-02 2013-07-30 Stanley Electric Co., Ltd. Headlight control apparatus for vehicles, and headlight system for vehicles
US8605154B2 (en) 2011-03-25 2013-12-10 International Business Machines Corporation Vehicle headlight management
DE102011006550B4 (de) * 2011-03-31 2014-05-08 Robert Bosch Gmbh Verfahren und Steuergerät zum Einschalten eines Fernlichts eines Fahrzeugs
US9357208B2 (en) 2011-04-25 2016-05-31 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
US9834153B2 (en) 2011-04-25 2017-12-05 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
DE102011017649B3 (de) * 2011-04-28 2012-10-11 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung einer Intensität eines Aerosols in einem Sichtfeld einer Kamera eines Fahrzeugs
DE102011077038A1 (de) 2011-06-07 2012-12-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs
WO2013016409A1 (en) 2011-07-26 2013-01-31 Magna Electronics Inc. Vision system for vehicle
JP5892876B2 (ja) * 2011-07-28 2016-03-23 クラリオン株式会社 車載用環境認識装置
US9491450B2 (en) 2011-08-01 2016-11-08 Magna Electronic Inc. Vehicle camera alignment system
DE102011081428A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren zum Bestimmen einer Objektklasse eines Objekts, von dem aus Licht zu einem Fahrzeug ausgesandt und/oder reflektiert wird
WO2013037403A1 (en) * 2011-09-13 2013-03-21 Valeo Schalter Und Sensoren Gmbh Method for detection of a raindrop on the windscreen of a vehicle and driving assistance system
US20140218535A1 (en) 2011-09-21 2014-08-07 Magna Electronics Inc. Vehicle vision system using image data transmission and power supply via a coaxial cable
US9146898B2 (en) 2011-10-27 2015-09-29 Magna Electronics Inc. Driver assist system with algorithm switching
WO2013063982A1 (en) 2011-10-31 2013-05-10 Mediatek Inc. Apparatus and method for buffering context arrays referenced for performing entropy decoding upon multi-tile encoded picture and related entropy decoder
DE102011085689A1 (de) * 2011-11-03 2013-05-08 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln einer Gruppe aus zumindest zwei benachbart angeordneten Beleuchtungseinheiten während der Fahrt eines Fahrzeugs
US9491451B2 (en) 2011-11-15 2016-11-08 Magna Electronics Inc. Calibration system and method for vehicular surround vision system
JP5499011B2 (ja) * 2011-11-17 2014-05-21 富士重工業株式会社 車外環境認識装置および車外環境認識方法
US10099614B2 (en) 2011-11-28 2018-10-16 Magna Electronics Inc. Vision system for vehicle
WO2013086249A2 (en) 2011-12-09 2013-06-13 Magna Electronics, Inc. Vehicle vision system with customized display
CN103186887B (zh) * 2011-12-30 2016-08-03 株式会社日立制作所 图像除雾装置和图像除雾方法
WO2013126715A2 (en) 2012-02-22 2013-08-29 Magna Electronics, Inc. Vehicle camera system with image manipulation
US10457209B2 (en) 2012-02-22 2019-10-29 Magna Electronics Inc. Vehicle vision system with multi-paned view
JP5615862B2 (ja) * 2012-03-07 2014-10-29 クラリオン株式会社 車両周囲監視装置
US9319637B2 (en) 2012-03-27 2016-04-19 Magna Electronics Inc. Vehicle vision system with lens pollution detection
JP5555735B2 (ja) * 2012-03-27 2014-07-23 富士重工業株式会社 車両のヘッドランプ調整装置
US8543254B1 (en) * 2012-03-28 2013-09-24 Gentex Corporation Vehicular imaging system and method for determining roadway width
US10384594B2 (en) 2012-04-09 2019-08-20 Hale Products, Inc. Advance lighting system for use with emergency vehicles
JP5952624B2 (ja) * 2012-04-17 2016-07-13 株式会社小糸製作所 車両用灯具
US8879139B2 (en) 2012-04-24 2014-11-04 Gentex Corporation Display mirror assembly
JP5962193B2 (ja) * 2012-05-09 2016-08-03 株式会社デンソー 車両光源検出装置および車両光源検出プログラム
KR20130129647A (ko) * 2012-05-21 2013-11-29 현대모비스 주식회사 자동차 및 자동차의 제어방법
JP5942598B2 (ja) * 2012-05-28 2016-06-29 株式会社デンソー ライト制御装置
US8983135B2 (en) * 2012-06-01 2015-03-17 Gentex Corporation System and method for controlling vehicle equipment responsive to a multi-stage village detection
EP2859436B1 (en) 2012-06-12 2020-06-03 Gentex Corporation Vehicle imaging system providing multi-stage aiming stability indication
DE102012221356A1 (de) * 2012-06-20 2013-12-24 Robert Bosch Gmbh Sensor und Verfahren zur Erfassung von Licht und Verfahren und Vorrichtung zur Ermittlung einer Farbinformation
JP5692180B2 (ja) * 2012-07-25 2015-04-01 株式会社デンソー 車両光源検出装置、ライト制御装置、および車両光源検出プログラム
MX337071B (es) * 2012-07-27 2016-02-11 Nissan Motor Dispositivo de deteccion de objetos tridimensionales y metodo de deteccion de objetos tridimensionales.
EP2879912B1 (en) 2012-08-02 2021-11-10 Gentex Corporation System and method for controlling exterior vehicle lights responsive to detection of a semi-truck
US9511708B2 (en) 2012-08-16 2016-12-06 Gentex Corporation Method and system for imaging an external scene by employing a custom image sensor
US9199574B2 (en) 2012-09-11 2015-12-01 Gentex Corporation System and method for detecting a blocked imager
WO2014041864A1 (ja) * 2012-09-14 2014-03-20 本田技研工業株式会社 対象物識別装置
US9446713B2 (en) 2012-09-26 2016-09-20 Magna Electronics Inc. Trailer angle detection system
US9558409B2 (en) 2012-09-26 2017-01-31 Magna Electronics Inc. Vehicle vision system with trailer angle detection
KR102023525B1 (ko) * 2012-09-27 2019-09-20 엘지이노텍 주식회사 헤드 라이트 장치 및 이의 제어 방법
US9723272B2 (en) 2012-10-05 2017-08-01 Magna Electronics Inc. Multi-camera image stitching calibration system
US9707896B2 (en) 2012-10-15 2017-07-18 Magna Electronics Inc. Vehicle camera lens dirt protection via air flow
KR101510189B1 (ko) 2012-10-29 2015-04-08 주식회사 만도 자동 노출 제어 장치 및 자동 노출 제어 방법
US20140313504A1 (en) * 2012-11-14 2014-10-23 Foundaión Cidaut Procedure and device for the measurement of dynamic luminance and retroreflection of road markings and signals and the obtention of the shape, position and dimensions of the same
TWI476701B (zh) * 2012-12-11 2015-03-11 Ind Tech Res Inst 燈號觸發事件偵測方法與裝置
CN103020603A (zh) * 2012-12-14 2013-04-03 上海交通大学 基于颜色空间及选择投票机制夜间信号灯检测与识别方法
DE102013115000A1 (de) * 2013-01-07 2014-07-10 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Blendungsminderung für dynamischen Rückspiegel
JP6011355B2 (ja) * 2013-01-22 2016-10-19 ローム株式会社 発振回路
US9445057B2 (en) 2013-02-20 2016-09-13 Magna Electronics Inc. Vehicle vision system with dirt detection
US11304276B2 (en) 2013-02-26 2022-04-12 Ideal Industries Lighting Llc Glare-reactive lighting apparatus
US10179543B2 (en) 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
US9185363B2 (en) 2013-03-01 2015-11-10 Gentex Corporation Vehicle imaging system and method for categorizing objects using relative motion analysis
US9688200B2 (en) 2013-03-04 2017-06-27 Magna Electronics Inc. Calibration system and method for multi-camera vision system
US9508014B2 (en) 2013-05-06 2016-11-29 Magna Electronics Inc. Vehicular multi-camera vision system
ITPI20130040A1 (it) * 2013-05-10 2014-11-11 Esastudio Srl Sistema automatico di gestione dei dispositivi di illuminazione in campo automotive
US9205776B2 (en) 2013-05-21 2015-12-08 Magna Electronics Inc. Vehicle vision system using kinematic model of vehicle motion
US9563951B2 (en) 2013-05-21 2017-02-07 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
KR101502088B1 (ko) * 2013-07-22 2015-03-12 (주)에이치엠씨 카메라 영상을 이용한 차량 후미등 정상 작동 여부 검출 방법 및 그 시스템
DE102013108824A1 (de) * 2013-08-14 2015-02-19 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen
US9721172B2 (en) 2013-08-19 2017-08-01 Gentex Corporation Imaging system and method with ego motion detection
US9317758B2 (en) 2013-08-19 2016-04-19 Gentex Corporation Vehicle imaging system and method for distinguishing reflective objects from lights of another vehicle
KR101848451B1 (ko) * 2013-08-19 2018-04-12 젠텍스 코포레이션 차량 후미등과 점멸 적색 정지등을 구별하기 위한 차량 촬상 시스템 및 방법
WO2015034773A1 (en) 2013-09-04 2015-03-12 Gentex Corporation A rearview assembly of a vehicle for displaying images
DE202014010751U1 (de) 2013-09-24 2016-07-18 Gentex Corporation Anzeigespiegelbaugruppe
KR101805585B1 (ko) * 2013-10-01 2017-12-07 젠텍스 코포레이션 자동차도로 상에서 실외 차량 등을 제어하기 위한 시스템 및 방법
US9434327B2 (en) 2013-11-15 2016-09-06 Gentex Corporation Imaging system including dynamic compensation for color attenuation for vehicle windscreens
CN103679266B (zh) * 2013-11-29 2016-08-31 北京信息科技大学 一种管道视频检测的自动光源系统
US9511715B2 (en) 2014-01-31 2016-12-06 Gentex Corporation Backlighting assembly for display for reducing cross-hatching
US10705332B2 (en) 2014-03-21 2020-07-07 Gentex Corporation Tri-modal display mirror assembly
EP3126195B1 (en) 2014-04-01 2019-06-05 Gentex Corporation Automatic display mirror assembly
US9487235B2 (en) 2014-04-10 2016-11-08 Magna Electronics Inc. Vehicle control system with adaptive wheel angle correction
EP3148842A1 (en) * 2014-05-28 2017-04-05 Nice S.r.l. Accessory for vehicles for automating main beams complete with an electronic system for reducing optical disturbances
JP6459283B2 (ja) * 2014-08-05 2019-01-30 株式会社デンソー 映像信号処理装置及び映像信号処理プログラム
US10163408B1 (en) * 2014-09-05 2018-12-25 Pixelworks, Inc. LCD image compensation for LED backlighting
WO2016044746A1 (en) 2014-09-19 2016-03-24 Gentex Corporation Rearview assembly
US9892514B2 (en) * 2014-10-10 2018-02-13 Facebook, Inc. Post-manufacture camera calibration
CA2908835C (en) 2014-10-15 2017-04-04 Abl Ip Holding Llc Lighting control with automated activation process
US9781814B2 (en) 2014-10-15 2017-10-03 Abl Ip Holding Llc Lighting control with integral dimming
CN107000642B (zh) 2014-11-07 2020-03-27 金泰克斯公司 全显示镜致动器
CN107000649B (zh) 2014-11-13 2020-04-14 金泰克斯公司 具有显示装置的后视镜系统
US9877374B2 (en) * 2014-11-25 2018-01-23 Cree, Inc. Lighting apparatus and methods providing variable illumination characteristics based on object detection
US10131279B2 (en) 2014-12-03 2018-11-20 Gentex Corporation Display mirror assembly with an RF shield bezel
USD746744S1 (en) 2014-12-05 2016-01-05 Gentex Corporation Rearview device
DE102014225526A1 (de) * 2014-12-11 2016-06-16 Robert Bosch Gmbh Verfahren und Steuergerät zum Einstellen einer Charakteristik einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
JP6599613B2 (ja) * 2014-12-25 2019-10-30 株式会社小糸製作所 配光可変車両用灯具
US9744907B2 (en) 2014-12-29 2017-08-29 Gentex Corporation Vehicle vision system having adjustable displayed field of view
US10127439B2 (en) 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
US9916660B2 (en) 2015-01-16 2018-03-13 Magna Electronics Inc. Vehicle vision system with calibration algorithm
US9720278B2 (en) 2015-01-22 2017-08-01 Gentex Corporation Low cost optical film stack
CN104601901A (zh) * 2015-02-02 2015-05-06 深圳酷派技术有限公司 终端拍照控制方法及终端
KR102087588B1 (ko) 2015-03-19 2020-03-11 젠텍스 코포레이션 카메라 기반 디스플레이 시스템을 위한 이미지 프로세싱
JP6210081B2 (ja) * 2015-03-23 2017-10-11 カシオ計算機株式会社 復号装置、復号方法、及び、プログラム
CN107531183B (zh) 2015-04-20 2021-09-03 金泰克斯公司 具有贴花的后视总成
US10946799B2 (en) 2015-04-21 2021-03-16 Magna Electronics Inc. Vehicle vision system with overlay calibration
CN107614324B (zh) 2015-05-18 2020-11-27 金泰克斯公司 完整显示后视装置
JP6390512B2 (ja) * 2015-05-21 2018-09-19 株式会社デンソー 車載カメラ装置
JP6657925B2 (ja) * 2015-06-04 2020-03-04 ソニー株式会社 車載カメラ・システム並びに画像処理装置
KR102135427B1 (ko) 2015-06-22 2020-07-17 젠텍스 코포레이션 진폭-변조된 광의 깜박임을 보정하기 위해 스트리밍된 비디오 이미지를 처리하는 시스템 및 방법
DE102015214760A1 (de) * 2015-08-03 2017-02-09 Hella Kgaa Hueck & Co. Verfahren zur Steuerung eines Scheinwerfers
CN105196910B (zh) * 2015-09-15 2018-06-26 浙江吉利汽车研究院有限公司 一种雨雾天气下的安全驾驶辅助系统及其控制方法
US11228700B2 (en) 2015-10-07 2022-01-18 Magna Electronics Inc. Vehicle vision system camera with adaptive field of view
US10187590B2 (en) 2015-10-27 2019-01-22 Magna Electronics Inc. Multi-camera vehicle vision system with image gap fill
USD797627S1 (en) 2015-10-30 2017-09-19 Gentex Corporation Rearview mirror device
US10685623B2 (en) 2015-10-30 2020-06-16 Gentex Corporation Toggle paddle
WO2017075473A1 (en) 2015-10-30 2017-05-04 Gentex Corporation Rearview device
USD798207S1 (en) 2015-10-30 2017-09-26 Gentex Corporation Rearview mirror assembly
USD800618S1 (en) 2015-11-02 2017-10-24 Gentex Corporation Toggle paddle for a rear view device
JP6310899B2 (ja) 2015-11-25 2018-04-11 株式会社Subaru 車外環境認識装置
JP6200481B2 (ja) * 2015-11-25 2017-09-20 株式会社Subaru 車外環境認識装置
US10800455B2 (en) * 2015-12-17 2020-10-13 Ford Global Technologies, Llc Vehicle turn signal detection
US11277558B2 (en) 2016-02-01 2022-03-15 Magna Electronics Inc. Vehicle vision system with master-slave camera configuration
US11433809B2 (en) 2016-02-02 2022-09-06 Magna Electronics Inc. Vehicle vision system with smart camera video output
US10264196B2 (en) 2016-02-12 2019-04-16 Contrast, Inc. Systems and methods for HDR video capture with a mobile device
US10257393B2 (en) 2016-02-12 2019-04-09 Contrast, Inc. Devices and methods for high dynamic range video
EP4270976A3 (en) * 2016-02-12 2024-01-10 Contrast, Inc. Devices and methods for high dynamic range video
US9651390B1 (en) * 2016-02-25 2017-05-16 Here Global B.V. Mapping road illumination
EP3214600B1 (en) * 2016-03-04 2019-02-06 Aptiv Technologies Limited Method for processing high dynamic range (hdr) data from a nonlinear camera
USD845851S1 (en) 2016-03-31 2019-04-16 Gentex Corporation Rearview device
US9731645B1 (en) * 2016-04-07 2017-08-15 Valeo North America, Inc. Cooperative adaptive lighting system using vehicle to target or object communication
US10049284B2 (en) * 2016-04-11 2018-08-14 Ford Global Technologies Vision-based rain detection using deep learning
USD817238S1 (en) 2016-04-29 2018-05-08 Gentex Corporation Rearview device
US10025138B2 (en) 2016-06-06 2018-07-17 Gentex Corporation Illuminating display with light gathering structure
US10300859B2 (en) 2016-06-10 2019-05-28 Magna Electronics Inc. Multi-sensor interior mirror device with image adjustment
WO2017223456A1 (en) 2016-06-24 2017-12-28 Gentex Corporation Imaging system with adaptive high beam control
EP3472000B1 (en) 2016-08-08 2023-10-11 Gentex Corporation System and method for processing video data to detect and eliminate flickering light sources through dynamic exposure control
JP7081835B2 (ja) * 2016-08-09 2022-06-07 コントラスト, インコーポレイテッド 車両制御のためのリアルタイムhdrビデオ
US10495753B2 (en) * 2016-09-19 2019-12-03 Nec Corporation Video to radar
US10427645B2 (en) * 2016-10-06 2019-10-01 Ford Global Technologies, Llc Multi-sensor precipitation-classification apparatus and method
US10992876B2 (en) * 2016-10-18 2021-04-27 Texas Instruments Incorporated WDR imaging with LED flicker mitigation
CN108016346A (zh) * 2016-10-31 2018-05-11 法乐第(北京)网络科技有限公司 安全会车方法和装置、行车记录仪
CN108121764B (zh) * 2016-11-26 2022-03-11 星克跃尔株式会社 图像处理装置、图像处理方法、电脑程序及电脑可读取记录介质
US11892311B2 (en) 2016-11-26 2024-02-06 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium
DE102016224185A1 (de) * 2016-12-06 2018-06-07 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur kamerabasierten Steuerung einer Beleuchtungseinheit eines Kraftfahrzeugs
USD809984S1 (en) 2016-12-07 2018-02-13 Gentex Corporation Rearview assembly
USD854473S1 (en) 2016-12-16 2019-07-23 Gentex Corporation Rearview assembly
WO2018125898A1 (en) 2016-12-30 2018-07-05 Gentex Corporation Full display mirror with on-demand spotter view
DE102017000807A1 (de) * 2017-01-28 2018-08-02 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Betrieb einer Scheinwerferanordnung, Scheinwerfersystem sowie Kraftfahrzeug
US10699143B2 (en) 2017-03-10 2020-06-30 Gentex Corporation System and method for vehicle occupant identification and monitoring
CN110312641A (zh) 2017-03-17 2019-10-08 金泰克斯公司 双显示倒车摄像系统
US11118750B2 (en) * 2017-03-28 2021-09-14 Maxell, Ltd. In-vehicle headlight and light projection method
KR102320253B1 (ko) * 2017-04-19 2021-11-02 현대자동차주식회사 차량 및 그 제어방법
WO2019014057A1 (en) 2017-07-10 2019-01-17 Contrast, Inc. STEREOSCOPIC CAMERA
JP2019015692A (ja) * 2017-07-11 2019-01-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 付着物検出方法、付着物学習方法、付着物検出装置、付着物学習装置、付着物検出システム、および、プログラム
US10768194B2 (en) * 2017-08-07 2020-09-08 The Board Of Regents For Oklahoma State University System and method for speed estimation, detection and ranging using visible light in vehicles
US10282827B2 (en) * 2017-08-10 2019-05-07 Wipro Limited Method and system for removal of rain streak distortion from a video
US10183614B1 (en) * 2017-08-17 2019-01-22 Harman International Industries, Incorporated System and method for vehicle headlight control
JP6816701B2 (ja) * 2017-10-26 2021-01-20 トヨタ自動車株式会社 ヘッドライト制御システム
JP6944350B2 (ja) * 2017-11-13 2021-10-06 アルパイン株式会社 撮影画像表示システム、電子ミラーシステム及び撮影画像表示方法
DE102017129946A1 (de) * 2017-12-14 2019-06-19 HELLA GmbH & Co. KGaA Verfahren zur Erfassung von Fehleinstellungen der Hell-Dunkel-Grenze eines Scheinwerfers
US11042163B2 (en) 2018-01-07 2021-06-22 Nvidia Corporation Guiding vehicles through vehicle maneuvers using machine learning models
DE112019000065T5 (de) 2018-02-02 2020-03-05 Nvidia Corporation Sicherheitsprozeduranalyse zur hindernisvermeidung in einem autonomen fahrzeug
DE102018103262B4 (de) * 2018-02-14 2024-05-29 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Betreiben einer Beleuchtungsvorrichtung eines Kraftfahrzeugs
US10889267B2 (en) * 2018-03-05 2021-01-12 Tesla, Inc. Electromagnetic windshield wiper system
US11531727B1 (en) * 2018-04-20 2022-12-20 Perceive Corporation Computation of neural network node with large input values
US10493900B2 (en) 2018-05-04 2019-12-03 International Business Machines Corporation Adaptive headlights for the trajectory of a vehicle
US10951888B2 (en) 2018-06-04 2021-03-16 Contrast, Inc. Compressed high dynamic range video
US11966838B2 (en) 2018-06-19 2024-04-23 Nvidia Corporation Behavior-guided path planning in autonomous machine applications
CN108901110B (zh) * 2018-08-03 2020-03-10 重庆交通大学 节能型公路隧道等效照明控制系统
EP3605384A1 (en) * 2018-08-03 2020-02-05 Aptiv Technologies Limited A device and a method for detecting vehicle lights in an image
US20200180503A1 (en) * 2018-12-06 2020-06-11 Flex-N-Gate Advanced Product Development, Llc Energy-efficient lighting system for autonomous vehicles
JP7261006B2 (ja) * 2018-12-27 2023-04-19 株式会社Subaru 車外環境認識装置
JP7237607B2 (ja) * 2019-01-25 2023-03-13 株式会社小糸製作所 車両用灯具システム、車両用灯具の制御装置および車両用灯具の制御方法
WO2020163390A1 (en) 2019-02-05 2020-08-13 Nvidia Corporation Driving lane perception diversity and redundancy in autonomous driving applications
DE102019202268A1 (de) * 2019-02-20 2020-08-20 Zf Friedrichshafen Ag System und Verfahren zur Regulierung einer Leuchtstärke und/oder Leuchtrichtung von Scheinwerfern eines Ego-Fahrzeuges
JP7260341B2 (ja) * 2019-03-06 2023-04-18 スタンレー電気株式会社 車両用灯具の制御装置、車両用灯具の制御方法、車両用灯具システム
US11198386B2 (en) 2019-07-08 2021-12-14 Lear Corporation System and method for controlling operation of headlights in a host vehicle
KR102220950B1 (ko) * 2019-07-31 2021-02-26 엘지전자 주식회사 자율 주행 시스템에서 차량을 제어하기 위한 방법 및 장치
KR102664120B1 (ko) * 2019-08-02 2024-05-10 현대자동차주식회사 차량의 조도 정보 생성 장치 및 방법
CN110471070B (zh) * 2019-08-09 2022-06-14 上海慧希电子科技有限公司 组合型探测系统及探测器件
US11613201B2 (en) 2019-08-12 2023-03-28 Nvidia Corporation Automatic high beam control for autonomous machine applications
US20210049834A1 (en) * 2019-08-12 2021-02-18 Micron Technology, Inc. Predictive maintenance of automotive lighting
DE102019130032B4 (de) * 2019-11-07 2022-04-14 Ford Global Technologies, Llc Verfahren, Computerprogrammprodukt und System zum Erzeugen eines Bilddatensatzes für eine computerimplementierte Simulation
FR3104885B1 (fr) * 2019-12-13 2022-08-05 Valeo Vision Procédé de gestion des données d'image et dispositif d'éclairage automobile
FR3104886B1 (fr) 2019-12-13 2022-08-12 Valeo Vision Procédé de gestion des données d'image et dispositif d'éclairage automobile
KR20210085896A (ko) * 2019-12-31 2021-07-08 현대모비스 주식회사 차량용 램프 제어 장치
US11872929B2 (en) * 2020-01-14 2024-01-16 Qualcomm Incorporated Collaborative vehicle headlight directing
US11485197B2 (en) 2020-03-13 2022-11-01 Lear Corporation System and method for providing an air quality alert to an occupant of a host vehicle
CN111582030B (zh) * 2020-04-02 2023-08-29 北京百度网讯科技有限公司 红绿灯的识别方法、装置、电子设备和计算机存储介质
JP7381388B2 (ja) 2020-04-03 2023-11-15 トヨタ自動車株式会社 信号灯状態識別装置、信号灯状態識別方法及び信号灯状態識別用コンピュータプログラムならびに制御装置
JP7014982B2 (ja) * 2020-07-14 2022-02-15 ダイキン工業株式会社 画像処理装置、空気処理システム、画像処理プログラム、及び画像処理方法
FR3112515B1 (fr) * 2020-07-20 2022-12-16 Valeo Vision Procédé de fonctionnement d'un dispositif d'éclairage automobile et dispositif d'éclairage automobile
FR3113387A1 (fr) * 2020-07-20 2022-02-18 Valeo Vision Procédé de fonctionnement d'un dispositif d'éclairage automobile et dispositif d'éclairage automobile
EP3944140A1 (en) * 2020-07-20 2022-01-26 Valeo Vision Method for operating an automotive lighting device and automotive lighting device
US11315429B1 (en) 2020-10-27 2022-04-26 Lear Corporation System and method for providing an alert to a driver of a host vehicle
FR3115745B1 (fr) * 2020-10-30 2023-10-06 Valeo Vision Procédé de gestion des données d'image et dispositif d'éclairage automobile
WO2022207583A1 (en) * 2021-03-31 2022-10-06 Valeo Vision Method for managing image data and automotive lighting device
WO2022207582A1 (en) * 2021-03-31 2022-10-06 Valeo Vision Method for managing image data and automotive lighting device
CN113189113A (zh) * 2021-04-30 2021-07-30 聚时科技(上海)有限公司 基于视觉检测的智能数字光源及方法
US11994272B2 (en) 2021-08-20 2024-05-28 Gentex Corporation Lighting assembly and illumination system having a lighting assembly
US11701996B2 (en) * 2021-11-17 2023-07-18 Motional Ad Llc Deep learning based beam control for autonomous vehicles
US11782867B2 (en) * 2022-02-18 2023-10-10 Honeywell International Inc. Method to improve communication speed in existing control system
CN117115409B (zh) * 2023-10-24 2024-03-08 广东埃文低碳科技股份有限公司 一种基于机器视觉的仪表数据采集装置及方法

Family Cites Families (169)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2632040A (en) * 1952-05-01 1953-03-17 Rabinow Jacob Automatic headlight dimmer
US2827594A (en) * 1954-09-02 1958-03-18 Rabinow Jacob Color discriminating headlight dimmer
US4139801A (en) * 1977-01-26 1979-02-13 Linares Raul F Automatic automobile light control system
US4236099A (en) * 1979-03-05 1980-11-25 Irving Rosenblum Automatic headlight system
US4376909A (en) * 1979-04-13 1983-03-15 Honda Giken Kogyo Kabushiki Kaisha Automatic light control for automotive vehicles
FR2492748A2 (fr) * 1979-11-07 1982-04-30 Massoni Francois Dispositif de commande automatique de l'allumage et de l'extinction des feux d'un vehicule
DE2946561A1 (de) 1979-11-17 1981-05-27 Bosch Gmbh Robert Einrichtung zur automatischen pruefung der lichtverteilung eines kraftfahrzeugscheinwerfers
US6393133B1 (en) * 1992-05-05 2002-05-21 Automotive Technologies International, Inc. Method and system for controlling a vehicular system based on occupancy of the vehicle
US6442465B2 (en) * 1992-05-05 2002-08-27 Automotive Technologies International, Inc. Vehicular component control systems and methods
US4692798A (en) * 1984-01-09 1987-09-08 Nissan Motor Company, Limited Apparatus and process for improving visibility of object within visual field
US4599544A (en) * 1984-05-24 1986-07-08 General Motors Corporation Vehicle headlamp beam control
NO850900L (no) 1985-03-06 1986-09-08 Hans Christian Flaaten Anordning for automatisk, selektiv lyskontroll for kjoeretoeyer.
US4891559A (en) * 1985-06-13 1990-01-02 Nippondenso Soken, Inc. Apparatus for controlling a headlight of a vehicle
US4665321A (en) * 1985-08-14 1987-05-12 Kwangling Chang Automatic control system for automobile lights
DE3601388A1 (de) * 1986-01-18 1987-07-23 Bosch Gmbh Robert Scheinwerferanlage fuer fahrzeuge, insbesondere fuer kraftfahrzeuge
US5128799B1 (en) 1986-03-31 1996-11-05 Gentex Corp Variable reflectance motor vehicle mirror
US5282077A (en) 1986-03-31 1994-01-25 Gentex Corporation Variable reflectance mirror
US4902108A (en) 1986-03-31 1990-02-20 Gentex Corporation Single-compartment, self-erasing, solution-phase electrochromic devices, solutions for use therein, and uses thereof
US4917477A (en) * 1987-04-06 1990-04-17 Gentex Corporation Automatic rearview mirror system for automotive vehicles
US4727290A (en) * 1987-05-29 1988-02-23 General Motors Corporation Automatic vehicle headlamp dimming control
US4862037A (en) * 1987-12-24 1989-08-29 Ford Motor Company Automatic headlamp dimming system
US4930742A (en) * 1988-03-25 1990-06-05 Donnelly Corporation Rearview mirror and accessory mount for vehicles
JPH01278848A (ja) * 1988-05-02 1989-11-09 Nissan Motor Co Ltd 車両用前照灯装置
DE3844364C2 (de) 1988-12-30 1996-07-25 Bosch Gmbh Robert Verfahren zur Steuerung der Lichtemission einer Scheinwerferanordnung eines Fahrzeugs und Scheinwerferanordnung zur Durchführung des Verfahrens
JP2765110B2 (ja) * 1989-10-24 1998-06-11 日産自動車株式会社 道路照明システム
US5072154A (en) * 1990-03-13 1991-12-10 Chen Min Hsiung Automatic luminosity control device for car and motor bicycle headlamps
US5280380A (en) 1990-04-30 1994-01-18 Gentex Corporation UV-stabilized compositions and methods
US5136507A (en) * 1990-06-01 1992-08-04 Honda Giken Kogyo Kabushiki Kaisha System for correctively controlling turning movement of vehicle
US5036437A (en) * 1990-09-04 1991-07-30 Lectron Products, Inc. Vehicle lamp control sensor
US5124549A (en) * 1990-10-15 1992-06-23 Lectron Products, Inc. Automatic headlamp dimmer with optical baffle
US5086253A (en) * 1990-10-15 1992-02-04 Lawler Louis N Automatic headlight dimmer apparatus
US5187383A (en) * 1990-11-06 1993-02-16 Alfonse Taccetta Headlight actuator associated with windsheild wiper actuation having delay circuits and daylight detection
JP2677014B2 (ja) * 1990-11-22 1997-11-17 松下電器産業株式会社 照明装置
US5151824A (en) 1990-11-26 1992-09-29 Donnelly Corporation Vehicular outside mirror assembly
US5613039A (en) * 1991-01-31 1997-03-18 Ail Systems, Inc. Apparatus and method for motion detection and tracking of objects in a region for collision avoidance utilizing a real-time adaptive probabilistic neural network
US5451822A (en) * 1991-03-15 1995-09-19 Gentex Corporation Electronic control system
US5182502A (en) * 1991-05-06 1993-01-26 Lectron Products, Inc. Automatic headlamp dimmer
US5336448A (en) 1991-06-25 1994-08-09 Gentex Corporation Electrochromic devices with bipyridinium salt solutions
US5294376A (en) 1991-06-25 1994-03-15 Gentex Corporation Bipyridinium salt solutions
US5235178A (en) * 1991-10-03 1993-08-10 Hegyi Dennis J Light sensor with diffuser and eye-like response
US5416318A (en) * 1991-10-03 1995-05-16 Hegyi; Dennis J. Combined headlamp and climate control sensor having a light diffuser and a light modulator
US5278693A (en) 1992-01-13 1994-01-11 Gentex Corporation Tinted solution-phase electrochromic devices
US5883605A (en) 1992-02-25 1999-03-16 Gentex Corporation Automatic electrochromic control of light level of vacuum fluorescent display
US6246507B1 (en) 1992-04-02 2001-06-12 Gentex Corporation Non-planar interior electrochromic rearview mirror for a vehicle
GB2267341B (en) * 1992-05-27 1996-02-21 Koito Mfg Co Ltd Glare sensor for a vehicle
CA2096390C (en) 1992-07-01 1998-01-27 William L. Tonar Outside automatic rearview mirror for automotive vehicles
JP2783079B2 (ja) * 1992-08-28 1998-08-06 トヨタ自動車株式会社 ヘッドランプの配光制御装置
US6396397B1 (en) * 1993-02-26 2002-05-28 Donnelly Corporation Vehicle imaging system with stereo imaging
US5796094A (en) * 1993-02-26 1998-08-18 Donnelly Corporation Vehicle headlight control using imaging sensor
US5550677A (en) * 1993-02-26 1996-08-27 Donnelly Corporation Automatic rearview mirror system using a photosensor array
EP0612826B1 (en) 1993-02-26 2000-10-04 Donnelly Corporation Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processing for making such solid films and devices
JP2861737B2 (ja) 1993-08-05 1999-02-24 トヨタ自動車株式会社 車両用前照灯
US5434407A (en) * 1993-08-23 1995-07-18 Gentex Corporation Automatic rearview mirror incorporating light pipe
JPH0769125A (ja) 1993-08-31 1995-03-14 Toyota Motor Corp 車両用前照灯装置
US5841126A (en) * 1994-01-28 1998-11-24 California Institute Of Technology CMOS active pixel sensor type imaging system on a chip
US5471515A (en) * 1994-01-28 1995-11-28 California Institute Of Technology Active pixel sensor with intra-pixel charge transfer
US5666028A (en) * 1994-04-06 1997-09-09 Gentex Corporation Automobile headlamp and running light control system
US5537003A (en) * 1994-04-08 1996-07-16 Gentex Corporation Control system for automotive vehicle headlamps and other vehicle equipment
US5790298A (en) 1994-05-03 1998-08-04 Gentex Corporation Method of forming optically transparent seal and seal formed by said method
US5812321A (en) * 1994-07-19 1998-09-22 Donnelly Corporation Automatic sensitivity adjustment for electro-optic mirror and headlight activation control
EP0693397B1 (en) * 1994-07-19 2002-09-11 Donnelly Corporation Automatic rearview mirror system with automatic headlight activation
FR2726144B1 (fr) 1994-10-24 1996-11-29 Valeo Vision Procede et dispositif d'amelioration de la vision nocturne, notamment pour vehicule automobile
JP3503230B2 (ja) * 1994-12-15 2004-03-02 株式会社デンソー 夜間用車両認識装置
US5508592A (en) * 1994-12-21 1996-04-16 Osram Sylvania Inc. Method for deflecting the arc of an electrodeless hid lamp
US5614788A (en) * 1995-01-31 1997-03-25 Autosmart Light Switches, Inc. Automated ambient condition responsive daytime running light system
US5689370A (en) 1995-08-30 1997-11-18 Gentex Corporation Image/information displays on electro-optic devices
US5682267A (en) 1995-08-30 1997-10-28 Gentex Corporation Image/information displays on electrochromic mirrors for motor vehicles
EP0769419A3 (en) 1995-10-20 2000-08-16 Gentex Corporation Improved electro-optic rearview mirror for automotive vehicles
DE19603529A1 (de) * 1996-02-01 1997-08-07 Bosch Gmbh Robert Fernlichtscheinwerfer für Fahrzeuge
US5928572A (en) 1996-03-15 1999-07-27 Gentex Corporation Electrochromic layer and devices comprising same
US5912534A (en) * 1996-03-18 1999-06-15 Autosmart Light Switches, Inc. Double relay light switching system for providing daytime running lights for vehicles
DE69730551T2 (de) 1996-04-15 2005-09-01 Givaudan S.A. Hydroxyperoxide Lyasen
US5803579A (en) 1996-06-13 1998-09-08 Gentex Corporation Illuminator assembly incorporating light emitting diodes
US20040239243A1 (en) 1996-06-13 2004-12-02 Roberts John K. Light emitting assembly
US6144158A (en) * 1996-11-07 2000-11-07 Sensci Corporation Adaptive/anti-blinding headlights
US5811888A (en) * 1996-11-12 1998-09-22 Hsieh; Cheng-Tien Automatic vehicle power and headlight controlling device with detecting function of a generator and delayed effect
US6049171A (en) * 1998-09-18 2000-04-11 Gentex Corporation Continuously variable headlamp control
US6587573B1 (en) * 2000-03-20 2003-07-01 Gentex Corporation System for controlling exterior vehicle lights
US5825527A (en) 1997-04-02 1998-10-20 Gentex Corporation Information display area on electrochromic mirrors having a third surface metal reflector
US6681163B2 (en) 2001-10-04 2004-01-20 Gentex Corporation Moisture sensor and windshield fog detector
US6130421A (en) 1998-06-09 2000-10-10 Gentex Corporation Imaging system for vehicle headlamp control
US6774988B2 (en) 2002-07-30 2004-08-10 Gentex Corporation Light source detection and categorization system for automatic vehicle exterior light control and method of manufacturing
US5923457A (en) 1997-04-02 1999-07-13 Gentex Corporation Electro-optic device including a low sheet resistance, high transmission transparent electrode
US6700692B2 (en) 1997-04-02 2004-03-02 Gentex Corporation Electrochromic rearview mirror assembly incorporating a display/signal light
US6631316B2 (en) 2001-03-05 2003-10-07 Gentex Corporation Image processing system to control vehicle headlamps or other vehicle equipment
US5956012A (en) 1997-04-02 1999-09-21 Gentex Corporation Series drive circuit
US5940201A (en) 1997-04-02 1999-08-17 Gentex Corporation Electrochromic mirror with two thin glass elements and a gelled electrochromic medium
US6166848A (en) 1997-04-02 2000-12-26 Gentex Corporation Electrochromic rearview mirror incorporating a third surface metal reflector and a display/signal light
US6441943B1 (en) 1997-04-02 2002-08-27 Gentex Corporation Indicators and illuminators using a semiconductor radiation emitter package
US5990469A (en) * 1997-04-02 1999-11-23 Gentex Corporation Control circuit for image array sensors
US5998617A (en) 1997-04-02 1999-12-07 Gentex Corporation Electrochromic compounds
US6356376B1 (en) 1997-04-02 2002-03-12 Gentex Corporation Electrochromic rearview mirror incorporating a third surface metal reflector and a display/signal light
US6611610B1 (en) 1997-04-02 2003-08-26 Gentex Corporation Vehicle lamp control
US5923027A (en) 1997-09-16 1999-07-13 Gentex Corporation Moisture sensor and windshield fog detector using an image sensor
US6111684A (en) 1997-04-02 2000-08-29 Gentex Corporation Electrochromic rearview mirror incorporating a third surface metal reflector and a display/signal light
US6861809B2 (en) 1998-09-18 2005-03-01 Gentex Corporation Headlamp control to prevent glare
US6020987A (en) 1997-04-02 2000-02-01 Gentex Corporation Electrochromic medium capable of producing a pre-selected color
US5837994C1 (en) 1997-04-02 2001-10-16 Gentex Corp Control system to automatically dim vehicle head lamps
JP3149823B2 (ja) * 1997-07-24 2001-03-26 トヨタ自動車株式会社 車両用照明装置
US6064509A (en) 1997-08-22 2000-05-16 Gentex Corporation Clip for use with transparent conductive electrodes in electrochromic devices
US6247819B1 (en) 1997-09-16 2001-06-19 Gentex Corporation Individual mirror control system
US6091343A (en) 1997-12-18 2000-07-18 Prince Corporation Trainable RF transmitter having expanded learning capabilities
US6008486A (en) 1997-12-31 1999-12-28 Gentex Corporation Wide dynamic range optical sensor
US6193912B1 (en) 1998-03-03 2001-02-27 Gentex Corporation Near infrared-absorbing electrochromic compounds and devices comprising same
DE19861428B4 (de) 1998-03-17 2008-01-10 Robert Bosch Gmbh Optischer Sensor
US6224716B1 (en) 1998-03-18 2001-05-01 Oilquip, Inc. Apparatus for dehydrating oil
JPH11301342A (ja) * 1998-04-22 1999-11-02 Aisin Seiki Co Ltd 前照灯制御装置
US6084700A (en) 1998-04-29 2000-07-04 Gentex Corporation Reflectance control of an electrochromic element using a variable duty cycle drive
USD410607S (en) 1998-07-09 1999-06-08 Gentex Corporation Rearview mirror with woodgrain bezel
US6130448A (en) 1998-08-21 2000-10-10 Gentex Corporation Optical sensor package and method of making same
US6062920A (en) 1998-08-26 2000-05-16 Gentex Corporation Custom terminal connector for use in electrochromic devices
US6670207B1 (en) 1999-03-15 2003-12-30 Gentex Corporation Radiation emitter device having an integral micro-groove lens
US6335548B1 (en) 1999-03-15 2002-01-01 Gentex Corporation Semiconductor radiation emitter package
JP2000099875A (ja) * 1998-09-24 2000-04-07 Mitsubishi Electric Corp 車両検出装置
JP2949627B1 (ja) * 1998-09-29 1999-09-20 阪神エレクトリック株式会社 車両の灯火類制御装置
ES2222040T3 (es) 1998-10-12 2005-01-16 Control Devices, Inc. Sensor de luz ambiental.
US6170956B1 (en) 1998-10-14 2001-01-09 Gentex Corporation Rearview mirror with display
US6239898B1 (en) 1998-11-30 2001-05-29 Gentex Corporation Electrochromic structures
US6222177B1 (en) 1999-01-19 2001-04-24 Gentex Corporation Electrochromic element driver with negative output resistance
US6679608B2 (en) 1999-01-25 2004-01-20 Gentex Corporation Sensor device having an integral anamorphic lens
US6313457B1 (en) 1999-01-25 2001-11-06 Gentex Corporation Moisture detecting system using semiconductor light sensor with integral charge collection
KR100682523B1 (ko) 1999-01-25 2007-02-15 젠텍스 코포레이션 반도체 광 센서들을 가진 차량 기기 제어장치
US6359274B1 (en) 1999-01-25 2002-03-19 Gentex Corporation Photodiode light sensor
US6402328B1 (en) 1999-01-25 2002-06-11 Gentex Corporation Automatic dimming mirror using semiconductor light sensor with integral charge collection
US6166698A (en) 1999-02-16 2000-12-26 Gentex Corporation Rearview mirror with integrated microwave receiver
US6396446B1 (en) 1999-02-16 2002-05-28 Gentex Corporation Microwave antenna for use in a vehicle
US6023229A (en) 1999-03-02 2000-02-08 Gentex Corp Rearview mirror with internally-mounted compass sensor
US6229435B1 (en) 1999-03-04 2001-05-08 Gentex Corporation Outside mirror communication system
US6521916B2 (en) 1999-03-15 2003-02-18 Gentex Corporation Radiation emitter device having an encapsulant with different zones of thermal conductivity
US6195194B1 (en) 1999-03-16 2001-02-27 Gentex Corporation Lightweight electrochromic mirror
US6102546A (en) 1999-04-01 2000-08-15 Gentex Corporation Rearview mirror bezel having reduced apparent size
US6215389B1 (en) 1999-04-14 2001-04-10 Gentex Corporation Time-independent, event-based system for receiving and discriminating unique codes from multiple transmitters and method for doing the same
US6137620A (en) 1999-04-30 2000-10-24 Gentex Corporation Electrochromic media with concentration-enhanced stability, process for the preparation thereof and use in electrochromic devices
US6244716B1 (en) 1999-05-17 2001-06-12 Gentex Corporation Exterior mirror sub-assembly with combined electronic circuitry and mirror element
TW493054B (en) * 1999-06-25 2002-07-01 Koninkl Philips Electronics Nv Vehicle headlamp and a vehicle
US6193378B1 (en) 1999-06-25 2001-02-27 Gentex Corporation Electrochromic device having a self-cleaning hydrophilic coating
US6249369B1 (en) 1999-07-09 2001-06-19 Gentex Corporation Coupled electrochromic compounds with photostable dication oxidation states
US6346698B1 (en) 1999-07-22 2002-02-12 Gentex Corporation Low EMI multiplexed dual display
US6195192B1 (en) 1999-08-02 2001-02-27 Gentex Corporation Electrochromic materials with enhanced ultraviolet stability
US6188505B1 (en) 1999-08-19 2001-02-13 Gentex Corporation Color-stabilized electrochromic devices
US6262831B1 (en) 1999-10-22 2001-07-17 Gentex Corporation Power supply for electrochromic mirrors in high voltage automotive power systems
US6614579B2 (en) 1999-10-22 2003-09-02 Gentex Corporation Proximity switch and vehicle rearview mirror assembly incorporating the same and having a transparent housing
US6426568B2 (en) 1999-11-12 2002-07-30 Gentex Corporation Low resistance switch using carbon contacts
US6262832B1 (en) 1999-12-03 2001-07-17 Gentex Corporation Anodic electrochromic materials having a solublizing moiety
US6239899B1 (en) 1999-12-15 2001-05-29 Gentex Corporation Mirror with internal support plate
US6392783B1 (en) 2000-02-24 2002-05-21 Gentex Corporation Substituted metallocenes for use as anodic electrochromic materials, and electrochromic media and devices comprising the same
US6403942B1 (en) 2000-03-20 2002-06-11 Gentex Corporation Automatic headlamp control system utilizing radar and an optical sensor
US6980092B2 (en) 2000-04-06 2005-12-27 Gentex Corporation Vehicle rearview mirror assembly incorporating a communication system
US6407468B1 (en) 2000-05-25 2002-06-18 Gentex Corporation Rearview mirror with buttons incorporating display
US6420800B1 (en) 2000-05-25 2002-07-16 Gentex Corporation Rearview mirror with buttons incorporating display
US6471362B1 (en) 2000-10-13 2002-10-29 Gentex Corporation Mirror with improved button construction
CA2436484C (en) 2001-02-14 2008-01-22 Gentex Corporation Vehicle accessory microphone
US6539306B2 (en) 2001-06-15 2003-03-25 Gentex Corporation Automotive mirror with integrated Loran components
US6431712B1 (en) 2001-07-27 2002-08-13 Gentex Corporation Automotive rearview mirror assembly including a helical antenna with a non-circular cross-section
US6426485B1 (en) 2001-07-31 2002-07-30 Illinois Tool Works Inc. Light diffusing signal mirror heater
EP1421316B1 (en) 2001-08-31 2007-10-17 Gentex Corporation Vehicle lamp assembly with heat sink
US6696935B2 (en) 2001-09-10 2004-02-24 Gentex Corporation Tire monitoring system
US6617564B2 (en) 2001-10-04 2003-09-09 Gentex Corporation Moisture sensor utilizing stereo imaging with an image sensor
US6467919B1 (en) 2001-11-02 2002-10-22 Gentex Corporation Mirror with split ball mount and hold-open device
US6653831B2 (en) 2001-11-20 2003-11-25 Gentex Corporation Magnetometer having a dynamically adjustable bias setting and electronic vehicle compass incorporating the same
DE10157028A1 (de) 2001-11-21 2003-06-05 Bosch Gmbh Robert Sensoreinrichtung, insbesondere zur Steuerung von Beleuchtungseinrichtungen eines Kraftfahrzeugs
US6831268B2 (en) 2002-01-10 2004-12-14 Gentex Corporation Sensor configuration for substantial spacing from a small aperture
DE10201523A1 (de) 2002-01-17 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zur Verdeckungsdetektion bei Bildsensorsystemen
US6968273B2 (en) 2002-03-01 2005-11-22 Gentex Corporation Electronic compass system
US7149627B2 (en) 2002-03-01 2006-12-12 Gentex Corporation Electronic compass system
US7683326B2 (en) 2002-07-09 2010-03-23 Gentex Corporation Vehicle vision system with high dynamic range
US7305122B2 (en) * 2002-08-13 2007-12-04 Lockheed Martin Corporation Method and computer program product for identifying and correcting systematic noise in a pattern recognition system
MXPA05001880A (es) 2002-08-21 2005-06-03 Gentex Corp Metodos de adquisicion y procesamiento de imagen para control automatico de iluminacion exterior vehicular.
US9805570B2 (en) 2011-06-22 2017-10-31 Garrett Thermal Systems Limited Particle detector with dust rejection

Also Published As

Publication number Publication date
US20040143380A1 (en) 2004-07-22
KR20050037582A (ko) 2005-04-22
EP1573479B1 (en) 2018-10-31
CN101023407A (zh) 2007-08-22
WO2004034183A2 (en) 2004-04-22
WO2004034183A3 (en) 2007-03-22
JP4818609B2 (ja) 2011-11-16
EP1573479A2 (en) 2005-09-14
AU2003298558A1 (en) 2004-05-04
AU2003298558A8 (en) 2004-05-04
JP2006511383A (ja) 2006-04-06
EP1573479A4 (en) 2014-04-09
US7565006B2 (en) 2009-07-21
CA2494723C (en) 2011-11-08
CA2494723A1 (en) 2004-04-22

Similar Documents

Publication Publication Date Title
MXPA05001880A (es) Metodos de adquisicion y procesamiento de imagen para control automatico de iluminacion exterior vehicular.
US8065053B2 (en) Image acquisition and processing systems for vehicle equipment control
US9972100B2 (en) Vehicular imaging system comprising an imaging device with a single image sensor and image processor for determining a totally blocked state or partially blocked state of the single image sensor as well as an automatic correction for misalignment of the imaging device
CN105555611B (zh) 车辆成像系统和用于判别反射物体与另一车辆的灯的方法
EP2420408B1 (en) System for controlling exterior vehicle lights
US8924078B2 (en) Image acquisition and processing system for vehicle equipment control
US9185363B2 (en) Vehicle imaging system and method for categorizing objects using relative motion analysis
EP2537709B1 (en) Image processing apparatus and light distribution control method
US8983135B2 (en) System and method for controlling vehicle equipment responsive to a multi-stage village detection
KR101738995B1 (ko) 에고 모션 검출을 구비한 촬상 시스템 및 방법
KR101848451B1 (ko) 차량 후미등과 점멸 적색 정지등을 구별하기 위한 차량 촬상 시스템 및 방법
US9511708B2 (en) Method and system for imaging an external scene by employing a custom image sensor

Legal Events

Date Code Title Description
FG Grant or registration