ES2886522T3 - Dispositivo de procesamiento de imágenes, su método y dispositivo de anticolisión de cuerpo en movimiento - Google Patents

Dispositivo de procesamiento de imágenes, su método y dispositivo de anticolisión de cuerpo en movimiento Download PDF

Info

Publication number
ES2886522T3
ES2886522T3 ES12001674T ES12001674T ES2886522T3 ES 2886522 T3 ES2886522 T3 ES 2886522T3 ES 12001674 T ES12001674 T ES 12001674T ES 12001674 T ES12001674 T ES 12001674T ES 2886522 T3 ES2886522 T3 ES 2886522T3
Authority
ES
Spain
Prior art keywords
unit
focus
images
image processing
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12001674T
Other languages
English (en)
Inventor
Yasurou Fukawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Any Co Ltd
Original Assignee
Any Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Any Co Ltd filed Critical Any Co Ltd
Application granted granted Critical
Publication of ES2886522T3 publication Critical patent/ES2886522T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

Un dispositivo de procesamiento de imágenes adaptado a un dispositivo de anticolisión de cuerpo en movimiento con un cuerpo en movimiento desplazándose en una carretera, que comprende: una unidad de cámara, y una unidad de procesamiento de imágenes que procesa las imágenes proporcionadas por la unidad de cámara, en donde la unidad de cámara incluye: una lente, una unidad de enfoque que impulsa la lente para cambiar la distancia de enfoque de la unidad de cámara, y una unidad de captación de imágenes, en donde la unidad de enfoque impulsa la lente para cambiar, de manera secuencial, la distancia de enfoque de la unidad de cámara para realizar una operación de barrido de enfoque, de modo que se formen imágenes claras de objetos en diferentes posiciones en un eje óptico de la lente en la unidad de captación de imágenes, en donde una diferencia entre dichas distancias de enfoque de dos imágenes adyacentes captadas, de manera secuencial, por la unidad de cámara en la operación de barrido de enfoque es una distancia predeterminada que es menor o igual a un metro, la unidad de captación de imágenes capta una pluralidad de imágenes correspondientes a diferentes distancias de enfoque en la operación de barrido de enfoque, y la unidad de procesamiento de imágenes recibe la pluralidad de imágenes obtenidas por la unidad de captación de imágenes de la unidad de cámara en la operación de barrido de enfoque, identifica objetos con imágenes claras formadas en la pluralidad de imágenes y produce una vista de distribución de objetos de conformidad con las distancias de enfoque utilizadas al captar la pluralidad de imágenes, indicando dicha vista de distribución de objetos una distribución de posición de los objetos identificados.

Description

DESCRIPCIÓN
Dispositivo de procesamiento de imágenes, su método y dispositivo de anticolisión de cuerpo en movimiento ANTECEDENTES DE LA INVENCIÓN
1. CAMPO DE LA INVENCIÓN
La presente invención se refiere a un dispositivo de procesamiento de imágenes, su método y un dispositivo de anticolisión de cuerpo en movimiento que utiliza el dispositivo de procesamiento de imágenes.
2. DESCRIPCIÓN DE LA TÉCNICA RELACIONADA
La solicitud de patente japonesa abierta al público n° 2000-304856 (en adelante, referida como "referencia 1") y la solicitud de patente japonesa abierta al público n° 11-120499 (en adelante, referida como "referencia 2") describen un dispositivo de anticolisión que está montado en una aeronave o en una embarcación y utiliza GPS (Sistema de Posicionamiento Global) o un radar.
El Boletín de Patentes Japonesas n° 3260645 (en lo sucesivo, denominado "referencia 3") describe un dispositivo de navegación de medios de transporte terrestre, tal como un vehículo, mediante el uso de la técnica GPS.
La solicitud de patente japonesa abierta al público n° 2001-337724 (en lo sucesivo, denominada "referencia 4") describe una técnica para evitar que un vehículo no tripulado entre en una determinada zona mediante el uso de GPS. La solicitud de patente japonesa abierta al público n° 5-143158 (en lo sucesivo, denominada "referencia 5") describe una técnica para prevenir colisiones entre vehículos no tripulados mediante el uso de aparatos de supervisión inalámbricos.
En los últimos años, se propuso la siguiente técnica, en donde un dispositivo de anticolisión de cuerpo en movimiento incluye un receptor GPS, un detector de velocidad y un detector de dirección, obteniendo el dispositivo de anticolisión de cuerpo en movimiento información de posición GPS, información de velocidad e información de dirección a través de los componentes anteriores y transmite la información a otros cuerpos en movimiento, y otros cuerpos en movimiento que recibieron la información anterior son capaces de determinar si se produjeron, o no, colisiones. En la técnica anterior que utiliza GPS, puede estar implicado un gran error al determinar la distancia entre cuerpos en movimiento debido a la precisión inherente del posicionamiento GPS y la precisión de los receptores GPS. Por lo general, el error está en el margen desde varios metros hasta más de diez metros. Como resultado, en un área pequeña donde los cuerpos en movimiento están próximos entre sí y puede ocurrir una colisión, las posiciones de los cuerpos en movimiento no se pueden detectar de manera correcta.
El documento EP1956457 describe un dispositivo de procesamiento de imágenes para un dispositivo de anticolisión de cuerpo en movimiento, que comprende: una unidad de cámara y una unidad de procesamiento de imágenes que procesa imágenes proporcionadas por la unidad de cámara, en donde la unidad de cámara incluye: una lente, una unidad de enfoque que impulsa la lente para cambiar una distancia de enfoque de la unidad de cámara, y una unidad de captación de imagen, en donde la unidad de enfoque impulsa la lente para cambiar, de manera secuencial, la distancia de enfoque de la unidad de cámara para realizar una operación de barrido de enfoque, de modo que las imágenes nítidas de objetos en diferentes posiciones en un eje óptico de la lente se formen en la unidad de captación de imágenes, en donde una diferencia entre las distancias de enfoque de dos imágenes adyacentes captadas, de manera secuencial, por la unidad de cámara en la operación de barrido de enfoque es igual a un metro, captando la unidad de captación de imágenes una pluralidad de imágenes correspondientes a diferentes distancias de enfoque en la operación de barrido de enfoque, y la unidad de procesamiento de imágenes recibe la pluralidad de imágenes obtenidas por la unidad de captación de imagen de la unidad de cámara en la operación de barrido de enfoque, identificando objetos con imágenes claras formadas en la pluralidad de imágenes, y produciendo una vista de distribución de objetos de conformidad con las distancias de enfoque utilizadas al captar la pluralidad de imágenes, indicando dicha vista de distribución de objetos una distribución de posición de los objetos identificados.
SUMARIO DE LA INVENCIÓN
Una forma de realización de la presente invención puede resolver uno o más problemas de la técnica relacionada. Las formas de realización de la presente invención pueden proporcionar un dispositivo de procesamiento de imágenes según la reivindicación 1, un método del mismo según la reivindicación 8, y un dispositivo de anticolisión de cuerpo en movimiento que utiliza el dispositivo de procesamiento de imágenes según la reivindicación 9, capaz de reconocer con precisión objetos en una distancia próxima.
En las reivindicaciones dependientes se proporcionan otros aspectos diversos de la presente invención.
Según las formas de realización anteriores, un operador del cuerpo en movimiento o un conductor del vehículo puede observar objetos alrededor del cuerpo en movimiento, lo que mejora la seguridad.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La Figura 1 es un diagrama de bloques que ilustra una configuración de un dispositivo de anticolisión de cuerpo en movimiento según una forma de realización de la presente invención;
La Figura 2 es un diagrama que ilustra una configuración de la unidad de cámara 120;
La Figura 3 es un diagrama que ilustra el alcance de la unidad de cámara 120;
La Figura 4A a la Figura 4E son diagramas que ilustran la pluralidad de imágenes captadas por la unidad de cámara 120 en una operación de barrido de enfoque;
La Figura 5 es un diagrama de flujo que ilustra las operaciones del dispositivo de anticolisión 10;
La Figura 6 ilustra la vista de distribución de objetos generada por la unidad de procesamiento de imágenes 140 que indica la distribución de posición de los objetos identificados; y
La Figura 7 ilustra una vista esquemática para explicar la idea de obtener una vista de distribución de objetos tridimensional.
DESCRIPCIÓN DE LAS FORMAS DE REALIZACIÓN PREFERIDAS
A continuación, se describen formas de realización preferidas de la presente invención con referencia a los dibujos adjuntos.
En las siguientes formas de realización, un dispositivo de procesamiento de imágenes de la presente invención se aplica a un dispositivo de anticolisión de cuerpo en movimiento, y el dispositivo de anticolisión de cuerpo en movimiento utiliza las imágenes obtenidas por el dispositivo de procesamiento de imágenes para determinar si el cuerpo en movimiento, tal como un vehículo, colisionará con otros obstáculos u objetos.
La Figura 1 es un diagrama de bloques que ilustra una configuración de un dispositivo de anticolisión de cuerpo en movimiento según una forma de realización de la presente invención.
En la presente forma de realización, un dispositivo de anticolisión de cuerpo en movimiento (en lo sucesivo denominado "dispositivo de anticolisión") 10 se instala en un vehículo 20. Utilizando el dispositivo de anticolisión 10, es posible evitar un accidente de colisión del vehículo 20.
Tal como se muestra en la Figura 1, el dispositivo de anticolisión 10 incluye una unidad de cámara 120, una unidad de procesamiento de imágenes 140, un detector de velocidad 150, una pantalla 200, un altavoz 210, un vibrador 220, una memoria de solo lectura (ROM) 230, una unidad de determinación de colisión 300, una unidad de control del vehículo 400 que controla el movimiento del vehículo 20, y un controlador 100 que controla todos los componentes del dispositivo de anticolisión 10.
En la presente forma de realización, la unidad de cámara 120 se proporciona en un extremo frontal del vehículo 20 para captar objetos en frente del vehículo 20. La unidad de cámara capta multitud de imágenes (indicadas como "FOTOGRAMA") en una operación de barrido de enfoque, tal como se describe a continuación, y envía las imágenes de FOTOGRAMA a la unidad de procesamiento de imágenes 140 a través del controlador 100.
La unidad de procesamiento de imágenes 140 recibe las imágenes FOTOGRAMA proporcionadas por la unidad de cámara 120, identifica las imágenes claras formadas en las imágenes FOTOGRAMA e identifica, además, los objetos correspondientes a dichas imágenes claras. Además, la unidad de procesamiento de imágenes 140 genera una vista simple (denominada "vista de distribución de objetos") que indica posiciones relativas entre los objetos que tienen imágenes claras y el vehículo 20 en función de las distancias de los objetos que tienen imágenes claras.
La unidad de cámara 120 y la unidad de procesamiento de imágenes 140 constituyen un dispositivo de procesamiento de imágenes 30 de la presente forma de realización. Tal como se describió con anterioridad, el dispositivo de procesamiento de imágenes 30 capta los objetos frente al vehículo 20, identifica los objetos frente al vehículo 20 y genera la vista de distribución de objetos que indica las posiciones relativas de los objetos con respecto al vehículo 20.
La pantalla 200 muestra la vista de distribución de objetos generada por la unidad de procesamiento de imágenes 140 para mostrar al conductor del vehículo 20 si existen obstáculos u otros objetos delante del vehículo 20.
La unidad de determinación de colisión 300 determina si el vehículo 20 debe colisionar, o no, con el objeto identificado de conformidad con la vista de distribución de objetos generada por la unidad de procesamiento de imágenes 140.
El detector de velocidad 150 detecta la velocidad del vehículo 20. Con la información de velocidad detectada por el detector de velocidad 150, la unidad de determinación de colisión 300 determina si, o no, el vehículo 20 ha de colisionar con obstáculos u otros objetos.
Cuando la unidad de determinación de colisión 300 determina que se va a producir una colisión, el altavoz 210 emite un mensaje de advertencia, o el vibrador 220 vibra para notificar al conductor del vehículo 20 que tome las medidas apropiadas para evitar la colisión.
Cuando la unidad de determinación de colisión 300 determina que el vehículo 20 va a colisionar con un objeto, la unidad de control del vehículo 400 controla para frenar o acelerar el vehículo 20, o cambiar la dirección del vehículo 20 para evitar la colisión.
El controlador 100 controla los componentes anteriores del dispositivo de anticolisión 10.
La Figura 2 es un diagrama que ilustra una configuración de la unidad de cámara 120.
Tal como se muestra en la Figura 2, la unidad de cámara 120 del dispositivo de anticolisión 10 incluye una lente 121, un sensor CCD 122 y un motor de accionamiento 123. La lente 121 está compuesta por un conjunto de lentes. Se forma una imagen de un objeto que mira hacia la lente 121 en el sensor CCD 122 a través de la lente 121, y el sensor CCD 122 capta la imagen del objeto. El motor de accionamiento 123 impulsa las lentes en la lente 121 para que se desplacen a lo largo del eje óptico y, en consecuencia, se formen, de manera secuencial, imágenes claras de los objetos a diferentes distancias del vehículo 20 en el sensor CCD 122.
La Figura 3 es un diagrama que ilustra el alcance de la unidad de cámara 120.
Tal como se muestra en la Figura 3, en la presente forma de realización, la unidad de cámara 120 del dispositivo de anticolisión 10, que se proporciona en el vehículo 20, capta objetos situados delante del vehículo 20 con un cierto ángulo de disparo a. A través de la lente 121, se forman imágenes de los objetos dentro del ángulo de disparo a en el sensor CCD 122, pero solamente aquellos objetos situados en un plano a una distancia igual a la distancia de enfoque de la unidad de cámara 120 tienen imágenes claras. Por lo tanto, cuando el motor de accionamiento 123 continúa impulsando la lente 121 para cambiar, de manera secuencial, la distancia de enfoque de la unidad de cámara 120, se forman, de manera secuencial, imágenes claras de los objetos dentro del ángulo de disparo a en el sensor CCD 122 desde el lado lejano al lado cercano (o desde el lado cercano al lado lejano). En esta forma de realización, la operación de aumentar o disminuir, de manera secuencial, la distancia de enfoque de la unidad de cámara 120 y formar, secuencialmente imágenes claras de los objetos situados delante de la unidad de cámara 120 en el sensor CCD 122 se denomina "barrido de enfoque".
El motor de accionamiento 123 puede ser un motor del tipo paso a paso o un elemento piezoeléctrico u otros aplicables a una lente óptica. El controlador 100 controla el ángulo de rotación del motor de accionamiento 123 según una distancia de enfoque preestablecida, de modo que los objetos situados delante del vehículo 20 a la distancia de enfoque tengan imágenes claras en el sensor CCD 122.
Cuando el motor de accionamiento 123 impulsa la lente 121 para realizar la operación de barrido de enfoque, el sensor CCD 122 captura diversas imágenes. En la presente forma de realización, por ejemplo, tal como se muestra en la Figura 3, en una operación de barrido de enfoque, las distancias de enfoque de la unidad de cámara 120 se establecen, de manera secuencial, en 50 metros, 40 metros, 30 metros, 20 metros y 10 metros, y se captan cinco imágenes desde FOTOGRAMA 1 a FOTOGRAMA 5, respectivamente.
La Figura 4A a la Figura 4E son diagramas que ilustran las imágenes FOTOGRAMA 1 a FOTOGRAMA 5 captadas por la unidad de cámara 120 en la operación de barrido de enfoque.
En este caso, la Figura 4A es un diagrama que ilustra la imagen FOTOGRAMA 1 tomada a una distancia de enfoque de 50 m; la Figura 4B es un diagrama que ilustra la imagen FOTOGRAMA 2 tomada a una distancia de enfoque de 40 m; la Figura 4C es un diagrama que ilustra la imagen FOTOGRAMA 3 tomada a una distancia de enfoque de 30 m; la Figura 4D es un diagrama que ilustra la imagen FOTOGRAMA 4 tomada a una distancia de enfoque de 20 m, y la Figura 4E es un diagrama que ilustra la imagen FOTOGRAMA 5 tomada a una distancia de enfoque de 10 m.
En la Figura 4A a la Figura 4E, las líneas gruesas indican imágenes de los objetos que tienen imágenes claras en el sensor CCD 122, y las líneas finas indican imágenes de los objetos que no tienen imágenes claras.
En la Figura 4A, dentro del ángulo de disparo a, los objetos a una distancia de 50 metros desde el vehículo 20 tienen imágenes claras en el sensor CCD 122. En este caso, tal como se muestra en la Figura 4A, los objetos que tienen imágenes claras incluyen una marca de carretera 30a, un límite de carretera 30b y un edificio 30c al lado de la carretera a una distancia de 50 metros desde el vehículo 20. Por lo tanto, se obtiene la imagen FOTOGRAMA 1, tal como se muestra en la Figura 4A, que incluye las imágenes claras anteriores (líneas gruesas) y aquellas imágenes poco claras (líneas finas).
Tal como se muestra en la Figura 4B, el motor de accionamiento 123 impulsa la lente 121 y la distancia de enfoque se acorta. En este caso, los objetos a una distancia de 40 metros desde el vehículo 20 tienen imágenes claras en el sensor CCD 122. Los objetos que tienen imágenes claras incluyen la marca de la carretera 30a, el límite de la carretera 30b y un vehículo 30d a una distancia de 40 metros desde el vehículo 20. De este modo, se obtiene la imagen FOTOGRAMA 2 tal como se muestra en la Figura 4B que incluye las imágenes claras anteriores (líneas gruesas) y aquellas imágenes poco claras (líneas finas).
Tal como se muestra en la Figura 4C, el motor de accionamiento 123 impulsa, además, la lente 121 para acortar aún más la distancia de enfoque. En este caso, los objetos a una distancia de 30 metros desde el vehículo 20 tienen imágenes claras en el sensor CCD 122. Los objetos que tienen imágenes claras incluyen la marca de la carretera 30a, el límite de la carretera 30b y los árboles 30e junto a la carretera a una distancia de 30 metros desde el vehículo 20. De este modo, se obtiene la imagen FOTOGRAMA 3 tal como se muestra en la Figura 4C que incluye las imágenes claras anteriores (líneas gruesas) y aquellas imágenes poco claras (líneas finas).
Tal como se muestra en la Figura 4D, el motor de accionamiento 123 impulsa aún más la lente 121 y la distancia de enfoque se acorta en consecuencia. En este caso, los objetos a una distancia de 20 metros desde el vehículo 20 tienen imágenes claras del sensor CCD 122. Los objetos que tienen imágenes claras incluyen la marca de la carretera 30a, el límite de la carretera 30b y una bicicleta 30f a una distancia de 20 metros desde el vehículo 20. De este modo, se obtiene la imagen FOTOGRAMA 4 tal como se muestra en la Figura DA que incluye las imágenes claras anteriores (líneas gruesas) y las imágenes poco claras (líneas finas).
Tal como se muestra en la Figura 4E, el motor de accionamiento 123 impulsa aún más la lente 121, y la distancia de enfoque se acorta en consecuencia. En este caso, los objetos a una distancia de 10 metros desde el vehículo 20 tienen imágenes claras. Los objetos que tienen imágenes claras incluyen la marca de la carretera 30a, el límite de la carretera 30b a una distancia de 10 metros desde el vehículo 20. De este modo, se obtiene la imagen FOTOGRAMA 5 tal como se muestra en la Figura 4E que incluye las imágenes claras anteriores (líneas gruesas) y aquellas imágenes poco claras (líneas finas).
Las imágenes FOTOGRAMA 1 a 5 obtenidas por la unidad de cámara 120 se introducen en la unidad de procesamiento de imágenes 140 para el procesamiento de imágenes tal como se describe a continuación.
A continuación, se describen en detalle las operaciones del dispositivo de anticolisión 10.
En la presente forma de realización, en la operación de barrido de enfoque, se supone que la distancia de enfoque más larga es de 50 metros, la distancia de enfoque más corta es de 10 metros, y en una operación de barrido de enfoque, las distancias de enfoque se ajustan, de manera secuencial, en orden descendente, es decir, 50 metros, 40 metros, 30 metros, 20 metros, 10 metros, o en orden ascendente, es decir, 10 metros, 20 metros, 30 metros, 40 metros, 50 metros, y cinco imágenes FOTOGRAMA 1 a FOTOGRAMA 5 se forman, de manera respectiva.
La Figura 5 es un diagrama de flujo que ilustra las operaciones del dispositivo de anticolisión 10.
Tal como se muestra en la Figura 5, en la etapa S501, comienza el barrido de enfoque. El motor de accionamiento 123 de la unidad de cámara 120 impulsa la lente 121 de modo que se formen imágenes claras de los objetos a una distancia de 50 metros por delante en el sensor CCD 122, es decir, para ajustar la distancia de enfoque a 50 metros.
En la etapa S502, el sensor de imagen CCD 122 obtiene la imagen FOTOGRAMA 1 y transmite la imagen FOTOGRAMA 1 a la unidad de procesamiento de imágenes 140.
En la etapa S503, la unidad de procesamiento de imágenes 140 identifica los objetos con imágenes claras formadas en la imagen FOTOGRAMA 1.
A partir de las imágenes FOTOGRAMA 1, la unidad de procesamiento de imágenes 140 identifica la marca de la carretera 30a, el límite de la carretera 30b y el edificio 30c a una distancia de 50 metros desde el vehículo 20. Aunque el vehículo 30d, los árboles 30e y la bicicleta 30f también están en la imagen FOTOGRAMA 1, estos objetos no son reconocidos por la unidad de procesamiento de imágenes 140 porque estos objetos no tienen imágenes claras en la imagen FOTOGRAMA 1.
En la etapa S504, la unidad de procesamiento de imágenes 140 calcula las posiciones de la marca de la carretera 30a, el límite de la carretera 30b y el edificio 30c basándose en la distancia de enfoque utilizada al captar las imágenes FOTOGRAMA 1, y genera una vista de distribución de objetos que indica la distribución de la posición de estos objetos identificados.
La Figura 6 ilustra la vista de distribución de objetos generada por la unidad de procesamiento de imágenes 140 que indica la distribución de posición de los objetos identificados.
En ese momento, la distancia de enfoque es de 50 metros, y solamente aquellos objetos a 50 metros desde el vehículo 20 tienen imágenes claras en la imagen FOTOGRAMA 1. Las posiciones de estos objetos que tienen imágenes claras están determinadas por sus posiciones angulares al obtener la imagen FOTOGRAMA 1. Por lo tanto, la unidad de procesamiento de imágenes 140 genera imágenes de la marca de la carretera 30a, del límite de la carretera 30b y del edificio 30c en una línea discontinua de 50 metros por delante del vehículo 20 en la vista mostrada en la Figura 6.
A continuación, en la etapa S505, se determina si se han procesado todas las imágenes de FOTOGRAMA tomadas por la unidad de cámara 120 en una operación de barrido de enfoque. Si algunas imágenes de FOTOGRAMA no se han procesado, continúa con la etapa S506.
En la etapa S506, el motor de accionamiento 120 impulsa la lente 121 para cambiar la distancia de enfoque. Por ejemplo, la distancia de enfoque se acorta a 40 metros, por lo que se forman imágenes claras en el sensor CCD 122 para los objetos a 40 metros por delante del vehículo 20.
A continuación, se repite la etapa S502. La unidad de cámara 120 obtiene la imagen FOTOGRAMA 2 (véase Figura 4B) a través del sensor CCD 122, y transmite la imagen FOTOGRAMA 2 a la unidad de procesamiento de imágenes 140.
A continuación, en la etapa S503, similar al procesamiento anterior para la imagen FOTOGRAMA 1, la unidad de procesamiento de imágenes 140 identifica los objetos que tienen imágenes claras en la imagen FOTOGRAMA 2. Estos objetos incluyen la marca de la carretera 30a, el límite de la carretera 30b, y el vehículo 30d a una distancia de 40 metros por delante del vehículo 20.
En la etapa S504, basándose en la distancia de enfoque al captar las imágenes FOTOGRAMA 2 (40 metros), la unidad de procesamiento de imágenes 140 genera imágenes de la marca de la carretera 30a, el límite de la carretera 30b y el vehículo 30d, en una línea discontinua del tipo punto-raya que está 40 metros por delante del vehículo 20 en la vista de distribución de objetos mostrada en la Figura 6.
A continuación, en la etapa S505, se determina si se han procesado todas las imágenes de FOTOGRAMA obtenidas por la unidad de cámara 120 en una operación de barrido de enfoque. Si algunas imágenes de FOTOGRAMA no se han procesado, continúa con la etapa S506.
Después de los resultados de la determinación, se obtienen las imágenes FOTOGRAMA 3 a 5 y se realiza el mismo procesamiento. A continuación, se muestra una breve descripción del procesamiento de las imágenes de FOTOGRAMA 3 a 5.
Con respecto a la imagen FOTOGRAMA 3, la distancia de enfoque se acorta a 30 metros para captar la imagen FOTOGRAMA 3. La unidad de procesamiento de imágenes 140 identifica la marca de la carretera 30a, el límite de la carretera 30b y los árboles 30e que están a una distancia de 30 metros desde el vehículo 20 y así tener imágenes claras en la imagen FOTOGRAMA 3, y genera imágenes de estos objetos en posiciones correspondientes a la distancia de 30 metros en la vista de distribución de objetos mostrada en la Figura 6.
Con respecto a la imagen FOTOGRAMA 4, la distancia de enfoque se acorta a 20 metros para captar la imagen FOTOGRAMA 4. La unidad de procesamiento de imágenes 140 identifica la marca de la carretera 30a, el límite de la carretera 30b y la bicicleta 30f que se encuentran en una distancia de 20 metros desde el vehículo 20 y así tener imágenes claras en la imagen FOTOGRAMA 4, y genera imágenes de estos objetos en posiciones correspondientes a la distancia de 20 metros en la vista de distribución de objetos mostrada en la Figura 6.
Con respecto a la imagen FOTOGRAMA 5, la distancia de enfoque se acorta a 20 metros para captar la imagen FOTOGRAMA 4. La unidad de procesamiento de imagen 140 identifica la marca de la carretera 30a, el límite de la carretera 30b, que están situados a una distancia de 10 metros desde el vehículo 20 y de este modo, tienen imágenes claras en la imagen FOTOGRAMA 5, y genera imágenes de estos objetos en posiciones correspondientes a la distancia de 10 metros en la vista de distribución de objetos mostrada en la Figura 6.
Cuando la unidad de procesamiento de imágenes 140 ha realizado las etapas S502 a S504 para todas las imágenes de FOTOGRAMA obtenidas en un barrido de enfoque, se obtiene una vista de distribución de objetos que indica una distribución de posiciones relativas de los objetos delante del vehículo 20. En la Figura 6 se muestra un ejemplo de dicha vista. La Figura 6 muestra todos los objetos en un margen de 10 a 50 metros por delante del vehículo 20 y fotografiados por la unidad de cámara 120.
En la etapa S505, cuando se determina que se ha completado el procesamiento de todas las imágenes de FOTOGRAMA obtenidas en una operación de barrido de enfoque, la rutina vuelve a la etapa S501, y la unidad de cámara 120 continúa la operación de barrido de enfoque desde la último distancia de enfoque (es decir, de 10 metros como en el ejemplo anterior), por ejemplo, la unidad de cámara 120 continúa la operación de barrido de enfoque con la distancia de enfoque que varía desde 10 metros a 50 metros, y obtiene una pluralidad de imágenes de FOTOGRAMA y la unidad de procesamiento de imágenes 140 obtiene una nueva vista de distribución de objetos para actualizar la anterior.
En la presente forma de realización, la pantalla 200 muestra la vista de distribución de objetos, y un conductor del vehículo 20 puede encontrar obstáculos tales como edificios, árboles, otros vehículos, bicicletas, peatones y otros más adelante, evitando así efectivamente accidentes de colisión. Además, el conductor del vehículo 20 puede encontrar, por ejemplo, la marca de la carretera, el límite de la carretera, y lo que antecede puede ayudar al conductor a realizar una conducción más fácil del vehículo 20 a lo largo de las marcas de la carretera.
Además, la unidad de determinación de colisión 300 puede determinar si el vehículo 20 debe colisionar con otros obstáculos según la vista de distribución de objetos.
Cuando la distancia entre el vehículo 20 y un obstáculo situado delante es menor que una distancia de seguridad dada, la unidad de determinación de colisión 300 determina que está en peligro de colisión, y la pantalla 200 muestra el obstáculo en un color notable, tal como rojo, para advertir al conductor del vehículo 20 que puede producirse una colisión con el obstáculo. Además, el altavoz 210 puede hacer sonar una alarma de advertencia para advertir al conductor del riesgo de colisión, o el vibrador 220 puede vibrar para notificar la situación al conductor.
Además, puesto que la vista de distribución de objetos generada por la unidad de procesamiento de imágenes 140 incluye no solo obstáculos tales como edificios, vehículos, árboles, bicicletas, peatones, sino también marcas de carreteras y límites de carreteras, la unidad de determinación de colisiones 300 también determina si el vehículo 20 debe chocar con la marca de la carretera o con los límites de la carretera. Cuando la unidad de determinación de colisión 300 determina que el vehículo 20 va a colisionar con la marca de la carretera o con los límites de la carretera, ello implica que el vehículo 20 se está alejando del carril actual, por lo que la unidad de determinación de colisión 300 puede notificar al conductor del vehículo 20 para conducir a lo largo del carril actual a través de la pantalla 200, el altavoz 210 o el vibrador 220. Lo que antecede ayuda a evitar cualquier riesgo, tal como la salida del carril en la carretera debido a la fatiga del conductor, y mejora en gran medida la seguridad de la conducción el vehículo 20. En la presente forma de realización, el dispositivo de anticolisión 10 incluye, además, un sensor de velocidad 150 para detectar la velocidad del vehículo 20. Basándose en la velocidad del vehículo 20 detectada por el detector de velocidad 150, el dispositivo de colisión puede calcular una distancia de seguridad en tiempo real, y utilizando los datos de distancia de seguridad, es posible prevenir colisiones de forma eficaz.
En el dispositivo de anticolisión 10, los datos de velocidad y los datos correspondientes de distancias de seguridad pueden almacenarse en la memoria de solo lectura (ROM) 230 u otras memorias. La unidad de determinación de colisión 300 también puede utilizar una fórmula predeterminada para calcular la distancia de seguridad en función de la velocidad del vehículo 20 dada por el detector de velocidad 150 en cualquier momento según sea necesario.
Además, en el dispositivo de anticolisión 10 de la presente forma de realización, cuando la unidad de determinación de colisión 300 determina que la colisión puede ocurrir, el controlador 100 controla para frenar o acelerar, o cambiar la dirección del vehículo 20 a través de la unidad de control del vehículo 400.
Además, cuando la unidad de determinación de colisión 300 determina que el vehículo 20 va a colisionar con un objeto situado delante utilizando la vista de distribución de objetos dada por la unidad de procesamiento de imágenes 140, la unidad de control del vehículo 400 puede controlar para frenar el vehículo 20 de antemano con el fin de mantener una distancia segura entre el vehículo 20 y el objeto situado delante.
Cuando el vehículo 20 está a punto de salir del carril, la unidad de control del vehículo 400 también puede controlar, por adelantado, la conducción del vehículo 20, para mantener el vehículo 20 en el carril derecho. Cuando el conductor del vehículo 20 cambia de carril de manera intencionada, el conductor puede resistir ligeramente las operaciones provocadas por la unidad de control del vehículo 400, las operaciones provocadas por la unidad de control del vehículo 400 se liberan y, por lo tanto, se reanuda el control del vehículo 20 por parte del conductor.
En la presente forma de realización, de manera preferible, la unidad de cámara 120 capta imágenes a alta velocidad. Lo que antecede reduce el tiempo de exposición requerido para captar cada una de las imágenes de FOTOGRAMA, por lo que es posible evitar que la imagen de FOTOGRAMA sea poco clara cuando el vehículo 20 se desplaza a alta velocidad y produce vibración, y permite que la unidad de procesamiento de imágenes 140 identifique objetos con precisión. Además, debido a que la unidad de cámara 120 capta imágenes a alta velocidad, es posible identificar objetos con precisión en un margen de larga distancia por delante del vehículo 20 y actualizar la vista de distribución de posición de manera rápida, mejorando así el rendimiento en tiempo real de la vista de distribución de posición del vehículo.
En la forma de realización anterior, por simplicidad, se supone que se obtienen cinco imágenes FOTOGRAMA 1 a FOTOGRAMA 5 en una sola operación de barrido de enfoque, y siendo la distancia de enfoque más larga de 50 metros, y siendo la distancia de enfoque más corta de 10 metros. Sin embargo, con el fin de obtener imágenes de todos los objetos delante del vehículo 20, cuanto menor sea la etapa de disminuir o aumentar las distancias de enfoque de la unidad de cámara 120, tanto más alta será la precisión en la vista de distribución de objetos, es decir, es posible visualizar objetos más pequeños y dos objetos próximos. Pero lo que antecede aumenta la carga de procesar las imágenes de FOTOGRAMA por la unidad de procesamiento de imágenes 140. Dependiendo del propósito, los expertos en esta técnica pueden elegir una etapa adecuada de las distancias de enfoque para no solo cumplir con los requisitos de precisión de detección, sino también para reducir la carga de la unidad de procesamiento de imágenes 140. De manera preferible, la etapa de cambiar las distancias de enfoque es de menos de un metro.
La distancia de enfoque más larga y la distancia de enfoque más corta pueden diferir de 50 metros y de 10 metros, respectivamente. Para mejorar la seguridad de conducción del vehículo 20, es preferible que la distancia de enfoque más larga sea mayor o igual a 50 metros, y que la distancia de enfoque más corta sea menor o igual a 5 metros.
En la presente forma de realización, cada vez que la unidad de cámara 120 realiza un barrido de enfoque, la unidad de procesamiento de imágenes 140 actualiza la vista previa de distribución de objetos. Para mejorar el rendimiento en tiempo real del dispositivo de anticolisión 10, es preferible que la unidad de cámara 120 realice una operación de barrido de enfoque por segundo para actualizar la vista de distribución de objetos con frecuencia. Además, cuando el vehículo 20 se desplaza a alta velocidad, para mejorar el rendimiento en tiempo real del dispositivo de anticolisión 10, es preferible que la unidad de cámara 120 realice cinco operaciones de barrido de enfoque por segundo para actualizar la vista de distribución de objetos con más frecuencia. Para este propósito, es preferible que la unidad de cámara 120 capte imágenes a una velocidad mayor o igual a 500 fotogramas por segundo. Por lo tanto, es posible identificar objetos en un margen de larga distancia, por ejemplo, de 1 metro a 100 metros, por delante del vehículo 20, y actualizar la vista cinco veces por segundo. Lo que antecede amplía el margen de distancia en donde se identifican los objetos, mejora la precisión de la identificación de objetos y mejora el rendimiento en tiempo real.
En la forma de realización anterior, se describe que se proporciona una unidad de cámara 120 en el extremo situado delante del vehículo 20, pero la presente invención no se limita a esta condición. Por ejemplo, también se puede proporcionar una cámara en el extremo posterior del vehículo 20, por lo que el conductor del vehículo 20 puede conocer la situación detrás del vehículo 20, especialmente, en las condiciones de conducción de otros vehículos situados detrás. Cuando la distancia entre el vehículo 20 y un vehículo situado detrás es menor que una distancia de seguridad, el dispositivo de anticolisión 10 puede notificar al conductor del vehículo 20 mediante la pantalla 200, el altavoz 320 o el vibrador 330, de modo que el conductor tome las medidas necesarias a tiempo para evitar colisiones con el vehículo que va situado detrás. En esta situación, el controlador 100 del dispositivo de anticolisión 10 puede ordenar al controlador del vehículo 400 que controle la aceleración del vehículo 20 de manera apropiada para evitar colisiones con el vehículo que va situado detrás.
Además, se pueden proporcionar varias cámaras en el lateral y en la parte trasera del vehículo 20 para facilitar la identificación de objetos en la dirección lateral y/o detrás del vehículo 20. Por lo tanto, cuando el vehículo 20 está estacionando en un lado de una carretera o en un garaje, el conductor del vehículo 20 conoce bien un límite de la carretera, una pared u otros obstáculos, y las posiciones de las líneas de estacionamiento, y lo que antecede ayuda a evitar colisiones. Además, el controlador 100 del dispositivo de anticolisión 10 puede controlar al controlador del vehículo 400 para dirigir el movimiento hacia adelante, hacia atrás, girar o frenar, por lo que el conductor puede estacionar de manera automática sin realizar ninguna operación por sí mismo.
Tal como se describió con anterioridad, con varias cámaras provistas en el vehículo 20 para captar imágenes en diferentes direcciones, la unidad de procesamiento de imágenes 140 es capaz de obtener una vista de distribución de objetos en un área amplia alrededor del vehículo 20, y esto mejora la comodidad de la conducción.
Además, la unidad de procesamiento de imágenes 140 puede agregar líneas de cuadrícula a la vista de distribución de objetos para indicar intervalos de distancia. Por tanto, el conductor del vehículo 20 puede confirmar la distancia entre el vehículo 20 y otros objetos en la pantalla 200, garantizando así la seguridad de la conducción.
En las formas de realización anteriores, se describe que la unidad de cámara 120 incluye un sensor CCD, pero la presente invención no se limita a esta condición. Por ejemplo, la unidad de cámara 120 puede incluir sensores CMOS u otros sensores fotoeléctricos. Cuando no es necesario mostrar objetos en la vista de distribución de objetos en color, la unidad de cámara 120 puede utilizar sensores monocromáticos. Lo que antecede reduce en gran medida el coste de la unidad de cámara 120 y aumenta la velocidad de procesamiento de la unidad de procesamiento de imágenes 140.
Además, considerando la aplicación por la noche, se puede utilizar un sensor de infrarrojos en la unidad de cámara 120, por lo tanto, incluso en la noche, es posible captar imágenes de objetos alrededor del vehículo 20, identificar objetos con imágenes claras formadas en las imágenes, y obtener la vista de distribución de objetos de los objetos situados delante del vehículo 20, mejorando así la utilidad del dispositivo de anticolisión 10.
En la forma de realización anterior, se describe que la unidad de procesamiento de imágenes 140 obtiene una vista simple que muestra la distribución de objetos situados por delante del vehículo 20, pero la presente invención no se limita a esta condición. Por ejemplo, la unidad de procesamiento de imágenes 140 puede obtener una vista de distribución de objetos tridimensional para mostrar los objetos situados delante del vehículo 20.
La Figura 7 ilustra una vista esquemática para explicar la idea de una vista de distribución de objetos tridimensional.
En la Figura 7, las imágenes FOTOGRAMA 1 a FOTOGRAMA 5, tal como se muestra en la Figura 4A a 4E, se muestran de una manera tridimensional en donde las imágenes FOTOGRAMA 1 a FOTOGRAMA 5 están ubicadas en posiciones correspondientes a sus distancias de enfoque, y tienen tamaños correspondientes al ángulo de disparo a.
Para obtener una vista de distribución de objetos tridimensional, lo mismo que en la etapa S503 en la Figura 5, la unidad de procesamiento de imágenes 140 identifica los objetos que tienen imágenes claras formadas en las imágenes FOTOGRAMA 1 a FOTOGRAMA 5.
Además, lo mismo que la etapa S504 en la Figura 5, la unidad de procesamiento de imágenes 140 calcula las posiciones de los objetos que tienen imágenes claras basándose en las distancias de enfoque utilizadas cuando se captan las imágenes FOTOGRAMA 1 a FOTOGRAMA 5, y genera una vista de distribución de objetos que indica la distribución de posiciones de estos objetos identificados. Concretamente, las posiciones de los objetos identificados en las imágenes FOTOGRAMA 1 a FOTOGRAMA 5 están determinadas por sus posiciones angulares cuando se toman las imágenes FOTOGRAMA 1 a FOTOGRAMA 5. La unidad de procesamiento de imágenes 140 genera imágenes tridimensionales de esos objetos identificados y los ubica en posiciones correspondientes a las distancias de enfoque, y obteniendo así una vista tridimensional que indica una distribución de posición tridimensional de objetos a diferentes distancias por delante del vehículo 20.
Cuando la distribución de la posición de los objetos se presenta de manera tridimensional en la pantalla 200, el conductor del vehículo 20 puede cambiar el ángulo visual de la vista tridimensional, por ejemplo, la distribución de la posición del objeto puede ser presentado como una vista de pájaro, y esto permite al conductor observar directamente las posiciones precisas de los objetos situados en frente del vehículo 20. Al cambiar el ángulo visual de observación de la vista tridimensional, la distribución de la posición de los objetos también se puede presentar como una vista simple, tal como se describe en las formas de realización anteriores.
En la forma de realización anterior, se describe que la unidad de cámara 120 tiene un ángulo de disparo fijo a, por lo que tiene una distancia focal fija. Pero la presente invención no se limita a esta condición. Por ejemplo, la lente 121 puede ser una lente de zoom, que tiene una distancia focal variable, por lo que tiene un ángulo de disparo variable. Al realizar el barrido de enfoque, cuando la distancia de enfoque es corta, la distancia focal de la lente de zoom se puede acortar, por lo que el ángulo de disparo de la lente de zoom aumenta y, en consecuencia, se pueden captar más objetos situados delante del vehículo 20. Por otro lado, cuando la distancia de enfoque se vuelve larga, la distancia focal de la lente de zoom puede aumentar, por lo que el ángulo de disparo de la lente de zoom disminuye y, en consecuencia, los objetos situados a distancias lejanas pueden identificarse con precisión.
En las formas de realización anteriores, se toma un vehículo a modo de ejemplo de un cuerpo en movimiento de la presente invención, pero la presente invención no se limita a esta condición. En la presente invención, el cuerpo en movimiento puede ser cualquier dispositivo móvil o cualquier equipo de transporte para la producción, etc.
En las formas de realización anteriores, el dispositivo de procesamiento de imágenes de la presente invención se aplica a un vehículo u otros cuerpos en movimiento para funcionar como un dispositivo de anticolisión de cuerpo en movimiento, pero la presente invención no se limita a esta condición. El dispositivo de procesamiento de imágenes de la presente invención incluye una unidad de cámara 120 y una unidad de procesamiento de imágenes 140, y es capaz de obtener una vista de distribución de objetos que indica una distribución de posiciones de los objetos fotografiados por la unidad de cámara 120. Esta vista de distribución de objetos se puede utilizar en diversas situaciones, tales como la identificación de posición y la supervisión de aparatos en fábrica, cambio de ángulo visual en retransmisiones deportivas, entretenimiento interactivo.
Si bien la presente invención se describe con referencia a formas de realización específicas elegidas con el propósito de ilustrar, debería ser evidente que la invención no se limita a estas formas de realización, sino que los expertos en esta técnica podrían realizar numerosas modificaciones a las mismas sin desviarse por ello del concepto básico y del alcance de la invención tal como se define en las reivindicaciones adjuntas.

Claims (13)

REIVINDICACIONES
1. Un dispositivo de procesamiento de imágenes adaptado a un dispositivo de anticolisión de cuerpo en movimiento con un cuerpo en movimiento desplazándose en una carretera, que comprende:
una unidad de cámara, y
una unidad de procesamiento de imágenes que procesa las imágenes proporcionadas por la unidad de cámara, en donde
la unidad de cámara incluye:
una lente,
una unidad de enfoque que impulsa la lente para cambiar la distancia de enfoque de la unidad de cámara, y una unidad de captación de imágenes,
en donde
la unidad de enfoque impulsa la lente para cambiar, de manera secuencial, la distancia de enfoque de la unidad de cámara para realizar una operación de barrido de enfoque, de modo que se formen imágenes claras de objetos en diferentes posiciones en un eje óptico de la lente en la unidad de captación de imágenes,
en donde una diferencia entre dichas distancias de enfoque de dos imágenes adyacentes captadas, de manera secuencial, por la unidad de cámara en la operación de barrido de enfoque es una distancia predeterminada que es menor o igual a un metro,
la unidad de captación de imágenes capta una pluralidad de imágenes correspondientes a diferentes distancias de enfoque en la operación de barrido de enfoque, y
la unidad de procesamiento de imágenes recibe la pluralidad de imágenes obtenidas por la unidad de captación de imágenes de la unidad de cámara en la operación de barrido de enfoque, identifica objetos con imágenes claras formadas en la pluralidad de imágenes y produce una vista de distribución de objetos de conformidad con las distancias de enfoque utilizadas al captar la pluralidad de imágenes, indicando dicha vista de distribución de objetos una distribución de posición de los objetos identificados.
2. El dispositivo de procesamiento de imágenes según la reivindicación 1, en donde
la unidad de cámara capta imágenes a una velocidad mayor o igual a 500 fotogramas por segundo.
3. El dispositivo de procesamiento de imágenes según la reivindicación 1, en donde
la unidad de cámara realiza, de manera repetida, una pluralidad de las operaciones de barrido de enfoque, y la unidad de procesamiento de imágenes produce una pluralidad de las vistas de distribución de objetos correspondientes a la pluralidad de las operaciones de barrido de enfoque.
4. El dispositivo de procesamiento de imágenes según la reivindicación 3, en donde
la unidad de cámara realiza cinco o más operaciones de barrido de enfoque por segundo.
5. El dispositivo de procesamiento de imágenes según la reivindicación 1, en donde
la unidad de captación de imágenes incluye uno o más de entre un sensor CCD y un sensor CMOS.
6. El dispositivo de procesamiento de imágenes según la reivindicación 1, en donde
la unidad de captación de imágenes incluye una unidad de captación de imágenes por infrarrojos.
7. El dispositivo de procesamiento de imágenes según la reivindicación 1, en donde
la lente incluye una lente de zoom, y
la unidad de cámara incluye una unidad de zoom que impulsa la lente para cambiar la distancia focal de la misma, cuando la distancia de enfoque es mayor que un valor predeterminado, la unidad de zoom impulsa la lente para aumentar la distancia focal,
cuando la distancia de enfoque es menor que un valor predeterminado, la unidad de zoom impulsa la lente para disminuir la distancia focal.
8. Un método de procesamiento de imágenes de un dispositivo de procesamiento de imágenes, adaptado a un dispositivo de anticolisión de cuerpo en movimiento con un cuerpo en movimiento desplazándose en una carretera, que incluye una unidad de cámara y una unidad de procesamiento de imágenes que procesa imágenes proporcionadas por la unidad de cámara, en donde la unidad de cámara incluye una lente, una unidad de enfoque que impulsa la lente para cambiar una distancia de enfoque y una unidad de captación de imágenes. comprendiendo dicho método las etapas de:
impulsar la lente para cambiar, de manera secuencial, la distancia de enfoque de la unidad de cámara para realizar una operación de barrido de enfoque con el fin de formar, en la unidad de captación de imágenes, imágenes claras de objetos en diferentes posiciones en un eje óptico de la lente, en donde la unidad de captación de imágenes capta una pluralidad de imágenes correspondientes a las diferentes distancias de enfoque en la operación de barrido de enfoque, en donde una diferencia entre dichas distancias de enfoque de dos imágenes adyacentes captadas, de manera secuencial, por la unidad de cámara en la operación de barrido de enfoque es una imagen predeterminada que es menor o igual a un metro,
recibir la pluralidad de imágenes obtenidas por la unidad de captación de imágenes de la unidad de cámara en la operación de barrido de enfoque, e identificar objetos con imágenes claras formadas en la pluralidad de imágenes, y producir una vista de distribución de objetos de conformidad con las distancias de enfoque utilizadas al captar la pluralidad de imágenes, indicando dicha vista de distribución de objetos una distribución de posición de los objetos identificados.
9. Un dispositivo de anticolisión de cuerpo en movimiento provisto en un cuerpo en movimiento, que comprende un dispositivo de procesamiento de imágenes según la reivindicación 1, que comprende, además, una unidad de determinación de colisión,
en donde
la unidad de cámara capta imágenes alrededor del cuerpo en movimiento,
se forman, de manera secuencial, imágenes claras de objetos a diferentes distancias del cuerpo en movimiento en un eje óptico de la lente en la unidad de captación de imágenes, indicando la vista de distribución de objetos posiciones relativas entre los objetos identificados y el cuerpo en movimiento, y
la unidad de determinación de colisión determina si el cuerpo en movimiento debe colisionar con el cuerpo identificado de conformidad con la vista de distribución de objetos.
10. El dispositivo de anticolisión de cuerpo en movimiento según la reivindicación 9, que comprende, además: una unidad de visualización que muestra la vista de distribución de objetos,
en donde
la unidad de visualización muestra el objeto identificado con un color diferente cuando la unidad de determinación de colisión determina que el cuerpo en movimiento debe colisionar con el cuerpo identificado.
11. El dispositivo de anticolisión de cuerpo en movimiento según la reivindicación 9, que comprende, además: una unidad de notificación que notifica a un operador del cuerpo en movimiento,
en donde
la unidad de notificación transmite un mensaje de advertencia al operador cuando la unidad de determinación de colisión determina que el cuerpo en movimiento debe colisionar con el cuerpo identificado.
12. Un dispositivo de anticolisión de cuerpo en movimiento provisto en un cuerpo en movimiento, que comprende un dispositivo de procesamiento de imágenes según la reivindicación 1, que comprende, además, una unidad de visualización,
en donde
la unidad de cámara capta imágenes alrededor del cuerpo en movimiento,
se forman, de manera secuencial, imágenes claras de objetos a diferentes distancias del cuerpo en movimiento en un eje óptico de la lente en la unidad de captación de imágenes, indicando la vista de distribución de objetos posiciones relativas entre los objetos identificados y el cuerpo en movimiento, y
la unidad de visualización muestra la vista de distribución de objetos.
13. El dispositivo de anticolisión de cuerpo en movimiento según la reivindicación 12, en donde
la vista de distribución de objetos es una vista tridimensional.
ES12001674T 2011-03-18 2012-03-12 Dispositivo de procesamiento de imágenes, su método y dispositivo de anticolisión de cuerpo en movimiento Active ES2886522T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110065887.9A CN102685382B (zh) 2011-03-18 2011-03-18 图像处理装置和方法、及移动体防碰撞装置

Publications (1)

Publication Number Publication Date
ES2886522T3 true ES2886522T3 (es) 2021-12-20

Family

ID=45977084

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12001674T Active ES2886522T3 (es) 2011-03-18 2012-03-12 Dispositivo de procesamiento de imágenes, su método y dispositivo de anticolisión de cuerpo en movimiento

Country Status (5)

Country Link
US (1) US9858488B2 (es)
EP (1) EP2500890B1 (es)
JP (1) JP5536125B2 (es)
CN (1) CN102685382B (es)
ES (1) ES2886522T3 (es)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102923082A (zh) * 2012-10-31 2013-02-13 东莞康特尔电子有限公司 一种车辆行车智能防护预警系统及其控制方法
CN103101497A (zh) * 2013-01-25 2013-05-15 深圳市保千里电子有限公司 汽车摄像系统及其视角与车速同步变化的数据处理方法
CN103072537B (zh) * 2013-02-05 2014-03-26 湖南大学 一种基于红外图像处理的汽车防撞安全保护方法
JP2014191688A (ja) * 2013-03-28 2014-10-06 Sony Corp 情報処理装置、情報処理方法、及び、記憶媒体
JP6349640B2 (ja) * 2013-07-31 2018-07-04 日産自動車株式会社 情報提供装置及び方法
CN104349197B (zh) * 2013-08-09 2019-07-26 联想(北京)有限公司 一种数据处理方法及装置
DE102013222304A1 (de) * 2013-11-04 2015-05-07 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung von Objektentfernungen mit einer in einem Kraftfahrzeug verbauten Kamera
KR20150110283A (ko) * 2014-03-21 2015-10-02 삼성전자주식회사 객체들 사이의 충돌을 방지하는 방법 및 장치.
WO2015142019A1 (en) 2014-03-21 2015-09-24 Samsung Electronics Co., Ltd. Method and apparatus for preventing a collision between subjects
CN105025219A (zh) * 2014-04-30 2015-11-04 齐发光电股份有限公司 图像获取方法
CN105270258A (zh) * 2014-06-12 2016-01-27 陕西重型汽车有限公司 一种汽车转向安全辅助系统
US9576185B1 (en) * 2015-09-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Classifying objects detected by 3D sensors for autonomous vehicle operation
US9676326B2 (en) * 2015-09-25 2017-06-13 Ford Global Technologies, Llc Drive history parking barrier alert
CN105185160B (zh) * 2015-10-09 2017-11-24 卢庆港 虚拟网格内畸变区域移动趋势识别的路面检测方法
KR101822895B1 (ko) 2016-04-07 2018-01-29 엘지전자 주식회사 차량 운전 보조 장치 및 차량
JP6739242B2 (ja) * 2016-06-01 2020-08-12 キヤノン株式会社 撮像装置及びその制御方法、プログラム並びに記憶媒体
CN106080481A (zh) * 2016-07-22 2016-11-09 池州学院 一种汽车全方位防撞预警系统
US10403141B2 (en) * 2016-08-19 2019-09-03 Sony Corporation System and method for processing traffic sound data to provide driver assistance
WO2018037789A1 (ja) 2016-08-22 2018-03-01 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN106571046B (zh) * 2016-11-11 2021-07-16 上海市政工程设计研究总院(集团)有限公司 基于路面网格体系的车路协同辅助驾驶方法
CN106683408A (zh) * 2017-02-14 2017-05-17 北京小米移动软件有限公司 车辆监控方法和装置
CN110419210B (zh) * 2017-03-15 2021-01-12 富士胶片株式会社 摄像装置、摄像方法及记录介质
JP6579144B2 (ja) * 2017-03-28 2019-09-25 株式会社Soken 障害物検知装置
US20190039515A1 (en) * 2017-08-01 2019-02-07 Nanning Fugui Precision Industrial Co., Ltd. System and method for warning against vehicular collisions when driving
CN107672551B (zh) * 2017-09-20 2020-07-17 杭州奥腾电子股份有限公司 一种前车防撞预警系统及其控制方法
US10678256B2 (en) * 2017-09-28 2020-06-09 Nec Corporation Generating occlusion-aware bird eye view representations of complex road scenes
JP2019114902A (ja) * 2017-12-22 2019-07-11 ルネサスエレクトロニクス株式会社 半導体装置、撮像システム、及びプログラム
DE102018209388A1 (de) * 2018-06-13 2019-12-19 Robert Bosch Gmbh Erkennung fahrtrelevanter Situationen auf größere Entfernung
CN109532670B (zh) * 2018-11-28 2022-02-22 广州市网拓信息技术有限公司 一种车载安全距离判断装置及其软件使用原理
DE102018221241A1 (de) 2018-12-07 2020-06-10 Volkswagen Aktiengesellschaft Fahrassistenzsystem für einen Kraftwagen, Kraftwagen und Verfahren zum Betreiben eines Kraftwagens
CN112380935B (zh) * 2020-11-03 2023-05-26 深圳技术大学 面向自动驾驶的人机协同感知方法及系统
JP2022114764A (ja) * 2021-01-27 2022-08-08 キヤノン株式会社 光学系、撮像装置、車載システムおよび移動装置
CN114911219B (zh) * 2021-02-07 2025-05-23 深圳引望智能技术有限公司 一种用于视觉传感器的控制指令生成方法及装置、控制方法及装置
CN112995507A (zh) * 2021-02-08 2021-06-18 北京蜂巢世纪科技有限公司 提示对象位置的方法及装置
CN114071020B (zh) * 2021-12-28 2024-11-15 厦门四信通信科技有限公司 一种无人驾驶车辆的自动变焦方法及装置
US12030512B2 (en) * 2022-04-06 2024-07-09 GM Global Technology Operations LLC Collision warning system for a motor vehicle having an augmented reality head up display
DE102022129697A1 (de) 2022-11-10 2024-05-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Distanz eines Objektes in einer Fahrzeugumgebung zu einem Fahrzeug auf Basis von Bildern mit unterschiedlichen Schärfen
CN119452405A (zh) 2023-04-03 2025-02-14 安尼株式会社 移动体的移动自动化装置及存储移动自动化程序的存储介质
US20250026363A1 (en) * 2023-07-21 2025-01-23 David Eugene Harp Situational awareness system for a vehicle providing a parameterized field of view

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580143A (ja) * 1991-09-19 1993-04-02 Fujitsu Ltd レーダ信号表示装置
JP2715202B2 (ja) 1991-10-09 1998-02-18 新キャタピラー三菱株式会社 無人自走体の無線監視通信方法及びその装置
CN1099342A (zh) * 1993-08-25 1995-03-01 徐顺庆 行车防撞方法及其装置
JPH10143245A (ja) * 1996-11-07 1998-05-29 Komatsu Ltd 移動体の障害物衝突防止装置
JP3260645B2 (ja) 1997-01-31 2002-02-25 エニー株式会社 ナビゲーションシステム
JPH11120499A (ja) 1997-10-09 1999-04-30 Toyo Commun Equip Co Ltd 航法用位置表示装置
JP2000304856A (ja) 1999-04-20 2000-11-02 Mitsubishi Electric Engineering Co Ltd 近接警報装置
JP3642717B2 (ja) 2000-05-30 2005-04-27 櫻護謨株式会社 自動走行機械の走行制限システム
JP2003016429A (ja) * 2001-06-28 2003-01-17 Honda Motor Co Ltd 車両周辺監視装置
US7084910B2 (en) * 2002-02-08 2006-08-01 Hewlett-Packard Development Company, L.P. System and method for using multiple images in a digital image capture device
US7319487B2 (en) * 2002-04-10 2008-01-15 Olympus Optical Co., Ltd. Focusing apparatus, camera and focus position detecting method
JP2004094825A (ja) * 2002-09-03 2004-03-25 Toyota Motor Corp 三次元物体認識装置
JP3844750B2 (ja) 2003-05-26 2006-11-15 本田技研工業株式会社 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置
WO2006121088A1 (ja) * 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
JP2007004020A (ja) * 2005-06-27 2007-01-11 Sony Corp ズームレンズ及び撮像装置
US20070035628A1 (en) * 2005-08-12 2007-02-15 Kunihiko Kanai Image-capturing device having multiple optical systems
JP2007172541A (ja) * 2005-12-26 2007-07-05 Toyota Motor Corp 運転支援装置
JP2007192730A (ja) 2006-01-20 2007-08-02 Nsk Ltd 多点測距センサおよび多点測距方法
EP1990786B1 (en) * 2006-02-28 2021-05-19 Toyota Jidosha Kabushiki Kaisha Object path prediction method and apparatus
JP5094070B2 (ja) * 2006-07-25 2012-12-12 キヤノン株式会社 撮像装置、撮像方法、プログラム、及び記憶媒体
WO2008055042A2 (en) * 2006-10-30 2008-05-08 Wesleyan University Apparatus and method for real time image compression for particle tracking
US7974460B2 (en) * 2007-02-06 2011-07-05 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
JP2008225140A (ja) * 2007-03-14 2008-09-25 Fujifilm Corp レンズ移動装置及びデジタルカメラ
CN100578148C (zh) * 2007-05-25 2010-01-06 财团法人车辆研究测试中心 一种防车侧碰撞警示装置的检测方法
US20100259631A1 (en) * 2007-10-26 2010-10-14 Fujifilm Corporation Data compression apparatus, data compression program and image-taking apparatus
CN101458078A (zh) * 2007-12-10 2009-06-17 鸿富锦精密工业(深圳)有限公司 一种汽车防撞系统及方法
JP2009151124A (ja) * 2007-12-20 2009-07-09 Sharp Corp センサモジュール、電子情報機器、オートフォーカス制御方法、制御プログラムおよび可読記憶媒体
WO2009099022A1 (ja) * 2008-02-04 2009-08-13 Konica Minolta Holdings, Inc. 周辺監視装置及び周辺監視方法
US8050468B2 (en) * 2008-03-05 2011-11-01 Honeywell International Inc. Fingerprint acquisition system
US8054201B2 (en) * 2008-03-19 2011-11-08 Mazda Motor Corporation Surroundings monitoring device for vehicle
JP5369564B2 (ja) 2008-09-11 2013-12-18 株式会社ニコン 形状測定装置
JP2010191793A (ja) * 2009-02-19 2010-09-02 Denso It Laboratory Inc 警告表示装置及び警告表示方法
KR20110020519A (ko) * 2009-08-24 2011-03-03 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체

Also Published As

Publication number Publication date
CN102685382A (zh) 2012-09-19
EP2500890A2 (en) 2012-09-19
CN102685382B (zh) 2016-01-20
EP2500890A3 (en) 2016-12-07
EP2500890B1 (en) 2021-08-04
US9858488B2 (en) 2018-01-02
JP2012198207A (ja) 2012-10-18
JP5536125B2 (ja) 2014-07-02
US20120236122A1 (en) 2012-09-20

Similar Documents

Publication Publication Date Title
ES2886522T3 (es) Dispositivo de procesamiento de imágenes, su método y dispositivo de anticolisión de cuerpo en movimiento
US9815461B2 (en) Vehicle collision avoidance supporting apparatus and vehicle collision avoidance supporting method
KR102534353B1 (ko) 검출된 배리어에 기반한 차량의 항법
CN106394406B (zh) 用于车辆的摄像机装置
JP4622928B2 (ja) 車載カメラ制御装置および車載カメラ制御方法。
JP6410198B1 (ja) 測距システム、および、移動体システム
US9126533B2 (en) Driving support method and driving support device
JP7251611B2 (ja) 移動体の挙動予測方法、挙動予測装置及び車両
JP2020507829A (ja) 整合画像及びlidar情報に基づいた車両ナビゲーション
JP2019525185A5 (es)
CN108496178A (zh) 用于估计未来路径的系统和方法
RU2017124586A (ru) Транспортное средство и соответствующий способ проекционного отображения (варианты)
KR20180012811A (ko) 차량 위치 판정 장치 및 차량 위치 판정 방법
JP2008242844A (ja) 走行支援用車載装置
KR20170076695A (ko) 자동차의 운전자 보조 시스템 조작 방법, 운전자 보조 시스템 및 자동차
US11650321B2 (en) Apparatus and method for detecting tilt of LiDAR apparatus mounted to vehicle
JP3888166B2 (ja) 車両用運転支援装置
US12497040B2 (en) Vehicle control system and vehicle driving method using the vehicle control system
KR20180040020A (ko) 운전지원장치 및 운전지원방법
JP2012153256A (ja) 画像処理装置
US20250384698A1 (en) Vehicle control system and vehicle driving method using the vehicle control system
US20230150533A1 (en) Vehicle control system and vehicle driving method using the vehicle control system
US20230150515A1 (en) Vehicle control system and vehicle driving method using the vehicle control system
JP2011204150A (ja) 車車間通信処理方法および車車間通信処理装置
JP6587294B2 (ja) 車線判定装置