ES2702612T3 - Sistema para detectar anomalías de imagen - Google Patents

Sistema para detectar anomalías de imagen Download PDF

Info

Publication number
ES2702612T3
ES2702612T3 ES08754985T ES08754985T ES2702612T3 ES 2702612 T3 ES2702612 T3 ES 2702612T3 ES 08754985 T ES08754985 T ES 08754985T ES 08754985 T ES08754985 T ES 08754985T ES 2702612 T3 ES2702612 T3 ES 2702612T3
Authority
ES
Spain
Prior art keywords
image
image capture
images
anomaly
mobile platform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08754985T
Other languages
English (en)
Inventor
Frank Giuffrida
Stephen Schultz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pictometry International Corp
Original Assignee
Pictometry International Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pictometry International Corp filed Critical Pictometry International Corp
Application granted granted Critical
Publication of ES2702612T3 publication Critical patent/ES2702612T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

Un método para tomar imágenes aéreas, que comprende los pasos de: capturar una primera imagen de una parte de la Tierra utilizando un dispositivo de captura de imágenes montado en una plataforma en movimiento y basado en un cronograma al que accedió un software de gestión de vuelo ejecutado por un sistema informático, teniendo la primera imagen píxeles; antes de una próxima imagen programada para ser tomada por el dispositivo de captura de imágenes: detectar una anomalía en los píxeles de la primera imagen, la anomalía que oculta al menos una parte de la primera imagen; y provocando una secuencia de repeticiones de la primera imagen, en donde la etapa de provocar una secuencia de repeticiones de la primera imagen se define además como la causa de una o más repeticiones sin detectar si la anomalía se captura en las imágenes de nueva toma.

Description

DESCRIPCIÓN
Sistema para detectar anomalías de imagen
Referencia cruzada a aplicaciones relacionadas
[0001] La presente solicitud de patente reivindica la prioridad con respecto a la solicitud de patente provisional identificada por n° de serie US 60/926.985.
Declaración sobre la investigación y desarrollo patrocinados por el gobierno federal
[0002] No aplicable.
Antecedentes de la invención
[0003] Como antecedentes, en la industria de imagen de detección/aérea, las imágenes se utilizan para capturar puntos de vista de un área geográfica y para ser capaces de medir objetos y estructuras dentro de las imágenes, así como ser capaces de determinar ubicaciones geográficas de puntos dentro de la imagen. Éstos se conocen generalmente como "imágenes geo-referenciadas" y existen en dos categorías básicas:
[0004] Las imágenes tomadas - estas imágenes tienen la apariencia de haber sido tomadas por la cámara o sensor empleado.
[0005] Las imágenes proyectadas - estas imágenes han sido procesadas y convertidas de tal manera que se ajusten a una proyección matemática.
[0006] Todas las imágenes comienzan como imágenes tomadas, pero como la mayoría del software no puede georreferenciar imágenes tomadas, que las imágenes entonces se reprocesen para crear la imagen proyectada. La forma más común de imágenes proyectadas es la imagen orto-rectificada.
[0007] Este proceso alinea la imagen a una red ortogonal o rectilínea (compuesto de rectángulos). La imagen de entrada utilizada para crear una imagen orto-rectificada es una imagen de nadir, es decir, una imagen capturada con la cámara orientada hacia abajo. A menudo es bastante conveniente combinar varias imágenes en una imagen compuesta más grande, de modo que la imagen cubra un área geográfica más grande en el suelo. La forma más común de esta imagen compuesta es la "imagen orto-mosaica", que es una imagen creada a partir de una serie de imágenes de superposición superpuestas o adyacentes que se combinan matemáticamente en una sola imagen orto-rectificada.
[0008] Al crear un orto-mosaico, se utiliza este mismo proceso de oro-rectificación, sin embargo, en lugar de usar solo una imagen de entrada de nadir de una sola entrada, se utiliza una colección de imágenes de superposición de solapamiento o adyacentes y son combinados para formar una sola imagen orto-rectificada compuesta conocida como un orto-mosaico. En general, el proceso de orto-mosaico implica los siguientes pasos:
[0009] Se crea una cuadrícula rectilínea, lo que resulta en una imagen orto-mosaica donde cada pixel de la cuadrícula cubre la misma cantidad de área en el suelo. La ubicación de cada píxel de la cuadrícula se determina a partir de la definición matemática de la cuadrícula. En general, esto significa que a la cuadrícula se le asigna una ubicación de inicio u origen X e Y y un tamaño X e Y para los píxeles de la cuadrícula. Por lo tanto, la ubicación de cualquier píxel es simplemente la ubicación de origen más el número de píxeles multiplicado por el tamaño de cada píxel. En términos matemáticos: Xpixel = Xorigin Xtamaño x columnapixel y Ypixel = Yorigin Ytamaño x Filapixel.
[0010] Las imágenes nadir disponibles se comprueban para ver si cubren el mismo punto en el suelo cuando se está llenando el pixel cuadrícula. Si es así, se usa una fórmula matemática para determinar dónde se proyecta ese punto en el suelo en el mapa de imagen de píxeles de la cámara y luego se transfiere el valor de píxel resultante a la cuadrícula.
[0011] Debido a que las cuadrículas rectilíneas utilizadas para la ortomosaica son generalmente las mismas cuadrículas utilizadas para la creación de mapas, las imágenes ortomosaicas tienen una sorprendente similitud con los mapas y, como tal, generalmente son muy fáciles de usar desde el punto de vista de la dirección y la orientación.
[0012] En la producción de las imágenes, existen sistemas de hardware y software diseñados para georreferenciar los datos aéreos del sensor aerotransportado. Por ejemplo, un método y un aparato para mapear y medir la tierra se describen en la Patente de Estados Unidos N° 5.247.356. Además, un sistema producido por Applanix corporation de Richmond Hill, Ontario, Canadá y vendido bajo la marca registrada "POS AV" proporciona un sistema de hardware y software para georreferenciar directamente los datos de los sensores. La georreferenciación directa es la medición directa de la posición y orientación del sensor (también conocida como parámetros de orientación exterior), sin la necesidad de información adicional sobre el terreno en el área del proyecto. Estos parámetros permiten que los datos del sensor transmitido por el aire sean georreferenciados a la Tierra o al marco cartográfico local. Los ejemplos de sensores aerotransportados incluyen: cámaras aéreas (digitales o basadas en película), escáneres multiespectrales o hiperespectrales, SAR o LIDAr .
[0013] El sistema POS AV se montó en una plataforma móvil, como un avión, de tal manera que el sensor aerotransportado apuntaba hacia la Tierra. El sistema de posicionamiento recibió señales de posición de una constelación de satélites y también recibió señales de tiempo de un reloj preciso. El sensor fue controlado por una computadora que ejecuta un software de gestión de vuelo para tomar imágenes. Las señales indicativas de la toma de una imagen se enviaron desde el sensor al sistema de posicionamiento para registrar la hora y la posición donde se tomó la imagen.
[0014] El ensayo de Mostafa y Hutton, "Airborne remote sensing without ground control" presenta una visión general de un sistema de georreferenciación directa tales como el Ap- planix POS/AVTM.
[0015] Cuando la captura de imágenes con un sensor digital, una variedad de anormalidades tales como niveles de ruido elevados de sensor, rayas, floraciones o manchas se pueden formar dentro de la imagen capturada. Estas anomalías pueden ser causadas por un mal funcionamiento del dispositivo de captura de imágenes o por el entorno externo. Por ejemplo, en la fotografía aérea, en particular, los reflejos del sol sobre superficies brillantes o reflectantes, como lagos, ventanas, invernaderos o parabrisas, pueden causar floraciones que forman manchas en la imagen capturada. Una fotografía ejemplar que tiene una mancha formada por reflejos del agua se muestra en la Figura 15. Cuando se captura una mancha en una imagen, el sensor del dispositivo de captura de imágenes generalmente está sobreestimulado cerca de la ubicación de la mancha o punto caliente. Esto normalmente arruina una parte de la imagen y hace que la reprogramación manual en una fecha/hora posterior de otra imagen de la misma área sea tomada. Debido a que la anomalía no se detecta hasta después de que el avión haya aterrizado y se hayan procesado las imágenes, la nueva toma de otra imagen de la misma área generalmente genera demoras y costosos re-vuelos.
[0016] El documento US2006152606 presenta una cámara digital que comprende un módulo detector de fugas de frotis.
[0017] Por lo tanto, existe la necesidad de eliminar los retrasos y re-vuelos costosos asociados con anormalidades que ocurren en las imágenes aéreas capturadas. Es a un sistema de este tipo para eliminar los retrasos de tiempo y los costosos re-vuelos a los que se dirige la presente invención.
BREVE DESCRIPCIÓN DE LAS DIVERSAS VISTAS DEL DIBUJO
[0018]
FIG. 1 es una vista en perspectiva de un sistema de captura de imágenes ejemplar construido de acuerdo con la presente invención.
FIG. 2 es una vista en perspectiva de otro ejemplo de un sistema de captura de imágenes construido de acuerdo con la presente invención.
FIG. 3 es una vista en perspectiva de otro ejemplo más de un sistema de captura de imágenes construido de acuerdo con la presente invención.
FIG. 4 es un diagrama de bloques del sistema de captura de imágenes representado en la FIG. 1,
FIG. 5 es un diagrama de bloques de una versión de un sistema multiplexor de eventos construido de acuerdo con la presente invención.
FIG. 6 es una vista esquemática de un flujo de temporización/lógica de un multiplexor de eventos construido de acuerdo con la presente invención.
FIG. 7 es un diagrama de bloques de otra versión de un sistema multiplexor de eventos construido de acuerdo con la presente invención.
FIG. 8 es un diagrama de bloques de otra versión más de un sistema multiplexor de eventos construido de acuerdo con la presente invención.
FIG. 9 es un diagrama de bloques de otra versión de un sistema de captura de imágenes construido de acuerdo con la presente invención.
FIG. 10 es una vista en perspectiva que ilustra la captura de una imagen que tiene una anomalía que oculta una parte de la imagen.
FIG. 11 ilustra una primera imagen con la anomalía que oculta una primera parte de la primera imagen.
FIG. 12 ilustra una segunda imagen, tomada poco después de la primera imagen, y teniendo la anomalía que oculta una segunda parte de una segunda imagen.
FIG. 13 ilustra una tercera imagen basada en la primera imagen y los píxeles de la segunda imagen se utilizan para rellenar la parte de la primera imagen oculta por la anomalía.
FIG. 14 es una vista esquemática de un sensor de dispositivo de captura de imágenes ejemplar.
FIG. 15 es una fotografía aérea ejemplar que tiene una mancha formada por reflejos del sol en el agua.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
[0019] Antes de explicar al menos una realización de la invención en detalle, debe entenderse que la invención no se limita en su aplicación a los detalles de construcción, los experimentos, los datos a modo de ejemplo, y/o la disposición de los componentes Se exponen en la siguiente descripción o se ilustran en los dibujos. La invención es capaz de otras realizaciones o de realizarse o llevarse a cabo de varias maneras. Además, debe entenderse que la fraseología y la terminología empleadas en este documento son para fines de descripción y no deben considerarse limitativas.
[0020] Con referencia a los dibujos, y en particular a las figuras 1, 2 y 3, mostrados en los mismos y designados por un número de referencia 10, se encuentra un sistema de captura de imágenes construido de acuerdo con la presente invención. El sistema de captura de imágenes 10 se usa normalmente para capturar imágenes aéreas como se muestra en las Figuras 1 y 2, Sin embargo, aunque el sistema de captura de imágenes 10 es extremadamente útil para imágenes aéreas, tiene muchas otras aplicaciones, como cuando un sistema tiene más disparadores externos que las entradas en un dispositivo que debe reaccionar a los disparadores externos. Por ejemplo, como se muestra en la Figura 3, un municipio puede tener una intersección con una alta incidencia de exceso de velocidad. En este caso, es posible que el municipio desee instalar un dispositivo de monitoreo de velocidad, como una pistola de radar, combinado con múltiples dispositivos de captura de imagen controlados independientemente 14 para vincular con precisión el tiempo de captura de imagen con el tiempo de lectura del radar.
[0021] Las imágenes pueden ser imágenes oblicuas, imágenes ortogonales, o imágenes nadir, o combinaciones de las mismas.
[0022] Como se muestra en la Figura 4, el sistema de captura de imagen 10 está provisto de uno o más dispositivos de captura de imagen 14, opcionalmente uno o más sistemas de monitorización 16, opcionalmente uno o más eventos de sistemas de multiplexor 18, y una o más unidades de almacenamiento de datos o sistemas de computadora 20. El (los) sistema(s) multiplexor(es) de eventos se puede(n) hacer y usar como se describe en las Figuras 5-9 y los párrafos [0037], [0042]-[0058] de la solicitud de patente provisional identificada por Núm. de serie US 60/926,985. En los ejemplos descritos en las Figuras 1-3, el sistema de captura de imágenes 10 está provisto de cuatro dispositivos de captura de imágenes 14 montados en un patrón de barrido (Figura 1); cinco dispositivos de captura de imágenes 14 montados en un patrón 360 con dispositivos de captura de imágenes 14 apuntando hacia adelante, hacia atrás, hacia el puerto, a estribor y hacia abajo (Figura 2); cuatro dispositivos de captura de imágenes 14 montados en direcciones separadas generalmente alineadas con partes respectivas de calles (Figura 3).
[0023] En ciertas realizaciones representadas en las Figuras 1 y 2, los dispositivos de captura de imagen 14, el uno o más sistemas de monitoreo 16, el uno o más sistemas de multiplexor de eventos 18 y el sistema de computadora 20 están montados en una plataforma móvil 21. La plataforma móvil 21 o 102 (mostrada en la figura 10) puede ser cualquier tipo de dispositivo o sistema que pueda moverse a través del espacio de una manera predeterminada o aleatoria. Típicamente, la plataforma móvil 21 es un avión tripulado, pero se debe entender que la plataforma móvil 21 puede implementarse de otras maneras. Por ejemplo, la plataforma móvil 21 se puede implementar como un avión no tripulado, un tren, un automóvil, como una furgoneta, un bote, un vehículo de cuatro ruedas, una motocicleta, un tractor, un dispositivo robótico o similar.
[0024] Los dispositivos de captura de imagen 14 están montados en la plataforma móvil 21, y una vez montados típicamente están calibrados de manera que la posición exacta y la orientación de los dispositivos de captura de imagen 14 son conocidos con respecto a al menos una porción de la plataforma móvil 21. Por ejemplo, como se muestra en las Figuras 1 y 2, los dispositivos de captura de imágenes 14 pueden montarse en un sustrato común 22 y calibrarse con respecto al sustrato 22. Cabe señalar que todos los cables, alambres u otras vías de señal que conectan los dispositivos de captura de imágenes 14, el sistema de monitoreo 16, el multiplexor de eventos 18 y el sistema de computadora 20 no se muestran en las Figuras 1-3 por razones de claridad. El sustrato 22 que tiene los dispositivos de captura de imagen 14 montados en él se monta luego en la plataforma móvil 21. En la realización representada en la Figura 1, los dispositivos de captura de imagen 14 se montan internamente en la plataforma móvil 21 y la plataforma móvil 21 tiene una o más aberturas 23 para los dispositivos de captura de imágenes 14 para la detección de datos. En otras realizaciones, uno o más de los dispositivos de captura de imágenes 14 pueden montarse externamente a la plataforma móvil 21. Por ejemplo, en la Figura 2, los dispositivos de captura de imágenes 14 están montados en una cápsula debajo del ala.
[0025] Cada uno de los dispositivos de captura de imagen 14 tiene un sensor (por ejemplo, la figura 14) para la captura de datos de los sensores, tales como una imagen. Cada uno de los dispositivos de captura de imágenes 14 también está provisto de un canal de eventos 26 que proporciona una señal de evento que indica la captura de una imagen por el sensor. El canal de eventos 26 puede ser cualquier dispositivo que proporcione una señal coincidente con la captura de la imagen, como una salida flash. El sensor puede capturar la imagen de forma analógica, digital o en película. Además, debe entenderse que la imagen se puede almacenar de forma electrónica, óptica o en un medio basado en película.
[0026] El sistema de monitoreo 16 registra datos indicativos de la captura de las imágenes. Por ejemplo, el sistema de monitoreo 16 puede registrar datos de posición en función del tiempo, datos de tiempo y/o datos de orientación. En las realizaciones representadas en las Figuras 1 y 2, el sistema de monitoreo 16 registra los datos de posición en función del tiempo, así como los datos de tiempo y/o datos de orientación relacionados con la plataforma móvil 21. En la realización representada en la Figura 3, El sistema de monitoreo 16 registra los datos de tiempos. Preferiblemente, el sistema de monitorización 16 de forma automática y continua lee y/o registra los datos. Sin embargo, debe entenderse que el sistema de monitoreo 16 puede leer y/o registrar los datos de otras maneras, por ejemplo, o al recibir una señal para activar el sistema de monitoreo 16 para obtener y registrar los datos. Por ejemplo, las señales de evento producidas por el sistema multiplexor de eventos 18 pueden proporcionarse al sistema de monitoreo 16 para hacer que el sistema de monitoreo 16 lea y/o registre los datos indicativos de posición en función del tiempo relacionado con la plataforma móvil 21.
[0027] En las realizaciones representadas en las figuras 1 y 2, el sistema de vigilancia 16 también incluye un receptor satélite 34 que recibe típicamente señales de posición y de temporización de una constelación de satélites 36, utilizando cualquier protocolo apropiado, tal como GPS o loran, aunque se pueden usar otros tipos de sistemas de determinación de posición, como el protocolo de aplicación inalámbrico (WAP).
[0028] El sistema de ordenador 20 recibe y almacena (preferiblemente en la base de datos 38) la información indicativa de la orden de los eventos indicados por las señales de evento, y la identificación de dispositivos de captura de imagen 14 que proporcionan las señales de evento. El sistema informático 20 también recibe y almacena opcionalmente las imágenes (preferiblemente en la base de datos 38) generadas por los dispositivos de captura de imágenes 14. El sistema de monitoreo 16 registra los datos indicativos de la captura de imágenes almacenándolas internamente, enviándolas al sistema informático 20, o emitir dichos datos de cualquier otra manera adecuada, como almacenar dichos datos en un sistema de almacenamiento externo magnético u óptico. La posición relacionada con la plataforma móvil 21 puede proporcionarse en cualquier sistema de coordenadas adecuado, como un sistema de coordenadas X, Y, Z.
[0029] Además, el sistema de captura de imagen 10 puede estar provisto de un sistema de orientación, tal como una unidad de medición inercial 40 para la captura de otros tipos de información con respecto a la plataforma móvil 21, tales como la orientación de la plataforma móvil 21. La unidad de medición inercial 40 puede estar provista de una variedad de sensores, tales como acelerómetros (no mostrados) para determinar el balanceo, inclinación y orientación relacionados con la plataforma móvil 21. Además, debe entenderse que la posición y/o la información de orientación no tiene que ser necesariamente una posición y/o orientación de la plataforma móvil 21. La información de posición y orientación se relaciona simplemente con la plataforma móvil 21, es decir, la posición y/o la orientación de la plataforma móvil 21 debe poder determinarse por la información registrada por el sistema de monitoreo 16. Por ejemplo, la información de posición y orientación puede proporcionarse para un dispositivo conectado a la plataforma móvil 21. Luego, la posición positiva y la orientación para cada dispositivo de captura de imágenes se pueden determinar en función de sus ubicaciones conocidas en relación con la plataforma móvil 21.
[0030] En el uso de los sistemas representados en las Figuras 1 y 2, los dispositivos de captura de imagen 14 ó 14a están montados sobre la plataforma móvil 21, tal como un avión, de tal manera que los dispositivos de captura de imagen 14 o 14a se orientan hacia un objeto, tal como la Tierra. La plataforma móvil 21 entonces se actúa para moverse, y los dispositivos de captura de imagen 14 o 14a capturan imágenes en tiempos o posiciones predeterminadas o aleatorias. Típicamente, los dispositivos de captura de imágenes 14 o 14a serán controlados independientemente por el software de gestión de vuelo que se ejecuta en el sistema informático 20 o 20a y la toma de las imágenes estará predeterminada. En cualquier caso, como los dispositivos de captura de imágenes 14 o 14a capturan las imágenes, las señales pasan al sistema de multiplexores 18 de eventos y al orden de eventos (relativo o absoluto), la identificación del dispositivo de captura de imágenes y la posición como una función. La información del tiempo se registra y almacena mediante la cooperación del (de los) sistema(s) multiplexor(es) de eventos, el (los) sistema(s) de monitoreo 16 o 16a (que se muestran en la Figura 9 de la solicitud de patente provisional identificada por el número de serie de EE.UU. 60/926,985) y los sistemas de computadora 20 o 20a (que se muestran en la Figura 9 de la solicitud de patente provisional identificada por el número de serie de EE.UU. 60/926,985) como se describe anteriormente. A continuación, las imágenes se geo-referencian como se describe en los antecedentes de la Invención anterior, utilizando los datos registrados con respecto al orden de los eventos (relativos o absolutos), la identificación del dispositivo de captura de imágenes y la posición como una función de datos del tiempo.
[0031] En el uso del sistema representado en la Figura 3, los dispositivos de captura de imagen 14 ó 14a están montados adyacentes a la intersección. Por ejemplo, los dispositivos de captura de imágenes 14 o 14a pueden montarse en postes de semáforos separados de manera que los dispositivos de captura de imágenes 14 o 14a estén orientados hacia las calles que entran o salen de la intersección. El sistema que se muestra en la Figura 3 también incluye una pistola de radar que apunta a la intersección para detectar la velocidad de los autos que se mueven a través de la intersección. Cuando un automóvil circula a través de la intersección, uno o más de los dispositivos de captura de imagen 14 o 14a pueden ser activados (preferiblemente por un sistema de administración controlado por computadora) para tomar una fotografía del conductor y la etiqueta del automóvil, mientras que el (los) sistema(s) multiplexor(es) de evento 18 capturan datos tales como datos de tiempo correlacionados con los datos producidos por la pistola de radar. Esto vincula de manera precisa el tiempo de captura de la imagen con el tiempo de lectura del radar para proporcionar evidencia de la identidad del automóvil y el conductor a alta velocidad.
[0032] Con referencia ahora a las figuras 10-12, se muestra una vista en perspectiva que ilustra la captura de una imagen aérea de uno o más objetos 100 (que se muestra a modo de automóvil) mediante un sistema de captura de imágenes 10b montado en una plataforma móvil 102 como un avión o camioneta, así como las imágenes primera y la segunda superpuestas 104, 106 del automóvil capturadas por el sistema de captura de imágenes 10b. Se muestra en la figura 13 una tercera imagen 108 formada como una combinación de las imágenes primera y segunda 104 y 106 como se describirá a continuación.
[0033] El sistema 10b de captura de imágenes es similar en construcción y función al sistema de captura de imagen 10 o 10a descrito anteriormente, con la excepción de que el sistema 10b de captura de imágenes incluye uno o más ordenadores de detección que ejecutan un algoritmo de detección de anormalidad para detectar anomalías inmediatamente después de capturar una imagen y, a continuación, se causa de forma automática e inmediata, una nueva toma de la imagen al detectar una anomalía.
[0034] En el ejemplo mostrado en la figura 10, el sistema de captura de imágenes 10b toma la primera imagen 104 del automóvil 100. En este caso, el automóvil 100 tiene una superficie reflectante, es decir, un parabrisas 110 que causa un reflejo brillante de la luz del sol 112 a través de la lente y en un sensor 114 (Fig. 14) de uno de los dispositivos de captura de imagen 14 o 14a. El reflejo brillante de la luz provoca una anomalía 118, por ejemplo, un punto caliente o una mancha en la primera imagen 104 que oculta una parte de la primera imagen 104 que se habría capturado en ausencia del reflejo brillante de la luz. La mancha generalmente es causada por la floración y las manchas inherentes al sensor digital o el movimiento rápido del objeto. Otros ejemplos de superficies reflectantes encontradas en la fotografía aérea incluyen ventanas, invernaderos, pantanos, arena y cuerpos de agua, como estanques, lagos, ríos y arroyos.
[0035] La figura 11 ilustra la primera imagen 104 que tiene la anomalía 118 que oculta una primera parte 120 de la primera imagen 104. La figura 12 ilustra la segunda imagen 106, tomada brevemente (p. ej., comúnmente en el rango de aproximadamente 5-1.000 ms) después de la primera imagen 104 con el dispositivo de captura de imagen 14 o 14a en una ubicación diferente debido al movimiento del dispositivo de captura de imagen 14 o 14a, y que tiene la anomalía 118 que oculta una segunda parte 122 de la segunda imagen 106. El retraso entre la toma de la primera y la segunda imagen puede ser una función del tamaño y/o tipo de la anomalía. Por ejemplo, si se asume que la anomalía es una mancha, se puede medir el ancho de la mancha y se puede establecer el retardo para que la segunda imagen 106 permita que se capture la porción del objeto oculto por la mancha.
[0036] La figura 13 ilustra la tercera imagen 108 producida como una característica opcional de la presente invención. La tercera imagen 108 se forma a partir de una combinación de la primera y la segunda imagen 104 y 106. La tercera imagen 108 incluye píxeles de la primera imagen 104 o la segunda imagen 106 que no fueron ocultadas por la anormalidad. Los píxeles de la primera o la segunda imagen 104 o 106 se agregan a la tercera imagen 108 para completar la parte de la primera o la segunda imagen 104 o 106 oculta por la anomalía 118. En un ejemplo, la tercera imagen 108 se forma después de que el avión haya aterrizado y las imágenes primera y segunda 104 y 106 han sido procesadas.
[0037] Para ayudar a la detección de anomalías, el sistema 10b de captura de imágenes utiliza preferiblemente cámaras digitales teniendo cada cámara digital uno o más sensores 114. Una vista esquemática del sensor 114 se muestra en la figura 14. El sensor típicamente contiene millones de dispositivos fotosensibles de estado sólido, como diodos, dispositivos de carga acoplados o transistores, llamados fotositos 124. En la Figura 1 se muestran solo 81 fotositos 14 por razones de claridad. Tres de los fotositos están etiquetados con los números de referencia 124a, 124b y 124c para mayor claridad. Cuando se captura una imagen, cada fotosito registra la intensidad o el brillo de la luz que cae sobre ella acumulando una carga; es decir, cuanto más luz, mayor es la carga. El brillo registrado por cada fotosito se almacena como un conjunto de números que luego se puede usar para establecer el color y el brillo de los píxeles en la imagen.
[0038] El sensor 114 tiene un área de imagen 130 y una zona oscura 132 que bordea el área de la imagen 130. El área oscura 132 puede servir como una referencia al área de la imagen 130. El área oscura 132 puede ser referida aquí como un "área de referencia". El área de imagen 130 se muestra en gris claro, y el área oscura 132 se muestra en gris más oscuro. Las fotografías 124a y 124b están ubicadas en el área de la imagen 130 mientras que el fotosita 124c está ubicado en la zona oscura 132. El sensor 114 se puede configurar como un sensor de área con fotositas dispuestas en un patrón de cuadrícula que cubre toda la imagen área 130 y al menos parte del área oscura 132. Cuando la imagen se lee desde el sensor 114, los electrones almacenados se convierten en una serie de cargas analógicas que luego se convierten en valores digitales mediante un convertidor analógico a digital (A a D) (no mostrado).
[0039] Una vez que el sensor 114 ha capturado la imagen, que debe ser leída, convertida a digital, y luego almacenada. La imagen se puede almacenar y registrar de la manera descrita anteriormente. Las cargas almacenadas en el sensor 114 normalmente no se leen todas a la vez sino una fila, píxel o columna a la vez. Cuando se lee una fila o columna a la vez, los valores de píxel en cada fila o columna se leen de manera secuencial moviendo los valores de píxel hacia arriba o hacia abajo de la fila o columna a través del área oscura 132 del sensor 114 como lo indica una flecha 134.
[0040] Para detectar una anormalidad, el algoritmo de detección de anormalidad escanea la imagen utilizando parámetros predeterminados indicativos de características de anormalidades. Un método para localizar ciertos tipos de anomalías, consiste en monitorear los valores de los píxeles (o un promedio de los valores de los píxeles) en el área oscura 132 cuando los valores de los píxeles se mueven a través del área oscura 132. Otro método consiste en escanear/analizar la Imagen que utiliza técnicas de reconocimiento de patrones para localizar una o más anomalías. Por ejemplo, la imagen puede ser escaneada/analizada después de haber sido movida a través del área oscura 132 y almacenada en la memoria.
[0041] Como ejemplo, se muestra en la figura 14 una anormalidad 118, es decir, una mancha expuesta a las fotositas 124 en una columna que contiene fotositas 124b y 124c. Durante el escaneo, cuando los datos en la columna que tienen las fotografías 124b y 124c se mueven en la dirección 134, se puede detectar un valor elevado en la fotosita 124c. Como ejemplo adicional, la Figura 15 es un ejemplo de fotografía aérea 140 que tiene una mancha 142 formada por reflejos del sol sobre el agua 144.
[0042] Cuando los valores de los píxeles exceden de un valor umbral predeterminado o dinámico indicativo de una raya o punto caliente, entonces el algoritmo de detección de anomalía hace que el equipo de detección emita una señal que cuasa una o más retomas inmediatas de la imagen. El término "inmediato", como se usa en este documento, significa que ocurre, actúa o se cumple sin pérdida sustancial o intervalo de tiempo. El intervalo de tiempo entre la captura de las imágenes primera y segunda 104 y 106 puede depender de una variedad de factores, como el tiempo involucrado en la detección de normalidad, el tamaño o tipo de la anomalía y el tiempo necesario para activar el dispositivo de captura de imagen 14 o 14a para capturar la segunda imagen 106.
[0043] Para captar la porción del objeto originalmente programada para ser capturada, el algoritmo de detección de anomalías puede causar una o más retomas sin detectar si la anormalidad es capturada en las imágenes retomadas, o el algoritmo de detección de anomalías puede escanear cada imagen de retoma y causar otra retoma hasta la primera de (1) una imagen de retoma que no contiene una anomalía, o (2) la siguiente imagen programada para ser tomada por el dispositivo de captura de imagen 14 o 14a.
[0044] Alternativamente, el algoritmo de detección de anomalías puede marcar una imagen como "mala" y hacer que el equipo de detección envíe una señal al software de gestión de vuelo ejecutado en los sistemas informáticos de 20 o 20a para programar automáticamente una retoma para un tiempo futuro. Preferiblemente, la computadora de detección programa una nueva toma de la imagen de tal manera que la imagen se vuelve a tomar antes de aterrizar el avión.
[0045] Debe entenderse que ciertos de los procesos descritos anteriormente, tales como la formación de la tercera imagen 108, se puede realizar con la ayuda de un sistema de ordenador que ejecuta el software de procesamiento de imágenes adaptado para realizar las funciones descritas anteriormente. Además, las imágenes primera, segunda y tercera y datos, así como el algoritmo de detección de anomalías, se almacenan en uno o más medios legibles por computadora. Los ejemplos de un medio legible por computadora incluyen un dispositivo de almacenamiento óptico, un dispositivo de almacenamiento magnético, un dispositivo de almacenamiento electrónico o similar. El término "sistema informático", tal como se utiliza aquí, significa un sistema o sistemas que pueden incorporar y/o expresar la lógica de los procesos, como el algoritmo de detección de anomalías descrito aquí. La lógica incorporada en forma de instrucciones de software o firmware puede ejecutarse en cualquier hardware apropiado que pueda ser un sistema o sistemas dedicados, o un sistema informático de propósito general, o un sistema informático de procesamiento distribuido, todos los cuales se entienden bien en la técnica, y no se considera necesaria aquí una descripción detallada de cómo hacer o usar tales computadoras. La computadora de detección puede ser la misma computadora física que los sistemas informáticos 20 o 20a, o diferente de los sistemas informáticos 20 o 20a. En una realización, el sistema de captura de imágenes 10b incluye una computadora de detección implementada como parte de uno de los dispositivos de captura de imágenes 14 o 14a. Por ejemplo, el sistema de captura de imágenes 10b puede incluir múltiples computadoras de detección con cada computadora de detección implementada como parte de un dispositivo de captura de imágenes 14 o 14a. En esta realización, cada una de las una o más computadoras de detección monitorea las imágenes que están siendo capturadas por su respectivo dispositivo de captura de imágenes 14 o 14a y puede causar una nueva toma de imagen pasando una señal a los sistemas de computadora 20 o 20a, o pasando una señal directamente al dispositivo de captura de imágenes 14 o 14a.
[0046] Se entenderá a partir de la descripción anterior que diversas modificaciones y cambios pueden ser hechos en las realizaciones preferidas y alternativas de la presente invención.
[0047] Esta descripción tiene el propósito de ilustrar solamente y no debe interpretarse en un sentido limitativo. El alcance de esta invención debe ser determinado únicamente por el lenguaje de las reivindicaciones que siguen. El término "que comprende" dentro de las reivindicaciones pretende significar "que incluye al menos" de tal manera que el listado recitado de elementos en una reivindicación es un grupo abierto. "Un", "una" y otros términos singulares están destinados a incluir las formas plurales de los mismos, a menos que se excluyan específicamente.

Claims (1)

REIVINDICACIONES
1. Un método para tomar imágenes aéreas, que comprende los pasos de:
capturar una primera imagen de una parte de la Tierra utilizando un dispositivo de captura de imágenes montado en una plataforma en movimiento y basado en un cronograma al que accedió un software de gestión de vuelo ejecutado por un sistema informático, teniendo la primera imagen píxeles;
antes de una próxima imagen programada para ser tomada por el dispositivo de captura de imágenes:
detectar una anomalía en los píxeles de la primera imagen, la anomalía que oculta al menos una parte de la primera imagen; y provocando una secuencia de repeticiones de la primera imagen,
en donde la etapa de provocar una secuencia de repeticiones de la primera imagen se define además como la causa de una o más repeticiones sin detectar si la anomalía se captura en las imágenes de nueva toma.
ES08754985T 2007-05-01 2008-05-01 Sistema para detectar anomalías de imagen Active ES2702612T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US92698507P 2007-05-01 2007-05-01
PCT/US2008/062254 WO2008137568A1 (en) 2007-05-01 2008-05-01 System for detecting image abnormalities

Publications (1)

Publication Number Publication Date
ES2702612T3 true ES2702612T3 (es) 2019-03-04

Family

ID=39939566

Family Applications (1)

Application Number Title Priority Date Filing Date
ES08754985T Active ES2702612T3 (es) 2007-05-01 2008-05-01 Sistema para detectar anomalías de imagen

Country Status (4)

Country Link
US (2) US8385672B2 (es)
EP (2) EP3428847B1 (es)
ES (1) ES2702612T3 (es)
WO (1) WO2008137568A1 (es)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8145578B2 (en) 2007-04-17 2012-03-27 Eagel View Technologies, Inc. Aerial roof estimation system and method
US8078436B2 (en) 2007-04-17 2011-12-13 Eagle View Technologies, Inc. Aerial roof estimation systems and methods
US8675068B2 (en) 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
DE102008001679A1 (de) * 2008-05-09 2009-11-12 Robert Bosch Gmbh Verfahren und Vorrichtung zur Verarbeitung von aufgenommenen Bildinformationen aus einem Fahrzeug
US8170840B2 (en) 2008-10-31 2012-05-01 Eagle View Technologies, Inc. Pitch determination systems and methods for aerial roof estimation
US8731234B1 (en) 2008-10-31 2014-05-20 Eagle View Technologies, Inc. Automated roof identification systems and methods
US8209152B2 (en) 2008-10-31 2012-06-26 Eagleview Technologies, Inc. Concurrent display systems and methods for aerial roof estimation
US8891066B2 (en) * 2008-11-24 2014-11-18 Deutsches Zentrum für Luft- und Raumfahrt e.V. Method for geo-referencing of optical remote sensing images
CA2801486C (en) 2010-02-01 2018-12-11 Eagle View Technologies, Inc. Geometric correction of rough wireframe models derived from photographs
EP2527787B1 (en) * 2011-05-23 2019-09-11 Kabushiki Kaisha TOPCON Aerial photograph image pickup method and aerial photograph image pickup apparatus
US10663294B2 (en) 2012-02-03 2020-05-26 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area and producing a wall estimation report
US9933257B2 (en) 2012-02-03 2018-04-03 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US9599466B2 (en) 2012-02-03 2017-03-21 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US10515414B2 (en) 2012-02-03 2019-12-24 Eagle View Technologies, Inc. Systems and methods for performing a risk management assessment of a property
US9501700B2 (en) 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
RU2498378C1 (ru) * 2012-06-21 2013-11-10 Александр Николаевич Барышников Способ получения изображения земной поверхности с движущегося носителя и устройство для его осуществления
JP6122591B2 (ja) 2012-08-24 2017-04-26 株式会社トプコン 写真測量用カメラ及び航空写真装置
US11587176B2 (en) 2013-03-15 2023-02-21 Eagle View Technologies, Inc. Price estimation model
US10909482B2 (en) 2013-03-15 2021-02-02 Pictometry International Corp. Building materials estimation
US9959581B2 (en) 2013-03-15 2018-05-01 Eagle View Technologies, Inc. Property management on a smartphone
KR101329583B1 (ko) * 2013-07-09 2013-11-14 주식회사 두레텍 회전익 구조체를 이용한 공중관측 지형자료 구축 방법 및 그 시스템
US9679227B2 (en) 2013-08-02 2017-06-13 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
CN105438488B (zh) * 2014-09-30 2018-07-17 深圳市大疆创新科技有限公司 飞行器及其控制方法以及飞行器系统
US9900509B2 (en) * 2014-10-21 2018-02-20 Bae Systems Information And Electronic Systems Integration Inc. Frame registration for imaging sensors in motion
US9460517B2 (en) 2014-10-22 2016-10-04 Pointivo, Inc Photogrammetric methods and devices related thereto
AU2017344757B2 (en) * 2016-10-20 2022-08-04 Spookfish Innovations Pty Ltd An aerial camera boresight calibration system
EP4002831A1 (en) 2017-03-10 2022-05-25 Sony Group Corporation Information-processing device, information-processing method, and information-processing program
US10503843B2 (en) 2017-12-19 2019-12-10 Eagle View Technologies, Inc. Supervised automatic roof modeling
CA3139486A1 (en) 2019-06-07 2020-12-10 Stephen Ng Systems and methods for automated detection of changes in extent of structures using imagery
US11443452B2 (en) 2019-06-07 2022-09-13 Pictometry International Corp. Using spatial filter to reduce bundle adjustment block size
CA3149080A1 (en) 2019-09-20 2021-03-25 Shadrian Strong Roof condition assessment using machine learning
AU2020365115A1 (en) 2019-10-18 2022-03-10 Pictometry International Corp. Geospatial object geometry extraction from imagery
CA3148166A1 (en) 2019-10-18 2021-04-22 Shadrian Strong Systems for the classification of interior structure areas based on exterior images
US11625907B2 (en) 2019-10-25 2023-04-11 Pictometry International Corp. System using image connectivity to reduce bundle size for bundle adjustment
US11094113B2 (en) 2019-12-04 2021-08-17 Geomni, Inc. Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs

Family Cites Families (187)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2273876A (en) * 1940-02-12 1942-02-24 Frederick W Lutz Apparatus for indicating tilt of cameras
US2944151A (en) * 1955-02-01 1960-07-05 North American Aviation Inc Infrared landing system for aircraft
US2979832A (en) * 1956-09-19 1961-04-18 Douglas Aircraft Co Inc Visual simulator for flight training device
US3153784A (en) 1959-12-24 1964-10-20 Us Industries Inc Photo radar ground contour mapping system
US5345086A (en) 1962-11-28 1994-09-06 Eaton Corporation Automatic map compilation system
US3621326A (en) 1968-09-30 1971-11-16 Itek Corp Transformation system
US3594556A (en) * 1969-01-08 1971-07-20 Us Navy Optical sight with electronic image stabilization
US3661061A (en) * 1969-05-05 1972-05-09 Atomic Energy Commission Picture position finder
US3614410A (en) 1969-06-12 1971-10-19 Knight V Bailey Image rectifier
US3699245A (en) * 1970-03-11 1972-10-17 Perkin Elmer Corp Pictorial systems, having high resolution imagery at all object distances
US3716669A (en) * 1971-05-14 1973-02-13 Japan Eng Dev Co Mapping rectifier for generating polarstereographic maps from satellite scan signals
US3725563A (en) * 1971-12-23 1973-04-03 Singer Co Method of perspective transformation in scanned raster visual display
US3864513A (en) * 1972-09-11 1975-02-04 Grumman Aerospace Corp Computerized polarimetric terrain mapping system
US4015080A (en) * 1973-04-30 1977-03-29 Elliott Brothers (London) Limited Display devices
JPS5223975Y2 (es) * 1973-05-29 1977-05-31
US3877799A (en) * 1974-02-06 1975-04-15 United Kingdom Government Method of recording the first frame in a time index system
US3917199A (en) * 1974-06-10 1975-11-04 Bechtel Int Corp Detachable pod for aerial photography
DE2510044A1 (de) 1975-03-07 1976-09-16 Siemens Ag Anordnung zum aufzeichnen von zeichen unter verwendung von mosaikschreibwerken
US4707698A (en) 1976-03-04 1987-11-17 Constant James N Coordinate measurement and radar device using image scanner
US4240108A (en) 1977-10-03 1980-12-16 Grumman Aerospace Corporation Vehicle controlled raster display system
JPS5637416Y2 (es) * 1977-10-14 1981-09-02
IT1095061B (it) * 1978-05-19 1985-08-10 Conte Raffaele Apparecchiatura per la registrazione magnetica di eventi casuali relativi a mezzi mobili
US4396942A (en) 1979-04-19 1983-08-02 Jackson Gates Video surveys
FR2461305B1 (fr) 1979-07-06 1985-12-06 Thomson Csf Systeme indicateur cartographique destine plus particulierement a la navigation aerienne
DE2939681A1 (de) 1979-09-29 1981-04-30 Agfa-Gevaert Ag, 5090 Leverkusen Verfahren und vorrichtung zur ueberwachung der qualitaet bei der herstellung von fotografischen bildern
DE2940871C2 (de) 1979-10-09 1983-11-10 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung
US4344146A (en) * 1980-05-08 1982-08-10 Chesebrough-Pond's Inc. Video inspection system
US4387056A (en) * 1981-04-16 1983-06-07 E. I. Du Pont De Nemours And Company Process for separating zero-valent nickel species from divalent nickel species
US4382678A (en) * 1981-06-29 1983-05-10 The United States Of America As Represented By The Secretary Of The Army Measuring of feature for photo interpretation
US4463380A (en) * 1981-09-25 1984-07-31 Vought Corporation Image processing system
US4489389A (en) * 1981-10-02 1984-12-18 Harris Corporation Real time video perspective digital map display
US4495500A (en) * 1982-01-26 1985-01-22 Sri International Topographic data gathering method
US4490742A (en) 1982-04-23 1984-12-25 Vcs, Incorporated Encoding apparatus for a closed circuit television system
US4586138A (en) * 1982-07-29 1986-04-29 The United States Of America As Represented By The United States Department Of Energy Route profile analysis system and method
US4491399A (en) * 1982-09-27 1985-01-01 Coherent Communications, Inc. Method and apparatus for recording a digital signal on motion picture film
US4527055A (en) * 1982-11-15 1985-07-02 Honeywell Inc. Apparatus for selectively viewing either of two scenes of interest
FR2536851B1 (fr) 1982-11-30 1985-06-14 Aerospatiale Systeme de reconnaissance comportant un vehicule aerien tournant autour de son axe longitudinal
US4489322A (en) 1983-01-27 1984-12-18 The United States Of America As Represented By The Secretary Of The Air Force Radar calibration using direct measurement equipment and oblique photometry
US4635136A (en) * 1984-02-06 1987-01-06 Rochester Institute Of Technology Method and apparatus for storing a massive inventory of labeled images
US4814711A (en) * 1984-04-05 1989-03-21 Deseret Research, Inc. Survey system and method for real time collection and processing of geophysicals data using signals from a global positioning satellite network
US4686474A (en) 1984-04-05 1987-08-11 Deseret Research, Inc. Survey system for collection and real time processing of geophysical data
US4685143A (en) * 1985-03-21 1987-08-04 Texas Instruments Incorporated Method and apparatus for detecting edge spectral features
US4673988A (en) * 1985-04-22 1987-06-16 E.I. Du Pont De Nemours And Company Electronic mosaic imaging process
US4653136A (en) * 1985-06-21 1987-03-31 Denison James W Wiper for rear view mirror
EP0211623A3 (en) * 1985-08-01 1988-09-21 British Aerospace Public Limited Company Identification of ground targets in airborne surveillance radar returns
US4953227A (en) 1986-01-31 1990-08-28 Canon Kabushiki Kaisha Image mosaic-processing method and apparatus
US4653316A (en) * 1986-03-14 1987-03-31 Kabushiki Kaisha Komatsu Seisakusho Apparatus mounted on vehicles for detecting road surface conditions
US4688092A (en) 1986-05-06 1987-08-18 Ford Aerospace & Communications Corporation Satellite camera image navigation
US4956872A (en) 1986-10-31 1990-09-11 Canon Kabushiki Kaisha Image processing apparatus capable of random mosaic and/or oil-painting-like processing
JPS63202182A (ja) * 1987-02-18 1988-08-22 Olympus Optical Co Ltd 傾斜ドツトパタ−ン形成方法
US4814896A (en) * 1987-03-06 1989-03-21 Heitzman Edward F Real time video data acquistion systems
US5164825A (en) 1987-03-30 1992-11-17 Canon Kabushiki Kaisha Image processing method and apparatus for mosaic or similar processing therefor
US4807024A (en) * 1987-06-08 1989-02-21 The University Of South Carolina Three-dimensional display methods and apparatus
US4899296A (en) * 1987-11-13 1990-02-06 Khattak Anwar S Pavement distress survey system
US4843463A (en) * 1988-05-23 1989-06-27 Michetti Joseph A Land vehicle mounted audio-visual trip recorder
GB8826550D0 (en) * 1988-11-14 1989-05-17 Smiths Industries Plc Image processing apparatus and methods
US4906198A (en) * 1988-12-12 1990-03-06 International Business Machines Corporation Circuit board assembly and contact pin for use therein
JP2765022B2 (ja) * 1989-03-24 1998-06-11 キヤノン販売株式会社 立体画像形成装置
US5617224A (en) * 1989-05-08 1997-04-01 Canon Kabushiki Kaisha Imae processing apparatus having mosaic processing feature that decreases image resolution without changing image size or the number of pixels
US5086314A (en) * 1990-05-21 1992-02-04 Nikon Corporation Exposure control apparatus for camera
JPH0316377A (ja) * 1989-06-14 1991-01-24 Kokusai Denshin Denwa Co Ltd <Kdd> 2値画像の縮小方法及び装置
US5166789A (en) 1989-08-25 1992-11-24 Space Island Products & Services, Inc. Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates
GB8925196D0 (en) * 1989-11-08 1990-05-30 Smiths Industries Plc Navigation systems
DE3939731A1 (de) * 1989-12-01 1991-06-06 Dornier Luftfahrt Autonomes landesystem
US5124913A (en) * 1989-12-18 1992-06-23 Eastman Kodak Co. Rule-based technique to automatically determine the final scan gain in storage phosphor radiography
JP3147358B2 (ja) * 1990-02-23 2001-03-19 ミノルタ株式会社 撮影地データを記録できるカメラ
US5335072A (en) 1990-05-30 1994-08-02 Minolta Camera Kabushiki Kaisha Photographic system capable of storing information on photographed image data
EP0464263A3 (en) * 1990-06-27 1992-06-10 Siemens Aktiengesellschaft Device for obstacle detection for pilots of low flying aircrafts
US5191174A (en) * 1990-08-01 1993-03-02 International Business Machines Corporation High density circuit board and method of making same
US5200793A (en) * 1990-10-24 1993-04-06 Kaman Aerospace Corporation Range finding array camera
US5155597A (en) 1990-11-28 1992-10-13 Recon/Optical, Inc. Electro-optical imaging array with motion compensation
JPH04250436A (ja) 1991-01-11 1992-09-07 Pioneer Electron Corp 撮像装置
US5265173A (en) 1991-03-20 1993-11-23 Hughes Aircraft Company Rectilinear object image matcher
US5369443A (en) 1991-04-12 1994-11-29 Abekas Video Systems, Inc. Digital video effects generator
EP0509822B1 (en) 1991-04-16 1995-08-30 Nec Corporation Image pickup system with an image pickup device for control
US5555018A (en) 1991-04-25 1996-09-10 Von Braun; Heiko S. Large-scale mapping of parameters of multi-dimensional structures in natural environments
AU2261292A (en) * 1991-06-21 1993-01-25 Unitech Research, Inc. Real time three dimensional geo-referenced digital orthophotograph-based positioning, navigation, collision avoidance and decision support system
US5231435A (en) * 1991-07-12 1993-07-27 Blakely Bruce W Aerial camera mounting apparatus
EP0530391B1 (en) 1991-09-05 1996-12-11 Nec Corporation Image pickup system capable of producing correct image signals of an object zone
US5677515A (en) 1991-10-18 1997-10-14 Trw Inc. Shielded multilayer printed wiring board, high frequency, high isolation
US5402170A (en) * 1991-12-11 1995-03-28 Eastman Kodak Company Hand-manipulated electronic camera tethered to a personal computer
US5247356A (en) 1992-02-14 1993-09-21 Ciampa John A Method and apparatus for mapping and measuring land
US5251037A (en) 1992-02-18 1993-10-05 Hughes Training, Inc. Method and apparatus for generating high resolution CCD camera images
US5270756A (en) 1992-02-18 1993-12-14 Hughes Training, Inc. Method and apparatus for generating high resolution vidicon camera images
US5506644A (en) * 1992-08-18 1996-04-09 Olympus Optical Co., Ltd. Camera
US5481479A (en) * 1992-12-10 1996-01-02 Loral Fairchild Corp. Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance
US5342999A (en) 1992-12-21 1994-08-30 Motorola, Inc. Apparatus for adapting semiconductor die pads and method therefor
US5414462A (en) * 1993-02-11 1995-05-09 Veatch; John W. Method and apparatus for generating a comprehensive survey map
US5508736A (en) * 1993-05-14 1996-04-16 Cooper; Roger D. Video signal processing apparatus for producing a composite signal for simultaneous display of data and video information
US5467271A (en) 1993-12-17 1995-11-14 Trw, Inc. Mapping and analysis system for precision farming applications
US6091448A (en) * 1993-12-27 2000-07-18 Canon Kabushiki Kaisha Apparatus for preventing an image blur prevention device from changing states during an image recording operation
US5613013A (en) * 1994-05-13 1997-03-18 Reticula Corporation Glass patterns in image alignment and analysis
CA2190596C (en) * 1994-05-19 2002-03-26 Theodore M. Lachinski Method for collecting and processing visual and spatial position information
US5654890A (en) * 1994-05-31 1997-08-05 Lockheed Martin High resolution autonomous precision approach and landing system
US5586204A (en) * 1994-06-30 1996-12-17 Hughes Electronics Integrity checking procedure for high throughput data transformations
US5596494A (en) * 1994-11-14 1997-01-21 Kuo; Shihjong Method and apparatus for acquiring digital maps
US5426476A (en) * 1994-11-16 1995-06-20 Fussell; James C. Aircraft video camera mount
RU2153700C2 (ru) * 1995-04-17 2000-07-27 Спейс Системз/Лорал, Инк. Система управления ориентацией и формированием изображения (варианты)
US5604534A (en) * 1995-05-24 1997-02-18 Omni Solutions International, Ltd. Direct digital airborne panoramic camera system and method
US5668593A (en) 1995-06-07 1997-09-16 Recon/Optical, Inc. Method and camera system for step frame reconnaissance with motion compensation
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US5835133A (en) 1996-01-23 1998-11-10 Silicon Graphics, Inc. Optical system for single camera stereo video
US5894323A (en) * 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
US5798786A (en) 1996-05-07 1998-08-25 Recon/Optical, Inc. Electro-optical imaging detector array for a moving vehicle which includes two axis image motion compensation and transfers pixels in row directions and column directions
US5844602A (en) 1996-05-07 1998-12-01 Recon/Optical, Inc. Electro-optical imaging array and camera system with pitch rate image motion compensation which can be used in an airplane in a dive bomb maneuver
US5841574A (en) 1996-06-28 1998-11-24 Recon/Optical, Inc. Multi-special decentered catadioptric optical system
DE69739272D1 (de) 1996-11-05 2009-04-02 Bae Systems Information Vorrichtung zur elektro-optischen fernerkundung mit bewegungskompensation
US6108032A (en) * 1996-11-05 2000-08-22 Lockheed Martin Fairchild Systems System and method for image motion compensation of a CCD image sensor
RU2127075C1 (ru) * 1996-12-11 1999-03-10 Корженевский Александр Владимирович Способ получения томографического изображения тела и электроимпедансный томограф
US6222583B1 (en) * 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
US6597818B2 (en) 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
JP3610195B2 (ja) 1997-07-04 2005-01-12 キヤノン株式会社 撮像装置
US6157747A (en) 1997-08-01 2000-12-05 Microsoft Corporation 3-dimensional image rotation method and apparatus for producing image mosaics
US6097854A (en) 1997-08-01 2000-08-01 Microsoft Corporation Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping
WO1999018732A1 (en) 1997-10-06 1999-04-15 Ciampa John A Digital-image mapping
US5852753A (en) 1997-11-10 1998-12-22 Lo; Allen Kwok Wah Dual-lens camera with shutters for taking dual or single images
WO1999024936A1 (en) 1997-11-10 1999-05-20 Gentech Corporation System and method for generating super-resolution-enhanced mosaic images
US6094215A (en) 1998-01-06 2000-07-25 Intel Corporation Method of determining relative camera orientation position to create 3-D visual images
US6222538B1 (en) * 1998-02-27 2001-04-24 Flashpoint Technology, Inc. Directing image capture sequences in a digital imaging device using scripts
US6130705A (en) 1998-07-10 2000-10-10 Recon/Optical, Inc. Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use
JP4245699B2 (ja) 1998-09-16 2009-03-25 オリンパス株式会社 撮像装置
US6434265B1 (en) 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
US6167300A (en) 1999-03-08 2000-12-26 Tci Incorporated Electric mammograph
DE19922341C2 (de) * 1999-05-14 2002-08-29 Zsp Geodaetische Sys Gmbh Verfahren und eine Anordnung zur Bestimmung der räumlichen Koordinaten mindestens eines Objektpunktes
AUPQ056099A0 (en) 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
TW483287B (en) * 1999-06-21 2002-04-11 Semiconductor Energy Lab EL display device, driving method thereof, and electronic equipment provided with the EL display device
US6809763B1 (en) 1999-08-02 2004-10-26 Olympus Optical Co., Ltd. Image pickup apparatus and method of correcting deteriorated pixel signal thereof
US7383504B1 (en) * 1999-08-30 2008-06-03 Mitsubishi Electric Research Laboratories Method for representing and comparing multimedia content according to rank
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
WO2001048683A1 (en) * 1999-12-29 2001-07-05 Geospan Corporation Any aspect passive volumetric image processing method
AU3047801A (en) * 2000-02-03 2001-08-14 Alst Technical Excellence Center Image resolution improvement using a color mosaic sensor
CA2400975C (en) * 2000-03-16 2008-11-04 The Johns Hopkins University Light detection and ranging (lidar) mapping system
IL151951A0 (en) 2000-03-29 2003-04-10 Astrovision International Inc Direct broadcast imaging satellite system, apparatus and method for providing real-time, continuous monitoring of earth from geostationary earth orbit and related services
US6834128B1 (en) 2000-06-16 2004-12-21 Hewlett-Packard Development Company, L.P. Image mosaicing system and method adapted to mass-market hand-held digital cameras
DE10038624C2 (de) * 2000-08-03 2002-11-21 Broekelmann Aluminium F W Wärmeübertragungsrohr mit gedrallten Innenrippen
US6484101B1 (en) * 2000-08-16 2002-11-19 Imagelinks, Inc. 3-dimensional interactive image modeling system
US7313289B2 (en) * 2000-08-30 2007-12-25 Ricoh Company, Ltd. Image processing method and apparatus and computer-readable storage medium using improved distortion correction
US6421610B1 (en) 2000-09-15 2002-07-16 Ernest A. Carroll Method of preparing and disseminating digitized geospatial data
US6959120B1 (en) * 2000-10-27 2005-10-25 Microsoft Corporation Rebinning methods and arrangements for use in compressing image-based rendering (IBR) data
JP2002159483A (ja) * 2000-11-24 2002-06-04 Fuji Photo Film Co Ltd 画像情報処理システム
US7027658B2 (en) * 2000-12-20 2006-04-11 Level Set Systems, Inc. System for geometrically accurate compression and decompression
AU2002308651A1 (en) * 2001-05-04 2002-11-18 Leberl, Franz, W. Digital camera for and method of obtaining overlapping images
US6961445B1 (en) * 2001-05-04 2005-11-01 Rockwell Collins Image processing warning system
US7046401B2 (en) * 2001-06-01 2006-05-16 Hewlett-Packard Development Company, L.P. Camera-based document scanning system using multiple-pass mosaicking
US7509241B2 (en) * 2001-07-06 2009-03-24 Sarnoff Corporation Method and apparatus for automatically generating a site model
US20030043824A1 (en) * 2001-08-31 2003-03-06 Remboski Donald J. Vehicle active network and device
US6747686B1 (en) * 2001-10-05 2004-06-08 Recon/Optical, Inc. High aspect stereoscopic mode camera and method
US7262790B2 (en) 2002-01-09 2007-08-28 Charles Adams Bakewell Mobile enforcement platform with aimable violation identification and documentation system for multiple traffic violation types across all lanes in moving traffic, generating composite display images and data to support citation generation, homeland security, and monitoring
US7362354B2 (en) 2002-02-12 2008-04-22 Hewlett-Packard Development Company, L.P. Method and system for assessing the photo quality of a captured image in a digital still camera
JP4172941B2 (ja) * 2002-03-01 2008-10-29 日立ソフトウエアエンジニアリング株式会社 土地区画データ作成方法および装置
JP3789836B2 (ja) * 2002-03-19 2006-06-28 三洋電機株式会社 画像符号化装置および方法
JP4184703B2 (ja) 2002-04-24 2008-11-19 大日本印刷株式会社 画像修正方法およびシステム
US7206698B2 (en) * 2002-05-15 2007-04-17 Honeywell International Inc. Ground operations and imminent landing runway selection
US7725258B2 (en) * 2002-09-20 2010-05-25 M7 Visual Intelligence, L.P. Vehicle based data collection and processing system and imaging sensor system and methods thereof
US6898331B2 (en) * 2002-08-28 2005-05-24 Bae Systems Aircraft Controls, Inc. Image fusion system and method
EP1540937A4 (en) 2002-09-20 2008-11-12 M7 Visual Intelligence Lp VEHICLE TESTED DATA COLLECTION AND TREATMENT SYSTEM
US7113202B2 (en) * 2002-09-20 2006-09-26 The Boeing Company Autotiller control system for aircraft utilizing camera sensing
US7298876B1 (en) * 2002-11-04 2007-11-20 R2 Technology, Inc. Method and apparatus for quality assurance and quality control in radiological equipment using automatic analysis tools
EP1696204B1 (en) 2002-11-08 2015-01-28 Pictometry International Corp. Method for capturing, geolocating and measuring oblique images
US7424133B2 (en) * 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
KR100530746B1 (ko) * 2002-12-24 2005-11-23 삼성테크윈 주식회사 촬영 상태가 부적절하였음을 알려주는 디지털 카메라 및그 제어방법
US7551787B2 (en) * 2003-01-28 2009-06-23 International Business Machines Corporation Adaptive compression quality
JP3731584B2 (ja) 2003-03-31 2006-01-05 コニカミノルタフォトイメージング株式会社 撮像装置、およびプログラム
US20040196503A1 (en) 2003-04-07 2004-10-07 Eastman Kodak Company Index print having a correction indicator thereon and a method of making the index print
US7379091B2 (en) * 2003-04-30 2008-05-27 Hewlett-Packard Development Company, L.P. Method and apparatus for computing an image stability measure
JP2005020565A (ja) 2003-06-27 2005-01-20 Toshiba Corp 撮像装置及び撮像装置の情報処理方法
US7018050B2 (en) * 2003-09-08 2006-03-28 Hewlett-Packard Development Company, L.P. System and method for correcting luminance non-uniformity of obliquely projected images
JP2005151536A (ja) * 2003-10-23 2005-06-09 Nippon Dempa Kogyo Co Ltd 水晶発振器
JP2005134667A (ja) * 2003-10-30 2005-05-26 Fuji Photo Film Co Ltd 撮影装置
JP4345622B2 (ja) * 2003-11-05 2009-10-14 オムロン株式会社 瞳色推定装置
US20050117031A1 (en) * 2003-12-02 2005-06-02 Russon Virgil K. Virtual film roll for grouping and storing digital images
US7916940B2 (en) 2004-01-31 2011-03-29 Hewlett-Packard Development Company Processing of mosaic digital images
BRPI0508226A (pt) 2004-02-27 2007-07-17 Intergraph Software Tech Co formação de uma única imagem a partir de imagens de sobreposição
US7659906B2 (en) * 2004-07-29 2010-02-09 The United States Of America As Represented By The Secretary Of The Navy Airborne real time image exploitation system (ARIES)
US20060028550A1 (en) * 2004-08-06 2006-02-09 Palmer Robert G Jr Surveillance system and method
US7348895B2 (en) * 2004-11-03 2008-03-25 Lagassey Paul J Advanced automobile accident detection, data recordation and reporting system
US20060152606A1 (en) 2005-01-07 2006-07-13 Nucore Technology, Inc. Displaying a smear leakage icon on the display of a digital camera
US7142984B2 (en) 2005-02-08 2006-11-28 Harris Corporation Method and apparatus for enhancing a digital elevation model (DEM) for topographical modeling
US7230221B2 (en) * 2005-03-02 2007-06-12 United States Of America As Represented By The Secretary Of The Navy Portable air defense ground based launch detection system
US7466244B2 (en) 2005-04-21 2008-12-16 Microsoft Corporation Virtual earth rooftop overlay and bounding
US7554539B2 (en) * 2005-07-27 2009-06-30 Balfour Technologies Llc System for viewing a collection of oblique imagery in a three or four dimensional virtual scene
JP4624287B2 (ja) * 2006-03-17 2011-02-02 株式会社パスコ 建物形状変化検出方法及び建物形状変化検出システム
US7778491B2 (en) 2006-04-10 2010-08-17 Microsoft Corporation Oblique image stitching
US7873238B2 (en) * 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
IL179344A (en) * 2006-11-16 2014-02-27 Rafael Advanced Defense Sys Mobile Platform Tracking Method
US7876925B2 (en) * 2007-03-28 2011-01-25 Honeywell International Inc. Runway segmentation using vertices detection
US7826666B2 (en) * 2008-02-27 2010-11-02 Honeywell International Inc. Methods and apparatus for runway segmentation using sensor analysis

Also Published As

Publication number Publication date
EP3428847A1 (en) 2019-01-16
US8385672B2 (en) 2013-02-26
EP3428847B1 (en) 2023-11-22
EP2140402B1 (en) 2018-11-07
EP3428847C0 (en) 2023-11-22
EP2140402A4 (en) 2012-08-08
EP2140402A1 (en) 2010-01-06
US20080273753A1 (en) 2008-11-06
US20120113256A1 (en) 2012-05-10
US8515198B2 (en) 2013-08-20
WO2008137568A1 (en) 2008-11-13

Similar Documents

Publication Publication Date Title
ES2702612T3 (es) Sistema para detectar anomalías de imagen
US11514564B2 (en) System for detecting image abnormalities
AU2008216054B2 (en) Event multiplexer for managing the capture of images
US11169028B2 (en) Unmanned aerial system based thermal imaging and aggregation systems and methods
ES2554549T3 (es) Procedimiento de búsqueda de un objetivo térmico
Goncalves et al. UAV photogrammetry for topographic monitoring of coastal areas
TWI520599B (zh) 具有多個偵測器陣列的多解析度數位大格式相機
US10473453B2 (en) Operating device, operating method, and program therefor
US20100092241A1 (en) Canal Seepage Detection
JP6778008B2 (ja) ナビゲーション装置及びナビゲーション方法
JP6984997B2 (ja) 画像配置方法及び画像配置用コンピュータプログラム
Kim et al. Rapid Disaster Mapping through Data Integration from UAVs and Multi-sensors Mounted on Investigation Platforms of NDMI, Korea
Bostater et al. Operational multi-angle hyperspectral sensing for feature detection
ES2438602T3 (es) Procedimiento y sistema de detección de artefactos explosivos improvisados o similares
Bostater Jr et al. Operational multi-angle hyperspectral remote sensing for feature detection
Abd-Elrahman et al. Use of small format digital aerial images for classification of satellite images