MX2009002339A - Imagenes oblicuas en mosaico y metodos de elaboracion y uso de las mismas. - Google Patents

Imagenes oblicuas en mosaico y metodos de elaboracion y uso de las mismas.

Info

Publication number
MX2009002339A
MX2009002339A MX2009002339A MX2009002339A MX2009002339A MX 2009002339 A MX2009002339 A MX 2009002339A MX 2009002339 A MX2009002339 A MX 2009002339A MX 2009002339 A MX2009002339 A MX 2009002339A MX 2009002339 A MX2009002339 A MX 2009002339A
Authority
MX
Mexico
Prior art keywords
oblique
image
pixel
mosaic
images
Prior art date
Application number
MX2009002339A
Other languages
English (en)
Inventor
Stephen Schultz
Frank Giuffrida
Robert Gray
Original Assignee
Pictometry Int Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pictometry Int Corp filed Critical Pictometry Int Corp
Publication of MX2009002339A publication Critical patent/MX2009002339A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Se describe un método para crear una imagen de mosaico oblicuo a partir de una pluralidad de imágenes fuente. Inicialmente, un área deseada que va a ser formada en imagen y recolectada en una imagen de mosaico oblicuo es identificada (18), y luego un modelo matemático de un sensor de una cámara virtual (20) es creado (22), donde la cámara virtual tiene una elevación mayor que una elevación del área que va a ser formada en imagen. El modelo matemático tiene un mapa de pixeles de mosaico oblicuo para el sensor del área deseada. Una posición superficial es determinada para cada píxel incluido en el mapa (24) de pixeles de mosaico oblicuo, y al menos un píxel de imagen oblicua fuente del área que va a ser formada en imagen, es reproyectada para cada píxel incluido en el mapa de pixeles de mosaico oblicuo para crear con esto una imagen de mosaico oblicuo del área geográfica deseada (26). Además, se describen (28) las técnicas para compensar la inclinación de las construcciones o edificios en las imágenes de mosaico oblicuo.

Description

IMAGENES OBLICUAS EN MOSAICO Y METODOS DE ELABORACION Y USO DE LAS MISMAS Campo de la Invención La invención reclamada y la o las invenciones descritas se refieren a imágenes oblicuas en mosaico y a los métodos para la elaboración y uso de las mismas. Más particularmente, la invención o invenciones actualmente reclamadas y descritas utilizan una metodología mediante la cual las imágenes aéreas capturadas oblicuamente, separadas, son combinadas en al menos una imagen en mosaico oblicuo simple. Al menos una imagen en mosaico oblicuo simple es visualmente placentera y geográficamente precisa. Antecedentes de la Invención En la industria de la formación de imágenes aéreas /detección remota, la formación de imágenes es utilizada para capturar vistas de un área geográfica y para medir objetos y estructuras dentro de las imágenes, así como para hacer posible determinar las posiciones geográficas de los puntos dentro de la imagen. Éstas son en general denominadas como "imágenes geo-referenciadas " y entran en dos categorías básicas: 1. Imaginería Capturada - estas imágenes tienen la apariencia de que fueron capturadas por la cámara o el sensor empleado. Ref.:200645 2. Imaginería Proyectada - estas imágenes han sido procesadas y convertidas tal que éstas se conforman a una proyección matemática. Toda la imaginería comienza como imaginería capturada, pero ya que la mayoría de las dotaciones lógicas informáticas (software) no pueden geo-referenciar la imaginería capturada, esa imaginería es entonces procesada para crear la imaginería proyectada. La forma más común de la imaginería proyectada es la imagen orto-rectificada. Este proceso alinea la imagen a una rejilla ortogonal o rectilínea (compuesta de rectángulos). La imagen introducida utilizada para crear una imagen orto-rectificada es una imagen de nadir, es decir, una imagen capturada con la cámara señalando en línea recta hacia abajo. Es a menudo muy deseable combinar las múltiples imágenes en una imagen compuesta más grande, tal que la imagen cubra un área geográfica más grande sobre la tierra. La forma más común de esta imagen compuesta es la "imagen de orto-mosaico" la cual es una imagen creada a partir de una serie de imágenes de nadir traslapadas o adyacentes que son matemáticamente combinadas en una imagen orto-rectificada simple . Cada imagen de nadir introducida, así como la imagen de orto-mosaico introducida, está compuesta de pixeles discretos (elementos de imagen individuales) de información o datos. Como parte del proceso para crear una imagen orto-rectificada, y por lo tanto una imagen de orto-mosaico, se realiza un intento para reproyectar (mover dentro de un modelo matemático) cada pixel dentro de la imagen tal que la imagen resultante aparece como si cada píxel en la imagen fuera un píxel de nadir -es decir, que la cámara está directamente por arriba de cada píxel en la imagen. La razón de que este proceso de orto-rectificación sea necesario, es que actualmente no es posible capturar una imagen donde cada píxel sea nadir a (directamente por debajo de) la cámara a no ser que: (1) la cámara utilizada sea tan grande como el área de captura, o (2) la cámara es colocada a una distancia infinita por arriba del área de captura, tal que el ángulo desde la cámara hacia el píxel es tan cercana a la línea recta hacia abajo que ésta puede ser considerada nadir. El proceso de orto-rectificación crea una imagen que se aproxima a la apariencia de la que es capturada con una cámara donde el área sobre la tierra que cada píxel captura, es considerada nadir a ese píxel, por ejemplo, directamente por debajo de ese píxel. Este proceso es realizado por la creación de un modelo matemático de la tierra, en general en una rejilla rectilínea (una rejilla formada de rectángulos), y reproyectando a partir de la imagen de cámara capturada individual dentro de esta rejilla rectilínea. Este proceso mueve los pixeles desde su posición relativa no de nadir dentro de las imágenes individuales hacia sus posiciones de nadir dentro de la rejilla rectilínea, por ejemplo, la imagen es envuelta para recubrirse con la rejilla. Cuando se crea un orto-mosaico, se utiliza este mismo proceso de orto-rectificación, sin embargo, en vez de utilizar únicamente una imagen de nadir de entrada simple, se utilizan una colección de imágenes de nadir traslapadas o adyacentes, y éstas son combinadas para formar una imagen orto-rectificada compuesta, simple, conocida como un orto-mosaico. En general, el proceso de orto-mosaico involucra los siguientes pasos: Una rejilla rectilínea es creada, lo cual da como resultado una imagen de orto-mosaico donde cada píxel de rejilla cubre la misma cantidad del área sobre el terreno . • La posición de cada píxel de rejilla es determinada a partir de la definición matemática de la rejilla. En general, esto significa que la rejilla se le da una posición inicial o de origen X e Y o un tamaño X e Y para los pixeles de rejilla. De este modo, la posición de cualquier píxel es simplemente la posición de origen más el número de tantas veces los pixeles, el tamaño de cada píxel . En términos matemáticos : XPixei = Xorígen + Xtamaño x Columnapíxel 6 Ypixel — ^origen + Ytamaño x Hilerapíxel · • Las imágenes de nadir disponibles son verificadas para observar si éstas cubren el mismo punto sobre el terreno que el pixel de rejilla que es rellenado. Si es así, una fórmula matemática es utilizada para determinar dónde ese punto sobre el terreno se proyecta hacia arriba sobre el mapa de imágenes de pixel de la cámara y ese valor de pixel resultante es entonces transferido al pixel de rejilla. Durante este proceso de selección, son tomados dos pasos importantes : Cuando se selecciona la imagen para utilizarse para proporcionar el valor de pixel, es utilizada una fórmula matemática para seleccionar una imagen que reduce al mínimo la inclinación de construcción - el efecto donde los edificios parecen inclinarse lejos de la cámara. Esto es logrado en un número de formas, pero la más común es recoger la imagen donde el pixel de la rejilla se reproyecta tan cercano al centro de la cámara, y por lo tanto tan cercano a ese punto de nadir de la cámara, como sea posible. Cuando se determina el valor del pixel fuente para utilizarse, la elevación del terreno es tomada en cuenta para asegurar que se seleccione el valor de pixel correcto. Los cambios en la elevación provocan que la posición aparente del pixel se desplace cuando es capturada por la cámara. Un punto sobre el terreno que está más alto aparecerá más lejos del centro de la imagen que un punto sobre el terreno en la misma posición que está más abajo. Por ejemplo, la punta de un edificio aparecerá más alejada del centro de una imagen que el fondo de un edificio. Al tomar la elevación del terreno en cuenta cuando se determina el valor del píxel fuente, el efecto neto es "aplanar" la imagen tal que los cambios en la posición del píxel debidos a la posición del terreno, son eliminados. Debido a que las rejillas rectilíneas utilizadas para el orto-mosaico son en general las mismas rejillas utilizadas para crear mapas, las imágenes de orto-mosaico poseen una similitud sorprendente a los mapas y como tales, son en general muy fáciles de utilizar desde un punto de vista de dirección y orientación. Sin embargo, ya que éstas tienen una apariencia dictada por las proyecciones matemáticas en vez de la apariencia normal que una cámara simple captura, y debido a que éstas son capturadas viendo recto hacia abajo, esto crea una vista del mundo al cual no estamos acostumbrados. Como resultado, muchas personas tienen dificultad en determinar qué es lo que están viendo en una imagen. Por ejemplo, ellos pueden ver un rectángulo amarillo en la imagen y no darse cuenta que lo que ellos están viendo es el techo de un autobús escolar. O pueden tener dificultad al distinguir entre dos propiedades comerciales ya que la única cosa que ellos pueden observar de las propiedades en el orto-mosaico son sus techos, donde como la mayoría de las propiedades distintivas están sobre los lados de los edificios. Una profesión completa, el intérprete de fotografías, ha surgido para estas dificultades ya que estos individuos tienen años de entrenamiento y experiencia específicamente en interpretar los que ellos están viendo en la imaginería de nadir u orto-mosaico. Ya que una imagen oblicua, por definición, es capturada a un ángulo, ésta presenta una apariencia más natural debido a que ésta muestra los lados de los objetos y las estructuras -lo que nosotros estamos más acostumbrados a ver. Además, debido a que las imágenes oblicuas no son en general orto-rectificadas, éstas están todavía en la apariencia natural que la cámara captura, en oposición a la construcción matemática de la imagen de orto-mosaico. Esta combinación hace más fácil para las personas observar algo en una imagen oblicua, y darse cuenta lo que ese objeto es. No se requieren habilidades de interpretación de fotografías cuando se trabaja con imágenes oblicuas. Las imágenes oblicuas, no obstante, presentan otro problema. Debido a que las personas han aprendido habilidades de navegación sobre mapas, el hecho de que las imágenes oblicuas no estén alineadas a una rejilla de mapa, como las imágenes de orto-mosaico, las hace mucho menos intuitivas cuando se intenta navegar o determinar la dirección sobre una imagen. Cuando es creado un orto-mosaico, debido a que éste es creado para una rejilla rectilínea que es en general una rejilla de mapa, la parte superior de la imagen de orto-mosaico es el norte, el lado derecho es el este, la parte inferior es el sur, y el lado izquierdo es el oeste. Esto es como las personas están en general acostumbradas a orientarse y a navegar sobre un mapa. Pero una imagen oblicua puede ser capturada desde cualquier dirección y la parte superior de la imagen es en general "arriba y atrás" lo que significa que las estructuras verticales apuntan hacia la parte superior de la imagen, pero que la parte superior de la imagen está también más cercana al horizonte. Sin embargo, debido a que la imagen puede ser capturada desde cualquier dirección, el horizonte puede estar en cualquier dirección, norte, sur, este, oeste, o cualquier punto entre éstos. Si la imagen es capturada tal que la cámara está señalando hacia el norte, entonces el lado derecho de la imagen es el este y el lado izquierdo de la imagen es el oeste. Sin embargo, si la imagen es capturada tal que la cámara está señalando hacia el sur, entonces el lado derecho de la imagen es el oeste y el lado izquierdo de la imagen es el este. Esto puede provocar confusión para algunas personas que intenten navegar dentro de la imagen. Además, debido a que la rejilla de orto-mosaico es en general una rejilla rectilínea, por definición matemática, las cuatro direcciones de la brújula cardinal se encuentran a ángulos rectos (90 grados). Pero con una imagen oblicua, debido a que ésta está todavía en la forma original en que la capturó la cámara, y no ha sido reproyectada en un modelo matemático, no es necesariamente cierto que las direcciones de la brújula se encuentren a ángulos rectos dentro de la imagen. Debido a que la perspectiva oblicua usted se mueve hacia el horizonte conforme se mueve hacia arriba la imagen, la imagen cubre un área más ancha sobre el terreno cerca de la parte superior de la imagen, en comparación al área sobre el terreno cubierta cerca del fondo de la imagen. Si usted fuera a pintar una rejilla rectangular sobre el piso y capturarla con una imagen oblicua, las líneas a lo largo de la dirección en la que está apuntando la cámara, podrían parecer converger en la distancia y las líneas a través de la dirección en la que está apuntando la cámara, podrían parecer más ampliamente espaciadas en el frente de la imagen que la que ellas aparecen en el fondo de la imagen. Esta es la vista en perspectiva que estamos todos acostumbrados a observar -las cosas son más pequeñas en la distancia que las líneas de acercamiento y paralelas, tales como las vías de un ferrocarril, que parecen converger en la distancia. En contraste, si una imagen de orto-mosaico fuera creada sobre esta misma rejilla rectangular pintada, ésta podría aparecer como una rejilla rectangular en la imagen de orto-mosaico, ya que toda la perspectiva es eliminada como una parte incidente del proceso de orto-mosaico. Debido a estas diferencias fundamentales en la perspectiva y la apariencia, la creación de una imagen de orto-mosaico mediante el proceso descrito anteriormente no funciona bien para las imágenes oblicuas. Debido a que el eje óptico de la cámara (una línea imaginaria a través del centro de la lente u óptico que sigue el objetivo de la cámara) es típicamente señalada a un ángulo de 45 grados o más desde nadir (apuntado a 45 grados o más hacia arriba en línea recta hacia abajo) , los efectos de la inclinación de los edificios, las diferencias en la elevación, y los pixeles no cuadrados, son todos exagerados -efectos que son considerados cualidades negativas en la imagen de orto-mosaico. En la industria de los orto-mosaicos, son impuestos en general requerimientos sobre el proceso de captura de imágenes, tal que éstos limitan la cantidad de oblicuidad a tan poco como 5 grados desde el nadir, para reducir al mínimo así cada uno de estos efectos negativos. Además, si las propiedades admirables de una imagen oblicua van a ser mantenidas, a saber la vista de los lados de las estructuras y la apariencia natural de las imágenes, entonces claramente un proceso que intente eliminar los desplazamientos verticales, y por lo tanto los costados de los edificios, y uno que tuerce la imagen para ajustarse a una rejilla rectilínea, no es una elección viable. Es necesario un nuevo proceso, uno que cumpla las siguientes cualidades deseables en un esfuerzo para preservar las propiedades admirables de la imagen oblicua: Si la perspectiva oblicua va a ser mantenida, los pixeles no pueden ser alineados a una rejilla rectilínea, o incluso una rejilla trapezoidal. Más bien, los pixeles son preferentemente alineados a la perspectiva natural que una cámara captura. • Como parte de la perspectiva oblicua, los pixeles en la imagen no pueden todos medir el mismo tamaño sobre el terreno, ya que los pixeles en el frente de la imagen cubren un área mucho más pequeña sobre el terreno que los pixeles en el fondo de la imagen -es decir por definición parte de la perspectiva natural de una cámara . • Debido a que los pixeles están tan alejados de nadir, los efectos de la inclinación de los edificios se vuelven extremos y las soluciones estándares empleadas en el proceso de orto-mosaico no hacen una labor suficientemente adecuada para compensar este efecto - deben ser desarrolladas nuevas técnicas para compensar mejor este efecto. Si los efectos de los cambios en la elevación son echados atrás, la imagen resultante tiene una apariencia muy no natural -los costados verticales de los edificios pueden torcerse y combarse, lo que es algo que nosotros no estamos acostumbrados a ver y por lo tanto, cuando se observa tal imagen, tenemos la tendencia a "rechazarla". De este modo, para mantener los edificios, las estructuras y los objetos dentro de una imagen que parezca natural, es preferible dejar los efectos de elevación en la perspectiva de la imagen y en vez de esto explicarla de otra manera. Debido a estos problemas, la práctica común en la industria es proporcionar imaginería oblicua como una serie de imágenes individuales. Sin embargo, algunos de los mismos beneficios del orto-mosaico también aplican a un mosaico oblicuo (una imagen creada a partir de una colección de imágenes oblicuas traslapadas o adyacentes) , a saber el hecho de que el mosaico cubre un área geográfica más grande que cada una o cualquiera de las imágenes individuales que fueron utilizadas para crearla. Esta invención detalla un medio mediante el cual puede ser creado un mosaico oblicuo de calidad, superando las limitaciones anteriores. Breve Descripción de la Invención Esta invención permite la creación de una imagen de mosaico oblicuo que tiene una apariencia natural y es preferentemente geo-referenciada para mantener la habilidad para medir y determinar las coordenadas geográficas.
Mientras que la modalidad preferida aplica esta invención a la imaginería oblicua aérea, la invención también funcionará con la imaginería oblicua no aérea, capturada en una variedad de formas, incluyendo pero no limitadas a las cámaras montadas oblicuamente sobre un polo vertical, las cámaras manuales dirigidas oblicuamente, y las cámaras montadas a ángulos oblicuos sobre una sonda subacuática. En una modalidad, la presente invención está dirigida a un método para crear una imagen de mosaico oblicuo a partir de una pluralidad imágenes oblicuas fuente de un área geográfica. Las imágenes oblicuas fuente son preferentemente imágenes oblicuas capturadas. En este método, un área deseada que va a ser formada en imagen y recolectada en una imagen de mosaico oblicuo, es identificada, y es creado un modelo matemático de un sensor de una cámara virtual . La cámara virtual tiene una elevación mayor que una elevación del área que va a ser formada en imagen. El modelo matemático tiene un mapa de pixeles de mosaico oblicuo para el sensor del área deseada. Una posición superficial para cada píxel incluido en el mapa de pixeles de mosaico oblicuo, es determinada y/o asignada. Luego, al menos un píxel de imagen oblicua fuente del área que va a ser formada en imagen, es reproyectada para cada píxel incluido en el mapa de pixeles de mosaico oblicuo, para crear con esto una imagen de orto-mosaico oblicuo del área geográfica deseada. De este modo, la imagen de mosaico oblicuo es una imagen compuesta formada a partir de pixeles reproyectados a partir de imágenes oblicuas de múltiples fuentes . En una versión de la invención, las imágenes oblicuas de múltiples fuentes representan la misma posición superficial. En esta modalidad, el método puede comprender además los pasos para seleccionar cuáles pixeles y/o imágenes oblicuas fuente utilizar en la formación de la imagen de mosaico oblicuo. Por ejemplo, el método puede comprender además el paso de seleccionar imágenes oblicuas fuente de la posición superficial capturada a un ángulo oblicuo, y la dirección de brújula similar al ángulo oblicuo y la dirección de brújula de la cámara virtual. En otra versión más, los pixeles de cada imagen oblicua fuente que representan la misma posición superficial, son comparadas para determinar cuál pixel fuente es el más representativo de la posición superficial, el pixel más representativo que va a ser incluido en la imagen de mosaico oblicuo. En una versión de la invención, el paso de asignación es adicionalmente definido como la proyección de cada pixel a través de la perspectiva de la cámara virtual para determinar una posición superficial correspondiente para cada pixel en el mapa de pixeles de mosaico oblicuo. En otra versión más de la invención, el paso de reproyección es además definido por la reproyección del píxel para ajustarse al tamaño y la forma de la posición superficial representada, como es tomada desde la elevación, la dirección de brújula, y el ángulo oblicuo de la cámara virtual . En otra versión más de la invención, el paso de reproyección es además definido por la eliminación de los efectos de elevación a partir de las imágenes oblicuas fuente antes de la reproyección, y luego agregando los efectos de elevación a la imagen de mosaico oblicuo después de la reproyección . En otra versión más de la invención, el método incluye el paso de reducir al mínimo la inclinación de las estructuras verticales dentro de la imagen de mosaico oblicuo. Esto puede ser logrado en una variedad de formas, tales como la creación de un modelo en elevación de las imágenes oblicuas fuente, tomando en cuenta las estructuras verticales, y reproyectando al menos un píxel de imagen oblicua fuente del área que va a ser formada en imagen, utilizando el modelo de elevación. Alternativamente, la inclinación de las estructuras verticales puede ser reducida al mínimo por equiparación de las estructuras verticales en múltiples imágenes oblicuas fuente, y desplazando la posición aparente de los pixeles en al menos una de las imágenes oblicuas fuente, por una altura relativa por arriba de un modelo terrestre. Breve Descripción de las Figuras La Figura 1 es una vista esquemática de una escena capturada por cámara real, reproyectada hacia una "cámara virtual", por ejemplo, un modelo matemático que describe una cámara más grande que la cámara real y más alta en elevación que la cámara real. La Figura 2 es una ilustración de un diagrama de flujo de software/función, ejemplar de un método para elaborar una imagen de mosaico oblicuo utilizando una metodología mediante la cual las imágenes áreas oblicuamente capturadas, separadas, son combinadas en la imagen de mosaico oblicuo . La Figura 3a es una representación pictórica de una imagen de mosaico oblicuo de la técnica anterior. La Figura 3b es una vista agrandada de la representación pictórica de la imagen de mosaico oblicuo de la técnica anterior de la Figura 3a. La Figura 4a es una representación pictórica de una imagen de mosaico oblicuo ejemplar, creada de acuerdo con la presente invención. La Figura 4b es una vista agrandada de la representación pictórica de la imagen de mosaico oblicuo ejemplar, creada de acuerdo con la presente invención, de la Figura 4a.
Descripción Detallada de la Invención Antes de explicar al menos una modalidad de la invención con detalle, se debe entender que la invención no está limitada en su aplicación a los detalles de construcción, experimentos, datos ejemplares y/o el acomodo o arreglo de los componentes detallados en la siguiente descripción o ilustrados en las figuras. La invención es capaz de otras modalidades o de ser practicada o llevada a cabo de diversas formas. También, se debe entender que la fraseología y la terminología empleadas en la presente son para fines de descripción y no deben ser considerados como limitantes . La o las invenciones actualmente reclamadas y descritas se refieren a imágenes de mosaico oblicuo y a los métodos para la elaboración y uso de las mismas. Más particularmente, la invención actualmente reclamada y descrita utiliza una metodología mediante la cual las imágenes aéreas oblicuamente capturadas, separadas, son combinadas en al menos una imagen de mosaico oblicuo simple. Al menos una imagen de mosaico oblicuo es visualmente placentera y geográficamente precisa. Con referencia ahora a las Figuras y en particular a las Figuras 1 y 2, mostrada en la Figura 1 y designada por un número de referencia 10, está una vista esquemática de un método para crear una imagen de mosaico oblicuo 12 (ver Figuras 4a y 4b) . La Figura 2 es una ilustración de un diagrama de flujo ejemplar 14 de software/función de un método para la elaboración de la imagen de mosaico oblicuo 12 utilizando una metodología mediante la cual las imágenes aéreas oblicuamente capturadas, separadas, son combinadas en la imagen de mosaico oblicuo 12. La Figura 4a es una representación pictórica de una imagen de mosaico oblicuo 12 ejemplar, creada de acuerdo con la presente invención. La Figura 4b es una vista agrandada de la representación pictórica de la imagen de mosaico oblicuo 12 ejemplar, creada de acuerdo con la presente invención. En general, el método identifica un área deseada 15 que va a ser formada en imagen y recolectada en la imagen de mosaico oblicuo 12. Las imágenes fuente son obtenidas utilizando una cámara real 14 que captura una escena 16 como es indicado por un bloque 18 en la Figura 2. Luego, la cámara virtual 20 es creada como es indicado por un bloque 22 en la Figura 2. La cámara virtual 20 es un modelo matemático que describe una cámara más grande que la cámara real 14, y más alta en elevación que la cámara real 14 como se muestra en la Figura 1. El modelo matemático tiene un mapa de pixeles de mosaico oblicuo para el sensor del área deseada. Una posición superficial es asignada a cada píxel incluido en el mapa de pixeles oblicuo, y luego como es indicado por un bloque 24, las imágenes oblicuas fuente son seleccionadas para las posiciones terrestres y luego al menos un pixel de imagen oblicua fuente del área que va a ser formada en imagen para cada píxel incluido en el mapa de pixeles de mosaico oblicuo, es reproyectada para crear con esto la imagen de mosaico oblicuo del área geográfica deseada (como es indicado por el bloque 26) . Opcionalmente, el método incluye además uno o más pasos para reducir al mínimo el efecto de la inclinación de las estructuras verticales, como se indica por el bloque 28. Como se describe anteriormente en la presente, el uso de una metodología de reproyección tipo rejilla para crear imágenes de mosaico oblicuo está llena de problemas y es improbable que proporcione una imagen utilizable. Por lo tanto, con el fin de producir la imagen de mosaico oblicuo 12 de calidad, debe ser realizado un proceso mejorado. Tal proceso mejorado y único es descrito y reclamado en la presente, y utiliza preferentemente, en general, las siguientes consideraciones: Primeramente, en lugar de proyectarse sobre una rejilla rectilínea, los pixeles de imágenes de entrada son proyectados sobre la "cámara virtual" 20. La cámara virtual 20 es un modelo matemático que describe una cámara muy grande, alta en el cielo. Ya que esto es una creación matemática, esta cámara 20 no está comprometida por las limitaciones actuales de la fabricación de cámaras.
En segundo lugar, los pixeles no son luego reproyectados para ser cuadrados o incluso del mismo tamaño en la imagen producida, como es el caso en el proceso de orto-rectificación estándar utilizado cuando se crea un orto-mosaico. En vez de esto, éstas son reproyectadas para concordar o ajustarse al tamaño en que éstas podrían proyectarse sobre el terreno desde esta cámara virtual 20 - por ejemplo, la perspectiva natural que una cámara captura . En tercer lugar, con el fin de alinear mejor la imaginería combinada, los efectos de los cambios en la elevación son primeramente anuladas de la imaginería de entrada durante la proyección desde la posición de la cámara de la imagen de entrada original hacia el terreno, y luego los efectos de elevación son reintroducidos durante la proyección desde el terreno hacia arriba a la posición de la cámara virtual . El resultado es una imagen que parece natural que muestra adecuadamente los contornos del terreno como es observado desde una perspectiva oblicua natural. Finalmente, los efectos de la inclinación de los edificios son deseablemente reducidos al mínimo. Existe un número de diferentes formas en las cuales puede ser reducida al mínimo la inclinación de los edificios: o Mediante "giro u orientación" de las líneas de corte entre las imágenes introducidas hacia debajo de las calles, tal que las líneas de corte no corren a través de un edificio, lo cual puede provocar que la inclinación conflictiva del edificio distorsione en gran medida la apariencia de un edificio, o El ángulo de inclinación del edificio puede ser calculado y las imágenes torcidas con el fin de compensar la inclinación del edificio. o Los edificios pueden ser ajustados en imágenes adyacentes y alineados uno con el otro. En la práctica, la metodología descrita y reclamada en la presente, consiste de múltiples pasos y transformaciones de datos que pueden ser logrados por una persona de experiencia ordinaria en la técnica, dada la presente especificación. Existe un número de algoritmos ya conocidos en la técnica que giran las líneas cortadas para orto-mosaicos y podrían ser fácilmente adaptadas para el uso con las imágenes oblicuas. Además, el trabajo de seguimiento podría crear nuevos algoritmos específicamente diseñados para enfrentar las complejidades de las imágenes oblicuas. El primer paso para la creación de la imagen de mosaico oblicuo 12 de acuerdo a la invención actualmente descrita y reclamada, requiere la selección de un área que va a ser formada en imagen. En general, el área que va a ser formada en imagen podría ser una posición geográficamente específica. Sin embargo, otras áreas pueden también ser seleccionadas para ser formadas en imagen en la imagen de mosaico oblicuo 12 tales como los costados de los edificios, las paredes, los paisajes, las laderas de las montañas y similares . La creación de una "cámara virtual" 20 que es capaz de cubrir el paisaje o área completa de interés que va a ser formada en imagen . Una vez que ha sido determinada un área deseada que va a ser formada en imagen y recolectada dentro de la imagen de mosaico oblicuo 12, el usuario u operador crea la "cámara virtual" 20, por ejemplo una construcción matemática que es capaz de cubrir o capturar una porción de, o la totalidad del área deseada. La cámara virtual 20 es un modelo matemático de una cámara con los parámetros geométricos de cámara necesarios (los valores matemáticos que definen el modelo de la cámara, por ejemplo el número de hileras y columnas del plano sensor, el tamaño del plano sensor en milímetros, la longitud focal en milímetros, la altura por arriba del terreno, la oscilación, la separación y el giro del eje óptico) que hacen posible que ésta "capture" la escena deseada. Por ejemplo, una cámara virtual puede ser considerada teniendo un sensor muy grande (por ejemplo columnas de 20,000 pixeles e hileras de 10,000 pixeles), un campo estándar de vista (plano sensor de 36 mm por 24 MI y una longitud focal de 60 mm) , y es "colocada" a una altitud relativamente alta (por ejemplo 9,100 metros (30,000 pies)) viendo hacia abajo a un ángulo oblicuo al norte (la oscilación y el giro de 0 y la separación de -40 grados). En una modalidad preferida, un modelo sensor proveniente de una cámara real es utilizado, y el usuario simplemente modifica los parámetros tal que éste cumple los requerimientos con el fin de "capturar" el área deseada. El segundo paso crea el mapa de pixeles oblicuo, resultante para la cámara virtual 20. El mapa de pixeles corresponde al sensor de la cámara virtual y de este modo típicamente, pero no necesariamente, tiene el mismo número de hileras y columnas que el sensor de la cámara virtual. Luego, para cada píxel en la imagen de mapa de pixeles, las ecuaciones proyectivas para la cámara virtual 20 son utilizadas para proyectar cada píxel con dirección hacia abajo y lejos de la cámara virtual 20 y sobre el terreno, tomando en cuenta la elevación cuando se realiza así (en general a través del uso de un modelo de elevación matemática de la superficie del terreno) . Esto da como resultado una posición terrestre correspondiente para el píxel de esa cámara virtual . Una vez que ha sido encontrada la posición terrestre correspondiente, ésta puede ser utilizada para seleccionar cuáles imágenes previamente capturadas contienen los datos de imagen para esa posición terrestre. Esto es en general realizado por la verificación para ver si la posición terrestre yace dentro de los límites de la imagen de una imagen previamente capturada. Cuando se seleccionan las imágenes oblicuas fuente, por ejemplo, las imágenes capturadas de entrada, con el fin de lograr una imagen de salida o producida deseable, es importante utilizar las imágenes oblicuas fuente que fueron capturadas en la misma, o casi la misma, orientación relativa de la cámara virtual 20, en términos del ángulo oblicuo hacia abajo, y la dirección de la brújula del eje óptico. Mientras que en general no es un problema utilizar la imaginería de entrada proveniente de una cámara cuyo modelo es diferente que el modelo de la cámara virtual, si este modelo es radicalmente diferente (por ejemplo, un explorador o escáner lineal versus un dispositivo de captura de cuadros completos), esto puede dar como resultado una imagen resultante no deseable. Mientras que esta invención discute el uso de las imágenes capturadas como introducidas al mosaico oblicuo 12, esto no es efectivamente requerido. Es posible utilizar una imagen proyectada como la entrada a este proceso, o incluso utilizar otro mosaico oblicuo como la entrada a este proceso. Sin embargo, ya que este proceso reproyecta las imágenes introducidas, es deseable utilizar las imágenes introducidas no proyectadas, por ejemplo, las imágenes capturadas. La razón es que la reproyección de los datos ya proyectados puede a menudo producir artefactos, de la clase de los errores de redondeo en los cálculos matemáticos . Estos artefactos pueden crear un mosaico resultante, no deseable . Es en general deseable crear el mosaico oblicuo 12 continuo. Con el fin de hacerlo así, deben ser capturados los datos de la imagen para el área completa que es "capturada" por la cámara virtual 20. Esto significa que si múltiples imágenes capturadas están siendo combinadas para crear el mosaico oblicuo 12, aquellas imágenes de entrada deben ser adyacentes o más comúnmente traslapadas . Como resultado de este traslape, es común que existan múltiples imágenes capturadas que cubran la misma área sobre el terreno. Si múltiples imágenes capturadas son disponibles para la selección, una imagen capturada preferida es elegida de acuerdo a los criterios de selección descritos más adelante . Cuando las múltiples imágenes provenientes de las cámaras reales 14 cubren el mismo punto sobre el terreno, puede ser utilizado un proceso de selección para determinar cuál imagen de cámara real debe ser utilizada como la entrada para la creación de la imagen de mapa de pixeles de la cámara virtual. Este proceso de selección puede ser realizado mediante la asignación de pesos o ponderaciones (valores numéricos asignados) a los siguientes criterios de entrada, multiplicando esas ponderaciones por los criterios formalizados (un valor que ha sido cambiado de escala entre 0 y 1), y luego seleccionando la imagen con la mayor suma de estos productos de ponderación/criterio. Mientras que cualquier número de criterios puede ser utilizado, han sido utilizados los siguientes tres criterios en el desarrollo de esta invención. Criterios de Selección: Distancia al Eje Óptico La distancia entre el punto sobre el terreno que es seleccionado y el punto donde el eje óptico de la cámara de entrada intersecta el terreno. Este valor puede ser normalizado al dividir la distancia entre la distancia máxima capaz de ser medida en la escena. Criterio de Selección: Diferencia Angular al Eje Óptico La diferencia entre los siguientes dos ángulos: el ángulo del eje óptico de la cámara de entrada (en general medido con relación a la perpendicular) y el ángulo del rayo que es difundido desde la cámara virtual hacia el punto sobre el terreno que es seleccionado (nuevamente, en general medido con relación a la perpendicular) . Este valor puede ser normalizado al dividir entre 180 grados. Criterio de Selección: Distancia a la Línea Central de la Calle Más Cercana La distancia entre el punto sobre el terreno que es seleccionado y la línea central de la calle más cercana. Las líneas centrales de calle pueden ser obtenidas a partir de los archivos de datos de vectores tales como los archivos TIGER u otros archivos de Sistema de Información Geográfica. Este valor puede ser normalizado al dividir entre la distancia máxima capaz de ser medida en la escena. Una vez que la imagen capturada preferida ha sido seleccionada, las ecuaciones proyectivas para la cámara de la imagen capturada son utilizadas para proyectar desde el terreno hacia arriba a la cámara, tomando en cuenta la elevación del terreno cuando se realiza esto. Esta proyección a través del punto focal y sobre el plano sensor de la cámara, encontrará una hilera y una columna de pixeles, correspondientes al punto sobre el terreno. Ya que éste típicamente no cae sobre una hilera o columna íntegra, se utiliza la interpolación bilineal (una fórmula matemática estándar en la industria para encontrar un valor simple para la proximidad proporcionada a los cuatro pixeles circunvecinos) para encontrar el valor del píxel para el punto correspondiente sobre el plano sensor de la cámara. El valor del píxel es luego utilizado para rellenar el píxel en la imagen que corresponde al plano sensor de la cámara virtual del cual fue proyectado el rayo original hacia afuera sobre el terreno. Este proceso es repetido para algunos o todos los pixeles restantes en el plano sensor de la cámara virtual, dando como resultado una imagen que cubre alguna área o el área completa sobre el terreno que la cámara virtual 20 puede "observar". Preferentemente, este proceso es repetido para todos los pixeles remanentes en el plano sensor de la cámara virtual, dando como resultado una imagen completa que cubre el área entera sobre el terreno que la cámara virtual 20 "observar" . La imagen resultante y sus ecuaciones proyectivas correspondientes son luego almacenadas. La imagen resultante puede ser almacenada en cualquier formato, incluyendo uno de los muchos formatos de imágenes estándares en la industria tales como TIFF, JFIF, TARGA, Archivo de Mapa de Bitios de Windows, PNG o cualquier otro formato estándar en la industria. Para las ecuaciones proyectivas correspondientes, en una modalidad preferida, deben ser almacenados los siguientes datos, como metadatos con la imagen resultante, ya sea anexada al mismo archivo o en otro archivo fácilmente accesible (una práctica estándar en la industria es utilizar el mismo nombre de archivo pero con una extensión de archivo diferente) . 1. La posición de la cámara - en general, la posición de la cámara es especificada por una posición y altitud geográficas (o altura sobre el terreno) . 2. La orientación de la cámara - en general especificada por tres ángulos: oscilación, separación y giro (u omega, phi y kappa) . 3. El tamaño del sensor - en general especificado como un tamaño de sensor completo en milímetros (o por el tamaño de un elemento sensor individual) . 4. La longitud focal de la lente - en general especificada en milímetros. 5. Opcionalmente , la información de distorsión de lente - en general especificada como un desplazamiento del punto principal (desplazamiento entre el eje óptico y la parte intermedia del sensor) y como términos de distorsión radial (coeficientes polinomiales que describen la cantidad de distorsión que ocurre radialmente fuera del eje óptico) . 6. Opcionalmente, un modelo de elevación del terreno - en general especificado como una rejilla de valores de elevación . Como se discutió anteriormente, la perspectiva relativa de la cámara provoca un efecto conocido como "inclinación de edificios". Mientras que la inclinación de edificios es más comúnmente aplicada a, y de este modo discutida como edificios, ésta también aplica a cualquier estructura vertical en el objeto, tales como torres de electricidad, árboles, automóviles, cabinas telefónicas, buzones de correo, señalizaciones de calles, y similares. La inclinación de los edificios es un efecto que hace parecer como si los edificios que no están a lo largo del eje óptico de la cámara se "torcieran" lejos del eje óptico - entre más alejado del eje óptico, mayor es la inclinación. Esta inclinación es el resultado de la perspectiva, que provoca que los objetos sean elevados del terreno para parecer más alejados "hacia atrás" en la imagen, lejos de la cámara. De este modo, la parte superior de una construcción parece más alejada hacia atrás que el fondo de una construcción. Cuando esta inclinación corresponde a la perspectiva de la cámara, ésta parece normal. Sin embargo, como parte del proceso de mosaico oblicuo, las imágenes capturadas, cada una con su propia perspectiva, son combinadas en una perspectiva de cámara virtual simple. Esta combinación de diferentes perspectivas se vuelve problemática, especialmente cuando dos diferentes imágenes capturadas provenientes de diferentes puntos de posición ventajosa contribuyen a los valores de pixel a las áreas adyacentes en la imagen de mapa de pixeles de la cámara virtual. Por ejemplo, si una cámara a la izquierda de una construcción proporciona el lado izquierdo de una construcción, entonces esa porción de la construcción parecerá estarse inclinando hacia la derecha (lejos de la cámara) . Si una cámara que está localizada a la derecha de la construcción proporciona el lado derecho de la construcción, entonces esa porción de la construcción parecerá estarse inclinando hacia la izquierda. Ya que las dos mitades de la construcción "se inclinan una hacia la otra" , la imagen combinada resultante tiene una construcción que tiene una apariencia triangular, en vez de rectangular. Debido a que la inclinación de la construcción únicamente afecta las superficies por arriba de la superficie del terreno, es en general claramente difícil explicar o corregir estos efectos debido a que con el fin de hacerlo así, el usuario debe tener conocimiento de la presencia de la construcción o la estructura. Los rasgos o características que están sobre el terreno no experimentan esta inclinación de construcción, debido a que el cambio en la perspectiva relativa es anulado cuando es tomada en consideración la elevación del terreno en las ecuaciones proyectivas . El modelo matemático utilizado para definir la superficie del terreno durante el proceso proyectivo, asegura que sea seleccionada la posición terrestre correcta. Sin embargo, para objetos que se elevan por arriba de la superficie del terreno, y no son representados en el modelo matemático utilizado para definir la superficie del terreno, este cambio en perspectiva relativa provoca que la cámara virtual "vea" la parte superior de la construcción en el lugar erróneo -por ejemplo demasiado alejada hacia atrás de la cámara. Un método para reducir al mínimo los efectos de la inclinación de los edificios o construcciones, como se contempla en la presente, es la transición entre una imagen de cámara de entrada y la siguiente imagen de cámara de entrada sobre un área donde no existen estructuras por arriba o por debajo del modelo de elevación del terreno. En una modalidad, esto es logrado mediante la colocación de la transición debajo de la parte intermedia de una calle. De este modo, al tener un criterio de selección adecuadamente ponderado para la distancia hacia la línea central de la calle, si existe una calle en el área donde dos imágenes capturadas se traslapan, entonces la transición a partir de los pixeles contribuyentes provenientes de una imagen capturada a los pixeles contribuyentes de la segunda imagen capturada, ocurrirá a lo largo de esta calle, reduciendo al mínimo de este modo los efectos de la inclinación de los edificios . Un método para la eliminación de la inclinación de edificios o construcciones completamente, como se contempla en la presente, es proporcionar un modelo de elevación terrestre preciso, que tome en consideración las construcciones o edificios y otras estructuras verticales. De este modo, cada píxel que comprende la imagen de la construcción es representada en el modelo matemático del modelo de elevación del terreno, y por lo tanto el cambio en la perspectiva relativa es explicado en el proceso proyectivo. Sin embargo, para que esto funcione bien, el modelo de elevación debe estar altamente correlacionado a la imaginería de entrada. Si existe algún cambio o desplazamiento en la posición entre la imaginería y el modelo de elevación, entonces los edificios no serán proyectados adecuadamente cuando se cree la imagen de mosaico oblicuo 12. Para superar esta limitación, la metodología preferida es crear el modelo de elevación a partir de la imaginería misma. Esto puede ser realizado mediante el uso de un proceso estándar industrial conocido como aero-triangulación, el cual encuentra la elevación de un punto sobre el terreno al comparar su posición en dos imágenes capturadas, traslapadas, y utilizando las ecuaciones proyectivas de sus cámaras correspondientes, para triangular su posición y elevación. La repetición de este proceso sobre el área traslapada completa, puede producir un modelo matemático preciso de la superficie no solamente del terreno, sino también de la superficie de las estructuras y objetos dentro de las imágenes. De manera más importante, debido a que este modelo es derivado de la imaginería misma, está por definición, altamente correlacionado a la imagen de entrada. Otro método para eliminar la inclinación de los edificios, contemplado para el uso en la presente, es intentar identificar las estructuras verticales mediante el uso de un proceso de concordancia de bordes entre la imaginería oblicua y nadir correspondiente. Las estructuras verticales no aparecen en una imagen verdaderamente nadir, y éstas se aparecen escasamente en una imagen ligeramente fuera de nadir. De este modo, cuando se compara una imagen oblicua con su imagen de nadir correspondiente, la diferencia principal entre las estructuras que aparecen en las dos imágenes serán las estructuras verticales. Mediante el uso de uno o más algoritmos de detección de bordes (tales como un Filtro Lapaciano estándar en la industria) , es posible identificar las diversas estructuras dentro de las dos imágenes y luego aislar los bordes verticales en la imagen oblicua mediante la sustracción de las estructuras no verticales que también aparecen en la imagen de nadir. Una vez que estas estructuras verticales han sido encontradas, los pixeles para esas estructuras verticales pueden ser cambiados o desplazados para eliminar los efectos del cambio en la perspectiva relativa. Al cambiar la posición aparente del píxel en la imagen oblicua capturada por la altura relativa por arriba del modelo terrestre encontrado a través de la medición de los bordes verticales, puede ser determinada su posición terrestre adecuada, negando de este modo los efectos de inclinación de los edificios.
Se debe entender que los procesos anteriormente descritos pueden ser realizados con ayuda de un sistema de computadora que corre el software de procesamiento de imágenes adaptado para realizar las funciones descritas anteriormente, y las imágenes resultantes y los datos son almacenados sobre uno o más medios legibles en computadora. Los ejemplos de un medio legible en computadora incluyen un dispositivo de almacenamiento óptico, un dispositivo de almacenamiento magnético, un dispositivo de almacenamiento electrónico o similares. El término "Sistema de Computadora" como se utiliza en la presente, significa un sistema o sistemas que son capaces de ejemplificar y/o ejecutar la lógica de los procesos descritos en la presente. El lógico ejemplificado en la forma de instrucciones de software o de microprogramación (firmware) pueden ser ejecutados sobre cualquier equipo físico (hardware) apropiado que puede ser un sistema o sistemas dedicados, o un sistema de cómputo para fines generales, o un sistema de procesamiento distribuido, todos los cuales son bien entendidos en la técnica, y una descripción detallada de cómo elaborar o utilizar tales computadoras, no es considerado necesario en la presente. Cuando el sistema de computadoras es utilizado para ejecutar el programa lógico de los procesos descritos en la presente, tal o tales computadoras y/o la ejecución pueden ser conducidas a una misma posición geográfica o a múltiples posiciones geográficas diferentes. Además, la ejecución del lógico puede ser conducida continuamente o a múltiples tiempos discretos. Además, tal lógico puede ser realizado aproximadamente simultáneamente con la captura de las imágenes, o después de esto, o combinaciones de las mismas. Aunque la invención anterior ha sido descrita en cierto detalle a manera de ilustración y ejemplo para fines de claridad y de entendimiento, será obvio para aquellos expertos en la materia que pueden ser practícaos ciertos cambios y modificaciones sin apartarse del espíritu y alcance de la misma, como se describe en esta especificación y como se define en las reivindicaciones anexas mostradas enseguida. Se hace constar que con relación a esta fecha el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (26)

  1. REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones : 1. Un método para crear una imagen de mosaico oblicuo proveniente de una pluralidad de imágenes oblicuas fuente, caracterizado porque comprende los pasos de: identificar un área deseada que va a ser formada en imagen, y recolectada en una imagen de mosaico oblicuo; la creación de un modelo matemático de un sensor de una cámara virtual, donde la cámara virtual tiene una elevación mayor que una elevación del área que va a ser formada en imagen, teniendo el modelo matemático un mapa de pixeles de mosaico oblicuo para el sensor del área deseada; la asignación de una posición superficial a cada píxel incluido en el mapa de pixeles de mosaico oblicuo; y la reproyección de al menos un píxel de imagen oblicua fuente del área que va a ser formada en imagen para cada píxel incluido en el mapa de pixeles de mosaico oblicuo para crear con esto una imagen de mosaico oblicuo del área geográfica deseada.
  2. 2. El método de conformidad con la reivindicación 1, caracterizado porque el paso de asignación es además definido por la proyección de cada píxel a través de la perspectiva de la cámara virtual, para determinar una posición superficial correspondiente para cada píxel en el mapa de pixeles de mosaico oblicuo.
  3. 3. El método de conformidad con la reivindicación 1, caracterizado porque las múltiples imágenes oblicuas fuente representan la misma posición superficial.
  4. 4. El método de conformidad con la reivindicación 1, caracterizado porque comprende además el paso de seleccionar las imágenes oblicuas fuente de la posición superficial capturada a un ángulo oblicuo y dirección de brújula similar al ángulo oblicuo y dirección de brújula de la cámara virtual .
  5. 5. El método de conformidad con la reivindicación 3, caracterizado porque los pixeles de cada imagen oblicua fuente que representan la misma posición superficial, son comparadas para determinar cuál píxel fuente es el más representativo de la posición superficial, el píxel más representativo es incluido en la imagen de mosaico oblicuo.
  6. 6. El método de conformidad con la reivindicación 1, caracterizado porque el paso de reproyección es además definido por la reproyección del píxel para ajustarse al tamaño y a la forma de la posición superficial representada como es tomada a partir de la elevación, la dirección de brújula, y el ángulo oblicuo de la cámara virtual.
  7. 7. El método de conformidad con la reivindicación 1, caracterizado porque el paso de reproyección es además definido por la eliminación de los efectos de elevación desde las imágenes oblicuas fuente antes de la reproyección, y luego agregando los efectos de la elevación a la imagen de mosaico oblicuo después de la reproyección.
  8. 8. El método de conformidad con la reivindicación 1, caracterizado porgue comprende además el paso de reducir al mínimo la inclinación de las estructuras verticales dentro de la imagen de mosaico oblicuo.
  9. 9. El método de conformidad con la reivindicación 8, caracterizado porque el paso de minimización de la inclinación de las estructuras verticales dentro de la imagen de mosaico oblicuo, es definida además como los pasos de creación de un modelo de elevación a partir de las imágenes oblicuas fuente, tomando en cuenta las estructuras verticales, y la reproyección de al menos un píxel de imagen oblicua fuente, del área que va a ser formada en imagen.
  10. 10. El método de conformidad con la reivindicación 8, caracterizado porque el paso de minimización de la inclinación de las estructuras verticales, es definido además como la concordancia o ajuste de las estructuras verticales en múltiples imágenes oblicuas fuente, y cambiando la posición aparente de los pixeles en al menos una de las imágenes oblicuas fuente, por una altura relativa por arriba de un modelo terrestre.
  11. 11. El método de conformidad con la reivindicación 1, caracterizado porque el metadato es almacenado con la imagen de mosaico oblicuo.
  12. 12. El método de conformidad con la reivindicación 1, caracterizado porque la imagen de mosaico oblicuo es geo-referenciada .
  13. 13. El método de conformidad con la reivindicación 1, caracterizado porque el área deseada que va a ser formada en imagen representa un área geográfica.
  14. 14. Un método para crear una imagen de mosaico oblicuo a partir de una pluralidad de imágenes oblicuas fuente, caracterizado porque comprende los pasos de: identificar un área deseada que va a ser formada en imagen, y recolectada en una imagen de mosaico oblicuo; la creación de un modelo matemático de un sensor de una cámara virtual, donde la cámara virtual tiene una elevación mayor que una elevación del área que va a ser formada en imagen, el modelo matemático tiene un mapa de pixeles de mosaico oblicuo para el sensor del área deseada; la determinación de una posición superficial para cada píxel incluido en el mapa de pixeles del mosaico oblicuo; y la reproyección de al menos un píxel de imagen oblicua fuente del área que va a ser formada en imagen para cada píxel incluido en el mapa de pixeles de mosaico oblicuo para crear con esto una imagen de mosaico oblicuo del área geográfica deseada.
  15. 15. El método de conformidad con la reivindicación 14, caracterizado porque el paso de asignación es además definido por la proyección de cada pixel a través de la perspectiva de la cámara virtual, para determinar una posición superficial correspondiente para cada pixel en el mapa de pixeles de mosaico oblicuo.
  16. 16. El método de conformidad con la reivindicación 14, caracterizado porque las múltiples imágenes oblicuas fuente representan la misma posición superficial.
  17. 17. El método de conformidad con la reivindicación 14, caracterizado porque comprende además el paso de seleccionar las imágenes oblicuas fuente de la posición superficial capturada a un ángulo oblicuo y dirección de brújula similar al ángulo oblicuo y dirección de brújula de la cámara virtual .
  18. 18. El método de conformidad con la reivindicación 16, caracterizado porque los pixeles de cada imagen oblicua fuente que representan la misma posición superficial, son comparadas para determinar cuál pixel fuente es el más representativo de la posición superficial, el pixel más representativo es incluido en la imagen de mosaico oblicuo.
  19. 19. El método de conformidad con la reivindicación 14, caracterizado porque el paso de reproyección es además definido por la reproyección del pixel para ajustarse al tamaño y a la forma de la posición superficial' representada como es tomada a partir de la elevación, la dirección de brújula, y el ángulo oblicuo de la cámara virtual.
  20. 20. El método de conformidad con la reivindicación 14, caracterizado porque el paso de reproyección es además definido por la eliminación de los efectos de elevación desde las imágenes oblicuas fuente antes de la reproyección, y luego agregando los efectos de la elevación a la imagen de mosaico oblicuo después de la reproyección.
  21. 21. El método de conformidad con la reivindicación 14, caracterizado porque comprende además el paso de reducir al mínimo la inclinación de las estructuras verticales dentro de la imagen de mosaico oblicuo.
  22. 22. El método de conformidad con la reivindicación 21, caracterizado porque el paso de minimización de la inclinación de las estructuras verticales dentro de la imagen de mosaico oblicuo, es definida además como los pasos de creación de un modelo de elevación a partir de las imágenes oblicuas fuente, tomando en cuenta las estructuras verticales, y la reproyección de al menos un píxel de imagen oblicua fuente, del área que va a ser formada en imagen.
  23. 23. El método de conformidad con la reivindicación 21, caracterizado porque el paso de minimización de la inclinación de las estructuras verticales, es definido además como la concordancia o ajuste de las estructuras verticales en múltiples imágenes oblicuas fuente, y cambiando la posición aparente de los pixeles en al menos una de las imágenes oblicuas fuente, por una altura relativa por arriba de un modelo terrestre.
  24. 24. El método de conformidad con la reivindicación 14, caracterizado porque el metadato es almacenado con la imagen de mosaico oblicuo.
  25. 25. El método de conformidad con la reivindicación 14, caracterizado porque la imagen de mosaico oblicuo es geo-referenciada .
  26. 26. El método de conformidad con la reivindicación 14, caracterizado porque el área deseada que va a ser formada en imagen representa un área geográfica.
MX2009002339A 2006-08-30 2007-08-30 Imagenes oblicuas en mosaico y metodos de elaboracion y uso de las mismas. MX2009002339A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US84099206P 2006-08-30 2006-08-30
PCT/US2007/077242 WO2008028040A2 (en) 2006-08-30 2007-08-30 Mosaic oblique images and methods of making and using same

Publications (1)

Publication Number Publication Date
MX2009002339A true MX2009002339A (es) 2009-03-23

Family

ID=39136884

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2009002339A MX2009002339A (es) 2006-08-30 2007-08-30 Imagenes oblicuas en mosaico y metodos de elaboracion y uso de las mismas.

Country Status (8)

Country Link
US (9) US7873238B2 (es)
EP (1) EP2057585B1 (es)
JP (1) JP4981135B2 (es)
AU (1) AU2007289120C1 (es)
CA (1) CA2662355C (es)
ES (1) ES2787226T3 (es)
MX (1) MX2009002339A (es)
WO (1) WO2008028040A2 (es)

Families Citing this family (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7424133B2 (en) 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
US7873238B2 (en) 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
US8090166B2 (en) 2006-09-21 2012-01-03 Surgix Ltd. Medical image analysis
US8565552B2 (en) * 2006-11-14 2013-10-22 Codonics, Inc. Assembling multiple medical images into a single film image
US8593518B2 (en) * 2007-02-01 2013-11-26 Pictometry International Corp. Computer system for continuous oblique panning
US8520079B2 (en) * 2007-02-15 2013-08-27 Pictometry International Corp. Event multiplexer for managing the capture of images
US8145578B2 (en) * 2007-04-17 2012-03-27 Eagel View Technologies, Inc. Aerial roof estimation system and method
US8078436B2 (en) 2007-04-17 2011-12-13 Eagle View Technologies, Inc. Aerial roof estimation systems and methods
US9262818B2 (en) 2007-05-01 2016-02-16 Pictometry International Corp. System for detecting image abnormalities
US8385672B2 (en) * 2007-05-01 2013-02-26 Pictometry International Corp. System for detecting image abnormalities
IL184151A0 (en) 2007-06-21 2007-10-31 Diagnostica Imaging Software Ltd X-ray measurement method
US7991226B2 (en) 2007-10-12 2011-08-02 Pictometry International Corporation System and process for color-balancing a series of oblique images
US8531472B2 (en) 2007-12-03 2013-09-10 Pictometry International Corp. Systems and methods for rapid three-dimensional modeling with real façade texture
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8675068B2 (en) * 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US9109998B2 (en) * 2008-06-18 2015-08-18 Orthopedic Navigation Ltd. Method and system for stitching multiple images into a panoramic image
US8588547B2 (en) * 2008-08-05 2013-11-19 Pictometry International Corp. Cut-line steering methods for forming a mosaic image of a geographical area
US8311287B2 (en) * 2008-09-25 2012-11-13 Microsoft Corporation Validation and correction of map data using oblique images
US20100085350A1 (en) * 2008-10-02 2010-04-08 Microsoft Corporation Oblique display with additional detail
US8170840B2 (en) 2008-10-31 2012-05-01 Eagle View Technologies, Inc. Pitch determination systems and methods for aerial roof estimation
US8731234B1 (en) 2008-10-31 2014-05-20 Eagle View Technologies, Inc. Automated roof identification systems and methods
US8209152B2 (en) 2008-10-31 2012-06-26 Eagleview Technologies, Inc. Concurrent display systems and methods for aerial roof estimation
US8401222B2 (en) * 2009-05-22 2013-03-19 Pictometry International Corp. System and process for roof measurement using aerial imagery
JP5304465B2 (ja) * 2009-06-16 2013-10-02 朝日航洋株式会社 モザイク画像生成方法、装置及びプログラム
JP5288482B2 (ja) * 2009-07-21 2013-09-11 Nec東芝スペースシステム株式会社 撮像装置、撮像方法、撮像回路及びプログラム
US9330494B2 (en) 2009-10-26 2016-05-03 Pictometry International Corp. Method for the automatic material classification and texture simulation for 3D models
US8159524B2 (en) * 2009-11-09 2012-04-17 Google Inc. Orthorectifying stitched oblique imagery to a nadir view, and applications thereof
US8970619B2 (en) 2009-11-24 2015-03-03 Microsoft Technology Licensing, Llc Parallelized generation of substantially seamless image mosaics
FR2953940B1 (fr) * 2009-12-16 2012-02-03 Thales Sa Procede de geo-referencement d'une zone imagee
US20120114229A1 (en) * 2010-01-21 2012-05-10 Guoqing Zhou Orthorectification and mosaic of video flow
CA2801486C (en) 2010-02-01 2018-12-11 Eagle View Technologies, Inc. Geometric correction of rough wireframe models derived from photographs
US9014415B2 (en) * 2010-04-22 2015-04-21 The University Of North Carolina At Charlotte Spatially integrated aerial photography for bridge, structure, and environmental monitoring
US9036861B2 (en) * 2010-04-22 2015-05-19 The University Of North Carolina At Charlotte Method and system for remotely inspecting bridges and other structures
US8477190B2 (en) 2010-07-07 2013-07-02 Pictometry International Corp. Real-time moving platform management system
US8823732B2 (en) 2010-12-17 2014-09-02 Pictometry International Corp. Systems and methods for processing images with edge detection and snap-to feature
US8505847B2 (en) 2011-03-01 2013-08-13 John Ciampa Lighter-than-air systems, methods, and kits for obtaining aerial images
US8768068B2 (en) * 2011-05-04 2014-07-01 Raytheon Company Automated building detecting
BR112013031128A2 (pt) 2011-06-10 2017-06-27 Pictometry Int Corp sistema e método para formar fluxo de vídeo que contém dados de gis em tempo real
US9639757B2 (en) * 2011-09-23 2017-05-02 Corelogic Solutions, Llc Building footprint extraction apparatus, method and computer program product
ES2672881T3 (es) 2011-11-29 2018-06-18 Pictometry International Corp. Sistema de detección automática de huella de estructura de imaginería oblicua
US9599466B2 (en) 2012-02-03 2017-03-21 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US10663294B2 (en) 2012-02-03 2020-05-26 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area and producing a wall estimation report
US8774525B2 (en) 2012-02-03 2014-07-08 Eagle View Technologies, Inc. Systems and methods for estimation of building floor area
US9933257B2 (en) 2012-02-03 2018-04-03 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US10515414B2 (en) 2012-02-03 2019-12-24 Eagle View Technologies, Inc. Systems and methods for performing a risk management assessment of a property
US9501700B2 (en) 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
US9183538B2 (en) 2012-03-19 2015-11-10 Pictometry International Corp. Method and system for quick square roof reporting
JP6000081B2 (ja) * 2012-11-14 2016-09-28 株式会社日立ソリューションズ 情報処理プログラム及び情報処理装置
US9881163B2 (en) 2013-03-12 2018-01-30 Pictometry International Corp. System and method for performing sensitive geo-spatial processing in non-sensitive operator environments
US9244272B2 (en) 2013-03-12 2016-01-26 Pictometry International Corp. Lidar system producing multiple scan paths and method of making and using same
US9753950B2 (en) 2013-03-15 2017-09-05 Pictometry International Corp. Virtual property reporting for automatic structure detection
US10909482B2 (en) 2013-03-15 2021-02-02 Pictometry International Corp. Building materials estimation
US11587176B2 (en) 2013-03-15 2023-02-21 Eagle View Technologies, Inc. Price estimation model
US9058673B2 (en) * 2013-03-15 2015-06-16 Oracle International Corporation Image mosaicking using a virtual grid
US9959581B2 (en) 2013-03-15 2018-05-01 Eagle View Technologies, Inc. Property management on a smartphone
US9275080B2 (en) 2013-03-15 2016-03-01 Pictometry International Corp. System and method for early access to captured images
KR102150743B1 (ko) 2013-05-03 2020-09-02 에어로바이론먼트 인크 수직 이착륙(vtol) 공중 비행체
US9185289B2 (en) 2013-06-10 2015-11-10 International Business Machines Corporation Generating a composite field of view using a plurality of oblique panoramic images of a geographic area
US9031325B2 (en) 2013-07-19 2015-05-12 Digitalglobe, Inc. Automatic extraction of built-up footprints from high resolution overhead imagery through manipulation of alpha-tree data structures
US9679227B2 (en) 2013-08-02 2017-06-13 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
US20150095071A1 (en) 2013-09-29 2015-04-02 Donan Engineering Co., Inc. Systems and Methods for Identifying a Subrogation Opportunity for a Potential Subrogation Claim
US10108755B2 (en) * 2013-11-19 2018-10-23 Aerohive Networks, Inc. RF floor plan building
CA2935457C (en) 2014-01-10 2022-08-09 Pictometry International Corp. Unmanned aircraft structure evaluation system and method
US9292913B2 (en) 2014-01-31 2016-03-22 Pictometry International Corp. Augmented three dimensional point collection of vertical structures
CA2938973A1 (en) 2014-02-08 2015-08-13 Pictometry International Corp. Method and system for displaying room interiors on a floor plan
US9367895B2 (en) * 2014-03-19 2016-06-14 Digitalglobe, Inc. Automated sliver removal in orthomosaic generation
US10089766B2 (en) 2014-03-28 2018-10-02 Konica Minolta Laboratory U.S.A., Inc Method and system of stitching aerial data using information from previous aerial images
US9619711B2 (en) * 2014-09-29 2017-04-11 Digitalglobe, Inc. Multi-spectral image labeling with radiometric attribute vectors of image space representation components
US9460517B2 (en) 2014-10-22 2016-10-04 Pointivo, Inc Photogrammetric methods and devices related thereto
US10850866B2 (en) * 2015-02-11 2020-12-01 Aerovironment, Inc. Pod cover system for a vertical take-off and landing (VTOL) unmanned aerial vehicle (UAV)
US11021266B2 (en) 2015-02-11 2021-06-01 Aerovironment, Inc. Pod operating system for a vertical take-off and landing (VTOL) unmanned aerial vehicle (UAV)
US9977435B2 (en) 2015-02-11 2018-05-22 Aeroviroment, Inc. Survey migration system for vertical take-off and landing (VTOL) unmanned aerial vehicles (UAVS)
US9880563B2 (en) 2015-02-11 2018-01-30 Aerovironment, Inc. Geographic survey system for vertical take-off and landing (VTOL) unmanned aerial vehicles (UAVs)
US10336470B2 (en) 2015-02-11 2019-07-02 Aerovironment, Inc. Pod launch and landing system for vertical take-off and landing (VTOL)unmanned aerial vehicles (UAVs)
CA2994834C (en) 2015-08-06 2021-05-04 Digitalglobe, Inc. Choreographing automated and manual processes in support of mosaic generation
CA2995850A1 (en) 2015-08-31 2017-03-09 Ryan Kottenstette Systems and methods for analyzing remote sensing imagery
US10275939B2 (en) 2015-11-05 2019-04-30 Google Llc Determining two-dimensional images using three-dimensional models
US20170235018A1 (en) 2016-01-08 2017-08-17 Pictometry International Corp. Systems and methods for taking, processing, retrieving, and displaying images from unmanned aerial vehicles
WO2017142788A1 (en) 2016-02-15 2017-08-24 Pictometry International Corp. Automated system and methodology for feature extraction
US10671648B2 (en) 2016-02-22 2020-06-02 Eagle View Technologies, Inc. Integrated centralized property database systems and methods
US10628802B2 (en) 2016-05-19 2020-04-21 Lockheed Martin Corporation Systems and methods for assessing damage to infrastructure assets
US11959751B2 (en) * 2016-05-26 2024-04-16 Apple Inc. Correcting compass view using map data
US10032267B2 (en) 2016-06-09 2018-07-24 Lockheed Martin Corporation Automating the assessment of damage to infrastructure assets
US10521664B2 (en) 2016-11-04 2019-12-31 Loveland Innovations, LLC Systems and methods for autonomous perpendicular imaging of test squares
US9823658B1 (en) 2016-11-04 2017-11-21 Loveland Innovations, LLC Systems and methods for adaptive property analysis via autonomous vehicles
CN108399597A (zh) * 2017-02-07 2018-08-14 深圳前海明磊融创科技有限公司 关键信息处理方法和装置
US10984182B2 (en) 2017-05-12 2021-04-20 Loveland Innovations, LLC Systems and methods for context-rich annotation and report generation for UAV microscan data
US10364027B2 (en) 2017-10-24 2019-07-30 Loveland Innovations, LLC Crisscross boustrophedonic flight patterns for UAV scanning and imaging
US10503843B2 (en) 2017-12-19 2019-12-10 Eagle View Technologies, Inc. Supervised automatic roof modeling
AU2019212616A1 (en) * 2018-01-25 2020-08-06 Geomni, Inc. Systems and methods for rapid alignment of digital imagery datasets to models of structures
US10789487B2 (en) * 2018-04-05 2020-09-29 Here Global B.V. Method, apparatus, and system for determining polyline homogeneity
US11148805B2 (en) * 2018-04-10 2021-10-19 Government Of The United States, As Represented By The Secretary Of The Army Enclosure for an unmanned aerial system
US10366287B1 (en) 2018-08-24 2019-07-30 Loveland Innovations, LLC Image analysis and estimation of rooftop solar exposure
US11205072B2 (en) 2018-08-24 2021-12-21 Loveland Innovations, LLC Solar ray mapping via divergent beam modeling
US11210514B2 (en) 2018-08-24 2021-12-28 Loveland Innovations, LLC Image analysis and estimation of rooftop solar exposure via solar ray mapping
US11210552B2 (en) 2018-11-14 2021-12-28 Cape Analytics, Inc. Systems, methods, and computer readable media for predictive analytics and change detection from remotely sensed imagery
US11601603B2 (en) * 2019-04-24 2023-03-07 Matthew Walker System and method for real-time camera tracking to form a composite image
DE102019206036A1 (de) * 2019-04-26 2020-10-29 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Bestimmung der geografischen Position und Orientierung eines Fahrzeugs
US11094113B2 (en) 2019-12-04 2021-08-17 Geomni, Inc. Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs
EP4133235A4 (en) 2020-04-10 2024-04-03 Cape Analytics, Inc. GEOCODING SYSTEM AND METHOD
US11222426B2 (en) 2020-06-02 2022-01-11 Cape Analytics, Inc. Method for property feature segmentation
US11367265B2 (en) 2020-10-15 2022-06-21 Cape Analytics, Inc. Method and system for automated debris detection
US11532116B2 (en) 2020-10-30 2022-12-20 Loveland Innovations, Inc. Graphical user interface for controlling a solar ray mapping
US11875413B2 (en) 2021-07-06 2024-01-16 Cape Analytics, Inc. System and method for property condition analysis
US11676298B1 (en) 2021-12-16 2023-06-13 Cape Analytics, Inc. System and method for change analysis
US11861843B2 (en) 2022-01-19 2024-01-02 Cape Analytics, Inc. System and method for object analysis

Family Cites Families (179)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2273876A (en) 1940-02-12 1942-02-24 Frederick W Lutz Apparatus for indicating tilt of cameras
US2791151A (en) * 1953-05-06 1957-05-07 John T Pennington Method of and apparatus for aerotriangulation with convergent photography
US3153784A (en) 1959-12-24 1964-10-20 Us Industries Inc Photo radar ground contour mapping system
US5345086A (en) 1962-11-28 1994-09-06 Eaton Corporation Automatic map compilation system
US3621326A (en) 1968-09-30 1971-11-16 Itek Corp Transformation system
US3594556A (en) 1969-01-08 1971-07-20 Us Navy Optical sight with electronic image stabilization
US3661061A (en) 1969-05-05 1972-05-09 Atomic Energy Commission Picture position finder
US3614410A (en) 1969-06-12 1971-10-19 Knight V Bailey Image rectifier
US3716669A (en) 1971-05-14 1973-02-13 Japan Eng Dev Co Mapping rectifier for generating polarstereographic maps from satellite scan signals
US3725563A (en) 1971-12-23 1973-04-03 Singer Co Method of perspective transformation in scanned raster visual display
US3864513A (en) 1972-09-11 1975-02-04 Grumman Aerospace Corp Computerized polarimetric terrain mapping system
US4015080A (en) 1973-04-30 1977-03-29 Elliott Brothers (London) Limited Display devices
JPS5223975Y2 (es) 1973-05-29 1977-05-31
US3877799A (en) 1974-02-06 1975-04-15 United Kingdom Government Method of recording the first frame in a time index system
DE2510044A1 (de) 1975-03-07 1976-09-16 Siemens Ag Anordnung zum aufzeichnen von zeichen unter verwendung von mosaikschreibwerken
US4707698A (en) 1976-03-04 1987-11-17 Constant James N Coordinate measurement and radar device using image scanner
US4240108A (en) 1977-10-03 1980-12-16 Grumman Aerospace Corporation Vehicle controlled raster display system
JPS5637416Y2 (es) 1977-10-14 1981-09-02
IT1095061B (it) 1978-05-19 1985-08-10 Conte Raffaele Apparecchiatura per la registrazione magnetica di eventi casuali relativi a mezzi mobili
US4396942A (en) 1979-04-19 1983-08-02 Jackson Gates Video surveys
FR2461305B1 (fr) 1979-07-06 1985-12-06 Thomson Csf Systeme indicateur cartographique destine plus particulierement a la navigation aerienne
DE2939681A1 (de) 1979-09-29 1981-04-30 Agfa-Gevaert Ag, 5090 Leverkusen Verfahren und vorrichtung zur ueberwachung der qualitaet bei der herstellung von fotografischen bildern
DE2940871C2 (de) 1979-10-09 1983-11-10 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung
US4387056A (en) 1981-04-16 1983-06-07 E. I. Du Pont De Nemours And Company Process for separating zero-valent nickel species from divalent nickel species
US4382678A (en) 1981-06-29 1983-05-10 The United States Of America As Represented By The Secretary Of The Army Measuring of feature for photo interpretation
US4463380A (en) 1981-09-25 1984-07-31 Vought Corporation Image processing system
US4495500A (en) 1982-01-26 1985-01-22 Sri International Topographic data gathering method
US4490742A (en) 1982-04-23 1984-12-25 Vcs, Incorporated Encoding apparatus for a closed circuit television system
US4586138A (en) 1982-07-29 1986-04-29 The United States Of America As Represented By The United States Department Of Energy Route profile analysis system and method
US4491399A (en) 1982-09-27 1985-01-01 Coherent Communications, Inc. Method and apparatus for recording a digital signal on motion picture film
US4527055A (en) 1982-11-15 1985-07-02 Honeywell Inc. Apparatus for selectively viewing either of two scenes of interest
FR2536851B1 (fr) 1982-11-30 1985-06-14 Aerospatiale Systeme de reconnaissance comportant un vehicule aerien tournant autour de son axe longitudinal
US4489322A (en) 1983-01-27 1984-12-18 The United States Of America As Represented By The Secretary Of The Air Force Radar calibration using direct measurement equipment and oblique photometry
US4635136A (en) 1984-02-06 1987-01-06 Rochester Institute Of Technology Method and apparatus for storing a massive inventory of labeled images
US4686474A (en) 1984-04-05 1987-08-11 Deseret Research, Inc. Survey system for collection and real time processing of geophysical data
US4814711A (en) 1984-04-05 1989-03-21 Deseret Research, Inc. Survey system and method for real time collection and processing of geophysicals data using signals from a global positioning satellite network
US4673988A (en) 1985-04-22 1987-06-16 E.I. Du Pont De Nemours And Company Electronic mosaic imaging process
US4653136A (en) 1985-06-21 1987-03-31 Denison James W Wiper for rear view mirror
EP0211623A3 (en) 1985-08-01 1988-09-21 British Aerospace Public Limited Company Identification of ground targets in airborne surveillance radar returns
US4953227A (en) 1986-01-31 1990-08-28 Canon Kabushiki Kaisha Image mosaic-processing method and apparatus
US4653316A (en) 1986-03-14 1987-03-31 Kabushiki Kaisha Komatsu Seisakusho Apparatus mounted on vehicles for detecting road surface conditions
US4688092A (en) 1986-05-06 1987-08-18 Ford Aerospace & Communications Corporation Satellite camera image navigation
US4956872A (en) 1986-10-31 1990-09-11 Canon Kabushiki Kaisha Image processing apparatus capable of random mosaic and/or oil-painting-like processing
JPS63202182A (ja) 1987-02-18 1988-08-22 Olympus Optical Co Ltd 傾斜ドツトパタ−ン形成方法
US4814896A (en) 1987-03-06 1989-03-21 Heitzman Edward F Real time video data acquistion systems
US5164825A (en) 1987-03-30 1992-11-17 Canon Kabushiki Kaisha Image processing method and apparatus for mosaic or similar processing therefor
US4807024A (en) 1987-06-08 1989-02-21 The University Of South Carolina Three-dimensional display methods and apparatus
US4899296A (en) 1987-11-13 1990-02-06 Khattak Anwar S Pavement distress survey system
US4843463A (en) 1988-05-23 1989-06-27 Michetti Joseph A Land vehicle mounted audio-visual trip recorder
GB8826550D0 (en) 1988-11-14 1989-05-17 Smiths Industries Plc Image processing apparatus and methods
US4906198A (en) 1988-12-12 1990-03-06 International Business Machines Corporation Circuit board assembly and contact pin for use therein
JP2765022B2 (ja) 1989-03-24 1998-06-11 キヤノン販売株式会社 立体画像形成装置
US5617224A (en) 1989-05-08 1997-04-01 Canon Kabushiki Kaisha Imae processing apparatus having mosaic processing feature that decreases image resolution without changing image size or the number of pixels
US5086314A (en) 1990-05-21 1992-02-04 Nikon Corporation Exposure control apparatus for camera
JPH0316377A (ja) 1989-06-14 1991-01-24 Kokusai Denshin Denwa Co Ltd <Kdd> 2値画像の縮小方法及び装置
US5166789A (en) 1989-08-25 1992-11-24 Space Island Products & Services, Inc. Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates
JP3147358B2 (ja) 1990-02-23 2001-03-19 ミノルタ株式会社 撮影地データを記録できるカメラ
US5335072A (en) 1990-05-30 1994-08-02 Minolta Camera Kabushiki Kaisha Photographic system capable of storing information on photographed image data
EP0464263A3 (en) 1990-06-27 1992-06-10 Siemens Aktiengesellschaft Device for obstacle detection for pilots of low flying aircrafts
US5191174A (en) 1990-08-01 1993-03-02 International Business Machines Corporation High density circuit board and method of making same
US5200793A (en) 1990-10-24 1993-04-06 Kaman Aerospace Corporation Range finding array camera
US5155597A (en) 1990-11-28 1992-10-13 Recon/Optical, Inc. Electro-optical imaging array with motion compensation
JPH04250436A (ja) 1991-01-11 1992-09-07 Pioneer Electron Corp 撮像装置
US5265173A (en) 1991-03-20 1993-11-23 Hughes Aircraft Company Rectilinear object image matcher
US5369443A (en) 1991-04-12 1994-11-29 Abekas Video Systems, Inc. Digital video effects generator
EP0509822B1 (en) 1991-04-16 1995-08-30 Nec Corporation Image pickup system with an image pickup device for control
US5555018A (en) 1991-04-25 1996-09-10 Von Braun; Heiko S. Large-scale mapping of parameters of multi-dimensional structures in natural environments
US5187754A (en) * 1991-04-30 1993-02-16 General Electric Company Forming, with the aid of an overview image, a composite image from a mosaic of images
US5231435A (en) 1991-07-12 1993-07-27 Blakely Bruce W Aerial camera mounting apparatus
EP0530391B1 (en) 1991-09-05 1996-12-11 Nec Corporation Image pickup system capable of producing correct image signals of an object zone
US5677515A (en) 1991-10-18 1997-10-14 Trw Inc. Shielded multilayer printed wiring board, high frequency, high isolation
US5402170A (en) 1991-12-11 1995-03-28 Eastman Kodak Company Hand-manipulated electronic camera tethered to a personal computer
US5247356A (en) 1992-02-14 1993-09-21 Ciampa John A Method and apparatus for mapping and measuring land
US5251037A (en) 1992-02-18 1993-10-05 Hughes Training, Inc. Method and apparatus for generating high resolution CCD camera images
US5270756A (en) 1992-02-18 1993-12-14 Hughes Training, Inc. Method and apparatus for generating high resolution vidicon camera images
US5506644A (en) 1992-08-18 1996-04-09 Olympus Optical Co., Ltd. Camera
US5481479A (en) 1992-12-10 1996-01-02 Loral Fairchild Corp. Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance
US5355442A (en) * 1992-12-16 1994-10-11 Loral Aerospace Corp. Terrain visualization by ray tracing a conical height field transformation
US5342999A (en) 1992-12-21 1994-08-30 Motorola, Inc. Apparatus for adapting semiconductor die pads and method therefor
US5414462A (en) 1993-02-11 1995-05-09 Veatch; John W. Method and apparatus for generating a comprehensive survey map
US5508736A (en) 1993-05-14 1996-04-16 Cooper; Roger D. Video signal processing apparatus for producing a composite signal for simultaneous display of data and video information
US5467271A (en) 1993-12-17 1995-11-14 Trw, Inc. Mapping and analysis system for precision farming applications
CA2190596C (en) 1994-05-19 2002-03-26 Theodore M. Lachinski Method for collecting and processing visual and spatial position information
US5606627A (en) * 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
RU2153700C2 (ru) 1995-04-17 2000-07-27 Спейс Системз/Лорал, Инк. Система управления ориентацией и формированием изображения (варианты)
US5604534A (en) 1995-05-24 1997-02-18 Omni Solutions International, Ltd. Direct digital airborne panoramic camera system and method
US5668593A (en) 1995-06-07 1997-09-16 Recon/Optical, Inc. Method and camera system for step frame reconnaissance with motion compensation
US5963664A (en) * 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
JP3328478B2 (ja) * 1995-10-18 2002-09-24 日本電信電話株式会社 カメラシステム
US5835133A (en) 1996-01-23 1998-11-10 Silicon Graphics, Inc. Optical system for single camera stereo video
US5894323A (en) 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
US5844602A (en) 1996-05-07 1998-12-01 Recon/Optical, Inc. Electro-optical imaging array and camera system with pitch rate image motion compensation which can be used in an airplane in a dive bomb maneuver
US5798786A (en) 1996-05-07 1998-08-25 Recon/Optical, Inc. Electro-optical imaging detector array for a moving vehicle which includes two axis image motion compensation and transfers pixels in row directions and column directions
US5841574A (en) 1996-06-28 1998-11-24 Recon/Optical, Inc. Multi-special decentered catadioptric optical system
US6108032A (en) 1996-11-05 2000-08-22 Lockheed Martin Fairchild Systems System and method for image motion compensation of a CCD image sensor
DE69739272D1 (de) 1996-11-05 2009-04-02 Bae Systems Information Vorrichtung zur elektro-optischen fernerkundung mit bewegungskompensation
RU2127075C1 (ru) 1996-12-11 1999-03-10 Корженевский Александр Владимирович Способ получения томографического изображения тела и электроимпедансный томограф
US6222583B1 (en) * 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
US6597818B2 (en) * 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US6097854A (en) 1997-08-01 2000-08-01 Microsoft Corporation Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping
US6157747A (en) 1997-08-01 2000-12-05 Microsoft Corporation 3-dimensional image rotation method and apparatus for producing image mosaics
WO1999018732A1 (en) * 1997-10-06 1999-04-15 Ciampa John A Digital-image mapping
WO1999024936A1 (en) 1997-11-10 1999-05-20 Gentech Corporation System and method for generating super-resolution-enhanced mosaic images
US5852753A (en) 1997-11-10 1998-12-22 Lo; Allen Kwok Wah Dual-lens camera with shutters for taking dual or single images
US6037945A (en) 1997-12-16 2000-03-14 Xactware, Inc. Graphical method for modeling and estimating construction costs
US6094215A (en) 1998-01-06 2000-07-25 Intel Corporation Method of determining relative camera orientation position to create 3-D visual images
US6130705A (en) 1998-07-10 2000-10-10 Recon/Optical, Inc. Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use
JP4245699B2 (ja) 1998-09-16 2009-03-25 オリンパス株式会社 撮像装置
US6434265B1 (en) 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
DE19857667A1 (de) 1998-12-15 2000-08-17 Aerowest Photogrammetrie H Ben Verfahren zur Erzeugung einer drei-dimensionalen Objektbeschreibung
JP3593466B2 (ja) * 1999-01-21 2004-11-24 日本電信電話株式会社 仮想視点画像生成方法およびその装置
US6167300A (en) 1999-03-08 2000-12-26 Tci Incorporated Electric mammograph
DE19922341C2 (de) 1999-05-14 2002-08-29 Zsp Geodaetische Sys Gmbh Verfahren und eine Anordnung zur Bestimmung der räumlichen Koordinaten mindestens eines Objektpunktes
AUPQ056099A0 (en) 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
TW483287B (en) 1999-06-21 2002-04-11 Semiconductor Energy Lab EL display device, driving method thereof, and electronic equipment provided with the EL display device
US6587601B1 (en) * 1999-06-29 2003-07-01 Sarnoff Corporation Method and apparatus for performing geo-spatial registration using a Euclidean representation
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
WO2001048683A1 (en) 1999-12-29 2001-07-05 Geospan Corporation Any aspect passive volumetric image processing method
US6826539B2 (en) 1999-12-31 2004-11-30 Xactware, Inc. Virtual structure data repository and directory
US6829584B2 (en) 1999-12-31 2004-12-07 Xactware, Inc. Virtual home data repository and directory
US6810383B1 (en) 2000-01-21 2004-10-26 Xactware, Inc. Automated task management and evaluation
AU3047801A (en) 2000-02-03 2001-08-14 Alst Technical Excellence Center Image resolution improvement using a color mosaic sensor
CA2400975C (en) 2000-03-16 2008-11-04 The Johns Hopkins University Light detection and ranging (lidar) mapping system
IL151951A0 (en) 2000-03-29 2003-04-10 Astrovision International Inc Direct broadcast imaging satellite system, apparatus and method for providing real-time, continuous monitoring of earth from geostationary earth orbit and related services
US7184072B1 (en) 2000-06-15 2007-02-27 Power View Company, L.L.C. Airborne inventory and inspection system and apparatus
US6834128B1 (en) 2000-06-16 2004-12-21 Hewlett-Packard Development Company, L.P. Image mosaicing system and method adapted to mass-market hand-held digital cameras
US6484101B1 (en) 2000-08-16 2002-11-19 Imagelinks, Inc. 3-dimensional interactive image modeling system
US7313289B2 (en) * 2000-08-30 2007-12-25 Ricoh Company, Ltd. Image processing method and apparatus and computer-readable storage medium using improved distortion correction
US6421610B1 (en) 2000-09-15 2002-07-16 Ernest A. Carroll Method of preparing and disseminating digitized geospatial data
US6959120B1 (en) 2000-10-27 2005-10-25 Microsoft Corporation Rebinning methods and arrangements for use in compressing image-based rendering (IBR) data
US20020122117A1 (en) * 2000-12-26 2002-09-05 Masamichi Nakagawa Camera device, camera system and image processing method
AU2002308651A1 (en) 2001-05-04 2002-11-18 Leberl, Franz, W. Digital camera for and method of obtaining overlapping images
US7046401B2 (en) 2001-06-01 2006-05-16 Hewlett-Packard Development Company, L.P. Camera-based document scanning system using multiple-pass mosaicking
US7509241B2 (en) * 2001-07-06 2009-03-24 Sarnoff Corporation Method and apparatus for automatically generating a site model
US20030059743A1 (en) * 2001-08-29 2003-03-27 The Boeing Company Method and apparatus for automatically generating a terrain model for display during flight simulation
US20030043824A1 (en) 2001-08-31 2003-03-06 Remboski Donald J. Vehicle active network and device
US6747686B1 (en) 2001-10-05 2004-06-08 Recon/Optical, Inc. High aspect stereoscopic mode camera and method
US7262790B2 (en) 2002-01-09 2007-08-28 Charles Adams Bakewell Mobile enforcement platform with aimable violation identification and documentation system for multiple traffic violation types across all lanes in moving traffic, generating composite display images and data to support citation generation, homeland security, and monitoring
TW550521B (en) 2002-02-07 2003-09-01 Univ Nat Central Method for re-building 3D model of house in a semi-automatic manner using edge segments of buildings
US6894809B2 (en) 2002-03-01 2005-05-17 Orasee Corp. Multiple angle display produced from remote optical sensing devices
JP4184703B2 (ja) 2002-04-24 2008-11-19 大日本印刷株式会社 画像修正方法およびシステム
JP4273074B2 (ja) * 2002-07-12 2009-06-03 株式会社岩根研究所 道路面等の平面対象物映像の平面展開画像処理方法、同逆展開画像変換処理方法及びその平面展開画像処理装置、逆展開画像変換処理装置
US7725258B2 (en) 2002-09-20 2010-05-25 M7 Visual Intelligence, L.P. Vehicle based data collection and processing system and imaging sensor system and methods thereof
EP1540937A4 (en) * 2002-09-20 2008-11-12 M7 Visual Intelligence Lp VEHICLE TESTED DATA COLLECTION AND TREATMENT SYSTEM
EP1696204B1 (en) 2002-11-08 2015-01-28 Pictometry International Corp. Method for capturing, geolocating and measuring oblique images
US7424133B2 (en) * 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
US7065696B1 (en) 2003-04-11 2006-06-20 Broadlogic Network Technologies Inc. Method and system for providing high-speed forward error correction for multi-stream data
US7018050B2 (en) 2003-09-08 2006-03-28 Hewlett-Packard Development Company, L.P. System and method for correcting luminance non-uniformity of obliquely projected images
JP2005151536A (ja) 2003-10-23 2005-06-09 Nippon Dempa Kogyo Co Ltd 水晶発振器
US20050089213A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Method and apparatus for three-dimensional modeling via an image mosaic system
US7916940B2 (en) 2004-01-31 2011-03-29 Hewlett-Packard Development Company Processing of mosaic digital images
BRPI0508226A (pt) * 2004-02-27 2007-07-17 Intergraph Software Tech Co formação de uma única imagem a partir de imagens de sobreposição
US20060215935A1 (en) * 2004-04-02 2006-09-28 The Boeing Company System and architecture for automatic image registration
US7751651B2 (en) * 2004-04-02 2010-07-06 The Boeing Company Processing architecture for automatic image registration
US20060028550A1 (en) 2004-08-06 2006-02-09 Palmer Robert G Jr Surveillance system and method
US7728833B2 (en) 2004-08-18 2010-06-01 Sarnoff Corporation Method for generating a three-dimensional model of a roof structure
US8078396B2 (en) 2004-08-31 2011-12-13 Meadow William D Methods for and apparatus for generating a continuum of three dimensional image data
EP1813113A2 (en) * 2004-10-15 2007-08-01 Ofek Aerial Photography Ltd. Computational solution of an building of three dimensional virtual models from aerial photographs
US7348895B2 (en) 2004-11-03 2008-03-25 Lagassey Paul J Advanced automobile accident detection, data recordation and reporting system
KR100657937B1 (ko) 2004-12-14 2006-12-14 삼성전자주식회사 2차원 선형 데이터의 실시간 3차원 변환 방법 및 장치,그리고 이를 이용한 2차원 선형 데이터의 실시간 3차원시각화 방법 및 장치
US7142984B2 (en) 2005-02-08 2006-11-28 Harris Corporation Method and apparatus for enhancing a digital elevation model (DEM) for topographical modeling
US7466244B2 (en) 2005-04-21 2008-12-16 Microsoft Corporation Virtual earth rooftop overlay and bounding
US7554539B2 (en) * 2005-07-27 2009-06-30 Balfour Technologies Llc System for viewing a collection of oblique imagery in a three or four dimensional virtual scene
US7840032B2 (en) * 2005-10-04 2010-11-23 Microsoft Corporation Street-side maps and paths
US7844499B2 (en) 2005-12-23 2010-11-30 Sharp Electronics Corporation Integrated solar agent business model
US7778491B2 (en) * 2006-04-10 2010-08-17 Microsoft Corporation Oblique image stitching
US7944547B2 (en) * 2006-05-20 2011-05-17 Zheng Wang Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data
US20080158256A1 (en) 2006-06-26 2008-07-03 Lockheed Martin Corporation Method and system for providing a perspective view image by intelligent fusion of a plurality of sensor data
US7831089B2 (en) * 2006-08-24 2010-11-09 Microsoft Corporation Modeling and texturing digital surface models in a mapping application
US7873238B2 (en) * 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
DE102007030781A1 (de) 2006-10-11 2008-04-17 Gta Geoinformatik Gmbh Verfahren zur Texturierung virtueller dreidimensionaler Objekte
IL179344A (en) 2006-11-16 2014-02-27 Rafael Advanced Defense Sys Mobile Platform Tracking Method
US7832267B2 (en) 2007-04-25 2010-11-16 Ecometriks, Llc Method for determining temporal solar irradiance values
WO2009025928A2 (en) 2007-06-19 2009-02-26 Ch2M Hill, Inc. Systems and methods for solar mapping, determining a usable area for solar energy production and/or providing solar information
US8417061B2 (en) 2008-02-01 2013-04-09 Sungevity Inc. Methods and systems for provisioning energy systems
US8275194B2 (en) 2008-02-15 2012-09-25 Microsoft Corporation Site modeling using image data fusion
US8538151B2 (en) 2008-04-23 2013-09-17 Pasco Corporation Building roof outline recognizing device, building roof outline recognizing method, and building roof outline recognizing program
US8401222B2 (en) 2009-05-22 2013-03-19 Pictometry International Corp. System and process for roof measurement using aerial imagery
US9183538B2 (en) 2012-03-19 2015-11-10 Pictometry International Corp. Method and system for quick square roof reporting

Also Published As

Publication number Publication date
WO2008028040A3 (en) 2008-11-13
US20110102461A1 (en) 2011-05-05
JP4981135B2 (ja) 2012-07-18
US10489953B2 (en) 2019-11-26
US9805489B2 (en) 2017-10-31
US8081841B2 (en) 2011-12-20
JP2010503078A (ja) 2010-01-28
US20120201478A1 (en) 2012-08-09
EP2057585A2 (en) 2009-05-13
US20130208996A1 (en) 2013-08-15
AU2007289120A1 (en) 2008-03-06
US7873238B2 (en) 2011-01-18
US8660382B2 (en) 2014-02-25
EP2057585B1 (en) 2020-02-26
US20200090390A1 (en) 2020-03-19
US20180247442A1 (en) 2018-08-30
ES2787226T3 (es) 2020-10-15
US20180047197A1 (en) 2018-02-15
US20140126838A1 (en) 2014-05-08
US20160371869A1 (en) 2016-12-22
AU2007289120B2 (en) 2012-04-12
AU2007289120C1 (en) 2012-09-06
CA2662355A1 (en) 2008-03-06
US9437029B2 (en) 2016-09-06
US9959653B2 (en) 2018-05-01
WO2008028040A2 (en) 2008-03-06
EP2057585A4 (en) 2013-03-13
US11080911B2 (en) 2021-08-03
US8452125B2 (en) 2013-05-28
US20080123994A1 (en) 2008-05-29
CA2662355C (en) 2014-05-06

Similar Documents

Publication Publication Date Title
US11080911B2 (en) Mosaic oblique images and systems and methods of making and using same
US11551331B2 (en) Cut-line steering methods for forming a mosaic image of a geographical area
CN111433820B (zh) 按地物高度着色图像生成装置以及计算机可读介质
AU2012205205B2 (en) Mosaic oblique images and methods of making and using same

Legal Events

Date Code Title Description
FG Grant or registration