MX2009002339A - Imagenes oblicuas en mosaico y metodos de elaboracion y uso de las mismas. - Google Patents
Imagenes oblicuas en mosaico y metodos de elaboracion y uso de las mismas.Info
- Publication number
- MX2009002339A MX2009002339A MX2009002339A MX2009002339A MX2009002339A MX 2009002339 A MX2009002339 A MX 2009002339A MX 2009002339 A MX2009002339 A MX 2009002339A MX 2009002339 A MX2009002339 A MX 2009002339A MX 2009002339 A MX2009002339 A MX 2009002339A
- Authority
- MX
- Mexico
- Prior art keywords
- oblique
- image
- pixel
- mosaic
- images
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 238000013178 mathematical model Methods 0.000 claims abstract description 20
- 230000000694 effects Effects 0.000 claims description 27
- 238000013507 mapping Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 33
- 238000010276 construction Methods 0.000 description 19
- 230000003287 optical effect Effects 0.000 description 13
- 230000000875 corresponding effect Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 230000010355 oscillation Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 241000282376 Panthera tigris Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- OSUHJPCHFDQAIT-UHFFFAOYSA-N ethyl 2-{4-[(6-chloroquinoxalin-2-yl)oxy]phenoxy}propanoate Chemical compound C1=CC(OC(C)C(=O)OCC)=CC=C1OC1=CN=C(C=C(Cl)C=C2)C2=N1 OSUHJPCHFDQAIT-UHFFFAOYSA-N 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 239000012086 standard solution Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30176—Document
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Se describe un método para crear una imagen de mosaico oblicuo a partir de una pluralidad de imágenes fuente. Inicialmente, un área deseada que va a ser formada en imagen y recolectada en una imagen de mosaico oblicuo es identificada (18), y luego un modelo matemático de un sensor de una cámara virtual (20) es creado (22), donde la cámara virtual tiene una elevación mayor que una elevación del área que va a ser formada en imagen. El modelo matemático tiene un mapa de pixeles de mosaico oblicuo para el sensor del área deseada. Una posición superficial es determinada para cada píxel incluido en el mapa (24) de pixeles de mosaico oblicuo, y al menos un píxel de imagen oblicua fuente del área que va a ser formada en imagen, es reproyectada para cada píxel incluido en el mapa de pixeles de mosaico oblicuo para crear con esto una imagen de mosaico oblicuo del área geográfica deseada (26). Además, se describen (28) las técnicas para compensar la inclinación de las construcciones o edificios en las imágenes de mosaico oblicuo.
Description
IMAGENES OBLICUAS EN MOSAICO Y METODOS DE ELABORACION Y USO DE LAS MISMAS
Campo de la Invención La invención reclamada y la o las invenciones descritas se refieren a imágenes oblicuas en mosaico y a los métodos para la elaboración y uso de las mismas. Más particularmente, la invención o invenciones actualmente reclamadas y descritas utilizan una metodología mediante la cual las imágenes aéreas capturadas oblicuamente, separadas, son combinadas en al menos una imagen en mosaico oblicuo simple. Al menos una imagen en mosaico oblicuo simple es visualmente placentera y geográficamente precisa. Antecedentes de la Invención En la industria de la formación de imágenes aéreas /detección remota, la formación de imágenes es utilizada para capturar vistas de un área geográfica y para medir objetos y estructuras dentro de las imágenes, así como para hacer posible determinar las posiciones geográficas de los puntos dentro de la imagen. Éstas son en general denominadas como "imágenes geo-referenciadas " y entran en dos categorías básicas: 1. Imaginería Capturada - estas imágenes tienen la apariencia de que fueron capturadas por la cámara o el sensor empleado. Ref.:200645
2. Imaginería Proyectada - estas imágenes han sido procesadas y convertidas tal que éstas se conforman a una proyección matemática. Toda la imaginería comienza como imaginería capturada, pero ya que la mayoría de las dotaciones lógicas informáticas (software) no pueden geo-referenciar la imaginería capturada, esa imaginería es entonces procesada para crear la imaginería proyectada. La forma más común de la imaginería proyectada es la imagen orto-rectificada. Este proceso alinea la imagen a una rejilla ortogonal o rectilínea (compuesta de rectángulos). La imagen introducida utilizada para crear una imagen orto-rectificada es una imagen de nadir, es decir, una imagen capturada con la cámara señalando en línea recta hacia abajo. Es a menudo muy deseable combinar las múltiples imágenes en una imagen compuesta más grande, tal que la imagen cubra un área geográfica más grande sobre la tierra. La forma más común de esta imagen compuesta es la "imagen de orto-mosaico" la cual es una imagen creada a partir de una serie de imágenes de nadir traslapadas o adyacentes que son matemáticamente combinadas en una imagen orto-rectificada simple . Cada imagen de nadir introducida, así como la imagen de orto-mosaico introducida, está compuesta de pixeles discretos (elementos de imagen individuales) de información o
datos. Como parte del proceso para crear una imagen orto-rectificada, y por lo tanto una imagen de orto-mosaico, se realiza un intento para reproyectar (mover dentro de un modelo matemático) cada pixel dentro de la imagen tal que la imagen resultante aparece como si cada píxel en la imagen fuera un píxel de nadir -es decir, que la cámara está directamente por arriba de cada píxel en la imagen. La razón de que este proceso de orto-rectificación sea necesario, es que actualmente no es posible capturar una imagen donde cada píxel sea nadir a (directamente por debajo de) la cámara a no ser que: (1) la cámara utilizada sea tan grande como el área de captura, o (2) la cámara es colocada a una distancia infinita por arriba del área de captura, tal que el ángulo desde la cámara hacia el píxel es tan cercana a la línea recta hacia abajo que ésta puede ser considerada nadir. El proceso de orto-rectificación crea una imagen que se aproxima a la apariencia de la que es capturada con una cámara donde el área sobre la tierra que cada píxel captura, es considerada nadir a ese píxel, por ejemplo, directamente por debajo de ese píxel. Este proceso es realizado por la creación de un modelo matemático de la tierra, en general en una rejilla rectilínea (una rejilla formada de rectángulos), y reproyectando a partir de la imagen de cámara capturada individual dentro de esta rejilla rectilínea. Este proceso mueve los pixeles desde su posición relativa no de nadir
dentro de las imágenes individuales hacia sus posiciones de nadir dentro de la rejilla rectilínea, por ejemplo, la imagen es envuelta para recubrirse con la rejilla. Cuando se crea un orto-mosaico, se utiliza este mismo proceso de orto-rectificación, sin embargo, en vez de utilizar únicamente una imagen de nadir de entrada simple, se utilizan una colección de imágenes de nadir traslapadas o adyacentes, y éstas son combinadas para formar una imagen orto-rectificada compuesta, simple, conocida como un orto-mosaico. En general, el proceso de orto-mosaico involucra los siguientes pasos: Una rejilla rectilínea es creada, lo cual da como resultado una imagen de orto-mosaico donde cada píxel de rejilla cubre la misma cantidad del área sobre el terreno . • La posición de cada píxel de rejilla es determinada a partir de la definición matemática de la rejilla. En general, esto significa que la rejilla se le da una posición inicial o de origen X e Y o un tamaño X e Y para los pixeles de rejilla. De este modo, la posición de cualquier píxel es simplemente la posición de origen más el número de tantas veces los pixeles, el tamaño de cada píxel . En términos matemáticos : XPixei = Xorígen + Xtamaño x Columnapíxel 6 Ypixel — ^origen + Ytamaño x Hilerapíxel ·
• Las imágenes de nadir disponibles son verificadas para
observar si éstas cubren el mismo punto sobre el terreno que el pixel de rejilla que es rellenado. Si es así, una fórmula matemática es utilizada para determinar dónde ese punto sobre el terreno se proyecta hacia arriba sobre el mapa de imágenes de pixel de la cámara y ese valor de pixel resultante es entonces transferido al pixel de rejilla. Durante este proceso de selección, son tomados dos pasos importantes : Cuando se selecciona la imagen para utilizarse para proporcionar el valor de pixel, es utilizada una fórmula matemática para seleccionar una imagen que reduce al mínimo la inclinación de construcción - el efecto donde los edificios parecen inclinarse lejos de la cámara. Esto es logrado en un número de formas, pero la más común es recoger la imagen donde el pixel de la rejilla se reproyecta tan cercano al centro de la cámara, y por lo tanto tan cercano a ese punto de nadir de la cámara, como sea posible. Cuando se determina el valor del pixel fuente para utilizarse, la elevación del terreno es tomada en cuenta para asegurar que se seleccione el valor de pixel correcto. Los cambios en la elevación provocan que la posición aparente del pixel se desplace cuando es capturada por la cámara. Un punto sobre el terreno que está más alto aparecerá más lejos del centro de la
imagen que un punto sobre el terreno en la misma posición que está más abajo. Por ejemplo, la punta de un edificio aparecerá más alejada del centro de una imagen que el fondo de un edificio. Al tomar la elevación del terreno en cuenta cuando se determina el valor del píxel fuente, el efecto neto es "aplanar" la imagen tal que los cambios en la posición del píxel debidos a la posición del terreno, son eliminados. Debido a que las rejillas rectilíneas utilizadas para el orto-mosaico son en general las mismas rejillas utilizadas para crear mapas, las imágenes de orto-mosaico poseen una similitud sorprendente a los mapas y como tales, son en general muy fáciles de utilizar desde un punto de vista de dirección y orientación. Sin embargo, ya que éstas tienen una apariencia dictada por las proyecciones matemáticas en vez de la apariencia normal que una cámara simple captura, y debido a que éstas son capturadas viendo recto hacia abajo, esto crea una vista del mundo al cual no estamos acostumbrados. Como resultado, muchas personas tienen dificultad en determinar qué es lo que están viendo en una imagen. Por ejemplo, ellos pueden ver un rectángulo amarillo en la imagen y no darse cuenta que lo que ellos están viendo es el techo de un autobús escolar. O pueden tener dificultad al distinguir entre dos propiedades comerciales ya que la única cosa que ellos pueden observar de
las propiedades en el orto-mosaico son sus techos, donde como la mayoría de las propiedades distintivas están sobre los lados de los edificios. Una profesión completa, el intérprete de fotografías, ha surgido para estas dificultades ya que estos individuos tienen años de entrenamiento y experiencia específicamente en interpretar los que ellos están viendo en la imaginería de nadir u orto-mosaico. Ya que una imagen oblicua, por definición, es capturada a un ángulo, ésta presenta una apariencia más natural debido a que ésta muestra los lados de los objetos y las estructuras -lo que nosotros estamos más acostumbrados a ver. Además, debido a que las imágenes oblicuas no son en general orto-rectificadas, éstas están todavía en la apariencia natural que la cámara captura, en oposición a la construcción matemática de la imagen de orto-mosaico. Esta combinación hace más fácil para las personas observar algo en una imagen oblicua, y darse cuenta lo que ese objeto es. No se requieren habilidades de interpretación de fotografías cuando se trabaja con imágenes oblicuas. Las imágenes oblicuas, no obstante, presentan otro problema. Debido a que las personas han aprendido habilidades de navegación sobre mapas, el hecho de que las imágenes oblicuas no estén alineadas a una rejilla de mapa, como las imágenes de orto-mosaico, las hace mucho menos intuitivas cuando se intenta navegar o determinar la
dirección sobre una imagen. Cuando es creado un orto-mosaico, debido a que éste es creado para una rejilla rectilínea que es en general una rejilla de mapa, la parte superior de la imagen de orto-mosaico es el norte, el lado derecho es el este, la parte inferior es el sur, y el lado izquierdo es el oeste. Esto es como las personas están en general acostumbradas a orientarse y a navegar sobre un mapa. Pero una imagen oblicua puede ser capturada desde cualquier dirección y la parte superior de la imagen es en general "arriba y atrás" lo que significa que las estructuras verticales apuntan hacia la parte superior de la imagen, pero que la parte superior de la imagen está también más cercana al horizonte. Sin embargo, debido a que la imagen puede ser capturada desde cualquier dirección, el horizonte puede estar en cualquier dirección, norte, sur, este, oeste, o cualquier punto entre éstos. Si la imagen es capturada tal que la cámara está señalando hacia el norte, entonces el lado derecho de la imagen es el este y el lado izquierdo de la imagen es el oeste. Sin embargo, si la imagen es capturada tal que la cámara está señalando hacia el sur, entonces el lado derecho de la imagen es el oeste y el lado izquierdo de la imagen es el este. Esto puede provocar confusión para algunas personas que intenten navegar dentro de la imagen. Además, debido a que la rejilla de orto-mosaico es en general una rejilla rectilínea, por definición matemática,
las cuatro direcciones de la brújula cardinal se encuentran a ángulos rectos (90 grados). Pero con una imagen oblicua, debido a que ésta está todavía en la forma original en que la capturó la cámara, y no ha sido reproyectada en un modelo matemático, no es necesariamente cierto que las direcciones de la brújula se encuentren a ángulos rectos dentro de la imagen. Debido a que la perspectiva oblicua usted se mueve hacia el horizonte conforme se mueve hacia arriba la imagen, la imagen cubre un área más ancha sobre el terreno cerca de la parte superior de la imagen, en comparación al área sobre el terreno cubierta cerca del fondo de la imagen. Si usted fuera a pintar una rejilla rectangular sobre el piso y capturarla con una imagen oblicua, las líneas a lo largo de la dirección en la que está apuntando la cámara, podrían parecer converger en la distancia y las líneas a través de la dirección en la que está apuntando la cámara, podrían parecer más ampliamente espaciadas en el frente de la imagen que la que ellas aparecen en el fondo de la imagen. Esta es la vista en perspectiva que estamos todos acostumbrados a observar -las cosas son más pequeñas en la distancia que las líneas de acercamiento y paralelas, tales como las vías de un ferrocarril, que parecen converger en la distancia. En contraste, si una imagen de orto-mosaico fuera creada sobre esta misma rejilla rectangular pintada, ésta podría aparecer como una rejilla rectangular en la imagen de orto-mosaico, ya
que toda la perspectiva es eliminada como una parte incidente del proceso de orto-mosaico. Debido a estas diferencias fundamentales en la perspectiva y la apariencia, la creación de una imagen de orto-mosaico mediante el proceso descrito anteriormente no funciona bien para las imágenes oblicuas. Debido a que el eje óptico de la cámara (una línea imaginaria a través del centro de la lente u óptico que sigue el objetivo de la cámara) es típicamente señalada a un ángulo de 45 grados o más desde nadir (apuntado a 45 grados o más hacia arriba en línea recta hacia abajo) , los efectos de la inclinación de los edificios, las diferencias en la elevación, y los pixeles no cuadrados, son todos exagerados -efectos que son considerados cualidades negativas en la imagen de orto-mosaico. En la industria de los orto-mosaicos, son impuestos en general requerimientos sobre el proceso de captura de imágenes, tal que éstos limitan la cantidad de oblicuidad a tan poco como 5 grados desde el nadir, para reducir al mínimo así cada uno de estos efectos negativos. Además, si las propiedades admirables de una imagen oblicua van a ser mantenidas, a saber la vista de los lados de las estructuras y la apariencia natural de las imágenes, entonces claramente un proceso que intente eliminar los desplazamientos verticales, y por lo tanto los costados de los edificios, y uno que tuerce la imagen para ajustarse a
una rejilla rectilínea, no es una elección viable. Es necesario un nuevo proceso, uno que cumpla las siguientes cualidades deseables en un esfuerzo para preservar las propiedades admirables de la imagen oblicua: Si la perspectiva oblicua va a ser mantenida, los pixeles no pueden ser alineados a una rejilla rectilínea, o incluso una rejilla trapezoidal. Más bien, los pixeles son preferentemente alineados a la perspectiva natural que una cámara captura. • Como parte de la perspectiva oblicua, los pixeles en la imagen no pueden todos medir el mismo tamaño sobre el terreno, ya que los pixeles en el frente de la imagen cubren un área mucho más pequeña sobre el terreno que los pixeles en el fondo de la imagen -es decir por definición parte de la perspectiva natural de una cámara . • Debido a que los pixeles están tan alejados de nadir, los efectos de la inclinación de los edificios se vuelven extremos y las soluciones estándares empleadas en el proceso de orto-mosaico no hacen una labor suficientemente adecuada para compensar este efecto - deben ser desarrolladas nuevas técnicas para compensar mejor este efecto. Si los efectos de los cambios en la elevación son echados atrás, la imagen resultante tiene una apariencia
muy no natural -los costados verticales de los edificios pueden torcerse y combarse, lo que es algo que nosotros no estamos acostumbrados a ver y por lo tanto, cuando se observa tal imagen, tenemos la tendencia a "rechazarla". De este modo, para mantener los edificios, las estructuras y los objetos dentro de una imagen que parezca natural, es preferible dejar los efectos de elevación en la perspectiva de la imagen y en vez de esto explicarla de otra manera. Debido a estos problemas, la práctica común en la industria es proporcionar imaginería oblicua como una serie de imágenes individuales. Sin embargo, algunos de los mismos beneficios del orto-mosaico también aplican a un mosaico oblicuo (una imagen creada a partir de una colección de imágenes oblicuas traslapadas o adyacentes) , a saber el hecho de que el mosaico cubre un área geográfica más grande que cada una o cualquiera de las imágenes individuales que fueron utilizadas para crearla. Esta invención detalla un medio mediante el cual puede ser creado un mosaico oblicuo de calidad, superando las limitaciones anteriores. Breve Descripción de la Invención Esta invención permite la creación de una imagen de mosaico oblicuo que tiene una apariencia natural y es preferentemente geo-referenciada para mantener la habilidad para medir y determinar las coordenadas geográficas.
Mientras que la modalidad preferida aplica esta invención a la imaginería oblicua aérea, la invención también funcionará con la imaginería oblicua no aérea, capturada en una variedad de formas, incluyendo pero no limitadas a las cámaras montadas oblicuamente sobre un polo vertical, las cámaras manuales dirigidas oblicuamente, y las cámaras montadas a ángulos oblicuos sobre una sonda subacuática. En una modalidad, la presente invención está dirigida a un método para crear una imagen de mosaico oblicuo a partir de una pluralidad imágenes oblicuas fuente de un área geográfica. Las imágenes oblicuas fuente son preferentemente imágenes oblicuas capturadas. En este método, un área deseada que va a ser formada en imagen y recolectada en una imagen de mosaico oblicuo, es identificada, y es creado un modelo matemático de un sensor de una cámara virtual . La cámara virtual tiene una elevación mayor que una elevación del área que va a ser formada en imagen. El modelo matemático tiene un mapa de pixeles de mosaico oblicuo para el sensor del área deseada. Una posición superficial para cada píxel incluido en el mapa de pixeles de mosaico oblicuo, es determinada y/o asignada. Luego, al menos un píxel de imagen oblicua fuente del área que va a ser formada en imagen, es reproyectada para cada píxel incluido en el mapa de pixeles de mosaico oblicuo, para crear con esto una imagen de orto-mosaico oblicuo del área
geográfica deseada. De este modo, la imagen de mosaico oblicuo es una imagen compuesta formada a partir de pixeles reproyectados a partir de imágenes oblicuas de múltiples fuentes . En una versión de la invención, las imágenes oblicuas de múltiples fuentes representan la misma posición superficial. En esta modalidad, el método puede comprender además los pasos para seleccionar cuáles pixeles y/o imágenes oblicuas fuente utilizar en la formación de la imagen de mosaico oblicuo. Por ejemplo, el método puede comprender además el paso de seleccionar imágenes oblicuas fuente de la posición superficial capturada a un ángulo oblicuo, y la dirección de brújula similar al ángulo oblicuo y la dirección de brújula de la cámara virtual. En otra versión más, los pixeles de cada imagen oblicua fuente que representan la misma posición superficial, son comparadas para determinar cuál pixel fuente es el más representativo de la posición superficial, el pixel más representativo que va a ser incluido en la imagen de mosaico oblicuo. En una versión de la invención, el paso de asignación es adicionalmente definido como la proyección de cada pixel a través de la perspectiva de la cámara virtual para determinar una posición superficial correspondiente para cada pixel en el mapa de pixeles de mosaico oblicuo. En otra versión más de la invención, el paso de
reproyección es además definido por la reproyección del píxel para ajustarse al tamaño y la forma de la posición superficial representada, como es tomada desde la elevación, la dirección de brújula, y el ángulo oblicuo de la cámara virtual . En otra versión más de la invención, el paso de reproyección es además definido por la eliminación de los efectos de elevación a partir de las imágenes oblicuas fuente antes de la reproyección, y luego agregando los efectos de elevación a la imagen de mosaico oblicuo después de la reproyección . En otra versión más de la invención, el método incluye el paso de reducir al mínimo la inclinación de las estructuras verticales dentro de la imagen de mosaico oblicuo. Esto puede ser logrado en una variedad de formas, tales como la creación de un modelo en elevación de las imágenes oblicuas fuente, tomando en cuenta las estructuras verticales, y reproyectando al menos un píxel de imagen oblicua fuente del área que va a ser formada en imagen, utilizando el modelo de elevación. Alternativamente, la inclinación de las estructuras verticales puede ser reducida al mínimo por equiparación de las estructuras verticales en múltiples imágenes oblicuas fuente, y desplazando la posición aparente de los pixeles en al menos una de las imágenes oblicuas fuente, por una altura relativa por arriba de un
modelo terrestre. Breve Descripción de las Figuras La Figura 1 es una vista esquemática de una escena capturada por cámara real, reproyectada hacia una "cámara virtual", por ejemplo, un modelo matemático que describe una cámara más grande que la cámara real y más alta en elevación que la cámara real. La Figura 2 es una ilustración de un diagrama de flujo de software/función, ejemplar de un método para elaborar una imagen de mosaico oblicuo utilizando una metodología mediante la cual las imágenes áreas oblicuamente capturadas, separadas, son combinadas en la imagen de mosaico oblicuo . La Figura 3a es una representación pictórica de una imagen de mosaico oblicuo de la técnica anterior. La Figura 3b es una vista agrandada de la representación pictórica de la imagen de mosaico oblicuo de la técnica anterior de la Figura 3a. La Figura 4a es una representación pictórica de una imagen de mosaico oblicuo ejemplar, creada de acuerdo con la presente invención. La Figura 4b es una vista agrandada de la representación pictórica de la imagen de mosaico oblicuo ejemplar, creada de acuerdo con la presente invención, de la Figura 4a.
Descripción Detallada de la Invención Antes de explicar al menos una modalidad de la invención con detalle, se debe entender que la invención no está limitada en su aplicación a los detalles de construcción, experimentos, datos ejemplares y/o el acomodo o arreglo de los componentes detallados en la siguiente descripción o ilustrados en las figuras. La invención es capaz de otras modalidades o de ser practicada o llevada a cabo de diversas formas. También, se debe entender que la fraseología y la terminología empleadas en la presente son para fines de descripción y no deben ser considerados como limitantes . La o las invenciones actualmente reclamadas y descritas se refieren a imágenes de mosaico oblicuo y a los métodos para la elaboración y uso de las mismas. Más particularmente, la invención actualmente reclamada y descrita utiliza una metodología mediante la cual las imágenes aéreas oblicuamente capturadas, separadas, son combinadas en al menos una imagen de mosaico oblicuo simple. Al menos una imagen de mosaico oblicuo es visualmente placentera y geográficamente precisa. Con referencia ahora a las Figuras y en particular a las Figuras 1 y 2, mostrada en la Figura 1 y designada por un número de referencia 10, está una vista esquemática de un método para crear una imagen de mosaico oblicuo 12 (ver
Figuras 4a y 4b) . La Figura 2 es una ilustración de un diagrama de flujo ejemplar 14 de software/función de un método para la elaboración de la imagen de mosaico oblicuo 12 utilizando una metodología mediante la cual las imágenes aéreas oblicuamente capturadas, separadas, son combinadas en la imagen de mosaico oblicuo 12. La Figura 4a es una representación pictórica de una imagen de mosaico oblicuo 12 ejemplar, creada de acuerdo con la presente invención. La Figura 4b es una vista agrandada de la representación pictórica de la imagen de mosaico oblicuo 12 ejemplar, creada de acuerdo con la presente invención. En general, el método identifica un área deseada 15 que va a ser formada en imagen y recolectada en la imagen de mosaico oblicuo 12. Las imágenes fuente son obtenidas utilizando una cámara real 14 que captura una escena 16 como es indicado por un bloque 18 en la Figura 2. Luego, la cámara virtual 20 es creada como es indicado por un bloque 22 en la Figura 2. La cámara virtual 20 es un modelo matemático que describe una cámara más grande que la cámara real 14, y más alta en elevación que la cámara real 14 como se muestra en la Figura 1. El modelo matemático tiene un mapa de pixeles de mosaico oblicuo para el sensor del área deseada. Una posición superficial es asignada a cada píxel incluido en el mapa de pixeles oblicuo, y luego como es indicado por un bloque 24, las imágenes oblicuas fuente son seleccionadas
para las posiciones terrestres y luego al menos un pixel de imagen oblicua fuente del área que va a ser formada en imagen para cada píxel incluido en el mapa de pixeles de mosaico oblicuo, es reproyectada para crear con esto la imagen de mosaico oblicuo del área geográfica deseada (como es indicado por el bloque 26) . Opcionalmente, el método incluye además uno o más pasos para reducir al mínimo el efecto de la inclinación de las estructuras verticales, como se indica por el bloque 28. Como se describe anteriormente en la presente, el uso de una metodología de reproyección tipo rejilla para crear imágenes de mosaico oblicuo está llena de problemas y es improbable que proporcione una imagen utilizable. Por lo tanto, con el fin de producir la imagen de mosaico oblicuo 12 de calidad, debe ser realizado un proceso mejorado. Tal proceso mejorado y único es descrito y reclamado en la presente, y utiliza preferentemente, en general, las siguientes consideraciones: Primeramente, en lugar de proyectarse sobre una rejilla rectilínea, los pixeles de imágenes de entrada son proyectados sobre la "cámara virtual" 20. La cámara virtual 20 es un modelo matemático que describe una cámara muy grande, alta en el cielo. Ya que esto es una creación matemática, esta cámara 20 no está comprometida por las limitaciones actuales de la fabricación de cámaras.
En segundo lugar, los pixeles no son luego reproyectados para ser cuadrados o incluso del mismo tamaño en la imagen producida, como es el caso en el proceso de orto-rectificación estándar utilizado cuando se crea un orto-mosaico. En vez de esto, éstas son reproyectadas para concordar o ajustarse al tamaño en que éstas podrían proyectarse sobre el terreno desde esta cámara virtual 20 - por ejemplo, la perspectiva natural que una cámara captura . En tercer lugar, con el fin de alinear mejor la imaginería combinada, los efectos de los cambios en la elevación son primeramente anuladas de la imaginería de entrada durante la proyección desde la posición de la cámara de la imagen de entrada original hacia el terreno, y luego los efectos de elevación son reintroducidos durante la proyección desde el terreno hacia arriba a la posición de la cámara virtual . El resultado es una imagen que parece natural que muestra adecuadamente los contornos del terreno como es observado desde una perspectiva oblicua natural. Finalmente, los efectos de la inclinación de los edificios son deseablemente reducidos al mínimo. Existe un número de diferentes formas en las cuales puede ser reducida al mínimo la inclinación de los edificios:
o Mediante "giro u orientación" de las líneas de corte entre las imágenes introducidas hacia debajo de las calles, tal que las líneas de corte no corren a través de un edificio, lo cual puede provocar que la inclinación conflictiva del edificio distorsione en gran medida la apariencia de un edificio, o El ángulo de inclinación del edificio puede ser calculado y las imágenes torcidas con el fin de compensar la inclinación del edificio. o Los edificios pueden ser ajustados en imágenes adyacentes y alineados uno con el otro. En la práctica, la metodología descrita y reclamada en la presente, consiste de múltiples pasos y transformaciones de datos que pueden ser logrados por una persona de experiencia ordinaria en la técnica, dada la presente especificación. Existe un número de algoritmos ya conocidos en la técnica que giran las líneas cortadas para orto-mosaicos y podrían ser fácilmente adaptadas para el uso con las imágenes oblicuas. Además, el trabajo de seguimiento podría crear nuevos algoritmos específicamente diseñados para enfrentar las complejidades de las imágenes oblicuas. El primer paso para la creación de la imagen de mosaico oblicuo 12 de acuerdo a la invención actualmente descrita y reclamada, requiere la selección de un área que va a ser formada en imagen. En general, el área que va a ser
formada en imagen podría ser una posición geográficamente específica. Sin embargo, otras áreas pueden también ser seleccionadas para ser formadas en imagen en la imagen de mosaico oblicuo 12 tales como los costados de los edificios, las paredes, los paisajes, las laderas de las montañas y similares . La creación de una "cámara virtual" 20 que es capaz de cubrir el paisaje o área completa de interés que va a ser formada en imagen . Una vez que ha sido determinada un área deseada que va a ser formada en imagen y recolectada dentro de la imagen de mosaico oblicuo 12, el usuario u operador crea la "cámara virtual" 20, por ejemplo una construcción matemática que es capaz de cubrir o capturar una porción de, o la totalidad del área deseada. La cámara virtual 20 es un modelo matemático de una cámara con los parámetros geométricos de cámara necesarios (los valores matemáticos que definen el modelo de la cámara, por ejemplo el número de hileras y columnas del plano sensor, el tamaño del plano sensor en milímetros, la longitud focal en milímetros, la altura por arriba del terreno, la oscilación, la separación y el giro del eje óptico) que hacen posible que ésta "capture" la escena deseada. Por ejemplo, una cámara virtual puede ser considerada teniendo un sensor muy grande (por ejemplo columnas de 20,000 pixeles e hileras de 10,000 pixeles), un
campo estándar de vista (plano sensor de 36 mm por 24 MI y una longitud focal de 60 mm) , y es "colocada" a una altitud relativamente alta (por ejemplo 9,100 metros (30,000 pies)) viendo hacia abajo a un ángulo oblicuo al norte (la oscilación y el giro de 0 y la separación de -40 grados). En una modalidad preferida, un modelo sensor proveniente de una cámara real es utilizado, y el usuario simplemente modifica los parámetros tal que éste cumple los requerimientos con el fin de "capturar" el área deseada. El segundo paso crea el mapa de pixeles oblicuo, resultante para la cámara virtual 20. El mapa de pixeles corresponde al sensor de la cámara virtual y de este modo típicamente, pero no necesariamente, tiene el mismo número de hileras y columnas que el sensor de la cámara virtual. Luego, para cada píxel en la imagen de mapa de pixeles, las ecuaciones proyectivas para la cámara virtual 20 son utilizadas para proyectar cada píxel con dirección hacia abajo y lejos de la cámara virtual 20 y sobre el terreno, tomando en cuenta la elevación cuando se realiza así (en general a través del uso de un modelo de elevación matemática de la superficie del terreno) . Esto da como resultado una posición terrestre correspondiente para el píxel de esa cámara virtual . Una vez que ha sido encontrada la posición terrestre correspondiente, ésta puede ser utilizada para
seleccionar cuáles imágenes previamente capturadas contienen los datos de imagen para esa posición terrestre. Esto es en general realizado por la verificación para ver si la posición terrestre yace dentro de los límites de la imagen de una imagen previamente capturada. Cuando se seleccionan las imágenes oblicuas fuente, por ejemplo, las imágenes capturadas de entrada, con el fin de lograr una imagen de salida o producida deseable, es importante utilizar las imágenes oblicuas fuente que fueron capturadas en la misma, o casi la misma, orientación relativa de la cámara virtual 20, en términos del ángulo oblicuo hacia abajo, y la dirección de la brújula del eje óptico. Mientras que en general no es un problema utilizar la imaginería de entrada proveniente de una cámara cuyo modelo es diferente que el modelo de la cámara virtual, si este modelo es radicalmente diferente (por ejemplo, un explorador o escáner lineal versus un dispositivo de captura de cuadros completos), esto puede dar como resultado una imagen resultante no deseable. Mientras que esta invención discute el uso de las imágenes capturadas como introducidas al mosaico oblicuo 12, esto no es efectivamente requerido. Es posible utilizar una imagen proyectada como la entrada a este proceso, o incluso utilizar otro mosaico oblicuo como la entrada a este proceso. Sin embargo, ya que
este proceso reproyecta las imágenes introducidas, es deseable utilizar las imágenes introducidas no proyectadas, por ejemplo, las imágenes capturadas. La razón es que la reproyección de los datos ya proyectados puede a menudo producir artefactos, de la clase de los errores de redondeo en los cálculos matemáticos . Estos artefactos pueden crear un mosaico resultante, no deseable . Es en general deseable crear el mosaico oblicuo 12 continuo. Con el fin de hacerlo así, deben ser capturados los datos de la imagen para el área completa que es "capturada" por la cámara virtual 20. Esto significa que si múltiples imágenes capturadas están siendo combinadas para crear el mosaico oblicuo 12, aquellas imágenes de entrada deben ser adyacentes o más comúnmente traslapadas . Como resultado de este traslape, es común que existan múltiples imágenes capturadas que cubran la misma área sobre el terreno. Si múltiples imágenes capturadas son disponibles para la selección, una imagen capturada preferida es elegida de acuerdo a los criterios de selección descritos más adelante . Cuando las múltiples imágenes provenientes de las cámaras reales 14 cubren el mismo punto sobre el terreno, puede ser utilizado un proceso de selección para determinar cuál imagen de cámara real debe ser utilizada como la entrada
para la creación de la imagen de mapa de pixeles de la cámara virtual. Este proceso de selección puede ser realizado mediante la asignación de pesos o ponderaciones (valores numéricos asignados) a los siguientes criterios de entrada, multiplicando esas ponderaciones por los criterios formalizados (un valor que ha sido cambiado de escala entre 0 y 1), y luego seleccionando la imagen con la mayor suma de estos productos de ponderación/criterio. Mientras que cualquier número de criterios puede ser utilizado, han sido utilizados los siguientes tres criterios en el desarrollo de esta invención. Criterios de Selección: Distancia al Eje Óptico La distancia entre el punto sobre el terreno que es seleccionado y el punto donde el eje óptico de la cámara de entrada intersecta el terreno. Este valor puede ser normalizado al dividir la distancia entre la distancia máxima capaz de ser medida en la escena. Criterio de Selección: Diferencia Angular al Eje
Óptico La diferencia entre los siguientes dos ángulos: el ángulo del eje óptico de la cámara de entrada (en general medido con relación a la perpendicular) y el ángulo del rayo que es difundido desde la cámara virtual hacia el punto sobre el terreno que es seleccionado (nuevamente, en general medido con relación a la perpendicular) . Este valor puede ser
normalizado al dividir entre 180 grados. Criterio de Selección: Distancia a la Línea Central de la Calle Más Cercana La distancia entre el punto sobre el terreno que es seleccionado y la línea central de la calle más cercana. Las líneas centrales de calle pueden ser obtenidas a partir de los archivos de datos de vectores tales como los archivos TIGER u otros archivos de Sistema de Información Geográfica. Este valor puede ser normalizado al dividir entre la distancia máxima capaz de ser medida en la escena. Una vez que la imagen capturada preferida ha sido seleccionada, las ecuaciones proyectivas para la cámara de la imagen capturada son utilizadas para proyectar desde el terreno hacia arriba a la cámara, tomando en cuenta la elevación del terreno cuando se realiza esto. Esta proyección a través del punto focal y sobre el plano sensor de la cámara, encontrará una hilera y una columna de pixeles, correspondientes al punto sobre el terreno. Ya que éste típicamente no cae sobre una hilera o columna íntegra, se utiliza la interpolación bilineal (una fórmula matemática estándar en la industria para encontrar un valor simple para la proximidad proporcionada a los cuatro pixeles circunvecinos) para encontrar el valor del píxel para el punto correspondiente sobre el plano sensor de la cámara. El valor del píxel es luego utilizado para rellenar
el píxel en la imagen que corresponde al plano sensor de la cámara virtual del cual fue proyectado el rayo original hacia afuera sobre el terreno. Este proceso es repetido para algunos o todos los pixeles restantes en el plano sensor de la cámara virtual, dando como resultado una imagen que cubre alguna área o el área completa sobre el terreno que la cámara virtual 20 puede "observar". Preferentemente, este proceso es repetido para todos los pixeles remanentes en el plano sensor de la cámara virtual, dando como resultado una imagen completa que cubre el área entera sobre el terreno que la cámara virtual 20 "observar" . La imagen resultante y sus ecuaciones proyectivas correspondientes son luego almacenadas. La imagen resultante puede ser almacenada en cualquier formato, incluyendo uno de los muchos formatos de imágenes estándares en la industria tales como TIFF, JFIF, TARGA, Archivo de Mapa de Bitios de Windows, PNG o cualquier otro formato estándar en la industria. Para las ecuaciones proyectivas correspondientes, en una modalidad preferida, deben ser almacenados los siguientes datos, como metadatos con la imagen resultante, ya sea anexada al mismo archivo o en otro archivo fácilmente accesible (una práctica estándar en la industria es utilizar el mismo nombre de archivo pero con una extensión de archivo diferente) . 1. La posición de la cámara - en general, la posición de la
cámara es especificada por una posición y altitud geográficas (o altura sobre el terreno) . 2. La orientación de la cámara - en general especificada por tres ángulos: oscilación, separación y giro (u omega, phi y kappa) . 3. El tamaño del sensor - en general especificado como un tamaño de sensor completo en milímetros (o por el tamaño de un elemento sensor individual) . 4. La longitud focal de la lente - en general especificada en milímetros. 5. Opcionalmente , la información de distorsión de lente - en general especificada como un desplazamiento del punto principal (desplazamiento entre el eje óptico y la parte intermedia del sensor) y como términos de distorsión radial (coeficientes polinomiales que describen la cantidad de distorsión que ocurre radialmente fuera del eje óptico) . 6. Opcionalmente, un modelo de elevación del terreno - en general especificado como una rejilla de valores de elevación . Como se discutió anteriormente, la perspectiva relativa de la cámara provoca un efecto conocido como "inclinación de edificios". Mientras que la inclinación de edificios es más comúnmente aplicada a, y de este modo discutida como edificios, ésta también aplica a cualquier
estructura vertical en el objeto, tales como torres de electricidad, árboles, automóviles, cabinas telefónicas, buzones de correo, señalizaciones de calles, y similares. La inclinación de los edificios es un efecto que hace parecer como si los edificios que no están a lo largo del eje óptico de la cámara se "torcieran" lejos del eje óptico - entre más alejado del eje óptico, mayor es la inclinación. Esta inclinación es el resultado de la perspectiva, que provoca que los objetos sean elevados del terreno para parecer más alejados "hacia atrás" en la imagen, lejos de la cámara. De este modo, la parte superior de una construcción parece más alejada hacia atrás que el fondo de una construcción. Cuando esta inclinación corresponde a la perspectiva de la cámara, ésta parece normal. Sin embargo, como parte del proceso de mosaico oblicuo, las imágenes capturadas, cada una con su propia perspectiva, son combinadas en una perspectiva de cámara virtual simple. Esta combinación de diferentes perspectivas se vuelve problemática, especialmente cuando dos diferentes imágenes capturadas provenientes de diferentes puntos de posición ventajosa contribuyen a los valores de pixel a las áreas adyacentes en la imagen de mapa de pixeles de la cámara virtual. Por ejemplo, si una cámara a la izquierda de una construcción proporciona el lado izquierdo de una construcción, entonces esa porción de la construcción
parecerá estarse inclinando hacia la derecha (lejos de la cámara) . Si una cámara que está localizada a la derecha de la construcción proporciona el lado derecho de la construcción, entonces esa porción de la construcción parecerá estarse inclinando hacia la izquierda. Ya que las dos mitades de la construcción "se inclinan una hacia la otra" , la imagen combinada resultante tiene una construcción que tiene una apariencia triangular, en vez de rectangular. Debido a que la inclinación de la construcción únicamente afecta las superficies por arriba de la superficie del terreno, es en general claramente difícil explicar o corregir estos efectos debido a que con el fin de hacerlo así, el usuario debe tener conocimiento de la presencia de la construcción o la estructura. Los rasgos o características que están sobre el terreno no experimentan esta inclinación de construcción, debido a que el cambio en la perspectiva relativa es anulado cuando es tomada en consideración la elevación del terreno en las ecuaciones proyectivas . El modelo matemático utilizado para definir la superficie del terreno durante el proceso proyectivo, asegura que sea seleccionada la posición terrestre correcta. Sin embargo, para objetos que se elevan por arriba de la superficie del terreno, y no son representados en el modelo matemático utilizado para definir la superficie del terreno, este cambio en perspectiva relativa provoca que la cámara virtual "vea"
la parte superior de la construcción en el lugar erróneo -por ejemplo demasiado alejada hacia atrás de la cámara. Un método para reducir al mínimo los efectos de la inclinación de los edificios o construcciones, como se contempla en la presente, es la transición entre una imagen de cámara de entrada y la siguiente imagen de cámara de entrada sobre un área donde no existen estructuras por arriba o por debajo del modelo de elevación del terreno. En una modalidad, esto es logrado mediante la colocación de la transición debajo de la parte intermedia de una calle. De este modo, al tener un criterio de selección adecuadamente ponderado para la distancia hacia la línea central de la calle, si existe una calle en el área donde dos imágenes capturadas se traslapan, entonces la transición a partir de los pixeles contribuyentes provenientes de una imagen capturada a los pixeles contribuyentes de la segunda imagen capturada, ocurrirá a lo largo de esta calle, reduciendo al mínimo de este modo los efectos de la inclinación de los edificios . Un método para la eliminación de la inclinación de edificios o construcciones completamente, como se contempla en la presente, es proporcionar un modelo de elevación terrestre preciso, que tome en consideración las construcciones o edificios y otras estructuras verticales. De este modo, cada píxel que comprende la imagen de la
construcción es representada en el modelo matemático del modelo de elevación del terreno, y por lo tanto el cambio en la perspectiva relativa es explicado en el proceso proyectivo. Sin embargo, para que esto funcione bien, el modelo de elevación debe estar altamente correlacionado a la imaginería de entrada. Si existe algún cambio o desplazamiento en la posición entre la imaginería y el modelo de elevación, entonces los edificios no serán proyectados adecuadamente cuando se cree la imagen de mosaico oblicuo 12. Para superar esta limitación, la metodología preferida es crear el modelo de elevación a partir de la imaginería misma. Esto puede ser realizado mediante el uso de un proceso estándar industrial conocido como aero-triangulación, el cual encuentra la elevación de un punto sobre el terreno al comparar su posición en dos imágenes capturadas, traslapadas, y utilizando las ecuaciones proyectivas de sus cámaras correspondientes, para triangular su posición y elevación. La repetición de este proceso sobre el área traslapada completa, puede producir un modelo matemático preciso de la superficie no solamente del terreno, sino también de la superficie de las estructuras y objetos dentro de las imágenes. De manera más importante, debido a que este modelo es derivado de la imaginería misma, está por definición, altamente correlacionado a la imagen de entrada. Otro método para eliminar la inclinación de los
edificios, contemplado para el uso en la presente, es intentar identificar las estructuras verticales mediante el uso de un proceso de concordancia de bordes entre la imaginería oblicua y nadir correspondiente. Las estructuras verticales no aparecen en una imagen verdaderamente nadir, y éstas se aparecen escasamente en una imagen ligeramente fuera de nadir. De este modo, cuando se compara una imagen oblicua con su imagen de nadir correspondiente, la diferencia principal entre las estructuras que aparecen en las dos imágenes serán las estructuras verticales. Mediante el uso de uno o más algoritmos de detección de bordes (tales como un Filtro Lapaciano estándar en la industria) , es posible identificar las diversas estructuras dentro de las dos imágenes y luego aislar los bordes verticales en la imagen oblicua mediante la sustracción de las estructuras no verticales que también aparecen en la imagen de nadir. Una vez que estas estructuras verticales han sido encontradas, los pixeles para esas estructuras verticales pueden ser cambiados o desplazados para eliminar los efectos del cambio en la perspectiva relativa. Al cambiar la posición aparente del píxel en la imagen oblicua capturada por la altura relativa por arriba del modelo terrestre encontrado a través de la medición de los bordes verticales, puede ser determinada su posición terrestre adecuada, negando de este modo los efectos de inclinación de los edificios.
Se debe entender que los procesos anteriormente descritos pueden ser realizados con ayuda de un sistema de computadora que corre el software de procesamiento de imágenes adaptado para realizar las funciones descritas anteriormente, y las imágenes resultantes y los datos son almacenados sobre uno o más medios legibles en computadora. Los ejemplos de un medio legible en computadora incluyen un dispositivo de almacenamiento óptico, un dispositivo de almacenamiento magnético, un dispositivo de almacenamiento electrónico o similares. El término "Sistema de Computadora" como se utiliza en la presente, significa un sistema o sistemas que son capaces de ejemplificar y/o ejecutar la lógica de los procesos descritos en la presente. El lógico ejemplificado en la forma de instrucciones de software o de microprogramación (firmware) pueden ser ejecutados sobre cualquier equipo físico (hardware) apropiado que puede ser un sistema o sistemas dedicados, o un sistema de cómputo para fines generales, o un sistema de procesamiento distribuido, todos los cuales son bien entendidos en la técnica, y una descripción detallada de cómo elaborar o utilizar tales computadoras, no es considerado necesario en la presente. Cuando el sistema de computadoras es utilizado para ejecutar el programa lógico de los procesos descritos en la presente, tal o tales computadoras y/o la ejecución pueden ser conducidas a una misma posición geográfica o a múltiples
posiciones geográficas diferentes. Además, la ejecución del lógico puede ser conducida continuamente o a múltiples tiempos discretos. Además, tal lógico puede ser realizado aproximadamente simultáneamente con la captura de las imágenes, o después de esto, o combinaciones de las mismas. Aunque la invención anterior ha sido descrita en cierto detalle a manera de ilustración y ejemplo para fines de claridad y de entendimiento, será obvio para aquellos expertos en la materia que pueden ser practícaos ciertos cambios y modificaciones sin apartarse del espíritu y alcance de la misma, como se describe en esta especificación y como se define en las reivindicaciones anexas mostradas enseguida. Se hace constar que con relación a esta fecha el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.
Claims (26)
- REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones : 1. Un método para crear una imagen de mosaico oblicuo proveniente de una pluralidad de imágenes oblicuas fuente, caracterizado porque comprende los pasos de: identificar un área deseada que va a ser formada en imagen, y recolectada en una imagen de mosaico oblicuo; la creación de un modelo matemático de un sensor de una cámara virtual, donde la cámara virtual tiene una elevación mayor que una elevación del área que va a ser formada en imagen, teniendo el modelo matemático un mapa de pixeles de mosaico oblicuo para el sensor del área deseada; la asignación de una posición superficial a cada píxel incluido en el mapa de pixeles de mosaico oblicuo; y la reproyección de al menos un píxel de imagen oblicua fuente del área que va a ser formada en imagen para cada píxel incluido en el mapa de pixeles de mosaico oblicuo para crear con esto una imagen de mosaico oblicuo del área geográfica deseada.
- 2. El método de conformidad con la reivindicación 1, caracterizado porque el paso de asignación es además definido por la proyección de cada píxel a través de la perspectiva de la cámara virtual, para determinar una posición superficial correspondiente para cada píxel en el mapa de pixeles de mosaico oblicuo.
- 3. El método de conformidad con la reivindicación 1, caracterizado porque las múltiples imágenes oblicuas fuente representan la misma posición superficial.
- 4. El método de conformidad con la reivindicación 1, caracterizado porque comprende además el paso de seleccionar las imágenes oblicuas fuente de la posición superficial capturada a un ángulo oblicuo y dirección de brújula similar al ángulo oblicuo y dirección de brújula de la cámara virtual .
- 5. El método de conformidad con la reivindicación 3, caracterizado porque los pixeles de cada imagen oblicua fuente que representan la misma posición superficial, son comparadas para determinar cuál píxel fuente es el más representativo de la posición superficial, el píxel más representativo es incluido en la imagen de mosaico oblicuo.
- 6. El método de conformidad con la reivindicación 1, caracterizado porque el paso de reproyección es además definido por la reproyección del píxel para ajustarse al tamaño y a la forma de la posición superficial representada como es tomada a partir de la elevación, la dirección de brújula, y el ángulo oblicuo de la cámara virtual.
- 7. El método de conformidad con la reivindicación 1, caracterizado porque el paso de reproyección es además definido por la eliminación de los efectos de elevación desde las imágenes oblicuas fuente antes de la reproyección, y luego agregando los efectos de la elevación a la imagen de mosaico oblicuo después de la reproyección.
- 8. El método de conformidad con la reivindicación 1, caracterizado porgue comprende además el paso de reducir al mínimo la inclinación de las estructuras verticales dentro de la imagen de mosaico oblicuo.
- 9. El método de conformidad con la reivindicación 8, caracterizado porque el paso de minimización de la inclinación de las estructuras verticales dentro de la imagen de mosaico oblicuo, es definida además como los pasos de creación de un modelo de elevación a partir de las imágenes oblicuas fuente, tomando en cuenta las estructuras verticales, y la reproyección de al menos un píxel de imagen oblicua fuente, del área que va a ser formada en imagen.
- 10. El método de conformidad con la reivindicación 8, caracterizado porque el paso de minimización de la inclinación de las estructuras verticales, es definido además como la concordancia o ajuste de las estructuras verticales en múltiples imágenes oblicuas fuente, y cambiando la posición aparente de los pixeles en al menos una de las imágenes oblicuas fuente, por una altura relativa por arriba de un modelo terrestre.
- 11. El método de conformidad con la reivindicación 1, caracterizado porque el metadato es almacenado con la imagen de mosaico oblicuo.
- 12. El método de conformidad con la reivindicación 1, caracterizado porque la imagen de mosaico oblicuo es geo-referenciada .
- 13. El método de conformidad con la reivindicación 1, caracterizado porque el área deseada que va a ser formada en imagen representa un área geográfica.
- 14. Un método para crear una imagen de mosaico oblicuo a partir de una pluralidad de imágenes oblicuas fuente, caracterizado porque comprende los pasos de: identificar un área deseada que va a ser formada en imagen, y recolectada en una imagen de mosaico oblicuo; la creación de un modelo matemático de un sensor de una cámara virtual, donde la cámara virtual tiene una elevación mayor que una elevación del área que va a ser formada en imagen, el modelo matemático tiene un mapa de pixeles de mosaico oblicuo para el sensor del área deseada; la determinación de una posición superficial para cada píxel incluido en el mapa de pixeles del mosaico oblicuo; y la reproyección de al menos un píxel de imagen oblicua fuente del área que va a ser formada en imagen para cada píxel incluido en el mapa de pixeles de mosaico oblicuo para crear con esto una imagen de mosaico oblicuo del área geográfica deseada.
- 15. El método de conformidad con la reivindicación 14, caracterizado porque el paso de asignación es además definido por la proyección de cada pixel a través de la perspectiva de la cámara virtual, para determinar una posición superficial correspondiente para cada pixel en el mapa de pixeles de mosaico oblicuo.
- 16. El método de conformidad con la reivindicación 14, caracterizado porque las múltiples imágenes oblicuas fuente representan la misma posición superficial.
- 17. El método de conformidad con la reivindicación 14, caracterizado porque comprende además el paso de seleccionar las imágenes oblicuas fuente de la posición superficial capturada a un ángulo oblicuo y dirección de brújula similar al ángulo oblicuo y dirección de brújula de la cámara virtual .
- 18. El método de conformidad con la reivindicación 16, caracterizado porque los pixeles de cada imagen oblicua fuente que representan la misma posición superficial, son comparadas para determinar cuál pixel fuente es el más representativo de la posición superficial, el pixel más representativo es incluido en la imagen de mosaico oblicuo.
- 19. El método de conformidad con la reivindicación 14, caracterizado porque el paso de reproyección es además definido por la reproyección del pixel para ajustarse al tamaño y a la forma de la posición superficial' representada como es tomada a partir de la elevación, la dirección de brújula, y el ángulo oblicuo de la cámara virtual.
- 20. El método de conformidad con la reivindicación 14, caracterizado porque el paso de reproyección es además definido por la eliminación de los efectos de elevación desde las imágenes oblicuas fuente antes de la reproyección, y luego agregando los efectos de la elevación a la imagen de mosaico oblicuo después de la reproyección.
- 21. El método de conformidad con la reivindicación 14, caracterizado porque comprende además el paso de reducir al mínimo la inclinación de las estructuras verticales dentro de la imagen de mosaico oblicuo.
- 22. El método de conformidad con la reivindicación 21, caracterizado porque el paso de minimización de la inclinación de las estructuras verticales dentro de la imagen de mosaico oblicuo, es definida además como los pasos de creación de un modelo de elevación a partir de las imágenes oblicuas fuente, tomando en cuenta las estructuras verticales, y la reproyección de al menos un píxel de imagen oblicua fuente, del área que va a ser formada en imagen.
- 23. El método de conformidad con la reivindicación 21, caracterizado porque el paso de minimización de la inclinación de las estructuras verticales, es definido además como la concordancia o ajuste de las estructuras verticales en múltiples imágenes oblicuas fuente, y cambiando la posición aparente de los pixeles en al menos una de las imágenes oblicuas fuente, por una altura relativa por arriba de un modelo terrestre.
- 24. El método de conformidad con la reivindicación 14, caracterizado porque el metadato es almacenado con la imagen de mosaico oblicuo.
- 25. El método de conformidad con la reivindicación 14, caracterizado porque la imagen de mosaico oblicuo es geo-referenciada .
- 26. El método de conformidad con la reivindicación 14, caracterizado porque el área deseada que va a ser formada en imagen representa un área geográfica.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US84099206P | 2006-08-30 | 2006-08-30 | |
PCT/US2007/077242 WO2008028040A2 (en) | 2006-08-30 | 2007-08-30 | Mosaic oblique images and methods of making and using same |
Publications (1)
Publication Number | Publication Date |
---|---|
MX2009002339A true MX2009002339A (es) | 2009-03-23 |
Family
ID=39136884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MX2009002339A MX2009002339A (es) | 2006-08-30 | 2007-08-30 | Imagenes oblicuas en mosaico y metodos de elaboracion y uso de las mismas. |
Country Status (8)
Country | Link |
---|---|
US (9) | US7873238B2 (es) |
EP (1) | EP2057585B1 (es) |
JP (1) | JP4981135B2 (es) |
AU (1) | AU2007289120C1 (es) |
CA (1) | CA2662355C (es) |
ES (1) | ES2787226T3 (es) |
MX (1) | MX2009002339A (es) |
WO (1) | WO2008028040A2 (es) |
Families Citing this family (106)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7424133B2 (en) | 2002-11-08 | 2008-09-09 | Pictometry International Corporation | Method and apparatus for capturing, geolocating and measuring oblique images |
US7873238B2 (en) | 2006-08-30 | 2011-01-18 | Pictometry International Corporation | Mosaic oblique images and methods of making and using same |
US8090166B2 (en) | 2006-09-21 | 2012-01-03 | Surgix Ltd. | Medical image analysis |
US8565552B2 (en) * | 2006-11-14 | 2013-10-22 | Codonics, Inc. | Assembling multiple medical images into a single film image |
US8593518B2 (en) * | 2007-02-01 | 2013-11-26 | Pictometry International Corp. | Computer system for continuous oblique panning |
US8520079B2 (en) * | 2007-02-15 | 2013-08-27 | Pictometry International Corp. | Event multiplexer for managing the capture of images |
US8145578B2 (en) * | 2007-04-17 | 2012-03-27 | Eagel View Technologies, Inc. | Aerial roof estimation system and method |
US8078436B2 (en) | 2007-04-17 | 2011-12-13 | Eagle View Technologies, Inc. | Aerial roof estimation systems and methods |
US9262818B2 (en) | 2007-05-01 | 2016-02-16 | Pictometry International Corp. | System for detecting image abnormalities |
US8385672B2 (en) * | 2007-05-01 | 2013-02-26 | Pictometry International Corp. | System for detecting image abnormalities |
IL184151A0 (en) | 2007-06-21 | 2007-10-31 | Diagnostica Imaging Software Ltd | X-ray measurement method |
US7991226B2 (en) | 2007-10-12 | 2011-08-02 | Pictometry International Corporation | System and process for color-balancing a series of oblique images |
US8531472B2 (en) | 2007-12-03 | 2013-09-10 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real façade texture |
US8497905B2 (en) | 2008-04-11 | 2013-07-30 | nearmap australia pty ltd. | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US8675068B2 (en) * | 2008-04-11 | 2014-03-18 | Nearmap Australia Pty Ltd | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US9109998B2 (en) * | 2008-06-18 | 2015-08-18 | Orthopedic Navigation Ltd. | Method and system for stitching multiple images into a panoramic image |
US8588547B2 (en) * | 2008-08-05 | 2013-11-19 | Pictometry International Corp. | Cut-line steering methods for forming a mosaic image of a geographical area |
US8311287B2 (en) * | 2008-09-25 | 2012-11-13 | Microsoft Corporation | Validation and correction of map data using oblique images |
US20100085350A1 (en) * | 2008-10-02 | 2010-04-08 | Microsoft Corporation | Oblique display with additional detail |
US8170840B2 (en) | 2008-10-31 | 2012-05-01 | Eagle View Technologies, Inc. | Pitch determination systems and methods for aerial roof estimation |
US8731234B1 (en) | 2008-10-31 | 2014-05-20 | Eagle View Technologies, Inc. | Automated roof identification systems and methods |
US8209152B2 (en) | 2008-10-31 | 2012-06-26 | Eagleview Technologies, Inc. | Concurrent display systems and methods for aerial roof estimation |
US8401222B2 (en) * | 2009-05-22 | 2013-03-19 | Pictometry International Corp. | System and process for roof measurement using aerial imagery |
JP5304465B2 (ja) * | 2009-06-16 | 2013-10-02 | 朝日航洋株式会社 | モザイク画像生成方法、装置及びプログラム |
JP5288482B2 (ja) * | 2009-07-21 | 2013-09-11 | Nec東芝スペースシステム株式会社 | 撮像装置、撮像方法、撮像回路及びプログラム |
US9330494B2 (en) | 2009-10-26 | 2016-05-03 | Pictometry International Corp. | Method for the automatic material classification and texture simulation for 3D models |
US8159524B2 (en) * | 2009-11-09 | 2012-04-17 | Google Inc. | Orthorectifying stitched oblique imagery to a nadir view, and applications thereof |
US8970619B2 (en) | 2009-11-24 | 2015-03-03 | Microsoft Technology Licensing, Llc | Parallelized generation of substantially seamless image mosaics |
FR2953940B1 (fr) * | 2009-12-16 | 2012-02-03 | Thales Sa | Procede de geo-referencement d'une zone imagee |
US20120114229A1 (en) * | 2010-01-21 | 2012-05-10 | Guoqing Zhou | Orthorectification and mosaic of video flow |
CA2801486C (en) | 2010-02-01 | 2018-12-11 | Eagle View Technologies, Inc. | Geometric correction of rough wireframe models derived from photographs |
US9014415B2 (en) * | 2010-04-22 | 2015-04-21 | The University Of North Carolina At Charlotte | Spatially integrated aerial photography for bridge, structure, and environmental monitoring |
US9036861B2 (en) * | 2010-04-22 | 2015-05-19 | The University Of North Carolina At Charlotte | Method and system for remotely inspecting bridges and other structures |
US8477190B2 (en) | 2010-07-07 | 2013-07-02 | Pictometry International Corp. | Real-time moving platform management system |
US8823732B2 (en) | 2010-12-17 | 2014-09-02 | Pictometry International Corp. | Systems and methods for processing images with edge detection and snap-to feature |
US8505847B2 (en) | 2011-03-01 | 2013-08-13 | John Ciampa | Lighter-than-air systems, methods, and kits for obtaining aerial images |
US8768068B2 (en) * | 2011-05-04 | 2014-07-01 | Raytheon Company | Automated building detecting |
BR112013031128A2 (pt) | 2011-06-10 | 2017-06-27 | Pictometry Int Corp | sistema e método para formar fluxo de vídeo que contém dados de gis em tempo real |
US9639757B2 (en) * | 2011-09-23 | 2017-05-02 | Corelogic Solutions, Llc | Building footprint extraction apparatus, method and computer program product |
ES2672881T3 (es) | 2011-11-29 | 2018-06-18 | Pictometry International Corp. | Sistema de detección automática de huella de estructura de imaginería oblicua |
US9599466B2 (en) | 2012-02-03 | 2017-03-21 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area |
US10663294B2 (en) | 2012-02-03 | 2020-05-26 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area and producing a wall estimation report |
US8774525B2 (en) | 2012-02-03 | 2014-07-08 | Eagle View Technologies, Inc. | Systems and methods for estimation of building floor area |
US9933257B2 (en) | 2012-02-03 | 2018-04-03 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area |
US10515414B2 (en) | 2012-02-03 | 2019-12-24 | Eagle View Technologies, Inc. | Systems and methods for performing a risk management assessment of a property |
US9501700B2 (en) | 2012-02-15 | 2016-11-22 | Xactware Solutions, Inc. | System and method for construction estimation using aerial images |
US9183538B2 (en) | 2012-03-19 | 2015-11-10 | Pictometry International Corp. | Method and system for quick square roof reporting |
JP6000081B2 (ja) * | 2012-11-14 | 2016-09-28 | 株式会社日立ソリューションズ | 情報処理プログラム及び情報処理装置 |
US9881163B2 (en) | 2013-03-12 | 2018-01-30 | Pictometry International Corp. | System and method for performing sensitive geo-spatial processing in non-sensitive operator environments |
US9244272B2 (en) | 2013-03-12 | 2016-01-26 | Pictometry International Corp. | Lidar system producing multiple scan paths and method of making and using same |
US9753950B2 (en) | 2013-03-15 | 2017-09-05 | Pictometry International Corp. | Virtual property reporting for automatic structure detection |
US10909482B2 (en) | 2013-03-15 | 2021-02-02 | Pictometry International Corp. | Building materials estimation |
US11587176B2 (en) | 2013-03-15 | 2023-02-21 | Eagle View Technologies, Inc. | Price estimation model |
US9058673B2 (en) * | 2013-03-15 | 2015-06-16 | Oracle International Corporation | Image mosaicking using a virtual grid |
US9959581B2 (en) | 2013-03-15 | 2018-05-01 | Eagle View Technologies, Inc. | Property management on a smartphone |
US9275080B2 (en) | 2013-03-15 | 2016-03-01 | Pictometry International Corp. | System and method for early access to captured images |
KR102150743B1 (ko) | 2013-05-03 | 2020-09-02 | 에어로바이론먼트 인크 | 수직 이착륙(vtol) 공중 비행체 |
US9185289B2 (en) | 2013-06-10 | 2015-11-10 | International Business Machines Corporation | Generating a composite field of view using a plurality of oblique panoramic images of a geographic area |
US9031325B2 (en) | 2013-07-19 | 2015-05-12 | Digitalglobe, Inc. | Automatic extraction of built-up footprints from high resolution overhead imagery through manipulation of alpha-tree data structures |
US9679227B2 (en) | 2013-08-02 | 2017-06-13 | Xactware Solutions, Inc. | System and method for detecting features in aerial images using disparity mapping and segmentation techniques |
US20150095071A1 (en) | 2013-09-29 | 2015-04-02 | Donan Engineering Co., Inc. | Systems and Methods for Identifying a Subrogation Opportunity for a Potential Subrogation Claim |
US10108755B2 (en) * | 2013-11-19 | 2018-10-23 | Aerohive Networks, Inc. | RF floor plan building |
CA2935457C (en) | 2014-01-10 | 2022-08-09 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US9292913B2 (en) | 2014-01-31 | 2016-03-22 | Pictometry International Corp. | Augmented three dimensional point collection of vertical structures |
CA2938973A1 (en) | 2014-02-08 | 2015-08-13 | Pictometry International Corp. | Method and system for displaying room interiors on a floor plan |
US9367895B2 (en) * | 2014-03-19 | 2016-06-14 | Digitalglobe, Inc. | Automated sliver removal in orthomosaic generation |
US10089766B2 (en) | 2014-03-28 | 2018-10-02 | Konica Minolta Laboratory U.S.A., Inc | Method and system of stitching aerial data using information from previous aerial images |
US9619711B2 (en) * | 2014-09-29 | 2017-04-11 | Digitalglobe, Inc. | Multi-spectral image labeling with radiometric attribute vectors of image space representation components |
US9460517B2 (en) | 2014-10-22 | 2016-10-04 | Pointivo, Inc | Photogrammetric methods and devices related thereto |
US10850866B2 (en) * | 2015-02-11 | 2020-12-01 | Aerovironment, Inc. | Pod cover system for a vertical take-off and landing (VTOL) unmanned aerial vehicle (UAV) |
US11021266B2 (en) | 2015-02-11 | 2021-06-01 | Aerovironment, Inc. | Pod operating system for a vertical take-off and landing (VTOL) unmanned aerial vehicle (UAV) |
US9977435B2 (en) | 2015-02-11 | 2018-05-22 | Aeroviroment, Inc. | Survey migration system for vertical take-off and landing (VTOL) unmanned aerial vehicles (UAVS) |
US9880563B2 (en) | 2015-02-11 | 2018-01-30 | Aerovironment, Inc. | Geographic survey system for vertical take-off and landing (VTOL) unmanned aerial vehicles (UAVs) |
US10336470B2 (en) | 2015-02-11 | 2019-07-02 | Aerovironment, Inc. | Pod launch and landing system for vertical take-off and landing (VTOL)unmanned aerial vehicles (UAVs) |
CA2994834C (en) | 2015-08-06 | 2021-05-04 | Digitalglobe, Inc. | Choreographing automated and manual processes in support of mosaic generation |
CA2995850A1 (en) | 2015-08-31 | 2017-03-09 | Ryan Kottenstette | Systems and methods for analyzing remote sensing imagery |
US10275939B2 (en) | 2015-11-05 | 2019-04-30 | Google Llc | Determining two-dimensional images using three-dimensional models |
US20170235018A1 (en) | 2016-01-08 | 2017-08-17 | Pictometry International Corp. | Systems and methods for taking, processing, retrieving, and displaying images from unmanned aerial vehicles |
WO2017142788A1 (en) | 2016-02-15 | 2017-08-24 | Pictometry International Corp. | Automated system and methodology for feature extraction |
US10671648B2 (en) | 2016-02-22 | 2020-06-02 | Eagle View Technologies, Inc. | Integrated centralized property database systems and methods |
US10628802B2 (en) | 2016-05-19 | 2020-04-21 | Lockheed Martin Corporation | Systems and methods for assessing damage to infrastructure assets |
US11959751B2 (en) * | 2016-05-26 | 2024-04-16 | Apple Inc. | Correcting compass view using map data |
US10032267B2 (en) | 2016-06-09 | 2018-07-24 | Lockheed Martin Corporation | Automating the assessment of damage to infrastructure assets |
US10521664B2 (en) | 2016-11-04 | 2019-12-31 | Loveland Innovations, LLC | Systems and methods for autonomous perpendicular imaging of test squares |
US9823658B1 (en) | 2016-11-04 | 2017-11-21 | Loveland Innovations, LLC | Systems and methods for adaptive property analysis via autonomous vehicles |
CN108399597A (zh) * | 2017-02-07 | 2018-08-14 | 深圳前海明磊融创科技有限公司 | 关键信息处理方法和装置 |
US10984182B2 (en) | 2017-05-12 | 2021-04-20 | Loveland Innovations, LLC | Systems and methods for context-rich annotation and report generation for UAV microscan data |
US10364027B2 (en) | 2017-10-24 | 2019-07-30 | Loveland Innovations, LLC | Crisscross boustrophedonic flight patterns for UAV scanning and imaging |
US10503843B2 (en) | 2017-12-19 | 2019-12-10 | Eagle View Technologies, Inc. | Supervised automatic roof modeling |
AU2019212616A1 (en) * | 2018-01-25 | 2020-08-06 | Geomni, Inc. | Systems and methods for rapid alignment of digital imagery datasets to models of structures |
US10789487B2 (en) * | 2018-04-05 | 2020-09-29 | Here Global B.V. | Method, apparatus, and system for determining polyline homogeneity |
US11148805B2 (en) * | 2018-04-10 | 2021-10-19 | Government Of The United States, As Represented By The Secretary Of The Army | Enclosure for an unmanned aerial system |
US10366287B1 (en) | 2018-08-24 | 2019-07-30 | Loveland Innovations, LLC | Image analysis and estimation of rooftop solar exposure |
US11205072B2 (en) | 2018-08-24 | 2021-12-21 | Loveland Innovations, LLC | Solar ray mapping via divergent beam modeling |
US11210514B2 (en) | 2018-08-24 | 2021-12-28 | Loveland Innovations, LLC | Image analysis and estimation of rooftop solar exposure via solar ray mapping |
US11210552B2 (en) | 2018-11-14 | 2021-12-28 | Cape Analytics, Inc. | Systems, methods, and computer readable media for predictive analytics and change detection from remotely sensed imagery |
US11601603B2 (en) * | 2019-04-24 | 2023-03-07 | Matthew Walker | System and method for real-time camera tracking to form a composite image |
DE102019206036A1 (de) * | 2019-04-26 | 2020-10-29 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zur Bestimmung der geografischen Position und Orientierung eines Fahrzeugs |
US11094113B2 (en) | 2019-12-04 | 2021-08-17 | Geomni, Inc. | Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs |
EP4133235A4 (en) | 2020-04-10 | 2024-04-03 | Cape Analytics, Inc. | GEOCODING SYSTEM AND METHOD |
US11222426B2 (en) | 2020-06-02 | 2022-01-11 | Cape Analytics, Inc. | Method for property feature segmentation |
US11367265B2 (en) | 2020-10-15 | 2022-06-21 | Cape Analytics, Inc. | Method and system for automated debris detection |
US11532116B2 (en) | 2020-10-30 | 2022-12-20 | Loveland Innovations, Inc. | Graphical user interface for controlling a solar ray mapping |
US11875413B2 (en) | 2021-07-06 | 2024-01-16 | Cape Analytics, Inc. | System and method for property condition analysis |
US11676298B1 (en) | 2021-12-16 | 2023-06-13 | Cape Analytics, Inc. | System and method for change analysis |
US11861843B2 (en) | 2022-01-19 | 2024-01-02 | Cape Analytics, Inc. | System and method for object analysis |
Family Cites Families (179)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2273876A (en) | 1940-02-12 | 1942-02-24 | Frederick W Lutz | Apparatus for indicating tilt of cameras |
US2791151A (en) * | 1953-05-06 | 1957-05-07 | John T Pennington | Method of and apparatus for aerotriangulation with convergent photography |
US3153784A (en) | 1959-12-24 | 1964-10-20 | Us Industries Inc | Photo radar ground contour mapping system |
US5345086A (en) | 1962-11-28 | 1994-09-06 | Eaton Corporation | Automatic map compilation system |
US3621326A (en) | 1968-09-30 | 1971-11-16 | Itek Corp | Transformation system |
US3594556A (en) | 1969-01-08 | 1971-07-20 | Us Navy | Optical sight with electronic image stabilization |
US3661061A (en) | 1969-05-05 | 1972-05-09 | Atomic Energy Commission | Picture position finder |
US3614410A (en) | 1969-06-12 | 1971-10-19 | Knight V Bailey | Image rectifier |
US3716669A (en) | 1971-05-14 | 1973-02-13 | Japan Eng Dev Co | Mapping rectifier for generating polarstereographic maps from satellite scan signals |
US3725563A (en) | 1971-12-23 | 1973-04-03 | Singer Co | Method of perspective transformation in scanned raster visual display |
US3864513A (en) | 1972-09-11 | 1975-02-04 | Grumman Aerospace Corp | Computerized polarimetric terrain mapping system |
US4015080A (en) | 1973-04-30 | 1977-03-29 | Elliott Brothers (London) Limited | Display devices |
JPS5223975Y2 (es) | 1973-05-29 | 1977-05-31 | ||
US3877799A (en) | 1974-02-06 | 1975-04-15 | United Kingdom Government | Method of recording the first frame in a time index system |
DE2510044A1 (de) | 1975-03-07 | 1976-09-16 | Siemens Ag | Anordnung zum aufzeichnen von zeichen unter verwendung von mosaikschreibwerken |
US4707698A (en) | 1976-03-04 | 1987-11-17 | Constant James N | Coordinate measurement and radar device using image scanner |
US4240108A (en) | 1977-10-03 | 1980-12-16 | Grumman Aerospace Corporation | Vehicle controlled raster display system |
JPS5637416Y2 (es) | 1977-10-14 | 1981-09-02 | ||
IT1095061B (it) | 1978-05-19 | 1985-08-10 | Conte Raffaele | Apparecchiatura per la registrazione magnetica di eventi casuali relativi a mezzi mobili |
US4396942A (en) | 1979-04-19 | 1983-08-02 | Jackson Gates | Video surveys |
FR2461305B1 (fr) | 1979-07-06 | 1985-12-06 | Thomson Csf | Systeme indicateur cartographique destine plus particulierement a la navigation aerienne |
DE2939681A1 (de) | 1979-09-29 | 1981-04-30 | Agfa-Gevaert Ag, 5090 Leverkusen | Verfahren und vorrichtung zur ueberwachung der qualitaet bei der herstellung von fotografischen bildern |
DE2940871C2 (de) | 1979-10-09 | 1983-11-10 | Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn | Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung |
US4387056A (en) | 1981-04-16 | 1983-06-07 | E. I. Du Pont De Nemours And Company | Process for separating zero-valent nickel species from divalent nickel species |
US4382678A (en) | 1981-06-29 | 1983-05-10 | The United States Of America As Represented By The Secretary Of The Army | Measuring of feature for photo interpretation |
US4463380A (en) | 1981-09-25 | 1984-07-31 | Vought Corporation | Image processing system |
US4495500A (en) | 1982-01-26 | 1985-01-22 | Sri International | Topographic data gathering method |
US4490742A (en) | 1982-04-23 | 1984-12-25 | Vcs, Incorporated | Encoding apparatus for a closed circuit television system |
US4586138A (en) | 1982-07-29 | 1986-04-29 | The United States Of America As Represented By The United States Department Of Energy | Route profile analysis system and method |
US4491399A (en) | 1982-09-27 | 1985-01-01 | Coherent Communications, Inc. | Method and apparatus for recording a digital signal on motion picture film |
US4527055A (en) | 1982-11-15 | 1985-07-02 | Honeywell Inc. | Apparatus for selectively viewing either of two scenes of interest |
FR2536851B1 (fr) | 1982-11-30 | 1985-06-14 | Aerospatiale | Systeme de reconnaissance comportant un vehicule aerien tournant autour de son axe longitudinal |
US4489322A (en) | 1983-01-27 | 1984-12-18 | The United States Of America As Represented By The Secretary Of The Air Force | Radar calibration using direct measurement equipment and oblique photometry |
US4635136A (en) | 1984-02-06 | 1987-01-06 | Rochester Institute Of Technology | Method and apparatus for storing a massive inventory of labeled images |
US4686474A (en) | 1984-04-05 | 1987-08-11 | Deseret Research, Inc. | Survey system for collection and real time processing of geophysical data |
US4814711A (en) | 1984-04-05 | 1989-03-21 | Deseret Research, Inc. | Survey system and method for real time collection and processing of geophysicals data using signals from a global positioning satellite network |
US4673988A (en) | 1985-04-22 | 1987-06-16 | E.I. Du Pont De Nemours And Company | Electronic mosaic imaging process |
US4653136A (en) | 1985-06-21 | 1987-03-31 | Denison James W | Wiper for rear view mirror |
EP0211623A3 (en) | 1985-08-01 | 1988-09-21 | British Aerospace Public Limited Company | Identification of ground targets in airborne surveillance radar returns |
US4953227A (en) | 1986-01-31 | 1990-08-28 | Canon Kabushiki Kaisha | Image mosaic-processing method and apparatus |
US4653316A (en) | 1986-03-14 | 1987-03-31 | Kabushiki Kaisha Komatsu Seisakusho | Apparatus mounted on vehicles for detecting road surface conditions |
US4688092A (en) | 1986-05-06 | 1987-08-18 | Ford Aerospace & Communications Corporation | Satellite camera image navigation |
US4956872A (en) | 1986-10-31 | 1990-09-11 | Canon Kabushiki Kaisha | Image processing apparatus capable of random mosaic and/or oil-painting-like processing |
JPS63202182A (ja) | 1987-02-18 | 1988-08-22 | Olympus Optical Co Ltd | 傾斜ドツトパタ−ン形成方法 |
US4814896A (en) | 1987-03-06 | 1989-03-21 | Heitzman Edward F | Real time video data acquistion systems |
US5164825A (en) | 1987-03-30 | 1992-11-17 | Canon Kabushiki Kaisha | Image processing method and apparatus for mosaic or similar processing therefor |
US4807024A (en) | 1987-06-08 | 1989-02-21 | The University Of South Carolina | Three-dimensional display methods and apparatus |
US4899296A (en) | 1987-11-13 | 1990-02-06 | Khattak Anwar S | Pavement distress survey system |
US4843463A (en) | 1988-05-23 | 1989-06-27 | Michetti Joseph A | Land vehicle mounted audio-visual trip recorder |
GB8826550D0 (en) | 1988-11-14 | 1989-05-17 | Smiths Industries Plc | Image processing apparatus and methods |
US4906198A (en) | 1988-12-12 | 1990-03-06 | International Business Machines Corporation | Circuit board assembly and contact pin for use therein |
JP2765022B2 (ja) | 1989-03-24 | 1998-06-11 | キヤノン販売株式会社 | 立体画像形成装置 |
US5617224A (en) | 1989-05-08 | 1997-04-01 | Canon Kabushiki Kaisha | Imae processing apparatus having mosaic processing feature that decreases image resolution without changing image size or the number of pixels |
US5086314A (en) | 1990-05-21 | 1992-02-04 | Nikon Corporation | Exposure control apparatus for camera |
JPH0316377A (ja) | 1989-06-14 | 1991-01-24 | Kokusai Denshin Denwa Co Ltd <Kdd> | 2値画像の縮小方法及び装置 |
US5166789A (en) | 1989-08-25 | 1992-11-24 | Space Island Products & Services, Inc. | Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates |
JP3147358B2 (ja) | 1990-02-23 | 2001-03-19 | ミノルタ株式会社 | 撮影地データを記録できるカメラ |
US5335072A (en) | 1990-05-30 | 1994-08-02 | Minolta Camera Kabushiki Kaisha | Photographic system capable of storing information on photographed image data |
EP0464263A3 (en) | 1990-06-27 | 1992-06-10 | Siemens Aktiengesellschaft | Device for obstacle detection for pilots of low flying aircrafts |
US5191174A (en) | 1990-08-01 | 1993-03-02 | International Business Machines Corporation | High density circuit board and method of making same |
US5200793A (en) | 1990-10-24 | 1993-04-06 | Kaman Aerospace Corporation | Range finding array camera |
US5155597A (en) | 1990-11-28 | 1992-10-13 | Recon/Optical, Inc. | Electro-optical imaging array with motion compensation |
JPH04250436A (ja) | 1991-01-11 | 1992-09-07 | Pioneer Electron Corp | 撮像装置 |
US5265173A (en) | 1991-03-20 | 1993-11-23 | Hughes Aircraft Company | Rectilinear object image matcher |
US5369443A (en) | 1991-04-12 | 1994-11-29 | Abekas Video Systems, Inc. | Digital video effects generator |
EP0509822B1 (en) | 1991-04-16 | 1995-08-30 | Nec Corporation | Image pickup system with an image pickup device for control |
US5555018A (en) | 1991-04-25 | 1996-09-10 | Von Braun; Heiko S. | Large-scale mapping of parameters of multi-dimensional structures in natural environments |
US5187754A (en) * | 1991-04-30 | 1993-02-16 | General Electric Company | Forming, with the aid of an overview image, a composite image from a mosaic of images |
US5231435A (en) | 1991-07-12 | 1993-07-27 | Blakely Bruce W | Aerial camera mounting apparatus |
EP0530391B1 (en) | 1991-09-05 | 1996-12-11 | Nec Corporation | Image pickup system capable of producing correct image signals of an object zone |
US5677515A (en) | 1991-10-18 | 1997-10-14 | Trw Inc. | Shielded multilayer printed wiring board, high frequency, high isolation |
US5402170A (en) | 1991-12-11 | 1995-03-28 | Eastman Kodak Company | Hand-manipulated electronic camera tethered to a personal computer |
US5247356A (en) | 1992-02-14 | 1993-09-21 | Ciampa John A | Method and apparatus for mapping and measuring land |
US5251037A (en) | 1992-02-18 | 1993-10-05 | Hughes Training, Inc. | Method and apparatus for generating high resolution CCD camera images |
US5270756A (en) | 1992-02-18 | 1993-12-14 | Hughes Training, Inc. | Method and apparatus for generating high resolution vidicon camera images |
US5506644A (en) | 1992-08-18 | 1996-04-09 | Olympus Optical Co., Ltd. | Camera |
US5481479A (en) | 1992-12-10 | 1996-01-02 | Loral Fairchild Corp. | Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance |
US5355442A (en) * | 1992-12-16 | 1994-10-11 | Loral Aerospace Corp. | Terrain visualization by ray tracing a conical height field transformation |
US5342999A (en) | 1992-12-21 | 1994-08-30 | Motorola, Inc. | Apparatus for adapting semiconductor die pads and method therefor |
US5414462A (en) | 1993-02-11 | 1995-05-09 | Veatch; John W. | Method and apparatus for generating a comprehensive survey map |
US5508736A (en) | 1993-05-14 | 1996-04-16 | Cooper; Roger D. | Video signal processing apparatus for producing a composite signal for simultaneous display of data and video information |
US5467271A (en) | 1993-12-17 | 1995-11-14 | Trw, Inc. | Mapping and analysis system for precision farming applications |
CA2190596C (en) | 1994-05-19 | 2002-03-26 | Theodore M. Lachinski | Method for collecting and processing visual and spatial position information |
US5606627A (en) * | 1995-01-24 | 1997-02-25 | Eotek Inc. | Automated analytic stereo comparator |
RU2153700C2 (ru) | 1995-04-17 | 2000-07-27 | Спейс Системз/Лорал, Инк. | Система управления ориентацией и формированием изображения (варианты) |
US5604534A (en) | 1995-05-24 | 1997-02-18 | Omni Solutions International, Ltd. | Direct digital airborne panoramic camera system and method |
US5668593A (en) | 1995-06-07 | 1997-09-16 | Recon/Optical, Inc. | Method and camera system for step frame reconnaissance with motion compensation |
US5963664A (en) * | 1995-06-22 | 1999-10-05 | Sarnoff Corporation | Method and system for image combination using a parallax-based technique |
JP3328478B2 (ja) * | 1995-10-18 | 2002-09-24 | 日本電信電話株式会社 | カメラシステム |
US5835133A (en) | 1996-01-23 | 1998-11-10 | Silicon Graphics, Inc. | Optical system for single camera stereo video |
US5894323A (en) | 1996-03-22 | 1999-04-13 | Tasc, Inc, | Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data |
US5844602A (en) | 1996-05-07 | 1998-12-01 | Recon/Optical, Inc. | Electro-optical imaging array and camera system with pitch rate image motion compensation which can be used in an airplane in a dive bomb maneuver |
US5798786A (en) | 1996-05-07 | 1998-08-25 | Recon/Optical, Inc. | Electro-optical imaging detector array for a moving vehicle which includes two axis image motion compensation and transfers pixels in row directions and column directions |
US5841574A (en) | 1996-06-28 | 1998-11-24 | Recon/Optical, Inc. | Multi-special decentered catadioptric optical system |
US6108032A (en) | 1996-11-05 | 2000-08-22 | Lockheed Martin Fairchild Systems | System and method for image motion compensation of a CCD image sensor |
DE69739272D1 (de) | 1996-11-05 | 2009-04-02 | Bae Systems Information | Vorrichtung zur elektro-optischen fernerkundung mit bewegungskompensation |
RU2127075C1 (ru) | 1996-12-11 | 1999-03-10 | Корженевский Александр Владимирович | Способ получения томографического изображения тела и электроимпедансный томограф |
US6222583B1 (en) * | 1997-03-27 | 2001-04-24 | Nippon Telegraph And Telephone Corporation | Device and system for labeling sight images |
US6597818B2 (en) * | 1997-05-09 | 2003-07-22 | Sarnoff Corporation | Method and apparatus for performing geo-spatial registration of imagery |
US6097854A (en) | 1997-08-01 | 2000-08-01 | Microsoft Corporation | Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping |
US6157747A (en) | 1997-08-01 | 2000-12-05 | Microsoft Corporation | 3-dimensional image rotation method and apparatus for producing image mosaics |
WO1999018732A1 (en) * | 1997-10-06 | 1999-04-15 | Ciampa John A | Digital-image mapping |
WO1999024936A1 (en) | 1997-11-10 | 1999-05-20 | Gentech Corporation | System and method for generating super-resolution-enhanced mosaic images |
US5852753A (en) | 1997-11-10 | 1998-12-22 | Lo; Allen Kwok Wah | Dual-lens camera with shutters for taking dual or single images |
US6037945A (en) | 1997-12-16 | 2000-03-14 | Xactware, Inc. | Graphical method for modeling and estimating construction costs |
US6094215A (en) | 1998-01-06 | 2000-07-25 | Intel Corporation | Method of determining relative camera orientation position to create 3-D visual images |
US6130705A (en) | 1998-07-10 | 2000-10-10 | Recon/Optical, Inc. | Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use |
JP4245699B2 (ja) | 1998-09-16 | 2009-03-25 | オリンパス株式会社 | 撮像装置 |
US6434265B1 (en) | 1998-09-25 | 2002-08-13 | Apple Computers, Inc. | Aligning rectilinear images in 3D through projective registration and calibration |
DE19857667A1 (de) | 1998-12-15 | 2000-08-17 | Aerowest Photogrammetrie H Ben | Verfahren zur Erzeugung einer drei-dimensionalen Objektbeschreibung |
JP3593466B2 (ja) * | 1999-01-21 | 2004-11-24 | 日本電信電話株式会社 | 仮想視点画像生成方法およびその装置 |
US6167300A (en) | 1999-03-08 | 2000-12-26 | Tci Incorporated | Electric mammograph |
DE19922341C2 (de) | 1999-05-14 | 2002-08-29 | Zsp Geodaetische Sys Gmbh | Verfahren und eine Anordnung zur Bestimmung der räumlichen Koordinaten mindestens eines Objektpunktes |
AUPQ056099A0 (en) | 1999-05-25 | 1999-06-17 | Silverbrook Research Pty Ltd | A method and apparatus (pprint01) |
TW483287B (en) | 1999-06-21 | 2002-04-11 | Semiconductor Energy Lab | EL display device, driving method thereof, and electronic equipment provided with the EL display device |
US6587601B1 (en) * | 1999-06-29 | 2003-07-01 | Sarnoff Corporation | Method and apparatus for performing geo-spatial registration using a Euclidean representation |
US6639596B1 (en) | 1999-09-20 | 2003-10-28 | Microsoft Corporation | Stereo reconstruction from multiperspective panoramas |
WO2001048683A1 (en) | 1999-12-29 | 2001-07-05 | Geospan Corporation | Any aspect passive volumetric image processing method |
US6826539B2 (en) | 1999-12-31 | 2004-11-30 | Xactware, Inc. | Virtual structure data repository and directory |
US6829584B2 (en) | 1999-12-31 | 2004-12-07 | Xactware, Inc. | Virtual home data repository and directory |
US6810383B1 (en) | 2000-01-21 | 2004-10-26 | Xactware, Inc. | Automated task management and evaluation |
AU3047801A (en) | 2000-02-03 | 2001-08-14 | Alst Technical Excellence Center | Image resolution improvement using a color mosaic sensor |
CA2400975C (en) | 2000-03-16 | 2008-11-04 | The Johns Hopkins University | Light detection and ranging (lidar) mapping system |
IL151951A0 (en) | 2000-03-29 | 2003-04-10 | Astrovision International Inc | Direct broadcast imaging satellite system, apparatus and method for providing real-time, continuous monitoring of earth from geostationary earth orbit and related services |
US7184072B1 (en) | 2000-06-15 | 2007-02-27 | Power View Company, L.L.C. | Airborne inventory and inspection system and apparatus |
US6834128B1 (en) | 2000-06-16 | 2004-12-21 | Hewlett-Packard Development Company, L.P. | Image mosaicing system and method adapted to mass-market hand-held digital cameras |
US6484101B1 (en) | 2000-08-16 | 2002-11-19 | Imagelinks, Inc. | 3-dimensional interactive image modeling system |
US7313289B2 (en) * | 2000-08-30 | 2007-12-25 | Ricoh Company, Ltd. | Image processing method and apparatus and computer-readable storage medium using improved distortion correction |
US6421610B1 (en) | 2000-09-15 | 2002-07-16 | Ernest A. Carroll | Method of preparing and disseminating digitized geospatial data |
US6959120B1 (en) | 2000-10-27 | 2005-10-25 | Microsoft Corporation | Rebinning methods and arrangements for use in compressing image-based rendering (IBR) data |
US20020122117A1 (en) * | 2000-12-26 | 2002-09-05 | Masamichi Nakagawa | Camera device, camera system and image processing method |
AU2002308651A1 (en) | 2001-05-04 | 2002-11-18 | Leberl, Franz, W. | Digital camera for and method of obtaining overlapping images |
US7046401B2 (en) | 2001-06-01 | 2006-05-16 | Hewlett-Packard Development Company, L.P. | Camera-based document scanning system using multiple-pass mosaicking |
US7509241B2 (en) * | 2001-07-06 | 2009-03-24 | Sarnoff Corporation | Method and apparatus for automatically generating a site model |
US20030059743A1 (en) * | 2001-08-29 | 2003-03-27 | The Boeing Company | Method and apparatus for automatically generating a terrain model for display during flight simulation |
US20030043824A1 (en) | 2001-08-31 | 2003-03-06 | Remboski Donald J. | Vehicle active network and device |
US6747686B1 (en) | 2001-10-05 | 2004-06-08 | Recon/Optical, Inc. | High aspect stereoscopic mode camera and method |
US7262790B2 (en) | 2002-01-09 | 2007-08-28 | Charles Adams Bakewell | Mobile enforcement platform with aimable violation identification and documentation system for multiple traffic violation types across all lanes in moving traffic, generating composite display images and data to support citation generation, homeland security, and monitoring |
TW550521B (en) | 2002-02-07 | 2003-09-01 | Univ Nat Central | Method for re-building 3D model of house in a semi-automatic manner using edge segments of buildings |
US6894809B2 (en) | 2002-03-01 | 2005-05-17 | Orasee Corp. | Multiple angle display produced from remote optical sensing devices |
JP4184703B2 (ja) | 2002-04-24 | 2008-11-19 | 大日本印刷株式会社 | 画像修正方法およびシステム |
JP4273074B2 (ja) * | 2002-07-12 | 2009-06-03 | 株式会社岩根研究所 | 道路面等の平面対象物映像の平面展開画像処理方法、同逆展開画像変換処理方法及びその平面展開画像処理装置、逆展開画像変換処理装置 |
US7725258B2 (en) | 2002-09-20 | 2010-05-25 | M7 Visual Intelligence, L.P. | Vehicle based data collection and processing system and imaging sensor system and methods thereof |
EP1540937A4 (en) * | 2002-09-20 | 2008-11-12 | M7 Visual Intelligence Lp | VEHICLE TESTED DATA COLLECTION AND TREATMENT SYSTEM |
EP1696204B1 (en) | 2002-11-08 | 2015-01-28 | Pictometry International Corp. | Method for capturing, geolocating and measuring oblique images |
US7424133B2 (en) * | 2002-11-08 | 2008-09-09 | Pictometry International Corporation | Method and apparatus for capturing, geolocating and measuring oblique images |
US7065696B1 (en) | 2003-04-11 | 2006-06-20 | Broadlogic Network Technologies Inc. | Method and system for providing high-speed forward error correction for multi-stream data |
US7018050B2 (en) | 2003-09-08 | 2006-03-28 | Hewlett-Packard Development Company, L.P. | System and method for correcting luminance non-uniformity of obliquely projected images |
JP2005151536A (ja) | 2003-10-23 | 2005-06-09 | Nippon Dempa Kogyo Co Ltd | 水晶発振器 |
US20050089213A1 (en) * | 2003-10-23 | 2005-04-28 | Geng Z. J. | Method and apparatus for three-dimensional modeling via an image mosaic system |
US7916940B2 (en) | 2004-01-31 | 2011-03-29 | Hewlett-Packard Development Company | Processing of mosaic digital images |
BRPI0508226A (pt) * | 2004-02-27 | 2007-07-17 | Intergraph Software Tech Co | formação de uma única imagem a partir de imagens de sobreposição |
US20060215935A1 (en) * | 2004-04-02 | 2006-09-28 | The Boeing Company | System and architecture for automatic image registration |
US7751651B2 (en) * | 2004-04-02 | 2010-07-06 | The Boeing Company | Processing architecture for automatic image registration |
US20060028550A1 (en) | 2004-08-06 | 2006-02-09 | Palmer Robert G Jr | Surveillance system and method |
US7728833B2 (en) | 2004-08-18 | 2010-06-01 | Sarnoff Corporation | Method for generating a three-dimensional model of a roof structure |
US8078396B2 (en) | 2004-08-31 | 2011-12-13 | Meadow William D | Methods for and apparatus for generating a continuum of three dimensional image data |
EP1813113A2 (en) * | 2004-10-15 | 2007-08-01 | Ofek Aerial Photography Ltd. | Computational solution of an building of three dimensional virtual models from aerial photographs |
US7348895B2 (en) | 2004-11-03 | 2008-03-25 | Lagassey Paul J | Advanced automobile accident detection, data recordation and reporting system |
KR100657937B1 (ko) | 2004-12-14 | 2006-12-14 | 삼성전자주식회사 | 2차원 선형 데이터의 실시간 3차원 변환 방법 및 장치,그리고 이를 이용한 2차원 선형 데이터의 실시간 3차원시각화 방법 및 장치 |
US7142984B2 (en) | 2005-02-08 | 2006-11-28 | Harris Corporation | Method and apparatus for enhancing a digital elevation model (DEM) for topographical modeling |
US7466244B2 (en) | 2005-04-21 | 2008-12-16 | Microsoft Corporation | Virtual earth rooftop overlay and bounding |
US7554539B2 (en) * | 2005-07-27 | 2009-06-30 | Balfour Technologies Llc | System for viewing a collection of oblique imagery in a three or four dimensional virtual scene |
US7840032B2 (en) * | 2005-10-04 | 2010-11-23 | Microsoft Corporation | Street-side maps and paths |
US7844499B2 (en) | 2005-12-23 | 2010-11-30 | Sharp Electronics Corporation | Integrated solar agent business model |
US7778491B2 (en) * | 2006-04-10 | 2010-08-17 | Microsoft Corporation | Oblique image stitching |
US7944547B2 (en) * | 2006-05-20 | 2011-05-17 | Zheng Wang | Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data |
US20080158256A1 (en) | 2006-06-26 | 2008-07-03 | Lockheed Martin Corporation | Method and system for providing a perspective view image by intelligent fusion of a plurality of sensor data |
US7831089B2 (en) * | 2006-08-24 | 2010-11-09 | Microsoft Corporation | Modeling and texturing digital surface models in a mapping application |
US7873238B2 (en) * | 2006-08-30 | 2011-01-18 | Pictometry International Corporation | Mosaic oblique images and methods of making and using same |
DE102007030781A1 (de) | 2006-10-11 | 2008-04-17 | Gta Geoinformatik Gmbh | Verfahren zur Texturierung virtueller dreidimensionaler Objekte |
IL179344A (en) | 2006-11-16 | 2014-02-27 | Rafael Advanced Defense Sys | Mobile Platform Tracking Method |
US7832267B2 (en) | 2007-04-25 | 2010-11-16 | Ecometriks, Llc | Method for determining temporal solar irradiance values |
WO2009025928A2 (en) | 2007-06-19 | 2009-02-26 | Ch2M Hill, Inc. | Systems and methods for solar mapping, determining a usable area for solar energy production and/or providing solar information |
US8417061B2 (en) | 2008-02-01 | 2013-04-09 | Sungevity Inc. | Methods and systems for provisioning energy systems |
US8275194B2 (en) | 2008-02-15 | 2012-09-25 | Microsoft Corporation | Site modeling using image data fusion |
US8538151B2 (en) | 2008-04-23 | 2013-09-17 | Pasco Corporation | Building roof outline recognizing device, building roof outline recognizing method, and building roof outline recognizing program |
US8401222B2 (en) | 2009-05-22 | 2013-03-19 | Pictometry International Corp. | System and process for roof measurement using aerial imagery |
US9183538B2 (en) | 2012-03-19 | 2015-11-10 | Pictometry International Corp. | Method and system for quick square roof reporting |
-
2007
- 2007-08-29 US US11/847,125 patent/US7873238B2/en active Active
- 2007-08-30 MX MX2009002339A patent/MX2009002339A/es active IP Right Grant
- 2007-08-30 ES ES07814579T patent/ES2787226T3/es active Active
- 2007-08-30 CA CA2662355A patent/CA2662355C/en active Active
- 2007-08-30 AU AU2007289120A patent/AU2007289120C1/en not_active Ceased
- 2007-08-30 JP JP2009526912A patent/JP4981135B2/ja not_active Expired - Fee Related
- 2007-08-30 EP EP07814579.4A patent/EP2057585B1/en active Active
- 2007-08-30 WO PCT/US2007/077242 patent/WO2008028040A2/en active Application Filing
-
2011
- 2011-01-10 US US12/930,546 patent/US8081841B2/en active Active
- 2011-10-19 US US13/317,499 patent/US8452125B2/en active Active
-
2013
- 2013-02-27 US US13/778,708 patent/US8660382B2/en active Active
-
2014
- 2014-01-10 US US14/152,366 patent/US9437029B2/en active Active
-
2016
- 2016-08-31 US US15/253,135 patent/US9805489B2/en active Active
-
2017
- 2017-10-30 US US15/797,679 patent/US9959653B2/en active Active
-
2018
- 2018-04-27 US US15/965,222 patent/US10489953B2/en active Active
-
2019
- 2019-11-25 US US16/694,370 patent/US11080911B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2008028040A3 (en) | 2008-11-13 |
US20110102461A1 (en) | 2011-05-05 |
JP4981135B2 (ja) | 2012-07-18 |
US10489953B2 (en) | 2019-11-26 |
US9805489B2 (en) | 2017-10-31 |
US8081841B2 (en) | 2011-12-20 |
JP2010503078A (ja) | 2010-01-28 |
US20120201478A1 (en) | 2012-08-09 |
EP2057585A2 (en) | 2009-05-13 |
US20130208996A1 (en) | 2013-08-15 |
AU2007289120A1 (en) | 2008-03-06 |
US7873238B2 (en) | 2011-01-18 |
US8660382B2 (en) | 2014-02-25 |
EP2057585B1 (en) | 2020-02-26 |
US20200090390A1 (en) | 2020-03-19 |
US20180247442A1 (en) | 2018-08-30 |
ES2787226T3 (es) | 2020-10-15 |
US20180047197A1 (en) | 2018-02-15 |
US20140126838A1 (en) | 2014-05-08 |
US20160371869A1 (en) | 2016-12-22 |
AU2007289120B2 (en) | 2012-04-12 |
AU2007289120C1 (en) | 2012-09-06 |
CA2662355A1 (en) | 2008-03-06 |
US9437029B2 (en) | 2016-09-06 |
US9959653B2 (en) | 2018-05-01 |
WO2008028040A2 (en) | 2008-03-06 |
EP2057585A4 (en) | 2013-03-13 |
US11080911B2 (en) | 2021-08-03 |
US8452125B2 (en) | 2013-05-28 |
US20080123994A1 (en) | 2008-05-29 |
CA2662355C (en) | 2014-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11080911B2 (en) | Mosaic oblique images and systems and methods of making and using same | |
US11551331B2 (en) | Cut-line steering methods for forming a mosaic image of a geographical area | |
CN111433820B (zh) | 按地物高度着色图像生成装置以及计算机可读介质 | |
AU2012205205B2 (en) | Mosaic oblique images and methods of making and using same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Grant or registration |