ES2266704T3 - Procedimiento y aparato para capturar, geolocalizar y medir imagenes oblicuas. - Google Patents
Procedimiento y aparato para capturar, geolocalizar y medir imagenes oblicuas. Download PDFInfo
- Publication number
- ES2266704T3 ES2266704T3 ES03025702T ES03025702T ES2266704T3 ES 2266704 T3 ES2266704 T3 ES 2266704T3 ES 03025702 T ES03025702 T ES 03025702T ES 03025702 T ES03025702 T ES 03025702T ES 2266704 T3 ES2266704 T3 ES 2266704T3
- Authority
- ES
- Spain
- Prior art keywords
- images
- aforementioned
- image
- data
- oblique
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/006—Apparatus mounted on flying objects
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
- G03B37/02—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with scanning movement of lens or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Abstract
Un sistema computerizado para mostrar, geolocalizar y realizar mediciones basadas en imágenes oblicuas capturadas, que comprende: un sistema (130) de ordenador que tiene una memoria (132); un archivo (120) de imágenes y datos accesible por el citado sistema (130) y que incluye una pluralidad de archivos de imágenes que se corresponden a una pluralidad de imágenes oblicuas capturadas, incluyendo adicionalmente el citado archivo (120) de imágenes y datos, datos de posición que se corresponden a la citada pluralidad de archivos de imágenes; y software (140) de visualización y análisis de imágenes ejecutado por el citado sistema (130) para leer el citado archivo (120) de imágenes y datos y mostrar al menos una porción de las imágenes oblicuas capturadas como una imagen oblicua mostrada, calculando el citado software (140) de visualización y análisis de imágenes las geolocalizaciones de dos o más puntos localizados en la citada imagen oblicua mostrada, en base, al menos en parte, a los citados datos posicionales, calculando el citado software (140) de visualización y análisis de imágenes una distancia de separación entre dos o más puntos cualesquiera seleccionados en la imagen oblicua mostrada.
Description
Procedimiento y aparato para capturar,
geolocalizar y medir imágenes oblicuas.
Esta solicitud reivindica el beneficio de la
solicitud de patente provisional norteamericana número de serie
60/425.275, presentada el 8 de noviembre de 2002.
La presente invención se refiere a la
fotogrametría. Más en particular, la presente invención se refiere a
un procedimiento y aparato para capturar imágenes oblicuas y para
medir los objetos y las distancias entre los objetos que se
muestran en las mismas.
La fotogrametría es la ciencia de realizar
mediciones de y entre objetos mostrados en fotografías,
especialmente en fotografías aéreas. En general, la fotogrametría
incluye tomar imágenes de características terrestres y obtener como
resultado datos de las mismas, tales como, por ejemplo, datos
indicativos de las distancias relativas entre los objetos y sus
tamaños en las imágenes. La fotogrametría también puede incluir
acoplar las fotografías a otros datos, tales como datos
representativos de la latitud y de la longitud. En efecto, la imagen
se superpone y se conforma a un sistema de coordenadas espaciales
particular.
La fotogrametría convencional incluye la captura
y/o la adquisición de imágenes ortogonales. El dispositivo de
captura de imágenes, tal como una cámara o sensor, se transporta en
un vehículo o plataforma, tal como un aeroplano o satélite, y se
enfoca a un punto nadir que está directamente debajo y/o
verticalmente hacia abajo desde esa plataforma. El punto o píxel en
la imagen que se corresponde al punto nadir es el único punto/píxel
que es verdaderamente ortogonal al dispositivo de captura de
imágenes. Todos los otros puntos o píxeles en la imagen son, en
realidad, oblicuos con relación al dispositivo de captura de
imágenes. Cuando los puntos o píxeles se hacen crecientemente
distantes del punto nadir, se hacen crecientemente oblicuos con
relación al dispositivo de captura de imágenes y también se
incrementa la distancia de la muestra de suelo (es decir, el área
superficial que se corresponde o que está cubierta por cada píxel).
Tal oblicuidad en una imagen ortogonal hace que las características
en la imagen queden distorsionadas, especialmente imágenes
relativamente distantes del punto nadir.
Una perturbación de este tipo se elimina, o se
compensa, por el proceso de ortorectificación, en el cual, en
esencia, elimina la oblicuidad de la imagen ortogonal ajustando o
deformando cada píxel de una imagen ortogonal en una rejilla
ortométrica o sistema coordenado. El procedimiento de la
ortorectificación crea una imagen en la que todos los píxeles
tienen la misma distancia de muestra de suelo y están orientados al
norte. De esta manera, cualquier punto en una imagen
ortorectificada puede ser localizado utilizando el sistema de
coordenadas X, Y y, siempre que la escala de la imagen sea
conocida, pueden ser calculadas la longitud y la anchura de las
características terrestres así como la distancia relativa entre
estas características.
Aunque el proceso de ortorectificación compensa
hasta un cierto grado las distorsiones oblicuas en una imagen
ortogonal, introduce otras distorsiones y/o inexactitudes
indeseables en la imagen ortogonal ortorectificada. Los objetos
mostrados en las imágenes ortogonales ortorectificadas pueden ser
difíciles de reconocer y/o identificar puesto que la mayor parte de
los observadores no están acostumbrados a visualizar objetos,
particularmente características terrestres, desde arriba. Para un
observador no entrenado, una imagen ortorectificada presente un
número de distorsiones. Las carreteras que en realidad son rectas
aparecen curvadas y los edificios parecen inclinarse. Además, las
imágenes ortorectificadas no contienen sustancialmente ninguna
información respecto a la altura de las características terrestres.
La interpretación y el análisis de imágenes ortogonales y/o
ortogonales ortorectificadas típicamente son efectuadas por
analistas altamente cualificados que poseen años de entrenamiento
especializado y experiencia para identificar objetos y
características terrestres en tales imágenes.
De esta manera, aunque las imágenes ortogonales
y ortorectificadas son útiles en la fotogrametría, les falta
información referente a la altura de las características mostradas
en ellas y requieren analistas altamente entrenados para
interpretar los detalles a partir de lo que muestran las
imágenes.
Las imágenes oblicuas son imágenes que han sido
capturadas con un dispositivo de captura de imágenes enfocado o
apuntado generalmente a un lado o hacia abajo de la plataforma que
transporta el dispositivo de captura de imágenes. Las imágenes
oblicuas, a diferencia de las imágenes ortogonales, muestran lados
de las características terrestres, tales como casas, edificios y/o
montañas, así como las partes superiores de las mismas. De esta
manera, visualizar una imagen oblicua es más natural e intuitivo que
visualizar una imagen ortogonal u ortorectificada, e incluso los
observadores casuales pueden reconocer e interpretar características
terrestres y otros objetos mostrados en las imágenes oblicuas. Cada
píxel en el primer plano de una imagen oblicua se corresponde a un
área relativamente pequeña de la superficie o del objeto mostrado
(es decir, cada píxel de primer plano tiene una distancia de
muestra de suelo relativamente pequeña) mientras que cada píxel en
el plano de fondo se corresponde a un área relativamente grande de
la superficie o del objeto mostrado (es decir, cada píxel de plano
de fondo tiene una distancia de muestra de suelo relativamente
grande). Las imágenes oblicuas capturan un área generalmente
trapezoidal o una vista de la superficie del sujeto o un objeto,
teniendo el primer plano del trapezoide una distancia de muestra de
suelo sustancialmente menor (es decir, una resolución más elevada)
que el plano de fondo del trapezoide.
Se considera que las imágenes oblicuas son de
poca o ninguna utilidad en la fotogrametría. El enfoque convencional
de forzar los píxeles de primer plano y de plano de fondo de
distintos tamaño de una imagen oblicua en un tamaño uniforme para
deformar de esta manera la imagen en un sistema de coordenadas
distorsiona en gran medida la imagen oblicua y por lo tanto, impide
la identificación de los objetos y la toma de medidas de los objetos
mostrados y hace que esto sea una tarea laboriosa e inexacta. La
corrección de los desplazamientos del terreno dentro de una imagen
oblicua utilizando un modelo de elevación distorsiona adicionalmente
las imágenes, con lo cual incrementa la dificultad con la que se
pueden realizar las mediciones y reduce la precisión de tales
mediciones.
Como consecuencia, aunque se considera que las
imágenes oblicuas tienen poca, o ninguna, utilidad en la
fotogrametría, son fácilmente interpretadas y contienen información
referente a la altura de las características mostradas en las
mismas. El documento WO 99/18732 A1 muestra un sistema y
procedimiento para capturar, geolocalizar y medir imágenes
oblicuas, que comprende un dispositivo de captura de imágenes, un
dispositivo de geolocalización, un sistema de ordenador y un
software de adquisición de imágenes y datos, que asocia los datos de
imágenes a los datos de la señal de geolocalización.
Por lo tanto, lo que se precisa en la técnica es
un procedimiento y aparato para la fotogrametría que permita la
geolocalización y las mediciones precisas en imágenes oblicuas.
Además, lo que se necesita en la técnica es un
procedimiento y aparato para la fotogrametría que permita la
medición de alturas y de alturas relativas de los objetos dentro de
una imagen.
Además, lo que se necesita en la técnica es un
procedimiento y aparato para la fotogrametría que utilice imágenes
más intuitivas y naturales.
La presente invención proporciona un sistema de
acuerdo con la reivindicación 1.
Las características de esta invención que se han
mencionado más arriba, así como otras, y la manera de conseguirlas,
serán evidentes y más completamente comprensibles haciendo
referencia a la descripción que sigue de una realización de la
invención, cuando se lee en conjunto con los dibujos que se
acompañan, en los cuales:
La figura 1 ilustra una realización de una
plataforma o vehículo que transporta un sistema de captura de
imágenes de la presente invención, y muestra imágenes ejemplares
ortogonales y oblicuas tomadas por medio del mismo;
La figura 2 es una vista diagramática del
sistema de captura de imágenes de la figura 1;
La figura 3 es un diagrama de bloques del
sistema de ordenador de captura de imágenes de la figura 2;
La figura 4 es una representación de un archivo
de datos de salida ejemplar del sistema de captura de imágenes de
la figura 1;
La figura 5 es un diagrama de bloques de una
realización de un sistema de una pantalla de imágenes y de ordenador
de medición de la presente invención, para mostrar y tomar medidas
de y entre los objetos mostrados en las imágenes capturadas por el
sistema de captura de imágenes de la figura 1;
La figura 6 muestra una imagen ejemplar mostrada
del sistema de la figura 5, e ilustra una realización del
procedimiento de la presente invención para la medida de, y entre,
objetos mostrados en una imagen de este tipo;
Las figuras 7 y 8 ilustran una realización de un
procedimiento para capturar imágenes oblicuas de la presente
invención;
Las figuras 9 y 10 ilustran una segunda
realización de un procedimiento para capturar imágenes oblicuas de
la presente invención.
Los caracteres de referencia correspondientes
indican elementos correspondientes en las distintas vistas. Las
ejemplarizaciones establecidas en la presente memoria descriptiva
ilustran una realización preferente de la invención, en una forma,
y tales ejemplarizaciones no deben considerarse como limitativas del
alcance de la invención de ninguna manera.
Haciendo referencia a continuación a los
dibujos, y en particular a la figura 1, se muestra una realización
de un aparato para capturar y geolocalizar imágenes oblicuas de la
presente invención. El aparato 10 incluye una plataforma o vehículo
20 que transporta un sistema 30 de captura de imágenes y de
geolocalización.
La plataforma 20, tal como, por ejemplo, un
aeroplano, trasbordador espacial, cohete, satélite o cualquier otro
vehículo adecuado, transporta el sistema 30 de captura de imágenes
sobre un área predefinida de una superficie 31 y a una o más
altitudes predeterminadas sobre la misma, tal como, por ejemplo, la
superficie de la tierra o cualquier otra superficie de interés.
Como tal, la plataforma 20 puede controlar el movimiento o vuelo,
ya sea tripulado o no tripulado, a lo largo de un trayecto o curso
de vuelo predefinido, por ejemplo, la atmósfera de la tierra o el
espacio exterior. La plataforma 20 de captura de imágenes incluye un
sistema (no mostrado) para generar y regular la potencia que
incluye, por ejemplo, uno o más generadores, células de combustible,
paneles solares y/o baterías para energizar el sistema 30 de
captura de imágenes.
El sistema 30 de captura de imágenes y de
geolocalización, como mejor se muestra en la figura 2, incluye
dispositivos 32a y 32b de captura de imágenes, un receptor 34 de un
sistema de posicionado global (GPS), una unidad de navegación
inercial (INU) 36, reloj 38, giroscopio 40, brújula 42 y altímetro
44, cada uno de los cuales está interconectado con el sistema 46 de
ordenador de captura de imágenes.
Los dispositivos 32a y 32b de captura de
imágenes tales como, por ejemplo, cámaras convencionales, cámaras
digitales, sensores digitales, dispositivos acoplados en carga, u
otros dispositivos adecuados de captura de imágenes, pueden
capturar imágenes fotográfica o electrónicamente. Los dispositivos
32a y 32b de captura de imágenes tienen características conocidas o
determinables que incluyen longitud focal, tamaño del sensor y
relación de aspecto, términos radiales y de distorsión, punto
principal de desplazamiento, paso de píxel, y alineación. Los
dispositivos 32a y 32b de captura de imágenes adquieren imágenes y
emiten señales de datos de imagen (IDS) 48a y 48b, respectivamente,
que se corresponden a las imágenes particulares o fotografías
tomadas y que se almacenan en el sistema 48 de ordenador de captura
de imágenes, como será descrito más en particular en la presente
memoria descriptiva posteriormente.
Como mejor se muestra en la figura 1, los
dispositivos 32a y 32b de captura de imágenes tienen ejes centrales
respectivos A_{1} y A_{2}, y están montados en la plataforma 20
de manera que cada uno de los ejes A_{1} y A_{2} tenga un
ángulo de declinación \theta relativo al plano horizontal P. El
ángulo de declinación \theta es virtualmente cualquier ángulo
oblicuo, pero preferiblemente es desde aproximadamente 20º (veinte
grados) hasta aproximadamente 60º (sesenta grados) y más
preferiblemente, desde aproximadamente 40º (cuarenta grados) a
aproximadamente 50º (cincuenta grados).
El receptor GPS 34 recibe las señales 52 del
sistema de posicionamiento global que son transmitidas por uno o
más satélites 54 del sistema de posicionamiento global. Las señales
GPS 52, de una manera conocida, permiten la localización precisa de
la plataforma 20 con relación a la superficie 31 que se determine.
El receptor GPS 34 descodifica las señales GPS 52 y emite
señales/datos 56 de localización, que dependen, al menos en parte,
de las señales GPS 52 y que son indicativas de la localización
precisa de la plataforma 20 con relación a la superficie 31. Las
señales/datos de localización 56 que se corresponden a cada imagen
capturada por los dispositivos 32a y 32b de captura de imágenes se
reciben y se almacenan en el sistema 46 de ordenador de captura de
imágenes.
La INU 36 es una unidad de navegación inercial
convencional que está acoplada y detecta cambios en la velocidad,
incluyendo velocidad de traslación y de rotación, de los
dispositivos 32a y 32b de captura de imágenes y/o de la plataforma
20. La INU 36 emite señales/datos 58 de velocidad indicativas de
tales velocidades y/o cambios del sistema 46 de ordenador de
captura de imágenes, que almacena las señales/datos de velocidad 58
que se corresponden a cada imagen capturada por los dispositivos 32a
y 32b de captura de imágenes y se reciben y almacenan en el sistema
46 de ordenador de captura de imágenes.
El reloj 38 mantiene una medida de tiempo
precisa (tiempo de validez) que se utiliza para sincronizar los
sucesos dentro del sistema 30 de captura de imágenes y de
geolocalización. El reloj 38 proporciona la señal 62 de momento de
datos/reloj que son indicativas del momento preciso en el que se
tomó una imagen por medio de los dispositivos 32a y 32b de captura
de imágenes. Los datos de momento 62 también se proporcionan y se
almacenan en el sistema 46 de ordenador de captura de imágenes.
Alternativamente, el reloj 38 es integral con el sistema 46 de
ordenador de captura de imágenes, tal como, por ejemplo, un programa
de software de reloj.
El giroscopio 40 es un giroscopio convencional,
como se encuentra comúnmente en aeroplanos y/o en sistemas de
navegación comercial para aeroplanos. El giroscopio 40 proporciona
señales que incluyen la señal 64 de inclinación longitudinal, la
señal 66 de balanceo y la señal 68 de guiñada, que respectivamente
son indicativas de la inclinación longitudinal, balanceo y guiñada
de la plataforma 20. La señal 64 de inclinación longitudinal, la
señal 66 de balanceo y la señal 68 de guiñada que se corresponden a
cada imagen capturada por los dispositivos 32a y 32b de captura de
imágenes se reciben y almacenan en el sistema 46 de ordenador de
captura de imágenes.
La brújula 42, tal como, por ejemplo, una
brújula electrónica convencional, indica el rumbo de la plataforma
20. La brújula 42 emite señales/datos 72 de rumbo que son
indicativos del rumbo de la plataforma 20. El sistema 46 de
ordenador de captura de imágenes recibe y almacena las señales/datos
72 de rumbo que se corresponden a cada imagen capturada por los
dispositivos 32a y 32b de captura de imágenes.
El altímetro 44 indica la altitud de la
plataforma 20. El altímetro 44 emite señales/datos 74 de altitud y
el sistema 46 de ordenador de captura de imágenes recibe y almacena
las señales/datos de altitud 74 que se corresponden a cada imagen
capturada por los dispositivos 32a y 32b de captura de imágenes.
Como mejor se muestra en la figura 3, el sistema
46 de ordenador de captura de imágenes, tal como, por ejemplo, un
ordenador personal portátil convencional, incluye memoria 82,
dispositivos de entrada 84a y 84b, dispositivo de pantalla 86, y
puertos de entrada y salida 88 (I/O). El sistema 46 de ordenador de
captura de imágenes ejecuta el software 90 de adquisición de
imágenes y datos, que está almacenado en la memoria 82. La memoria
82 también almacena datos utilizados y/o calculados por el sistema
46 de ordenador de captura de imágenes durante la operación del
mismo, e incluye, por ejemplo, memoria no volátil de solo lectura,
memoria de acceso aleatorio, memoria de disco duro, tarjetas de
memoria retirables y/o otros dispositivos y/o medios de
almacenamiento de memoria adecuados. Los dispositivos 84a y 84b de
entrada, tales como, por ejemplo, un ratón, tablero, palanca de
control u otros dispositivos de entrada similares, permiten la
introducción de datos y la interacción de un usuario con el
software que está siendo ejecutado por el sistema 46 de ordenador de
captura de imágenes. El dispositivo 86 de pantalla, tal como, por
ejemplo, una pantalla de cristal líquido o un tubo de rayos
catódicos, muestra información al usuario del sistema 46 de
ordenador de captura de imágenes. Los puertos I/O 88, tales como,
por ejemplo, puertos de entrada y salida de datos serie y paralelo,
permiten la introducción y la salida de datos a y desde el sistema
46 de ordenador de captura de imágenes.
Cada una de las señales de datos que se han
descrito más arriba se conecta al sistema 46 de ordenador de captura
de imágenes. Más en particular, las señales 48 de datos de
imágenes, las señales 56 de localización, las señales 58 de
velocidad, la señal 62 de dato de tiempo, las señales 64, 66 y 68 de
inclinación longitudinal, balanceo y guiñada respectivamente, la
señal 72 de rumbo, y la señal 74 de altitud se reciben por medio de
los puertos I/O 88 y se almacenan en la memoria 82 del sistema 46
de ordenador de captura de imágenes.
En uso, el sistema 46 de ordenador de captura de
imágenes ejecuta el software 90 de adquisición de imágenes y datos
que, en general, controla la lectura, manipulación y almacenamiento
de las señales de datos que se ha descrito más arriba. Más en
particular, el software 90 de adquisición de imágenes y datos lee
las señales 48a y 48b de datos de imágenes y las almacena en la
memoria 82. Cada una de las señales 56 de localización, señales 58
de velocidad, señales 62 de datos de tiempo, señales de inclinación
longitudinal, balanceo y guiñada 64, 66 y 68, respectivamente,
señal de rumbo 72 y señal de altitud 74, que representan las
condiciones existentes en el momento en que se adquirió o capturó
una imagen por los dispositivos 32a y 32b de captura de imágenes y
que se corresponden a las señales 48a y 48b de datos de imágenes
particulares que representan las imágenes capturadas, son recibidas
por el sistema 46 de ordenador de captura de imágenes por medio de
los puertos de I/O 88. El sistema 46 de ordenador de captura de
imágenes que ejecuta software 90 de adquisición de imágenes y datos
emite una señal 92 de captura de imágenes a los dispositivos 32a y
32b de captura de imágenes para hacer de esta manera que estos
dispositivos adquieran o capturen una imagen en localizaciones
predeterminadas y/o en intervalos predeterminados que dependen, al
menos en parte, de la velocidad de la plataforma 20.
El software 90 de adquisición de imágenes y
datos descodifica como sea necesario y almacena las señales que se
han mencionado con anterioridad en la memoria 82, y asocia las
señales de datos a las señales 48a y 48b de imágenes
correspondientes. De esta manera, la altitud, rumbo en términos de
inclinación longitudinal, balanceo y guiñada, y la localización de
los dispositivos 32a y 32b de captura de imágenes en relación con la
superficie, es decir, longitud y latitud, de cada imagen capturada
por los dispositivos 32a y 32b de captura de imágenes, es
conocida.
La plataforma 20 es pilotada o guiada de otra
manera a lo largo de un trayecto de captura de imágenes que pasa
sobre un área particular de la superficie 31, tal como, por ejemplo,
un área predefinida de la superficie de la tierra o de otro
planeta. Preferiblemente, el trayecto de captura de imágenes de la
plataforma 20 se encuentra en ángulo recto respecto, al menos, uno
de los límites del área de interés. El número de veces que la
plataforma 20 y/o los dispositivos 32a, 32b de captura de imágenes
pasa sobre el área de interés depende de, al menos en parte, el
tamaño del área y la cantidad de detalles deseados en las imágenes
capturadas. Los detalles particulares del trayecto de captura de
imágenes de la plataforma 20 se describen de manera más particular
en la presente memoria y a continuación.
Cuando la plataforma 20 pasa sobre el área de
interés, es capturado un número de imágenes oblicuas por los
dispositivos 32a y 32b de captura de imágenes. Como podrán entender
aquellos de conocimiento ordinario en la técnica, las imágenes son
capturadas o adquiridas por los dispositivos 32a y 32b de captura de
imágenes en intervalos de captura de imágenes predeterminados que
dependen, al menos en parte, de la velocidad de la plataforma
20.
Las señales 48a y 48b de datos de imágenes que
se corresponden a cada imagen adquirida son recibidas y/o
almacenadas en la memoria 82 del sistema 46 de ordenador de captura
de imágenes por los puertos I/O 88. De manera similar, las señales
de datos (es decir, las señales 48 de datos de imágenes, las señales
56 de localización, las señales 58 de velocidad, las señales 62 de
datos de momento, las señales 64, 66 y 68 de inclinación
longitudinal, balanceo y guiñada, respectivamente, la señal de
rumbo 72 y la señal altitud 74) que se corresponde a cada imagen
capturada son recibidas y almacenadas en la memoria 82 del sistema
46 de ordenador de captura de imágenes por los puertos I/O 88. De
esta manera, la localización del dispositivo 32a y 32b de captura de
imágenes en relación con la superficie 32 en el momento de preciso
en el que se capturó cada imagen se registra en la memoria 82 y se
asocia a la imagen capturada correspondiente.
Como mejor se muestra en la figura 1, los
dispositivos 32a y 32b de captura de imágenes relativos a la tierra
se corresponden al punto nadir N de la imagen ortogonal 102. De esta
manera, la geolocalización exacta del punto nadir N de la imagen
ortogonal 102 está indicada por las señales de localización 56,
señales de velocidad 58, señales 62 de datos de tiempo, señales 64,
66 y 68 de inclinación longitudinal, balanceo y guiñada,
respectivamente, señal 72 de rumbo, y señal 74 de altitud. Una vez
que el punto nadir N de la imagen ortogonal 102 sea conocido, el
píxel de geolocalización o cualquier otro punto o píxel en la imagen
102 es determinable de una manera conocida.
Cuando los dispositivos 32a y 32b de captura de
imágenes están capturando imágenes oblicuas, tales como imágenes
oblicuas 104a y 104b (figura 1), la localización de los dispositivos
32a y 32b de captura de imágenes con relación a la superficie 31
está indicada de manera similar por las señales de localización 56,
señales de velocidad 58, señales 62 de datos de tiempo, señales 64,
66 y 68 de inclinación longitudinal, balanceo y guiñada,
respectivamente, señal 72 de rumbo, señal 74 de altitud y el ángulo
conocido de declinación \theta de los ejes primarios A_{1} y
A_{2} de los dispositivos 32a y 32b de captura de imágenes,
respectivamente.
Se debe hacer notar en particular que un proceso
de calibración permite que el software 90 de adquisición de
imágenes y datos incorpore factores de corrección y/o corrijan
cualquier error inherente o debido al dispositivo 32 de captura de
imágenes, tales como, por ejemplo, errores debidos a la longitud
focal calibrada, tamaño del sensor, distorsión radial, punto
principal de desplazamiento y alineación.
El software 90 de adquisición de imágenes y
datos crea y almacena uno más archivos 120 de salida de imágenes y
datos. Más en particular, el software 90 de adquisición de imágenes
y datos convierte las señales 48a y 48b de datos de imágenes y las
señales de datos de orientación (es decir, señales de datos de
imágenes 48, señales de localización 56, señales de velocidad 58,
señales 62 de datos de tiempo, señales 64, 66 y 68 de inclinación
longitudinal, balanceo y guiñada, respectivamente, señal 72 de
rumbo, y señal 74 de altitud) en los archivos 120 de salida de
imágenes y datos legibles por el ordenador. Como mejor se muestra en
la figura 4, el archivo 120 de imágenes y datos de salida contiene
una pluralidad de archivos I_{1}, I_{2}, ... I_{n} de
imágenes capturadas que se corresponden a las imágenes oblicuas
capturadas, y los datos posicionales C_{PD1}, C_{PD2}, ...,
C_{PDn} que se corresponden a los mismos.
Los archivos I_{1}, I_{2}, ... I_{n} de
imágenes del archivo 120 de imágenes y datos se almacena
virtualmente en cualquier formato de archivo de imágenes o gráficos
legible por ordenador, tales como, por ejemplo, formatos de
archivos JPEG, TIFF, GIF, BMP o PDF, y tienen una referencia cruzada
con los datos C_{PD1}, C_{PD2}, ..., C_{PDn} que también
están almacenados como datos legibles por el ordenador.
Alternativamente, los datos posiciónales C_{PD1}, C_{PD2}, ...,
C_{PDn} está incrustado en los archivos I_{1}, I_{2}, ...
I_{n} de imágenes correspondientes de una manera conocida. A
continuación, los archivos 120 de datos de imágenes son procesados,
ya sea por el software 90 de adquisición de imágenes y datos o por
postprocesamiento, para corregir errores, tales como, por ejemplo,
errores debidos a desviaciones del trayecto de vuelo y otros errores
conocidos a cualquiera de conocimiento ordinario en la técnica. A
continuación, los archivos 120 de datos de imágenes están listos
para utilizarse y mostrar y tomar mediciones de y entre los objetos
mostrados en las imágenes capturadas, incluyendo mediciones de las
alturas de tales objetos.
Haciendo referencia a continuación a la figura
5, el sistema 130 de ordenador de visualización y medida de
imágenes, tal como, por ejemplo, un ordenador personal de sobremesa
convencional o un terminal de ordenador móvil en un coche de
policía, incluye una memoria 132, dispositivos de entrada 134a y
134b, dispositivo 136 de pantalla, y conexión de red 138. El
sistema 130 de ordenador de captura de imágenes ejecuta el software
140 de visualización y análisis de imágenes que está almacenado en
la memoria 132. La memoria 132 incluye, por ejemplo, memoria no
volátil de solo lectura, memoria de acceso aleatorio, memoria de
disco duro, tarjetas de memoria retirables y/o otros dispositivos
y/o medios de almacenamiento de memoria adecuados. Los dispositivos
de entrada 134a y 134b, tales como por ejemplo, un ratón, tablero,
palanca de control u otros dispositivos de entrada de este tipo,
permiten la introducción de datos y la interacción de un usuario con
el software 140 de visualización y análisis de imágenes que está
siendo ejecutado por el sistema 130 de ordenador de visualización y
medida de imágenes. El dispositivo 136 de pantalla, tal como, por
ejemplo, una pantalla de cristal líquido o un tubo de rayos
catódicos, muestra información al usuario del sistema 130 de
ordenador de visualización y medida de imágenes. La conexión 138 de
red conecta el sistema 130 de ordenador de visualización y medida
de imágenes a una red (no mostrada) tal como, por ejemplo, una red
de área local, una red de área amplia, Internet y/o la World Wide
Web.
En uso, y haciendo referencia ahora a la figura
6, el sistema 130 de ordenador de visualización y medida de
imágenes que ejecuta el software 140 de visualización y análisis de
imágenes, accede a uno o más archivos 120 de salida de imágenes y
datos que han sido leídos en la memoria 132, tal como, por ejemplo,
por medio de la conexión 138 de red, controlador de disco floppy,
tarjeta de memoria retirable y otros medios adecuados. A
continuación, una o más de las imágenes capturadas I_{1}, I_{2},
... I_{n} de los archivos 120 de salida de imágenes y datos se
muestra como una imagen oblicua mostrada 142 bajo el control del
software 140 de visualización y análisis de imágenes.
Aproximadamente en el mismo momento, una o más porciones de datos
C_{PD1}, C_{PD2}, ..., C_{PDn} que se corresponden a la
imagen oblicua mostrada 142 son leídos en la porción fácilmente
accesible de la memoria 132.
Se debe hacer notar en particular que la imagen
oblicua mostrada 142 se muestra sustancialmente como se captura, es
decir, la imagen mostrada 142 no está deformada o ajustada en
cualquier sistema coordenado, ni está ortorectificada la imagen
142. En lugar de deformar la imagen mostrada 142 en un sistema de
coordenadas con el fin de permitir la medición de los objetos
mostrados en la misma, el software 140 de visualización y análisis
de imágenes, en general, determina la geolocalización de píxeles
seleccionados solamente como se necesite, o "al vuelo",
referenciando porciones de datos C_{PD1}, C_{PD2}, ...,
C_{PDn} de archivos 120 de salida de imágenes y datos, y
calculando la posición y/o la geolocalización de estos píxeles
seleccionados utilizando una o más ecuaciones de proyección, y se
describe de manera más particular en la presente memoria descriptiva
y a continuación.
En general, un usuario del sistema 130 de
ordenador de visualización y medida toma medidas de y entre los
objetos mostrados en la imagen oblicua mostrada 142 seleccionando
uno o más de los distintos modos de medición disponibles provistos
en el software 140 de visualización y análisis de imágenes. El
usuario selecciona el modo de medición deseado accediendo, por
ejemplo, a una serie de menús desplegables o barras de herramientas
M, o por ordenes del teclado. Los modos de medición proporcionados
por el software 140 de visualización y análisis de imágenes
incluyen, por ejemplo, un modo de distancia que permite la medición
de la distancia entre dos o más puntos seleccionados, un modo de
área que permite la medición del área comprendida entre varios
puntos seleccionados e interconectados, un modo de altura que
permite la medición de la altura entre dos o más puntos
seleccionados, y un modo de elevación que permite la medición del
cambio en la elevación de un punto seleccionado con relación a uno
o más otros puntos seleccionados.
Después de seleccionar el modo de medición
deseado, el usuario del software 140 de visualización y análisis de
imágenes selecciona con uno de los dispositivos 134a y 134b de
entrada, un punto de inicio o píxel de inicio 152 y un punto o
píxel de finalización 154 en la imagen mostrada 142, y el software
140 de visualización y análisis de imágenes calcula y muestra
automáticamente la cantidad buscada, tal como, por ejemplo, la
distancia entre el píxel de inicio 152 y el píxel de finalización
154.
Cuando el usuario selecciona el píxel/punto de
inicio 152, la geolocalización del punto que se corresponde a la
superficie 31 es calculada por el software 140 de visualización y
análisis de imágenes, que ejecuta una o más ecuaciones de
proyección utilizando las porciones de datos C_{PD1}, C_{PD2},
..., C_{PDn} de los archivos 120 de salida de imágenes y datos
que se corresponde a la imagen particular que está siendo mostrada.
La longitud y la latitud del punto en la superficie 31 que se
corresponde al píxel 152 son entonces mostrados por el software 140
de visualización y análisis de imágenes en las pantallas 136, tal
como, por ejemplo, superponiendo la longitud y la latitud en la
imagen mostrada 142 adyacente al punto/píxel seleccionado o en una
caja de visualización desplegable en cualquier punto en la pantalla
136. El mismo proceso es repetido por el usuario para seleccionar
el píxel/punto 154 de finalización, y por el software 140 de
visualización y análisis de imágenes para la retirada y la
visualización de la información de longitud y latitud.
El cálculo de la distancia entre los
puntos/píxeles de inicio y finalización 152, 154, respectivamente,
se realiza determinando la geolocalización de cada píxel
seleccionado 152, 154 "al vuelo". Las porciones de datos
C_{PD1}, C_{PD2}, ..., C_{PDn} del archivo 120 de salida de
imágenes y datos que se corresponde a la imagen mostrada se
recuperan, y la geolocalización del punto sobre la superficie 31 que
se corresponde a cada píxel seleccionado es entonces determinada.
Las diferencias entre las geolocalizaciones correspondientes a los
píxeles seleccionados determina la distancia entre los píxeles.
Como un ejemplo de cómo se determina la
geolocalización de un punto o píxel dado en la imagen oblicua
mostrada 142, se asumirá que la imagen mostrada 142 se corresponde
a la imagen ortogonal 104a (figura 1). El usuario del software 140
de visualización y análisis de imágenes selecciona el píxel 152 que,
por simplicidad, se corresponde al centro C (figura 1) de la imagen
oblicua 104a. Como se muestra en la figura 1, la línea 106 se
extiende a lo largo del plano horizontal G desde un punto 108 en el
mismo que está directamente debajo del dispositivo 32a de captura
de imágenes, al centro C del límite o borde cercano 108 de la imagen
oblicua 104a. Una extensión del eje primario A_{1} se cruza con
el centro C. El ángulo \Phi es el ángulo formado entre la línea
106 y la extensión del eje primario A_{1}. De esta manera, se
forma un triángulo (no referenciado) que tiene vértices en el
dispositivo 32a de captura de imágenes, el punto 108 y el centro C,
y que tiene lados 106, la extensión del eje primario A_{1} y la
línea vertical (a trazos) 110 entre el punto 108 y el dispositivo
32a de captura de imágenes.
El plano de suelo G es un plano de suelo
sustancialmente horizontal, llano o no inclinado (y que típicamente
tendrá una elevación que refleja la elevación media del terreno) y
por lo tanto el triángulo que se ha descrito más arriba incluye un
ángulo recto entre el lado/línea 110 y el lado/línea 106. Puesto que
el ángulo \Phi y la altitud del dispositivo 32 de captura de
imágenes (es decir, la longitud del lado 110) son conocidos, la
hipotenusa (es decir, la longitud de la extensión del eje primario
A_{1}) y el resto de los otros lados del triángulo rectángulo son
calculados por geometría simple. Además, puesto que la posición
exacta del dispositivo 32a de captura de imágenes es conocida en el
momento en que se capturó la imagen correspondiente a la imagen
mostrada 142, la latitud y la longitud del punto 108 también son
conocidos. Conocer la longitud del lado 106, que se ha calculado
como se ha descrito más arriba, permite la geolocalización exacta
del píxel 154 que se corresponde al centro C de la imagen oblicua
104a que será determinada por el software 140 de visualización y
análisis de imágenes. Una vez que la geolocalización del punto que
se corresponde al píxel 154 sea conocida, la geolocalización de
cualquier otro píxel en la imagen oblicua mostrada 142 se puede
determinar utilizando las características de cámara conocidas,
tales como, por ejemplo, longitud focal, tamaño de sensor y relación
de aspecto, términos radiales y otros de distorsión, etc.
La distancia entre los dos o más puntos que se
corresponden a dos o más píxeles seleccionados en la imagen
mostrada 142 se calcula por el software 140 de visualización y
análisis de imágenes determinando la diferencia entre las
geolocalizaciones de los píxeles seleccionados utilizando algoritmos
conocidos, tales como, por ejemplo, la formula de Gauss y/o la
formula de punto de fuga que depende del modo de medición
seleccionado. La medición de objetos mostrados o que aparecen en la
imagen mostrada 142 es ejecutada por un procedimiento
sustancialmente similar al procedimiento que se ha descrito más
arriba para medir distancias entre píxeles seleccionados. Por
ejemplo, las longitudes, anchuras y alturas de objetos tales como,
por ejemplo, edificios, ríos, carreteras y virtualmente cualquier
otra estructura geográfica o realizada por el hombre, que aparece
en la imagen mostrada 142, son medidas seleccionando el modo de
medición apropiado/deseado y seleccionando los píxeles de inicio y
finalización.
Se debe hacer notar en particular que en el modo
de medición de distancias del software 140 de visualización y
análisis de imágenes, la distancia entre los puntos/píxeles de
inicio y finalización 152, 154, respectivamente, se puede
determinar a lo largo de virtualmente cualquier trayecto, tal como,
por ejemplo, un trayecto P1 de "línea recta" o un trayecto P2
que incluye la selección de puntos/píxeles intermedios y uno o más
segmentos de "línea recta" interconectados entre los
mismos.
Se debe hacer notar en particular que en el modo
de medición de distancias del software 140 de visualización y
análisis de imágenes determina la distancia entre píxeles
seleccionados de acuerdo con el procedimiento "caminar por la
tierra". El procedimiento "caminar por la tierra" crea una
serie de segmentos de línea interconectados, representados
colectivamente por los trayectos P1 y P2, que se extienden entre los
píxeles/puntos seleccionados y que se disponen o se conforman a las
caras planas de una serie de facetas interconectadas que definen un
plano de suelo teselado. El plano de suelo teselado, como será
descrito más en particular en la presente memoria descriptiva y a
continuación, sigue o recrea ajustadamente el terreno de la
superficie 31, y por lo tanto los trayectos P1 y P2 también siguen
ajustadamente el terreno de la superficie 31. Midiendo la distancia
a lo largo del terreno simulado por el plano de terreno teselado,
el procedimiento "caminar por la tierra" proporciona una
medición más precisa y útil de la distancia entre puntos
seleccionados que el enfoque convencional, que deforma la imagen
sobre una tierra plana o sistema plano de elevación medio, y mide la
distancia entre puntos seleccionados a lo largo de la tierra plana
o plano y sustancialmente ignora las variaciones en el terreno
entre los puntos.
Por ejemplo, un contratista que prepara una
licitación de un contrato para pavimentar una carretera sobre
terreno montañoso desigual, puede determinar la cantidad aproximada
de área de la carretera incluida utilizando el software 140 de
visualización y análisis de imágenes y el procedimiento de medición
"caminar por la tierra" provisto de esta manera. El
contratista puede obtener la cantidad o área aproximada de carretera
en su propia oficina, sin tener que enviar un equipo de
investigación al lugar para obtener las mediciones necesarias.
Como contraste al procedimiento "caminar por
la tierra" proporcionado por la presente invención, los enfoques
de cálculo de "tierra plana" o distancia de altura media
incluyen imprecisiones inherentes cuando se miden distancias entre
puntos y/o objetos dispuestos en un terreno desigual o cuando se
miden los tamaños y/o alturas de objetos dispuestos de manera
similar. Incluso una inclinación o cuesta modesta en la superficie
que está siendo capturada produce una diferencia en la elevación
del punto nadir relativa a virtualmente cualquier otro punto de
interés en la misma. De esta manera, haciendo referencia de nuevo a
la figura 1, el triángulo formado por la línea 106, la extensión
del eje primario A_{1} y la línea vertical (a trazos) 110 entre el
punto 108 y el dispositivo 32a de captura de imágenes puede no ser
un triángulo recto. En este caso, cualquier cálculo geométrico que
asuma que el triángulo es un triángulo recto contendrá errores, y
tales cálculos deben ser reducidos a aproximaciones, debido a
incluso ligeros gradientes o pendientes entre los puntos de
interés.
Por ejemplo, si la superficie 31 se inclina
hacia arriba entre el punto nadir N y el centro C cerca o en el
borde inferior 108 de la imagen oblicua 104, entonces la segunda
línea 110 se cruza con la superficie 31 antes del punto en el cual
se debería producir tal intersección en una superficie 31 a nivel o
no inclinada. Si el centro C es 4,57 m más alto que el punto nadir
N y con ángulo de declinación \theta igual a 40º (cuarenta
grados), la localización calculada del centro C estará desplazada
aproximadamente 5,42 m sin corrección del cambio en elevación entre
los puntos.
Como se ha discutido en general más arriba, con
el fin de compensar, al menos en parte, los cambios en elevación y
las imprecisiones resultantes en la medición de y entre los objetos
en la imagen 142, el software 140 de visualización y análisis de
imágenes referencia, cuando sea necesario, puntos en la imagen
mostrada 142 y en la superficie 31 con un plano de suelo teselado o
en facetas designado en general como 160 en la figura 6. El plano
de suelo teselado 160 incluye una pluralidad de facetas individuales
162a, 162b, 162c, etc., cada una de las cuales está interconectada
a las otras y están definidas por cuatro vértices (no referenciados,
pero que se muestran como puntos) que tienen alturas respectivas.
Las parejas adyacentes de facetas 162a, 162b, 162c, etc., comparten
dos vértices. Cada faceta 162a, 162b, 162c, etc. tiene inclinación
longitudinal y pendiente respectivas. El plano de suelo teselado
160 se crea sobre la base de varios datos y fuentes, tales como,
por ejemplo, mapas topográficos y/o gráficos en tramas digitales,
datos de reconocimiento y varias otras fuentes.
En general, la geolocalización de un punto de
interés en una imagen mostrada 142 se calcula determinando cual de
las facetas 162a, 162b, 162c, etc. se corresponde a ese punto de
interés. De esta manera, la localización del punto de interés se
calcula sobre la base de las características, es decir, elevación,
inclinación longitudinal y pendiente de las facetas 162a, 162b,
162c, etc. en lugar de hacerlo sobre la base de un plano de suelo
llano o de elevación media. El error se introduce solamente en lo
que se refiere a la topografía de la superficie 31 y la
localización del punto de interés en el mismo que se desvía de la
superficie plana de la faceta 162a, 162b, 162c, etc. en la cual se
encuentra dispuesto el punto de interés. Ese error se puede reducir
por medio de una interpolación bilineal de la altura del punto de
interés en una faceta particular de las facetas 162a, 162b, 162c,
etc. y utilizando la altura interpolada en el cálculo de
localización ejecutado por el software 140 de visualización y
análisis de imágenes.
Para usar plano de suelo teselado 160, el
software 140 de visualización y análisis de imágenes utiliza un
algoritmo modificado de trazado de rayos para encontrar la
intersección del rayo proyectado por el dispositivo 32a o 32b de
captura de imágenes hacia la superficie 31 y el plano de suelo
teselado 160. El algoritmo determina no solamente cual de las
facetas 162a, 162b, 162c, etc. es intersectada por el rayo, sino
también donde se produce la intersección dentro de la faceta.
Utilizando la interpolación bilineal, se puede determinar una
localización de suelo bastante precisa. Para la proyección inversa,
se utiliza el plano de suelo teselado 160 para encontrar el valor de
la altura del suelo para introducir la localización de suelo, usando
también la interpolación bilineal. A continuación se utilizan la
altura y la localización para proyectarse hacia atrás por un modelo
del dispositivo 32a o 32b de captura de imágenes para determinar
cual de los píxeles dentro de la imagen mostrada 142 se corresponde
a una localización dada.
Más en particular, y como un ejemplo, el
software 140 de visualización y análisis de imágenes ejecuta y/o
calcula la geolocalización del punto 164 superponiendo y/o ajustando
el plano 160 de suelo teselado al menos a una porción 166, tal
como, por ejemplo, una colina, de la superficie 31. Se debe hacer
notar que solamente una pequeña porción del plano 160 de suelo
teselado y de las facetas 162a, 162b, 162c, etc. de la misma se
muestra a lo largo del perfil de la porción 166 de la superficie
131. Como se ha discutido más arriba, cada una de las facetas 162a,
162b, 162c, etc. está definida por cuatro vértices, cada uno de los
cuales tiene elevaciones respectivas, y cada una de las facetas
tiene inclinaciones longitudinales y pendientes respectivas. La
posición específica del punto 164 sobre el plano/superficie de la
faceta 162a, 162b, 162c, etc. dentro del cual se mantiene el punto
164 (o su proyección) se determina como se ha descrito más
arriba.
El plano 160 de suelo teselado preferiblemente
se crea fuera de la operación del sistema 130 de ordenador de
visualización y medida de imágenes y del software 140 de
visualización y análisis de imágenes. Por el contrario, el plano
160 de suelo teselado toma la forma de una tabla de datos
relativamente simple o tabla de visión 168 almacenada en la memoria
132 del sistema 130 de ordenador de visualización y medida de
imágenes y/o es accesible al mismo. Los recursos de cálculo
requeridos para calcular las localizaciones de todos los vértices y
facetas de un plano de suelo típico, no necesariamente tienen que
residir en el sistema 130 de ordenador de visualización y medida de
imágenes. De esta manera, el sistema 130 de ordenador de
visualización y medida de imágenes es compatible para utilizarse
con, y es ejecutable por, un ordenador personal convencional sin
requerir recursos de cálculo adicionales.
El cálculo de plano 160 de suelo teselado fuera
del sistema 130 de ordenador de visualización y medida de imágenes
permite virtualmente que cualquier nivel de detalle se incorpore en
el plano 160 de suelo teselado, es decir, el tamaño y/o el área
cubierta por, o que se corresponde a, cada una de las facetas 162a,
162b, 162c, etc. puede ser tan grande o pequeño como se desee, sin
incrementar significativamente el tiempo de cálculo, sin hacer más
lenta la operación, sin incrementar significativamente los recursos
requeridos por el sistema 130 de ordenador de visualización y
medida de imágenes y/o el software 140 de visualización y análisis
de imágenes. Por lo tanto, el sistema 130 de ordenador de
visualización y medida puede ser un sistema de ordenador
relativamente básico y sencillo.
El tamaño de las facetas 162a, 162b, 162c, etc.
es uniforme en tamaño en una imagen mostrada 142 en particular. Por
ejemplo, si la imagen mostrada 142 se corresponde a un área que es
aproximadamente de 228,6 m de anchura en el primer plano por
aproximadamente 274,32 m de profundidad, la imagen se puede
descomponer en facetas que son aproximadamente de 15,24 m de lado,
proporcionando por lo tanto aproximadamente quince facetas de
anchura y dieciocho facetas de profundidad. Alternativamente, el
tamaño de las facetas 162a, 162b, 162c, etc. es uniforme en
términos del número de píxeles que están contenidos en las mismas,
es decir, cada faceta tiene el mismo número de píxeles de anchura y
del mismo número de píxeles de profundidad. Por lo tanto, las
facetas en el primer plano de la imagen mostrada 142, donde la
densidad de píxeles es la mayor, serán dimensionalmente más
pequeñas que las facetas en el fondo de la imagen mostrada 142,
donde la densidad de píxeles es la más baja. Puesto que es deseable
tomar la mayor parte de las medidas en el primer plano de una imagen
mostrada en donde la densidad en píxeles es la mayor, la creación
de facetas que son uniformes en términos del número de píxeles que
contienen, tiene la ventaja de proporcionar mediciones más precisas
en el primer plano de la imagen mostrada 142 en relación con las
facetas que son dimensionalmente uniformes.
Otra ventaja de utilizar píxeles como base para
definir las dimensiones de las facetas 162a, 162b, 162c, etc. es
que el cálculo de la localización (localización de píxeles respecto
a localización de suelo) es relativamente simple. Un usuario opera
el sistema 130 de ordenador de visualización y medida de imágenes
para seleccionar un píxel dentro de una faceta dada, el software
140 de visualización y análisis de imágenes busca los datos de la
faceta que se corresponde al píxel seleccionado, se calcula la
elevación del píxel seleccionado como se ha discutido más arriba, y
esa elevación se utiliza en el calculo de localización.
En general, el procedimiento de capturar
imágenes oblicuas de la presente invención divide un área de
interés, tal como, por ejemplo, una comarca, en sectores de tamaño
generalmente uniforme, tales como, por ejemplo, sectores que son
aproximadamente de 2,59 kilómetros cuadrados de área. Esto se
realiza para facilitar la creación de un plan de vuelo para
capturar imágenes oblicuas que cubran cada centímetro del área de
interés, y organizar y nombrar los sectores y/o imágenes de la
misma para una referencia, almacenamiento y recuperación fáciles
(un proceso conocido en la técnica como "sectorización").
Debido a que los bordes de cualquier área geográfica de interés,
tal como una comarca, raramente se encuentran en límites iguales de
kilómetros cuadrados, el procedimiento de captura de imágenes
oblicuas de la presente invención proporciona más sectores que
kilómetros cuadrados en el área de interés, dependiendo en gran
medida cuantos más de la longitud de los límites de la comarca así
como de cómo son de rectos o dentado. Típicamente, se puede esperar
un sector extra por cada dos o tres kilómetro de límite. De esta
manera, si una comarca u otra área de interés es de aproximadamente
32,187 kilómetros por 56,327 kilómetros, o 1.813 kilómetros
cuadrados, el área se medirá en, aproximadamente, 740 a 780
sectores.
El procedimiento de captura de imágenes oblicuas
de la presente invención en general captura las imágenes oblicuas
en, al menos, dos direcciones de brújula, y proporciona una
cobertura total del área de interés en, al menos, esas dos
direcciones de brújula. Haciendo referencia a continuación a las
figuras 7 y 8, se muestra una primera realización de un
procedimiento para capturar imágenes oblicuas de la presente
invención. Con el fin de la claridad, las figuras 7 y 8 se basan en
un sistema que tiene solamente un dispositivo de captura de
imágenes. Sin embargo, se debe entender que se puede utilizar dos o
más dispositivos de captura de imágenes.
El dispositivo de captura de imágenes captura
una o más imágenes oblicuas durante cada paso sobre el área 200. El
dispositivo de captura de imágenes, como se ha discutido más arriba,
está apuntado con un cierto ángulo sobre el área 200 para capturar
imágenes oblicuas de la misma. El área 200 es atravesada con un
patrón hacia detrás y hacia delante, similar a la manera en que se
corta el césped, por el dispositivo de transporte de imágenes y/o
la plataforma, para asegurar doble cobertura del área 200.
Más en particular, el área 200 es atravesada por
el dispositivo 32 de soporte de imágenes y/o la plataforma 20
siguiendo una primera trayectoria 202 para capturar de esta manera
imágenes oblicuas de las porciones 202 a, 202b y 202c del área 200.
A continuación, el área 200 es atravesada por el dispositivo 32 de
transporte de imágenes y/o la plataforma 20 siguiendo una segunda
trayectoria 204 que es paralela y está separada y en una dirección
opuesta a la primera trayectoria 202, es decir 180º (ciento ochenta
grados) para capturar de esta manera imágenes oblicuas de las
porciones 204 a, 204b, 204c del área 200. Comparando las figuras 7 y
8, se ve que una porción 207 (figura 8) del área 200 está cubierta
por las imágenes 202a-c capturadas desde una
primera dirección o perspectiva, y por las imágenes
204a-c capturadas desde una segunda dirección o
perspectiva. De esta manera, la porción media del área 200 es
cubierta doblemente un 100% (cien por cien). El patrón que se ha
descrito más arriba de atravesar o pasar sobre el área 200 a lo
largo de trayectorias opuestas que son paralelas a las trayectorias
202 y 204 se repiten hasta que toda el área 200 sea completamente
cubierta por al menos una imagen oblicua capturada desde las
trayectorias que son paralelas, separadas una de las otras como sea
obligado por el tamaño del área 200 en la misma dirección que las
trayectorias 202 y 204, para de esta manera, cubrir doblemente un
cien por cien el área 200 desde estas perspectivas/direcciones.
Si se desea, y para detalles mejorados, el área
200 es cubierta por dos trayectorias tercera y cuarta 206 y 208
adicionales opuestas y paralelas, respectivamente, que son
perpendiculares a las trayectorias 202 y 204, como se muestra en
las figuras 9 y 10. De esta manera, el área 200 es atravesada por el
dispositivo de soporte de imágenes 32 y/o plataforma 20 siguiendo
una tercera trayectoria 206 para capturar imágenes oblicuas de las
porciones 206a, 206b y 206c del área 200, y a continuación es
atravesada a lo largo por una cuarta trayectoria 208 que es
paralela, separada y opuesta a la tercera trayectoria 206, para
capturar imágenes oblicuas de las porciones 208a, 208b, 208c del
área 200. Este patrón de atravesar o pasar sobre el área 200 a lo
largo de trayectorias opuestas que son paralelas a las trayectorias
206 y 208 se repite de manera similar hasta que la totalidad del
área 200 sea cubierta completamente por, al menos, una imagen
oblicua capturada por trayectorias que son paralelas, y que están
separadas por la manera obligada por el tamaño del área 200, y en la
misma dirección que las trayectorias 206 y 208 para cubrir cien por
cien el doble del área 200 desde estas direcciones/perspectivas.
Como se ha descrito más arriba, el dispositivo
32 de transporte de imágenes y/o la plataforma 20, atraviesa o pasa
sobre el área 200 a lo largo de una trayectoria predeterminada. Sin
embargo, se debe entender que el dispositivo y/o plataforma de
transporte de imágenes y/o la plataforma 20 no necesariamente pasan
o atraviesan directamente por encima del área 200, si no que, por
el contrario, pueden pasar o atravesar un área adyacente, próxima,
o incluso algo alejada del área 200 con el fin de asegurar que la
porción del área 200 que está siendo capturada por imágenes cae
dentro del campo de captura de imágenes del dispositivo de captura
de imágenes. La trayectoria 202, como se muestra en la figura 7, es
una trayectoria tal que no pasa directamente sobre el área 200 pero
que todavía captura imágenes oblicuas de la misma.
La presente invención puede capturar imágenes
con distintos varios niveles de resolución o distancias de las
muestras de suelo. Un primer nivel de detalle, que en la presente
memoria y a continuación se denominará nivel de comunidad, tiene
una distancia de muestra de suelo de, por ejemplo, aproximadamente
0,61 metros por píxel. Para las imágenes ortogonales de nivel de
comunidad, la distancia de muestra de suelo permanece
sustancialmente constante en toda la imagen. Las imágenes
ortogonales de nivel de comunidad se capturan con suficiente
solapamiento para proporcionar una cobertura de pareja en estéreo.
Para imágenes oblicuas de nivel de comunidad, la distancia de
muestra de suelo varía desde, por ejemplo, aproximadamente 0,30
metros por píxel en el primer plano de la imagen hasta
aproximadamente 0,61 metros por píxel en el nivel medio de la
imagen, y hasta aproximadamente 1,22 metros por píxel en el fondo
de la imagen. Las imágenes oblicuas de nivel de comunidad son
capturadas con suficiente solapamiento de manera que cada área de
interés sea cubierta típicamente por, al menos, dos imágenes
oblicuas desde cada dirección de brújula capturada. Se capturan
aproximadamente diez imágenes oblicuas de nivel de comunidad por
sector.
Un segundo nivel de detalle, que en la presente
memoria descriptiva y a continuación se denominará nivel de barrio,
es significativamente más detallado que las imágenes de nivel de
comunidad. Las imágenes de nivel de barrio tienen una distancia de
muestra de suelo de, por ejemplo, aproximadamente 15,24 cm por
píxel. Para las imágenes ortogonales de nivel de barrio, la
distancia de muestra de suelo permanece sustancialmente constante.
Las imágenes oblicuas de nivel de barrio tiene una distancia de
muestra de suelo de, por ejemplo, desde aproximadamente 10,16 cm
por píxel en el primer plano de la imagen hasta aproximadamente
15,24 cm por píxel en el plano medio de la imagen y hasta
aproximadamente 25,4 cm por píxel en el fondo de la imagen. Las
imágenes oblicuas de nivel de barrio se capturan con suficiente
solapamiento de manera que cada área de interés sea cubierta
típicamente por al menos dos imágenes oblicuas en cada dirección de
compás capturada, y de manera que las direcciones de brújula
opuestas proporcionen un solapamiento del 100% entre sí.
Aproximadamente se capturan cien (100) imágenes de área oblicua por
sector.
Se debe hacer notar en particular que la captura
de imágenes oblicuas de nivel de comunidad y/o de barrio en todas
las cuatro direcciones de brújula asegura que cada punto en la
imagen aparecerá en el primer plano o en una porción inferior de al
menos una de las imágenes oblicuas capturadas, en donde la distancia
de muestra de suelo sea la más baja y el detalle de la imagen sea
el mayor.
En la realización que se muestra, el sistema 30
de captura de imágenes y geolocalización incluye un giroscopio,
brújula y altímetro. Sin embargo, se debe entender que el sistema de
captura de imágenes y geolocalización de la presente invención
alternativamente puede estar configurado tal como, por ejemplo, para
derivar y/o calcular la altitud, inclinación longitudinal, balanceo
y guiñada, y rumbo de brújula para las señales/datos de GPS y INU,
con lo cual hace innecesario un elemento o más de entre el
giroscopio, brújula y altímetro.
En la realización que se muestra, los
dispositivos de captura de imágenes se encuentran con un ángulo
igual de declinación en relación a un plano horizontal. Sin
embargo, se debe entender que los ángulos de declinación de los
dispositivos de captura de imágenes no tienen que ser iguales.
En la realización que se muestra, el sistema de
ordenador de captura de imágenes ejecuta el software de adquisición
de imágenes y datos que emite una señal de captura de imágenes común
o única a los dispositivos de captura de imágenes para, de esta
manera, hacer que estos dispositivos adquieran o capturen una
imagen. Sin embargo, se debe entender que la presente invención
alternativamente puede estar configurada para producir que los
dispositivos de captura de imágenes capturen por separado imágenes
en diferentes instantes y/o en diferentes intervalos.
En la realización que se muestra, el
procedimiento de la presente invención captura imágenes oblicuas
para proporcionar doble cobertura de un área de interés desde
trayectorias/perspectivas que son sustancialmente opuestas una de
la otra, es decir, que se encuentran a 180º (ciento ochenta grados)
en relación de una con la otra. Sin embargo, se debe entender que
el procedimiento de la presente invención alternativamente puede
estar configurado para proporcionar doble cobertura de
trayectorias/perspectivas que son generalmente y/o sustancialmente
perpendiculares una en relación con la otra.
Aunque la presente invención se ha descrito
teniendo un diseño preferente, la invención puede ser modificada
adicionalmente en la amplitud y el alcance de las reivindicaciones.
Por lo tanto, esta exposición pretende incluir cualquier
equivalente a las estructuras y a los elementos que se muestran en
la presente memoria descriptiva. Además, esta exposición pretende
incluir cualquier variación, utilización o adaptación de la presente
invención que utilicen los principios generales que se muestran en
la presente memoria descriptiva. Además, esta exposición pretende
incluir cualquier diferencia con el asunto del sujeto que se muestra
que se encuentre dentro de la práctica conocida o normal en la
técnica pertinente y que se encuentre dentro de los límites de las
reivindicaciones adjuntas.
Claims (27)
1. Un sistema computerizado para mostrar,
geolocalizar y realizar mediciones basadas en imágenes oblicuas
capturadas, que comprende:
un sistema (130) de ordenador que tiene una
memoria (132);
un archivo (120) de imágenes y datos accesible
por el citado sistema (130) y que incluye una pluralidad de
archivos de imágenes que se corresponden a una pluralidad de
imágenes oblicuas capturadas, incluyendo adicionalmente el citado
archivo (120) de imágenes y datos, datos de posición que se
corresponden a la citada pluralidad de archivos de imágenes; y
software (140) de visualización y análisis de
imágenes ejecutado por el citado sistema (130) para leer el citado
archivo (120) de imágenes y datos y mostrar al menos una porción de
las imágenes oblicuas capturadas como una imagen oblicua mostrada,
calculando el citado software (140) de visualización y análisis de
imágenes las geolocalizaciones de dos o más puntos localizados en
la citada imagen oblicua mostrada, en base, al menos en parte, a
los citados datos posicionales, calculando el citado software (140)
de visualización y análisis de imágenes una distancia de separación
entre dos o más puntos cualesquiera seleccionados en la imagen
oblicua mostrada;
que se caracteriza por
un archivo de datos de plano de suelo que
presenta un plano (160) de suelo teselado, proporcionando datos el
citado archivo de datos de plano de suelo al citado software (140)
de visualización y análisis de imágenes, representando el archivo
de datos de plano de suelo un plano de suelo teselado que se
aproxima ajustadamente, al menos, a una porción del terreno
mostrado en las citadas imágenes oblicuas capturadas, comprendiendo
además el citado plano de suelo teselado una pluralidad de imágenes
interconectadas, comprendiendo además el citado plano de suelo
teselado una pluralidad de facetas interconectadas (162a, 162b,
162c, ...) teniendo cada una de la citada pluralidad de facetas una
inclinación longitudinal y una pendiente respectivas, comprendiendo
el citado archivo de datos de plano de suelo una pluralidad de
vértices, teniendo cada uno de la citada pluralidad de vértices
elevaciones respectivas y definiendo esquinas de la citada
pluralidad de facetas interconectadas (162a, 162b, 162c, ....)
estando compartidos dos de la citada pluralidad de vértices por cada
una de las citadas facetas interconectadas; e
identificando el citado software (140) de
visualización y análisis de imágenes cual de la citada pluralidad
de facetas se corresponde a un punto seleccionado en la citada
imagen oblicua mostrada, y calculando una elevación del citado
punto seleccionado que depende, al menos en parte, de la elevación
de los vértices de la faceta que se corresponde al punto
seleccionado, utilizando el citado software (140) de visualización y
análisis de imágenes la citada elevación calculada para calcular la
citada distancia de separación entre el citado punto seleccionado y
uno o más puntos seleccionados adicionales.
2. El sistema de la reivindicación 1, en el
que
el citado software (140) de visualización y
análisis de imágenes calcula las citadas geolocalizaciones solamente
como se precise.
3. El sistema de las reivindicaciones 1 ó 2, en
el que el citado software (140) de visualización y análisis de
imágenes calcula una altura de un objeto dentro de la citada imagen
oblicua mostrada calculando la distancia de separación entre dos o
más puntos seleccionados.
4. El sistema de una de las reivindicaciones 1 a
3, en el que el citado plano de suelo teselado (160) se encuentra
superimpuesto sobre la citada imagen oblicua mostrada y que se
ajusta a la misma.
5. El sistema de una de las reivindicaciones 1 a
4, en el que el citado software (140) de visualización y análisis
de imágenes incluye modos de medida seleccionables por el usuario
que son accesibles por medio de al menos un menú desplegable,
barras de herramientas y órdenes de teclado.
6. El sistema de una de las reivindicaciones 1 a
5, en el que cada una de las citadas imágenes fue capturada por un
dispositivo (32a, 32b) de captura de imágenes y en un suceso de
captura de imágenes respectivo, incluyendo el citado archivo de
datos posicionales de la citada imágenes y datos:
datos de tiempo que representan el momento de
cada suceso de captura de imágenes;
datos de localización que representan la
localización del dispositivo (32a, 32b) de captura de imágenes en
cada suceso de captura de imágenes;
datos de rumbo que representan el rumbo del
dispositivo (32a, 32b) de captura de imágenes de cada suceso de
captura de imágenes;
datos de corrección que representan factores de
corrección del dispositivo (32a, 32b) de captura de imágenes; y
datos de elevación que representan una elevación
media de la superficie capturada por el dispositivo (32a,32b) de
captura de imágenes.
7. El sistema de la reivindicación 6, en el que
los citados datos de localización incluyen la latitud, longitud y
altitud del aparato (32a, 32b) de captura de imágenes en cada suceso
de captura de imágenes.
8. El sistema de la reivindicación 6 ó 7, en el
que los citados datos de rumbo incluyen inclinación longitudinal,
balanceo, guiñada y rumbo del citado dispositivo (32a, 32b) de
captura de imágenes en cada suceso de captura de imágenes.
9. El sistema de una de las reivindicaciones 6 a
8, en el que el citado dispositivo (32a, 32b) de captura de
imágenes es una cámara y los citados datos de conexión incluyen, al
menos, un dato de longitud focal, de tamaño de sensor, de relación
de aspecto, de punto principal de desviación, distorsión, e
inclinación longitudinal del píxel.
10. El sistema de una de las reivindicaciones 6
a 9, que comprende:
un dispositivo de entrada (134a, 134b) para
seleccionar un punto de inicio y un punto de finalización en la
imagen oblicua mostrada; y
el citado software (140) de visualización y
análisis de imágenes para recuperar los datos posicionales que se
corresponden al citado punto de inicio y al citado punto de
finalización del citado archivo de datos; para referenciar el
citado archivo de datos de plano de suelo que se corresponden al
citado plano de suelo teselado que tiene una pluralidad de facetas,
teniendo cada una de las citadas facetas una inclinación
longitudinal y pendiente respectivas, correspondiéndose
ajustadamente el citado plano de suelo teselado a un terreno de la
citada imagen oblicua mostrada; para conectar los citados puntos de
inicio y finalización con segmentos de línea, conformando los
citados segmentos de línea al citado inclinación longitudinal y
pendiente de las citadas facetas para seguir de esta manera el
citado terreno; y para calcular la distancia lineal a lo largo de
los citados segmentos de línea entre los citados puntos de inicio y
finalización, con lo cual se toma en consideración la citada
inclinación longitudinal y la citada pendiente de las citadas
facetas.
11. El sistema de una de las reivindicaciones 1
a 10, en el que el citado software (140) de visualización y
análisis de imágenes se superpone al citado plano de suelo teselado
sobre la citada imagen oblicua mostrada.
12. El sistema de la reivindicación 10 u 11, que
comprende:
el citado dispositivo de entrada (134a, 134b)
para seleccionar uno o más puntos intermedios en la citada imagen
oblicua mostrada; y
el citado software (140) de visualización y
análisis de imágenes para recuperar los datos posicionales que se
corresponden al citado uno o más puntos intermedio desde el citado
archivo de datos; para conectar los puntos intermedios adyacentes
entres sí, y conectar los citados puntos de inicio y finalización a
los puntos intermedios adyacentes con segmentos de línea,
conformándose los citados segmentos de línea a la citada inclinación
longitudinal y pendiente en las citadas facetas para seguir de esta
manera el citado terreno; y para calcular la distancia a lo largo
de los citados segmentos de línea entre los citados puntos de inicio
y finalización.
13. El sistema de una de las reivindicaciones 1
a 12, en el que la citada pluralidad de facetas (162a, 162b, 162c,
...) se corresponde, cada una de ellas, a áreas iguales de la citada
imagen oblicua mostrada.
14. El sistema de una de las reivindicaciones 1
a 13, en el que la citada pluralidad de facetas (162a, 162b, 162c,
...) incluyen cada una de ellas un número igual de píxeles de la
citada imagen oblicua mostrada.
15. El sistema de una de las reivindicaciones 1
a 14, que comprende un dispositivo de entrada (134a, 134b) para
seleccionar uno o más puntos intermedios en la citada imagen oblicua
mostrada; y el citado software (140) de visualización y análisis de
imágenes para recuperar los datos posicionales que se corresponden a
los citados puntos intermedios.
16. El sistema de una de las reivindicaciones 1
a 15, en el que la citada distancia de separación comprende una
distancia entre dos o más puntos seleccionados, una altura diferente
entre uno o más puntos diferentes, una diferencia en elevación de
dos o más puntos seleccionados y un área abarcada por al menos tres
puntos.
17. El sistema de una de las reivindicaciones 1
a 16, que comprende:
un dispositivo (32a, 32b) de captura de
imágenes, capturando el citado dispositivo (32a, 32b) de captura de
imágenes, imágenes oblicuas en sucesos de captura de imágenes,
emitiendo el citado dispositivo (32a, 32b) de captura de imágenes
señales de imágenes/datos que se corresponden a las imágenes
capturadas;
al menos un dispositivo de geolocalización
(34,..., 44), emitiendo cada uno de los citados al menos un
dispositivo de geolocalización (34, ...,44) al menos una señal de
geolocalización siendo indicativa, al menos en parte, de una
geolocalización del citado dispositivo (32a, 32b) de captura de
imágenes durante cada suceso de captura de imágenes; y
un sistema (46) de ordenador que recibe y
almacena las citadas señales de datos de imágenes y la citada al
menos una señal de geolocalización; y
software (90) de adquisición de imágenes y datos
que lee las citadas imágenes - datos y la citada al menos una señal
de geolocalización, asociando el citado software (90) cada una de
las citadas señales de imágenes - datos a la correspondiente citada
al menos una señal de geolocalización de cada suceso de captura de
imágenes.
18. El sistema de la reivindicación 17, en la
que el citado al menos un dispositivo de geolocalización y la
citada al menos una señal de geolocalización respectivamente,
comprende, al menos, uno de entre los siguientes elementos:
un reloj (38) que emite al citado sistema (46)
de ordenador de captura de imágenes señales de datos de los momento
indicadores de un momento de cada citado suceso de captura de
imágenes;
un receptor (34) de sistema global de
posicionamiento (GPS) que recibe señales GPS y emite al citado
sistema (46) de ordenador de captura de imágenes señales de datos
de localización indicativas de una longitud y latitud del citado
dispositivo (32a, 32b) de captura de imágenes, en cada uno de los
citados sucesos de captura de imágenes;
una unidad (36) de navegación inercial que
proporciona al citado sistema (46) de ordenador de captura de
imágenes, señales de datos de velocidad indicativas de la velocidad
del citado dispositivo (32a, 32b) de captura de imágenes en cada
uno de los citados sucesos de captura de imágenes;
un giroscopio (40) que proporciona al citado
sistema (46) de ordenador de captura de imágenes una señal de
inclinación longitudinal, una señal de balanceo y una señal de
guiñada que son indicativas, respectivamente, de la inclinación
longitudinal, balanceo y guiñada del citado dispositivo (32a, 32b)
de captura de imágenes en cada uno de los citados sucesos de
captura de imágenes;
una brújula (42) que proporciona al citado
sistema (46) de ordenador de captura de imágenes señales de datos
de rumbo indicativas del rumbo del citado dispositivo (32a, 32b) de
captura de imágenes en cada uno de los citados eventos de captura
de imágenes; y
un altímetro (44) que proporciona al citado
sistema (46) de ordenador de captura de imágenes señales de datos
de altitud indicativas de la altitud del citado dispositivo (32a,
32b) de captura de imágenes en cada uno de los citados sucesos de
captura de imágenes.
19. El sistema de la reivindicación 17 ó 18, que
comprende, además, datos de corrección indicativas de las
características del citado dispositivo (32a, 32b) de captura de
imágenes, incluyendo longitud focal, tamaño del sensor, distorsión
radial, punto principal de desviación y alineación, utilizando el
citado software (90) de adquisición de imágenes y datos los citados
datos de corrección para corregir las imágenes capturadas.
20. El sistema de una de las reivindicaciones 17
a 19, que comprende, además, un archivo de datos de salida creado
por el citado software (90) de adquisición de imágenes y datos,
incluyendo el citado archivo de datos de salida una pluralidad de
archivos de imagen y de datos posicionales que se corresponden a
cada una de la citada pluralidad de archivo de imagen.
21. El sistema de una de las reivindicaciones 17
a 20, que comprende, además, una plataforma (20) que transporta el
citado dispositivo (32a, 32b) de captura de imágenes una distancia
predeterminada por encima de una superficie de interés.
22. El sistema de la reivindicación 21, en el
que el citado dispositivo (32a, 32b) de captura de imágenes captura
imágenes oblicuas de un área de interés como las citadas imágenes
oblicuas por medio de:
subdividir el área (200) de interés en una
pluralidad de sectores (202a, 202b, 202c);
guiar la citada plataforma (20) a lo largo de
una primera trayectoria (202) para que apunte de esta manera a uno
o más sectores objetivos con el citado dispositivo (32a, 32b) de
captura de imágenes;
capturar con el citado dispositivo (32a, 32b) de
captura de imágenes una o más imágenes oblicuas para cubrir de esta
manera la totalidad de cada uno de los citados sectores objetivos
con imágenes oblicuas capturados desde una primera perspectiva;
guiar la citada plataforma (20) a lo largo de
una segunda trayectoria (204) para apuntar de esta manera a los
citados sectores objetivos;
capturar con el citado dispositivo (32a, 32b) de
captura de imágenes una o más imágenes oblicuas para cubrir de esta
manera la totalidad de cada uno de los citados sectores objetivos
con imágenes oblicuas capturadas desde una segunda perspectiva;
repetir las citadas etapas de guiado y captura a
lo largo de trayectorias sustancialmente paralelas y separadas de
las citadas trayectorias primera y segunda (202, 204) y capturar una
o más imágenes oblicuas para cubrir de esta manera la totalidad de
cada una de la citada pluralidad de sectores en imágenes oblicuas
capturadas desde cada una de las citadas perspectivas primera y
segunda;
registrar los datos posicionales indicadores de
una geolocalización en el citado dispositivo (32a, 32b) de captura
de imágenes en cada suceso de captura de imágenes.
23. El sistema de la reivindicación 22, en el
que la citada trayectoria (204) es sustancialmente paralela en
relación y a 180º (ciento ochenta grados) respecto a la citada
primera trayectoria (202).
24. El sistema de la reivindicación 23, en el
que la citada segunda trayectoria (204) también está separada de la
citada primera trayectoria (202).
25. El sistema de una de las reivindicaciones 22
a 24 en el que:
la citada plataforma (20) está guiada a lo largo
de una tercera trayectoria (206) para apuntar de esta manera a uno
o más sectores objetivos con el citado dispositivo (32a, 32b) de
captura de imágenes, siendo sustancialmente perpendicular la citada
tercera trayectoria (206) a las citadas primera y segundas
trayectorias (202, 204);
el citado dispositivo (32a, 32b) de captura de
imágenes captura una o más imágenes oblicuas para capturar de esta
manera la totalidad de cada uno de los citados sectores objetivos en
imágenes oblicuas capturadas desde una tercera perspectiva; en el
que
la citada plataforma (20) es guiada y el citado
dispositivo (32a, 32b) de captura de imágenes captura las citadas
imágenes oblicuas a lo largo de trayectorias sustancialmente
paralelas y separadas de la citada tercera trayectoria (306); y
el citado dispositivo (32a, 32b) de captura de
imágenes captura una o más imágenes oblicuas para cubrir de esta
manera la totalidad de cada una de la citada unidad de sectores en
imágenes oblicuas capturadas desde la citada tercera
perspectiva.
26. El sistema de la reivindicación 25, en el
que
la citada plataforma (20) es guiada a lo largo
de una cuarta trayectoria (208) para apuntar de esta manera a uno o
más sectores objetivos con el citado dispositivo (32a, 32b) de
captura de imágenes, siendo sustancialmente paralela la citada
cuarta trayectoria (208) a la citada tercera trayectoria (206) y a
180º (ciento ochenta grados) respecto a la citada tercera
trayectoria (206);
el citado dispositivo (32a, 32b) de captura de
imágenes captura una o más imágenes oblicuas para capturar de esta
manera la totalidad de cada citado sector objetivo en imágenes
oblicuas capturadas desde una cuarta perspectiva; y
las citadas etapas de guiado y captura se
repiten a lo largo de trayectorias sustancialmente paralelas y
separadas de la citada cuarta trayectoria (208), y capturar una o
más imágenes oblicuas para cubrir de esta manera la totalidad de
cada uno de la citada pluralidad de sectores en imágenes oblicuas
capturadas desde la citada cuarta perspectiva.
27. El sistema de la reivindicación 26, en el
que la citada cuarta trayectoria (208) también está separada de la
citada tercera trayectoria (206).
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US42527502P | 2002-11-08 | 2002-11-08 | |
US425275P | 2002-11-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2266704T3 true ES2266704T3 (es) | 2007-03-01 |
Family
ID=32108178
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES03025702T Expired - Lifetime ES2266704T3 (es) | 2002-11-08 | 2003-11-07 | Procedimiento y aparato para capturar, geolocalizar y medir imagenes oblicuas. |
Country Status (14)
Country | Link |
---|---|
US (12) | US7424133B2 (es) |
EP (2) | EP2261600B1 (es) |
JP (2) | JP4901103B2 (es) |
CN (2) | CN101793514B (es) |
AT (1) | ATE331204T1 (es) |
AU (1) | AU2003291364A1 (es) |
BR (1) | BRPI0316110B1 (es) |
CA (6) | CA2821602C (es) |
DE (1) | DE60306301T2 (es) |
DK (1) | DK1418402T3 (es) |
ES (1) | ES2266704T3 (es) |
HK (1) | HK1088421A1 (es) |
MX (1) | MXPA05004987A (es) |
WO (1) | WO2004044692A2 (es) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7787659B2 (en) | 2002-11-08 | 2010-08-31 | Pictometry International Corp. | Method and apparatus for capturing, geolocating and measuring oblique images |
US7873238B2 (en) | 2006-08-30 | 2011-01-18 | Pictometry International Corporation | Mosaic oblique images and methods of making and using same |
US7991226B2 (en) | 2007-10-12 | 2011-08-02 | Pictometry International Corporation | System and process for color-balancing a series of oblique images |
US8385672B2 (en) | 2007-05-01 | 2013-02-26 | Pictometry International Corp. | System for detecting image abnormalities |
US8401222B2 (en) | 2009-05-22 | 2013-03-19 | Pictometry International Corp. | System and process for roof measurement using aerial imagery |
US8477190B2 (en) | 2010-07-07 | 2013-07-02 | Pictometry International Corp. | Real-time moving platform management system |
US8520079B2 (en) | 2007-02-15 | 2013-08-27 | Pictometry International Corp. | Event multiplexer for managing the capture of images |
US8531472B2 (en) | 2007-12-03 | 2013-09-10 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real façade texture |
US8588547B2 (en) | 2008-08-05 | 2013-11-19 | Pictometry International Corp. | Cut-line steering methods for forming a mosaic image of a geographical area |
US8593518B2 (en) | 2007-02-01 | 2013-11-26 | Pictometry International Corp. | Computer system for continuous oblique panning |
US8823732B2 (en) | 2010-12-17 | 2014-09-02 | Pictometry International Corp. | Systems and methods for processing images with edge detection and snap-to feature |
US9262818B2 (en) | 2007-05-01 | 2016-02-16 | Pictometry International Corp. | System for detecting image abnormalities |
US9275080B2 (en) | 2013-03-15 | 2016-03-01 | Pictometry International Corp. | System and method for early access to captured images |
US9292913B2 (en) | 2014-01-31 | 2016-03-22 | Pictometry International Corp. | Augmented three dimensional point collection of vertical structures |
US9330494B2 (en) | 2009-10-26 | 2016-05-03 | Pictometry International Corp. | Method for the automatic material classification and texture simulation for 3D models |
US9612598B2 (en) | 2014-01-10 | 2017-04-04 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US9881163B2 (en) | 2013-03-12 | 2018-01-30 | Pictometry International Corp. | System and method for performing sensitive geo-spatial processing in non-sensitive operator environments |
US9953112B2 (en) | 2014-02-08 | 2018-04-24 | Pictometry International Corp. | Method and system for displaying room interiors on a floor plan |
US10325350B2 (en) | 2011-06-10 | 2019-06-18 | Pictometry International Corp. | System and method for forming a video stream containing GIS data in real-time |
US10346935B2 (en) | 2012-03-19 | 2019-07-09 | Pictometry International Corp. | Medium and method for quick square roof reporting |
US10402676B2 (en) | 2016-02-15 | 2019-09-03 | Pictometry International Corp. | Automated system and methodology for feature extraction |
US10502813B2 (en) | 2013-03-12 | 2019-12-10 | Pictometry International Corp. | LiDAR system producing multiple scan paths and method of making and using same |
US10671648B2 (en) | 2016-02-22 | 2020-06-02 | Eagle View Technologies, Inc. | Integrated centralized property database systems and methods |
Families Citing this family (166)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002033443A2 (en) | 2000-06-14 | 2002-04-25 | Vermeer Manufacturing Company | Utility mapping and data distribution system and method |
US8994822B2 (en) | 2002-08-28 | 2015-03-31 | Visual Intelligence Lp | Infrastructure mapping system and method |
US7893957B2 (en) | 2002-08-28 | 2011-02-22 | Visual Intelligence, LP | Retinal array compound camera system |
US8483960B2 (en) | 2002-09-20 | 2013-07-09 | Visual Intelligence, LP | Self-calibrated, remote imaging and data processing system |
USRE49105E1 (en) | 2002-09-20 | 2022-06-14 | Vi Technologies, Llc | Self-calibrated, remote imaging and data processing system |
US7315800B2 (en) * | 2003-07-08 | 2008-01-01 | Meiners Robert E | System and method of sub-surface system design and installation |
US7308342B2 (en) * | 2004-01-23 | 2007-12-11 | Rafael Armament Development Authority Ltd. | Airborne reconnaissance system |
US8207964B1 (en) * | 2008-02-22 | 2012-06-26 | Meadow William D | Methods and apparatus for generating three-dimensional image data models |
CA2582971A1 (en) * | 2004-10-15 | 2006-04-20 | Ofek Aerial Photography International Ltd. | Computational solution of and building of three dimensional virtual models from aerial photographs |
US20060208943A1 (en) * | 2005-03-21 | 2006-09-21 | Sirf Technology, Inc. | Location tagging using post-processing |
KR100668159B1 (ko) * | 2005-07-01 | 2007-01-11 | 김문정 | 실사 이미지 기반 조경 설계 시스템 및 방법 |
US7554539B2 (en) * | 2005-07-27 | 2009-06-30 | Balfour Technologies Llc | System for viewing a collection of oblique imagery in a three or four dimensional virtual scene |
US20070188610A1 (en) * | 2006-02-13 | 2007-08-16 | The Boeing Company | Synoptic broad-area remote-sensing via multiple telescopes |
US8098295B2 (en) * | 2006-03-06 | 2012-01-17 | Given Imaging Ltd. | In-vivo imaging system device and method with image stream construction using a raw images |
US8089390B2 (en) | 2006-05-16 | 2012-01-03 | Underground Imaging Technologies, Inc. | Sensor cart positioning system and method |
US9646415B2 (en) * | 2006-05-16 | 2017-05-09 | Underground Imaging Technologies, Inc. | System and method for visualizing multiple-sensor subsurface imaging data |
DE102007009664B3 (de) * | 2007-02-22 | 2008-04-10 | Jena-Optronik Gmbh | Vorrichtung zur Kalibrierung von Zeilenkameras |
US8078436B2 (en) | 2007-04-17 | 2011-12-13 | Eagle View Technologies, Inc. | Aerial roof estimation systems and methods |
US8145578B2 (en) | 2007-04-17 | 2012-03-27 | Eagel View Technologies, Inc. | Aerial roof estimation system and method |
WO2008133790A1 (en) * | 2007-04-27 | 2008-11-06 | Lpa Systems, Inc. | System and method for analysis and display of geo-referenced imagery |
US7990394B2 (en) | 2007-05-25 | 2011-08-02 | Google Inc. | Viewing and navigating within panoramic images, and applications thereof |
US8515207B2 (en) * | 2007-05-25 | 2013-08-20 | Google Inc. | Annotations in panoramic images, and applications thereof |
CN101637015A (zh) * | 2007-08-03 | 2010-01-27 | 学校法人庆应义墪 | 构图分析方法、具有构图分析功能的图像装置、构图分析程序、以及计算机可读记录介质 |
AU2008309133B8 (en) | 2007-10-04 | 2014-02-20 | Sungevity | System and method for provisioning energy systems |
EP2076055B1 (en) * | 2007-12-27 | 2012-10-24 | Saab AB | Method for displaying a virtual image |
CN101939616B (zh) * | 2008-01-09 | 2014-07-09 | 株式会社尼康 | 测量设备和测量方法 |
US8417061B2 (en) * | 2008-02-01 | 2013-04-09 | Sungevity Inc. | Methods and systems for provisioning energy systems |
US8675068B2 (en) * | 2008-04-11 | 2014-03-18 | Nearmap Australia Pty Ltd | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US8497905B2 (en) | 2008-04-11 | 2013-07-30 | nearmap australia pty ltd. | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
CN103424959B (zh) * | 2008-05-19 | 2016-12-28 | 佳能株式会社 | 图像拾取系统和透镜装置 |
US8155433B2 (en) | 2008-07-10 | 2012-04-10 | Goodrich Corporation | Method of object location in airborne imagery using recursive quad space image processing |
US8477560B2 (en) * | 2008-09-19 | 2013-07-02 | Westerngeco L.L.C. | Determining a position of an object of a positioning network associated with a marine survey arrangement |
US8731234B1 (en) | 2008-10-31 | 2014-05-20 | Eagle View Technologies, Inc. | Automated roof identification systems and methods |
US8170840B2 (en) | 2008-10-31 | 2012-05-01 | Eagle View Technologies, Inc. | Pitch determination systems and methods for aerial roof estimation |
US8209152B2 (en) | 2008-10-31 | 2012-06-26 | Eagleview Technologies, Inc. | Concurrent display systems and methods for aerial roof estimation |
KR101609679B1 (ko) * | 2009-03-31 | 2016-04-06 | 팅크웨어(주) | 도로의 면형 데이터를 이용한 맵 매칭장치 및 그 방법 |
US9477368B1 (en) | 2009-03-31 | 2016-10-25 | Google Inc. | System and method of indicating the distance or the surface of an image of a geographical object |
EP2434457A4 (en) * | 2009-05-18 | 2014-01-15 | Kodaira Associates Inc | METHOD FOR TRANSMITTING IMAGE INFORMATION |
JP5294995B2 (ja) * | 2009-06-03 | 2013-09-18 | パナソニック株式会社 | 距離計測装置及び距離計測方法 |
WO2010146695A1 (ja) * | 2009-06-18 | 2010-12-23 | 富士通株式会社 | 画像処理装置および画像処理方法 |
JP5288482B2 (ja) * | 2009-07-21 | 2013-09-11 | Nec東芝スペースシステム株式会社 | 撮像装置、撮像方法、撮像回路及びプログラム |
DE102009035755A1 (de) * | 2009-07-24 | 2011-01-27 | Pilz Gmbh & Co. Kg | Verfahren und Vorrichtung zum Überwachen eines Raumbereichs |
US8427536B2 (en) * | 2009-11-19 | 2013-04-23 | Qualcomm Incorporated | Orientation determination of a mobile station using side and top view images |
US8542286B2 (en) * | 2009-11-24 | 2013-09-24 | Microsoft Corporation | Large format digital camera with multiple optical systems and detector arrays |
US8665316B2 (en) * | 2009-11-24 | 2014-03-04 | Microsoft Corporation | Multi-resolution digital large format camera with multiple detector arrays |
US8934008B2 (en) * | 2009-12-07 | 2015-01-13 | Cognitech, Inc. | System and method for determining geo-location(s) in images |
FR2954520B1 (fr) * | 2009-12-18 | 2012-09-21 | Thales Sa | Procede de designation d'une cible pour un armement a guidage terminal par imagerie |
US8963943B2 (en) * | 2009-12-18 | 2015-02-24 | Electronics And Telecommunications Research Institute | Three-dimensional urban modeling apparatus and method |
US20120114229A1 (en) * | 2010-01-21 | 2012-05-10 | Guoqing Zhou | Orthorectification and mosaic of video flow |
EP2529183A4 (en) * | 2010-01-25 | 2014-03-12 | Tarik Ozkul | AUTONOMOUS DECISION SYSTEM FOR CHOOSING TARGETS IN OBSERVATION SATELLITES |
EP2529358A4 (en) | 2010-01-26 | 2013-11-20 | Saab Ab | AUTOMATED THREE-DIMENSIONAL CARTOGRAPHY METHOD |
AU2011210538B2 (en) | 2010-02-01 | 2015-03-26 | Eagle View Technologies, Inc. | Geometric correction of rough wireframe models derived from photographs |
US9025810B1 (en) | 2010-04-05 | 2015-05-05 | Google Inc. | Interactive geo-referenced source imagery viewing system and method |
US20120232717A1 (en) * | 2010-04-06 | 2012-09-13 | Honeywell International Inc. | Remote coordinate identifier system and method for aircraft |
US9041796B2 (en) * | 2010-08-01 | 2015-05-26 | Francis Ruben Malka | Method, tool, and device for determining the coordinates of points on a surface by means of an accelerometer and a camera |
CA2811639A1 (en) | 2010-09-17 | 2012-03-22 | Jeffrey Farr | Methods and apparatus for tracking motion and/or orientation of a marking device |
US8977520B2 (en) * | 2010-10-21 | 2015-03-10 | Pictometry International Corp. | Computer system for automatically classifying roof elements |
US10168153B2 (en) | 2010-12-23 | 2019-01-01 | Trimble Inc. | Enhanced position measurement systems and methods |
US9182229B2 (en) | 2010-12-23 | 2015-11-10 | Trimble Navigation Limited | Enhanced position measurement systems and methods |
US9879993B2 (en) | 2010-12-23 | 2018-01-30 | Trimble Inc. | Enhanced bundle adjustment techniques |
US8363928B1 (en) * | 2010-12-24 | 2013-01-29 | Trimble Navigation Ltd. | General orientation positioning system |
US8520080B2 (en) | 2011-01-31 | 2013-08-27 | Hand Held Products, Inc. | Apparatus, system, and method of use of imaging assembly on mobile terminal |
US8505847B2 (en) | 2011-03-01 | 2013-08-13 | John Ciampa | Lighter-than-air systems, methods, and kits for obtaining aerial images |
US8687062B1 (en) * | 2011-08-31 | 2014-04-01 | Google Inc. | Step-stare oblique aerial camera system |
JP5787695B2 (ja) | 2011-09-28 | 2015-09-30 | 株式会社トプコン | 画像取得装置 |
ES2672881T3 (es) | 2011-11-29 | 2018-06-18 | Pictometry International Corp. | Sistema de detección automática de huella de estructura de imaginería oblicua |
US10663294B2 (en) | 2012-02-03 | 2020-05-26 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area and producing a wall estimation report |
US9933257B2 (en) | 2012-02-03 | 2018-04-03 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area |
US10515414B2 (en) | 2012-02-03 | 2019-12-24 | Eagle View Technologies, Inc. | Systems and methods for performing a risk management assessment of a property |
US9599466B2 (en) | 2012-02-03 | 2017-03-21 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area |
US8774525B2 (en) | 2012-02-03 | 2014-07-08 | Eagle View Technologies, Inc. | Systems and methods for estimation of building floor area |
US9501700B2 (en) | 2012-02-15 | 2016-11-22 | Xactware Solutions, Inc. | System and method for construction estimation using aerial images |
US9348020B2 (en) | 2012-03-12 | 2016-05-24 | Vermeer Manufacturing Company | Offset frequency homodyne ground penetrating radar |
US8788968B1 (en) * | 2012-06-04 | 2014-07-22 | Google Inc. | Transitioning an interface to a neighboring image |
WO2014073282A1 (ja) * | 2012-11-08 | 2014-05-15 | 住友重機械工業株式会社 | 舗装機械用画像生成装置及び舗装機械用操作支援システム |
US9235763B2 (en) | 2012-11-26 | 2016-01-12 | Trimble Navigation Limited | Integrated aerial photogrammetry surveys |
DE102013200387A1 (de) * | 2013-01-14 | 2014-07-17 | Robert Bosch Gmbh | Erstellung einer Hinderniskarte |
WO2014112911A1 (en) * | 2013-01-21 | 2014-07-24 | Saab Ab | Method and arrangement for developing a three dimensional model of an environment |
WO2014112909A1 (en) * | 2013-01-21 | 2014-07-24 | Saab Ab | Method and system for geo-referencing at least one sensor image |
US10909482B2 (en) | 2013-03-15 | 2021-02-02 | Pictometry International Corp. | Building materials estimation |
US11587176B2 (en) | 2013-03-15 | 2023-02-21 | Eagle View Technologies, Inc. | Price estimation model |
US9959581B2 (en) | 2013-03-15 | 2018-05-01 | Eagle View Technologies, Inc. | Property management on a smartphone |
US9065985B2 (en) * | 2013-03-15 | 2015-06-23 | Tolo, Inc. | Diagonal collection of oblique imagery |
US9739133B2 (en) | 2013-03-15 | 2017-08-22 | Vermeer Corporation | Imaging underground objects using spatial sampling customization |
US9753950B2 (en) | 2013-03-15 | 2017-09-05 | Pictometry International Corp. | Virtual property reporting for automatic structure detection |
EP2787319A1 (de) * | 2013-04-05 | 2014-10-08 | Leica Geosystems AG | Steuerung einer Bildauslösung zur Luftbilderfassung in Nadir-Ausrichtung für ein unbemanntes Fluggerät |
US9185289B2 (en) | 2013-06-10 | 2015-11-10 | International Business Machines Corporation | Generating a composite field of view using a plurality of oblique panoramic images of a geographic area |
US9247239B2 (en) * | 2013-06-20 | 2016-01-26 | Trimble Navigation Limited | Use of overlap areas to optimize bundle adjustment |
WO2015017855A1 (en) | 2013-08-02 | 2015-02-05 | Xactware Solutions, Inc. | System and method for detecting features in aerial images using disparity mapping and segmentation techniques |
CN103453880B (zh) * | 2013-08-16 | 2016-03-30 | 北京百纳威尔科技有限公司 | 空间参数测量方法和用户终端 |
US9934334B2 (en) | 2013-08-29 | 2018-04-03 | Solar Spectrum Holdings Llc | Designing and installation quoting for solar energy systems |
US9046996B2 (en) | 2013-10-17 | 2015-06-02 | Google Inc. | Techniques for navigation among multiple images |
WO2015077514A1 (en) * | 2013-11-20 | 2015-05-28 | Certusview Technologies, Llc | Systems, methods, and apparatus for tracking an object |
US10203691B2 (en) * | 2013-12-06 | 2019-02-12 | Bae Systems Plc | Imaging method and apparatus |
WO2015082595A1 (en) | 2013-12-06 | 2015-06-11 | Bae Systems Plc | Imaging method and apparatus |
CN103673996A (zh) * | 2013-12-10 | 2014-03-26 | 苏州市峰之火数码科技有限公司 | 一种便于获得良好航拍音效的方法 |
CN103822617A (zh) * | 2013-12-11 | 2014-05-28 | 苏州市峰之火数码科技有限公司 | 航拍音效增强方法 |
DE102014201238A1 (de) * | 2014-01-23 | 2015-07-23 | Siemens Aktiengesellschaft | Verfahren und System zur Erstellung einer Vektorkarte |
US9541387B2 (en) * | 2014-02-07 | 2017-01-10 | Goodrich Corporation | Passive altimeter |
WO2015199772A2 (en) | 2014-03-28 | 2015-12-30 | Konica Minolta Laboratory U.S.A., Inc. | Method and system of stitching aerial data using information from previous aerial images |
US9734399B2 (en) * | 2014-04-08 | 2017-08-15 | The Boeing Company | Context-aware object detection in aerial photographs/videos using travel path metadata |
CA2958075C (en) | 2014-08-29 | 2024-02-13 | Spookfish Innovations Pty Ltd | An aerial survey image capture system |
US9460517B2 (en) | 2014-10-22 | 2016-10-04 | Pointivo, Inc | Photogrammetric methods and devices related thereto |
GB201419356D0 (en) * | 2014-10-30 | 2014-12-17 | Isis Innovation | A method and apparatus for adjusting drag on a trailing air vehicle flying behind a leading air vehicle |
US9965962B1 (en) * | 2014-11-11 | 2018-05-08 | Skyward IO, Inc. | Aerial robotics network management infrastructure |
CN104463969B (zh) * | 2014-12-09 | 2017-09-26 | 广西界围信息科技有限公司 | 一种对航空倾斜拍摄的地理照片的模型的建立方法 |
US20160178754A1 (en) * | 2014-12-18 | 2016-06-23 | Javad Gnss, Inc. | Portable gnss survey system |
US10223793B1 (en) | 2015-08-05 | 2019-03-05 | Al Incorporated | Laser distance measuring method and system |
US11935256B1 (en) | 2015-08-23 | 2024-03-19 | AI Incorporated | Remote distance estimation system and method |
US11069082B1 (en) | 2015-08-23 | 2021-07-20 | AI Incorporated | Remote distance estimation system and method |
US9972098B1 (en) | 2015-08-23 | 2018-05-15 | AI Incorporated | Remote distance estimation system and method |
US10408604B1 (en) | 2015-09-07 | 2019-09-10 | AI Incorporated | Remote distance estimation system and method |
US10217283B2 (en) | 2015-12-17 | 2019-02-26 | Google Llc | Navigation through multidimensional images spaces |
WO2017120571A1 (en) * | 2016-01-08 | 2017-07-13 | Pictometry International Corp. | Systems and methods for taking, processing, retrieving, and displaying images from unmanned aerial vehicles |
WO2017127711A1 (en) | 2016-01-20 | 2017-07-27 | Ez3D, Llc | System and method for structural inspection and construction estimation using an unmanned aerial vehicle |
US10255296B2 (en) | 2016-02-25 | 2019-04-09 | Omniearth, Inc. | System and method for managing geodemographic data |
US9544264B1 (en) * | 2016-03-22 | 2017-01-10 | International Business Machines Corporation | Augmenting location of social media posts based on proximity of other posts |
US10628802B2 (en) | 2016-05-19 | 2020-04-21 | Lockheed Martin Corporation | Systems and methods for assessing damage to infrastructure assets |
US10032267B2 (en) | 2016-06-09 | 2018-07-24 | Lockheed Martin Corporation | Automating the assessment of damage to infrastructure assets |
JP6780315B2 (ja) * | 2016-06-22 | 2020-11-04 | カシオ計算機株式会社 | 投影装置、投影システム、投影方法及びプログラム |
AU2017289948B2 (en) | 2016-06-27 | 2022-09-08 | Eagle View Technologies, Inc. | Systems and methods for utilizing property features from images |
CN106292699B (zh) * | 2016-08-03 | 2017-12-12 | 广州极飞科技有限公司 | 无人机仿地飞行的方法、装置和无人机 |
US10346995B1 (en) | 2016-08-22 | 2019-07-09 | AI Incorporated | Remote distance estimation system and method |
US20190244391A1 (en) * | 2016-10-20 | 2019-08-08 | Spookfish Innovations Pty Ltd | An aerial camera boresight calibration system |
CN106595597A (zh) * | 2016-12-16 | 2017-04-26 | 亚坦能源科技(上海)有限公司 | 一种在拍摄显示屏上展现测量信息的方法和装置 |
CN106840118A (zh) * | 2017-02-06 | 2017-06-13 | 华东师范大学 | 一种山地微地形坡度、坡向的空间测量方法 |
US20180231379A1 (en) * | 2017-02-14 | 2018-08-16 | Honeywell International Inc. | Image processing system |
CN108151711B (zh) * | 2017-03-01 | 2018-10-16 | 哈尔滨工业大学 | 一种光学卫星环扫超宽幅成像方法 |
US10803311B2 (en) | 2017-05-09 | 2020-10-13 | Blue River Technology Inc. | Automatic camera parameter adjustment on a plant treatment system |
WO2018208947A1 (en) | 2017-05-09 | 2018-11-15 | Blue River Technology Inc. | Automated plant detection using image data |
CN107255469B (zh) * | 2017-05-27 | 2020-08-14 | 中国一冶集团有限公司 | 热风炉内衬检修用垂直爬升影像采集装置及实景建模方法 |
CN107272049B (zh) * | 2017-07-13 | 2019-01-08 | 成都理工大学 | 基于脉冲宽度的数字n-γ甄别方法 |
US20190027370A1 (en) * | 2017-07-19 | 2019-01-24 | Globalfoundries Inc. | Shaped cavity for epitaxial semiconductor growth |
US10586349B2 (en) | 2017-08-24 | 2020-03-10 | Trimble Inc. | Excavator bucket positioning via mobile device |
GB2566023B (en) * | 2017-08-30 | 2020-06-17 | Jaguar Land Rover Ltd | Controller for an unmanned aerial vehicle |
EP3676759A4 (en) | 2017-08-31 | 2021-05-26 | Omniearth, Inc. | SYSTEMS AND PROCEDURES FOR THE AUTOMATIC ESTIMATION OF OBJECT PROPERTIES FROM DIGITAL IMAGES |
US10355104B2 (en) * | 2017-10-27 | 2019-07-16 | Globalfoundries Inc. | Single-curvature cavity for semiconductor epitaxy |
US10503843B2 (en) | 2017-12-19 | 2019-12-10 | Eagle View Technologies, Inc. | Supervised automatic roof modeling |
US11087492B2 (en) | 2018-03-21 | 2021-08-10 | ISVision America | Methods for identifying location of automated guided vehicles on a mapped substrate |
AU2019345276A1 (en) | 2018-09-21 | 2021-05-27 | Eagle View Technologies, Inc. | Method and system for determining solar access of a structure |
CA3120291A1 (en) | 2018-11-21 | 2020-05-28 | Eagle View Technologies, Inc. | Navigating unmanned aircraft using pitch |
US10460170B1 (en) | 2019-01-14 | 2019-10-29 | Sourcewater, Inc. | Image processing of aerial imagery for energy infrastructure site status analysis |
US10460169B1 (en) | 2019-01-14 | 2019-10-29 | Sourcewater, Inc. | Image processing of aerial imagery for energy infrastructure analysis using joint image identification |
US10339646B1 (en) | 2019-01-14 | 2019-07-02 | Sourcewater, Inc. | Image processing of aerial imagery for energy infrastructure analysis using pre-processing image selection |
US10467473B1 (en) | 2019-01-14 | 2019-11-05 | Sourcewater, Inc. | Image processing of aerial imagery for energy infrastructure analysis |
CN109840945B (zh) * | 2019-01-18 | 2022-10-28 | 厦门美图之家科技有限公司 | 有限元预处理方法及装置 |
US20220234753A1 (en) * | 2019-05-24 | 2022-07-28 | Aerometrex Pty Ltd | An Aerial Imaging System and Method |
CA3139467A1 (en) | 2019-06-07 | 2020-12-10 | David R. Nilosek | Using spatial filter to reduce bundle adjustment block size |
US11238282B2 (en) | 2019-06-07 | 2022-02-01 | Pictometry International Corp. | Systems and methods for automated detection of changes in extent of structures using imagery |
US10635904B1 (en) | 2019-07-09 | 2020-04-28 | Sourcewater, Inc. | Identification and validation of roads using aerial imagery and mobile location information |
US11776104B2 (en) | 2019-09-20 | 2023-10-03 | Pictometry International Corp. | Roof condition assessment using machine learning |
CA3148162A1 (en) | 2019-09-25 | 2021-04-01 | Shadrian Strong | Systems and methods for creating automated faux-manual markings on digital images imitating manual inspection results |
CA3148187A1 (en) | 2019-10-18 | 2021-04-22 | Shadrian Strong | Geospatial object geometry extraction from imagery |
CA3148166A1 (en) | 2019-10-18 | 2021-04-22 | Shadrian Strong | Systems for the classification of interior structure areas based on exterior images |
US10943360B1 (en) | 2019-10-24 | 2021-03-09 | Trimble Inc. | Photogrammetric machine measure up |
AU2020372481A1 (en) | 2019-10-25 | 2022-03-10 | Pictometry International Corp. | System using image connectivity to reduce bundle size for bundle adjustment |
US11094113B2 (en) | 2019-12-04 | 2021-08-17 | Geomni, Inc. | Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs |
JP2021117047A (ja) * | 2020-01-23 | 2021-08-10 | 株式会社フジタ | 無人飛行体を用いた写真測量方法および無人飛行体を用いた写真測量システム |
CN111415295B (zh) * | 2020-03-17 | 2024-01-12 | 东南数字经济发展研究院 | 一种倾斜摄影三维模型的拍摄分辨率正射图生成方法 |
US11184740B2 (en) | 2020-03-25 | 2021-11-23 | Sourcewater, Inc. | Location data based intelligence for supply chain information platforms |
EP4136516A4 (en) * | 2020-04-17 | 2024-03-20 | Insurance Services Office Inc | SYSTEMS AND METHODS FOR MOBILE AIR FLIGHT PLANNING AND IMAGE CAPTURE BASED ON STRUCTURE FOOTPRINTS |
CN111222586B (zh) * | 2020-04-20 | 2020-09-18 | 广州都市圈网络科技有限公司 | 一种基于三维倾斜模型视角的倾斜影像匹配方法及装置 |
KR102398839B1 (ko) * | 2020-12-01 | 2022-05-17 | 서울과학기술대학교 산학협력단 | 객체의 표면에 영상을 투영시키는 장치 |
CN113251995B (zh) * | 2021-05-18 | 2023-03-21 | 中国科学院云南天文台 | 获取全天候天文经纬度间接测定值的方法 |
CN113703438A (zh) * | 2021-07-14 | 2021-11-26 | 深圳市水务工程检测有限公司 | 用于输水隧洞巡检的auv自主导航路径规划方法 |
US11282268B1 (en) * | 2021-10-27 | 2022-03-22 | Flyreel, Inc. | Top-down view mapping of interior spaces |
Family Cites Families (188)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2273876A (en) | 1940-02-12 | 1942-02-24 | Frederick W Lutz | Apparatus for indicating tilt of cameras |
US3153784A (en) * | 1959-12-24 | 1964-10-20 | Us Industries Inc | Photo radar ground contour mapping system |
US5345086A (en) | 1962-11-28 | 1994-09-06 | Eaton Corporation | Automatic map compilation system |
US3621326A (en) | 1968-09-30 | 1971-11-16 | Itek Corp | Transformation system |
US3594556A (en) | 1969-01-08 | 1971-07-20 | Us Navy | Optical sight with electronic image stabilization |
US3661061A (en) | 1969-05-05 | 1972-05-09 | Atomic Energy Commission | Picture position finder |
US3614410A (en) | 1969-06-12 | 1971-10-19 | Knight V Bailey | Image rectifier |
US3716669A (en) | 1971-05-14 | 1973-02-13 | Japan Eng Dev Co | Mapping rectifier for generating polarstereographic maps from satellite scan signals |
US3725563A (en) | 1971-12-23 | 1973-04-03 | Singer Co | Method of perspective transformation in scanned raster visual display |
US3864513A (en) | 1972-09-11 | 1975-02-04 | Grumman Aerospace Corp | Computerized polarimetric terrain mapping system |
US4015080A (en) | 1973-04-30 | 1977-03-29 | Elliott Brothers (London) Limited | Display devices |
JPS5223975Y2 (es) | 1973-05-29 | 1977-05-31 | ||
US3877799A (en) | 1974-02-06 | 1975-04-15 | United Kingdom Government | Method of recording the first frame in a time index system |
DE2510044A1 (de) | 1975-03-07 | 1976-09-16 | Siemens Ag | Anordnung zum aufzeichnen von zeichen unter verwendung von mosaikschreibwerken |
US4707698A (en) | 1976-03-04 | 1987-11-17 | Constant James N | Coordinate measurement and radar device using image scanner |
US4240108A (en) | 1977-10-03 | 1980-12-16 | Grumman Aerospace Corporation | Vehicle controlled raster display system |
JPS5637416Y2 (es) | 1977-10-14 | 1981-09-02 | ||
IT1095061B (it) | 1978-05-19 | 1985-08-10 | Conte Raffaele | Apparecchiatura per la registrazione magnetica di eventi casuali relativi a mezzi mobili |
US4396942A (en) | 1979-04-19 | 1983-08-02 | Jackson Gates | Video surveys |
FR2461305B1 (fr) | 1979-07-06 | 1985-12-06 | Thomson Csf | Systeme indicateur cartographique destine plus particulierement a la navigation aerienne |
US4313678A (en) * | 1979-09-24 | 1982-02-02 | The United States Of America As Represented By The Secretary Of The Interior | Automated satellite mapping system (MAPSAT) |
DE2939681A1 (de) | 1979-09-29 | 1981-04-30 | Agfa-Gevaert Ag, 5090 Leverkusen | Verfahren und vorrichtung zur ueberwachung der qualitaet bei der herstellung von fotografischen bildern |
DE2940871C2 (de) | 1979-10-09 | 1983-11-10 | Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn | Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung |
US4290694A (en) * | 1980-03-07 | 1981-09-22 | Kern Instruments, Inc. | Photogrammetric plotting apparatus |
US4387056A (en) | 1981-04-16 | 1983-06-07 | E. I. Du Pont De Nemours And Company | Process for separating zero-valent nickel species from divalent nickel species |
US4382678A (en) | 1981-06-29 | 1983-05-10 | The United States Of America As Represented By The Secretary Of The Army | Measuring of feature for photo interpretation |
US4463380A (en) | 1981-09-25 | 1984-07-31 | Vought Corporation | Image processing system |
US4495500A (en) | 1982-01-26 | 1985-01-22 | Sri International | Topographic data gathering method |
US4490742A (en) | 1982-04-23 | 1984-12-25 | Vcs, Incorporated | Encoding apparatus for a closed circuit television system |
US4586138A (en) | 1982-07-29 | 1986-04-29 | The United States Of America As Represented By The United States Department Of Energy | Route profile analysis system and method |
US4491399A (en) | 1982-09-27 | 1985-01-01 | Coherent Communications, Inc. | Method and apparatus for recording a digital signal on motion picture film |
US4527055A (en) | 1982-11-15 | 1985-07-02 | Honeywell Inc. | Apparatus for selectively viewing either of two scenes of interest |
FR2536851B1 (fr) | 1982-11-30 | 1985-06-14 | Aerospatiale | Systeme de reconnaissance comportant un vehicule aerien tournant autour de son axe longitudinal |
US4489322A (en) | 1983-01-27 | 1984-12-18 | The United States Of America As Represented By The Secretary Of The Air Force | Radar calibration using direct measurement equipment and oblique photometry |
US4635136A (en) | 1984-02-06 | 1987-01-06 | Rochester Institute Of Technology | Method and apparatus for storing a massive inventory of labeled images |
US4686474A (en) | 1984-04-05 | 1987-08-11 | Deseret Research, Inc. | Survey system for collection and real time processing of geophysical data |
US4814711A (en) | 1984-04-05 | 1989-03-21 | Deseret Research, Inc. | Survey system and method for real time collection and processing of geophysicals data using signals from a global positioning satellite network |
US4673988A (en) | 1985-04-22 | 1987-06-16 | E.I. Du Pont De Nemours And Company | Electronic mosaic imaging process |
US4653136A (en) | 1985-06-21 | 1987-03-31 | Denison James W | Wiper for rear view mirror |
EP0211623A3 (en) * | 1985-08-01 | 1988-09-21 | British Aerospace Public Limited Company | Identification of ground targets in airborne surveillance radar returns |
US4953227A (en) | 1986-01-31 | 1990-08-28 | Canon Kabushiki Kaisha | Image mosaic-processing method and apparatus |
US4653316A (en) | 1986-03-14 | 1987-03-31 | Kabushiki Kaisha Komatsu Seisakusho | Apparatus mounted on vehicles for detecting road surface conditions |
US4688092A (en) | 1986-05-06 | 1987-08-18 | Ford Aerospace & Communications Corporation | Satellite camera image navigation |
US4956872A (en) | 1986-10-31 | 1990-09-11 | Canon Kabushiki Kaisha | Image processing apparatus capable of random mosaic and/or oil-painting-like processing |
JPS63202182A (ja) | 1987-02-18 | 1988-08-22 | Olympus Optical Co Ltd | 傾斜ドツトパタ−ン形成方法 |
US4814896A (en) | 1987-03-06 | 1989-03-21 | Heitzman Edward F | Real time video data acquistion systems |
US5164825A (en) | 1987-03-30 | 1992-11-17 | Canon Kabushiki Kaisha | Image processing method and apparatus for mosaic or similar processing therefor |
US4807024A (en) | 1987-06-08 | 1989-02-21 | The University Of South Carolina | Three-dimensional display methods and apparatus |
US4899296A (en) | 1987-11-13 | 1990-02-06 | Khattak Anwar S | Pavement distress survey system |
US4843463A (en) | 1988-05-23 | 1989-06-27 | Michetti Joseph A | Land vehicle mounted audio-visual trip recorder |
GB8826550D0 (en) | 1988-11-14 | 1989-05-17 | Smiths Industries Plc | Image processing apparatus and methods |
US4906198A (en) | 1988-12-12 | 1990-03-06 | International Business Machines Corporation | Circuit board assembly and contact pin for use therein |
JP2765022B2 (ja) | 1989-03-24 | 1998-06-11 | キヤノン販売株式会社 | 立体画像形成装置 |
US5617224A (en) | 1989-05-08 | 1997-04-01 | Canon Kabushiki Kaisha | Imae processing apparatus having mosaic processing feature that decreases image resolution without changing image size or the number of pixels |
US5086314A (en) | 1990-05-21 | 1992-02-04 | Nikon Corporation | Exposure control apparatus for camera |
JPH0316377A (ja) | 1989-06-14 | 1991-01-24 | Kokusai Denshin Denwa Co Ltd <Kdd> | 2値画像の縮小方法及び装置 |
US5166789A (en) | 1989-08-25 | 1992-11-24 | Space Island Products & Services, Inc. | Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates |
JP3147358B2 (ja) | 1990-02-23 | 2001-03-19 | ミノルタ株式会社 | 撮影地データを記録できるカメラ |
US5335072A (en) | 1990-05-30 | 1994-08-02 | Minolta Camera Kabushiki Kaisha | Photographic system capable of storing information on photographed image data |
EP0464263A3 (en) | 1990-06-27 | 1992-06-10 | Siemens Aktiengesellschaft | Device for obstacle detection for pilots of low flying aircrafts |
US5191174A (en) | 1990-08-01 | 1993-03-02 | International Business Machines Corporation | High density circuit board and method of making same |
US5200793A (en) | 1990-10-24 | 1993-04-06 | Kaman Aerospace Corporation | Range finding array camera |
US5155597A (en) | 1990-11-28 | 1992-10-13 | Recon/Optical, Inc. | Electro-optical imaging array with motion compensation |
JPH04250436A (ja) | 1991-01-11 | 1992-09-07 | Pioneer Electron Corp | 撮像装置 |
US5265173A (en) | 1991-03-20 | 1993-11-23 | Hughes Aircraft Company | Rectilinear object image matcher |
US5369443A (en) | 1991-04-12 | 1994-11-29 | Abekas Video Systems, Inc. | Digital video effects generator |
CA2066280C (en) | 1991-04-16 | 1997-12-09 | Masaru Hiramatsu | Image pickup system with a image pickup device for control |
US5555018A (en) | 1991-04-25 | 1996-09-10 | Von Braun; Heiko S. | Large-scale mapping of parameters of multi-dimensional structures in natural environments |
US5231435A (en) | 1991-07-12 | 1993-07-27 | Blakely Bruce W | Aerial camera mounting apparatus |
DE69123578T2 (de) | 1991-09-05 | 1997-04-03 | Nec Corp | Bildaufnahmesystem, das korrekte Bildsignale einer Objektzone erzeugen kann |
US5677515A (en) | 1991-10-18 | 1997-10-14 | Trw Inc. | Shielded multilayer printed wiring board, high frequency, high isolation |
US5402170A (en) | 1991-12-11 | 1995-03-28 | Eastman Kodak Company | Hand-manipulated electronic camera tethered to a personal computer |
US5247356A (en) * | 1992-02-14 | 1993-09-21 | Ciampa John A | Method and apparatus for mapping and measuring land |
US5251037A (en) * | 1992-02-18 | 1993-10-05 | Hughes Training, Inc. | Method and apparatus for generating high resolution CCD camera images |
US5270756A (en) | 1992-02-18 | 1993-12-14 | Hughes Training, Inc. | Method and apparatus for generating high resolution vidicon camera images |
US5506644A (en) | 1992-08-18 | 1996-04-09 | Olympus Optical Co., Ltd. | Camera |
FR2696843B1 (fr) * | 1992-10-14 | 1994-12-09 | Matra Sep Imagerie Inf | Appareil de prise de vues à distance, à haute résolution, pour porteur aérien. |
US5481479A (en) | 1992-12-10 | 1996-01-02 | Loral Fairchild Corp. | Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance |
US5342999A (en) | 1992-12-21 | 1994-08-30 | Motorola, Inc. | Apparatus for adapting semiconductor die pads and method therefor |
US5414462A (en) * | 1993-02-11 | 1995-05-09 | Veatch; John W. | Method and apparatus for generating a comprehensive survey map |
US5508736A (en) | 1993-05-14 | 1996-04-16 | Cooper; Roger D. | Video signal processing apparatus for producing a composite signal for simultaneous display of data and video information |
US6542077B2 (en) | 1993-06-08 | 2003-04-01 | Raymond Anthony Joao | Monitoring apparatus for a vehicle and/or a premises |
US5842473A (en) * | 1993-11-29 | 1998-12-01 | Life Imaging Systems | Three-dimensional imaging system |
US5467271A (en) * | 1993-12-17 | 1995-11-14 | Trw, Inc. | Mapping and analysis system for precision farming applications |
CA2190596C (en) | 1994-05-19 | 2002-03-26 | Theodore M. Lachinski | Method for collecting and processing visual and spatial position information |
US5596494A (en) | 1994-11-14 | 1997-01-21 | Kuo; Shihjong | Method and apparatus for acquiring digital maps |
RU2153700C2 (ru) | 1995-04-17 | 2000-07-27 | Спейс Системз/Лорал, Инк. | Система управления ориентацией и формированием изображения (варианты) |
US5604534A (en) | 1995-05-24 | 1997-02-18 | Omni Solutions International, Ltd. | Direct digital airborne panoramic camera system and method |
US5668593A (en) | 1995-06-07 | 1997-09-16 | Recon/Optical, Inc. | Method and camera system for step frame reconnaissance with motion compensation |
US5963664A (en) | 1995-06-22 | 1999-10-05 | Sarnoff Corporation | Method and system for image combination using a parallax-based technique |
US5835133A (en) | 1996-01-23 | 1998-11-10 | Silicon Graphics, Inc. | Optical system for single camera stereo video |
US5894323A (en) * | 1996-03-22 | 1999-04-13 | Tasc, Inc, | Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data |
US5844602A (en) * | 1996-05-07 | 1998-12-01 | Recon/Optical, Inc. | Electro-optical imaging array and camera system with pitch rate image motion compensation which can be used in an airplane in a dive bomb maneuver |
US5798786A (en) * | 1996-05-07 | 1998-08-25 | Recon/Optical, Inc. | Electro-optical imaging detector array for a moving vehicle which includes two axis image motion compensation and transfers pixels in row directions and column directions |
US5841574A (en) | 1996-06-28 | 1998-11-24 | Recon/Optical, Inc. | Multi-special decentered catadioptric optical system |
WO1998020301A1 (en) * | 1996-11-05 | 1998-05-14 | Lockheed Martin Corporation | Electro-optical reconnaissance system with forward motion compensation |
US6108032A (en) * | 1996-11-05 | 2000-08-22 | Lockheed Martin Fairchild Systems | System and method for image motion compensation of a CCD image sensor |
RU2127075C1 (ru) | 1996-12-11 | 1999-03-10 | Корженевский Александр Владимирович | Способ получения томографического изображения тела и электроимпедансный томограф |
US6222583B1 (en) | 1997-03-27 | 2001-04-24 | Nippon Telegraph And Telephone Corporation | Device and system for labeling sight images |
US6597818B2 (en) | 1997-05-09 | 2003-07-22 | Sarnoff Corporation | Method and apparatus for performing geo-spatial registration of imagery |
US5995681A (en) * | 1997-06-03 | 1999-11-30 | Harris Corporation | Adjustment of sensor geometry model parameters using digital imagery co-registration process to reduce errors in digital imagery geolocation data |
US5805289A (en) * | 1997-07-07 | 1998-09-08 | General Electric Company | Portable measurement system using image and point measurement devices |
US6157747A (en) | 1997-08-01 | 2000-12-05 | Microsoft Corporation | 3-dimensional image rotation method and apparatus for producing image mosaics |
US6097854A (en) | 1997-08-01 | 2000-08-01 | Microsoft Corporation | Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping |
WO1999018732A1 (en) * | 1997-10-06 | 1999-04-15 | Ciampa John A | Digital-image mapping |
US6434280B1 (en) | 1997-11-10 | 2002-08-13 | Gentech Corporation | System and method for generating super-resolution-enhanced mosaic images |
US5852753A (en) | 1997-11-10 | 1998-12-22 | Lo; Allen Kwok Wah | Dual-lens camera with shutters for taking dual or single images |
US6037945A (en) | 1997-12-16 | 2000-03-14 | Xactware, Inc. | Graphical method for modeling and estimating construction costs |
US6094215A (en) | 1998-01-06 | 2000-07-25 | Intel Corporation | Method of determining relative camera orientation position to create 3-D visual images |
US6130705A (en) * | 1998-07-10 | 2000-10-10 | Recon/Optical, Inc. | Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use |
JP4245699B2 (ja) | 1998-09-16 | 2009-03-25 | オリンパス株式会社 | 撮像装置 |
US6434265B1 (en) | 1998-09-25 | 2002-08-13 | Apple Computers, Inc. | Aligning rectilinear images in 3D through projective registration and calibration |
US6600553B1 (en) * | 1998-11-03 | 2003-07-29 | National Institute Of Science And Technology U.S. Dept Of Commerce | Three degree-of-freedom telescoping geometry scanner |
DE19857667A1 (de) | 1998-12-15 | 2000-08-17 | Aerowest Photogrammetrie H Ben | Verfahren zur Erzeugung einer drei-dimensionalen Objektbeschreibung |
US6167300A (en) | 1999-03-08 | 2000-12-26 | Tci Incorporated | Electric mammograph |
DE19922341C2 (de) * | 1999-05-14 | 2002-08-29 | Zsp Geodaetische Sys Gmbh | Verfahren und eine Anordnung zur Bestimmung der räumlichen Koordinaten mindestens eines Objektpunktes |
AUPQ056099A0 (en) | 1999-05-25 | 1999-06-17 | Silverbrook Research Pty Ltd | A method and apparatus (pprint01) |
TW483287B (en) | 1999-06-21 | 2002-04-11 | Semiconductor Energy Lab | EL display device, driving method thereof, and electronic equipment provided with the EL display device |
US7015954B1 (en) * | 1999-08-09 | 2006-03-21 | Fuji Xerox Co., Ltd. | Automatic video system using multiple cameras |
US6639596B1 (en) | 1999-09-20 | 2003-10-28 | Microsoft Corporation | Stereo reconstruction from multiperspective panoramas |
WO2001048683A1 (en) | 1999-12-29 | 2001-07-05 | Geospan Corporation | Any aspect passive volumetric image processing method |
US6829584B2 (en) | 1999-12-31 | 2004-12-07 | Xactware, Inc. | Virtual home data repository and directory |
US6826539B2 (en) | 1999-12-31 | 2004-11-30 | Xactware, Inc. | Virtual structure data repository and directory |
US6810383B1 (en) | 2000-01-21 | 2004-10-26 | Xactware, Inc. | Automated task management and evaluation |
WO2001058129A2 (en) | 2000-02-03 | 2001-08-09 | Alst Technical Excellence Center | Image resolution improvement using a color mosaic sensor |
CA2400975C (en) | 2000-03-16 | 2008-11-04 | The Johns Hopkins University | Light detection and ranging (lidar) mapping system |
AU2001259026A1 (en) | 2000-03-29 | 2001-10-08 | Astrovision International, Inc. | Direct broadcast imaging satellite system apparatus and method for providing real-time, continuous monitoring of earth from geostationary earth orbit and related services |
US7019777B2 (en) * | 2000-04-21 | 2006-03-28 | Flight Landata, Inc. | Multispectral imaging system with spatial resolution enhancement |
US6549683B1 (en) * | 2000-05-02 | 2003-04-15 | Institut National D'optique | Method and apparatus for evaluating a scale factor and a rotation angle in image processing |
JP2001344597A (ja) * | 2000-05-30 | 2001-12-14 | Fuji Heavy Ind Ltd | 融合視界装置 |
US7184072B1 (en) * | 2000-06-15 | 2007-02-27 | Power View Company, L.L.C. | Airborne inventory and inspection system and apparatus |
US6834128B1 (en) | 2000-06-16 | 2004-12-21 | Hewlett-Packard Development Company, L.P. | Image mosaicing system and method adapted to mass-market hand-held digital cameras |
US6484101B1 (en) | 2000-08-16 | 2002-11-19 | Imagelinks, Inc. | 3-dimensional interactive image modeling system |
US7313289B2 (en) | 2000-08-30 | 2007-12-25 | Ricoh Company, Ltd. | Image processing method and apparatus and computer-readable storage medium using improved distortion correction |
US6421610B1 (en) | 2000-09-15 | 2002-07-16 | Ernest A. Carroll | Method of preparing and disseminating digitized geospatial data |
US6757445B1 (en) * | 2000-10-04 | 2004-06-29 | Pixxures, Inc. | Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models |
US6959120B1 (en) | 2000-10-27 | 2005-10-25 | Microsoft Corporation | Rebinning methods and arrangements for use in compressing image-based rendering (IBR) data |
JP4298155B2 (ja) * | 2000-11-17 | 2009-07-15 | 本田技研工業株式会社 | 距離測定装置、及び距離測定方法 |
US20020122969A1 (en) * | 2000-12-15 | 2002-09-05 | Manfred Herrmann | Pressure driven hermetically sealed pump for fuel cell system |
JP4712202B2 (ja) * | 2001-02-28 | 2011-06-29 | 株式会社 ジツタ | 土地区画図等の測量図面作成システム |
JP2003097946A (ja) * | 2001-03-02 | 2003-04-03 | Kansai Electric Power Co Inc:The | 載置台式のカメラを用いた写真測量システム及び基準棒装置 |
US6952487B2 (en) * | 2001-04-06 | 2005-10-04 | Itt Manufacturing Enterprises, Inc. | Detecting the presence of failure(s) in existing man-made structures |
US6735348B2 (en) * | 2001-05-01 | 2004-05-11 | Space Imaging, Llc | Apparatuses and methods for mapping image coordinates to ground coordinates |
AU2002308651A1 (en) * | 2001-05-04 | 2002-11-18 | Leberl, Franz, W. | Digital camera for and method of obtaining overlapping images |
US7046401B2 (en) | 2001-06-01 | 2006-05-16 | Hewlett-Packard Development Company, L.P. | Camera-based document scanning system using multiple-pass mosaicking |
US7509241B2 (en) | 2001-07-06 | 2009-03-24 | Sarnoff Corporation | Method and apparatus for automatically generating a site model |
US20030043824A1 (en) | 2001-08-31 | 2003-03-06 | Remboski Donald J. | Vehicle active network and device |
US6840480B2 (en) * | 2001-09-27 | 2005-01-11 | Ernest A. Carroll | Miniature, unmanned aircraft with interchangeable data module |
US6747686B1 (en) * | 2001-10-05 | 2004-06-08 | Recon/Optical, Inc. | High aspect stereoscopic mode camera and method |
US7262790B2 (en) | 2002-01-09 | 2007-08-28 | Charles Adams Bakewell | Mobile enforcement platform with aimable violation identification and documentation system for multiple traffic violation types across all lanes in moving traffic, generating composite display images and data to support citation generation, homeland security, and monitoring |
TW550521B (en) | 2002-02-07 | 2003-09-01 | Univ Nat Central | Method for re-building 3D model of house in a semi-automatic manner using edge segments of buildings |
US6894809B2 (en) * | 2002-03-01 | 2005-05-17 | Orasee Corp. | Multiple angle display produced from remote optical sensing devices |
JP4184703B2 (ja) | 2002-04-24 | 2008-11-19 | 大日本印刷株式会社 | 画像修正方法およびシステム |
US7725258B2 (en) * | 2002-09-20 | 2010-05-25 | M7 Visual Intelligence, L.P. | Vehicle based data collection and processing system and imaging sensor system and methods thereof |
WO2004028134A2 (en) | 2002-09-20 | 2004-04-01 | M7 Visual Intelligence, Lp | Vehicule based data collection and porcessing system |
EP1696204B1 (en) | 2002-11-08 | 2015-01-28 | Pictometry International Corp. | Method for capturing, geolocating and measuring oblique images |
US7424133B2 (en) | 2002-11-08 | 2008-09-09 | Pictometry International Corporation | Method and apparatus for capturing, geolocating and measuring oblique images |
US7018050B2 (en) | 2003-09-08 | 2006-03-28 | Hewlett-Packard Development Company, L.P. | System and method for correcting luminance non-uniformity of obliquely projected images |
JP2005151536A (ja) | 2003-10-23 | 2005-06-09 | Nippon Dempa Kogyo Co Ltd | 水晶発振器 |
CA2455359C (en) * | 2004-01-16 | 2013-01-08 | Geotango International Corp. | System, computer program and method for 3d object measurement, modeling and mapping from single imagery |
US7916940B2 (en) | 2004-01-31 | 2011-03-29 | Hewlett-Packard Development Company | Processing of mosaic digital images |
JP2007525770A (ja) | 2004-02-27 | 2007-09-06 | インターグラフ ソフトウェアー テクノロジーズ カンパニー | 重複する複数の画像から単一の画像を形成する技術 |
US7773799B2 (en) * | 2004-04-02 | 2010-08-10 | The Boeing Company | Method for automatic stereo measurement of a point of interest in a scene |
US20060028550A1 (en) | 2004-08-06 | 2006-02-09 | Palmer Robert G Jr | Surveillance system and method |
WO2006121457A2 (en) | 2004-08-18 | 2006-11-16 | Sarnoff Corporation | Method and apparatus for performing three-dimensional computer modeling |
US8078396B2 (en) | 2004-08-31 | 2011-12-13 | Meadow William D | Methods for and apparatus for generating a continuum of three dimensional image data |
US7348895B2 (en) | 2004-11-03 | 2008-03-25 | Lagassey Paul J | Advanced automobile accident detection, data recordation and reporting system |
US7142984B2 (en) | 2005-02-08 | 2006-11-28 | Harris Corporation | Method and apparatus for enhancing a digital elevation model (DEM) for topographical modeling |
US7466244B2 (en) * | 2005-04-21 | 2008-12-16 | Microsoft Corporation | Virtual earth rooftop overlay and bounding |
US7554539B2 (en) * | 2005-07-27 | 2009-06-30 | Balfour Technologies Llc | System for viewing a collection of oblique imagery in a three or four dimensional virtual scene |
US7844499B2 (en) | 2005-12-23 | 2010-11-30 | Sharp Electronics Corporation | Integrated solar agent business model |
US7778491B2 (en) | 2006-04-10 | 2010-08-17 | Microsoft Corporation | Oblique image stitching |
US7310606B2 (en) * | 2006-05-12 | 2007-12-18 | Harris Corporation | Method and system for generating an image-textured digital surface model (DSM) for a geographical area of interest |
EP2036043A2 (en) | 2006-06-26 | 2009-03-18 | Lockheed Martin Corporation | Method and system for providing a perspective view image by intelligent fusion of a plurality of sensor data |
US7873238B2 (en) | 2006-08-30 | 2011-01-18 | Pictometry International Corporation | Mosaic oblique images and methods of making and using same |
DE102007030781A1 (de) | 2006-10-11 | 2008-04-17 | Gta Geoinformatik Gmbh | Verfahren zur Texturierung virtueller dreidimensionaler Objekte |
IL179344A (en) | 2006-11-16 | 2014-02-27 | Rafael Advanced Defense Sys | Mobile Platform Tracking Method |
US8520079B2 (en) * | 2007-02-15 | 2013-08-27 | Pictometry International Corp. | Event multiplexer for managing the capture of images |
US7832267B2 (en) | 2007-04-25 | 2010-11-16 | Ecometriks, Llc | Method for determining temporal solar irradiance values |
US20090177458A1 (en) | 2007-06-19 | 2009-07-09 | Ch2M Hill, Inc. | Systems and methods for solar mapping, determining a usable area for solar energy production and/or providing solar information |
JP5110979B2 (ja) * | 2007-06-26 | 2012-12-26 | キヤノン株式会社 | 照明光学系およびそれを用いた投射型表示装置 |
US8417061B2 (en) | 2008-02-01 | 2013-04-09 | Sungevity Inc. | Methods and systems for provisioning energy systems |
US8275194B2 (en) | 2008-02-15 | 2012-09-25 | Microsoft Corporation | Site modeling using image data fusion |
WO2009131108A1 (ja) | 2008-04-23 | 2009-10-29 | 株式会社パスコ | 建物屋根輪郭認識装置、建物屋根輪郭認識方法、及び建物屋根輪郭認識プログラム |
US8401222B2 (en) | 2009-05-22 | 2013-03-19 | Pictometry International Corp. | System and process for roof measurement using aerial imagery |
US8477190B2 (en) * | 2010-07-07 | 2013-07-02 | Pictometry International Corp. | Real-time moving platform management system |
US9183538B2 (en) | 2012-03-19 | 2015-11-10 | Pictometry International Corp. | Method and system for quick square roof reporting |
US9292913B2 (en) * | 2014-01-31 | 2016-03-22 | Pictometry International Corp. | Augmented three dimensional point collection of vertical structures |
-
2003
- 2003-11-05 US US10/701,839 patent/US7424133B2/en active Active
- 2003-11-07 CN CN2009102251728A patent/CN101793514B/zh not_active Expired - Fee Related
- 2003-11-07 BR BRPI0316110A patent/BRPI0316110B1/pt not_active IP Right Cessation
- 2003-11-07 EP EP10011757.1A patent/EP2261600B1/en not_active Expired - Lifetime
- 2003-11-07 CA CA2821602A patent/CA2821602C/en not_active Expired - Lifetime
- 2003-11-07 CA CA2821780A patent/CA2821780C/en not_active Expired - Lifetime
- 2003-11-07 CA CA2821759A patent/CA2821759C/en not_active Expired - Lifetime
- 2003-11-07 CA CA2821605A patent/CA2821605C/en not_active Expired - Lifetime
- 2003-11-07 EP EP03025702A patent/EP1418402B1/en not_active Expired - Lifetime
- 2003-11-07 DK DK03025702T patent/DK1418402T3/da active
- 2003-11-07 WO PCT/US2003/035528 patent/WO2004044692A2/en active Application Filing
- 2003-11-07 JP JP2004551862A patent/JP4901103B2/ja not_active Expired - Fee Related
- 2003-11-07 CN CN200380108517A patent/CN100585619C/zh not_active Expired - Fee Related
- 2003-11-07 CA CA2505566A patent/CA2505566C/en not_active Expired - Lifetime
- 2003-11-07 ES ES03025702T patent/ES2266704T3/es not_active Expired - Lifetime
- 2003-11-07 AT AT03025702T patent/ATE331204T1/de active
- 2003-11-07 CA CA2821775A patent/CA2821775C/en not_active Expired - Lifetime
- 2003-11-07 DE DE60306301T patent/DE60306301T2/de not_active Expired - Lifetime
- 2003-11-07 MX MXPA05004987A patent/MXPA05004987A/es active IP Right Grant
- 2003-11-07 AU AU2003291364A patent/AU2003291364A1/en not_active Abandoned
-
2006
- 2006-08-08 HK HK06108790.9A patent/HK1088421A1/xx not_active IP Right Cessation
-
2008
- 2008-08-06 US US12/186,889 patent/US7787659B2/en not_active Expired - Lifetime
-
2010
- 2010-01-08 JP JP2010003317A patent/JP2010112959A/ja active Pending
- 2010-08-10 US US12/853,616 patent/US7995799B2/en not_active Expired - Fee Related
- 2010-11-19 US US12/950,653 patent/US8204341B2/en not_active Expired - Lifetime
- 2010-11-19 US US12/950,643 patent/US8068643B2/en not_active Expired - Fee Related
-
2011
- 2011-08-25 US US13/217,885 patent/US8233666B2/en not_active Expired - Lifetime
-
2012
- 2012-06-27 US US13/534,907 patent/US8634594B2/en not_active Expired - Lifetime
-
2013
- 2013-03-08 US US13/791,032 patent/US9182657B2/en not_active Expired - Lifetime
- 2013-03-11 US US13/793,110 patent/US9443305B2/en active Active
-
2016
- 2016-08-24 US US15/246,038 patent/US9811922B2/en not_active Expired - Lifetime
-
2017
- 2017-11-02 US US15/802,173 patent/US10607357B2/en not_active Expired - Lifetime
-
2020
- 2020-03-30 US US16/834,325 patent/US11069077B2/en not_active Expired - Lifetime
Cited By (77)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11069077B2 (en) | 2002-11-08 | 2021-07-20 | Pictometry International Corp. | Method and apparatus for capturing, geolocating and measuring oblique images |
US7995799B2 (en) * | 2002-11-08 | 2011-08-09 | Pictometry International Corporation | Method and apparatus for capturing geolocating and measuring oblique images |
US9443305B2 (en) | 2002-11-08 | 2016-09-13 | Pictometry International Corp. | Method and apparatus for capturing, geolocating and measuring oblique images |
US7787659B2 (en) | 2002-11-08 | 2010-08-31 | Pictometry International Corp. | Method and apparatus for capturing, geolocating and measuring oblique images |
US10607357B2 (en) | 2002-11-08 | 2020-03-31 | Pictometry International Corp. | Method and apparatus for capturing, geolocating and measuring oblique images |
US9811922B2 (en) | 2002-11-08 | 2017-11-07 | Pictometry International Corp. | Method and apparatus for capturing, geolocating and measuring oblique images |
US10489953B2 (en) | 2006-08-30 | 2019-11-26 | Pictometry International Corp. | Mosaic oblique images and methods of making and using same |
US7873238B2 (en) | 2006-08-30 | 2011-01-18 | Pictometry International Corporation | Mosaic oblique images and methods of making and using same |
US9437029B2 (en) | 2006-08-30 | 2016-09-06 | Pictometry International Corp. | Mosaic oblique images and methods of making and using same |
US9959653B2 (en) | 2006-08-30 | 2018-05-01 | Pictometry International Corporation | Mosaic oblique images and methods of making and using same |
US11080911B2 (en) | 2006-08-30 | 2021-08-03 | Pictometry International Corp. | Mosaic oblique images and systems and methods of making and using same |
US8593518B2 (en) | 2007-02-01 | 2013-11-26 | Pictometry International Corp. | Computer system for continuous oblique panning |
US8520079B2 (en) | 2007-02-15 | 2013-08-27 | Pictometry International Corp. | Event multiplexer for managing the capture of images |
US9262818B2 (en) | 2007-05-01 | 2016-02-16 | Pictometry International Corp. | System for detecting image abnormalities |
US11514564B2 (en) | 2007-05-01 | 2022-11-29 | Pictometry International Corp. | System for detecting image abnormalities |
US9959609B2 (en) | 2007-05-01 | 2018-05-01 | Pictometry International Corporation | System for detecting image abnormalities |
US11100625B2 (en) | 2007-05-01 | 2021-08-24 | Pictometry International Corp. | System for detecting image abnormalities |
US10198803B2 (en) | 2007-05-01 | 2019-02-05 | Pictometry International Corp. | System for detecting image abnormalities |
US8385672B2 (en) | 2007-05-01 | 2013-02-26 | Pictometry International Corp. | System for detecting image abnormalities |
US9633425B2 (en) | 2007-05-01 | 2017-04-25 | Pictometry International Corp. | System for detecting image abnormalities |
US10679331B2 (en) | 2007-05-01 | 2020-06-09 | Pictometry International Corp. | System for detecting image abnormalities |
US11087506B2 (en) | 2007-10-12 | 2021-08-10 | Pictometry International Corp. | System and process for color-balancing a series of oblique images |
US9503615B2 (en) | 2007-10-12 | 2016-11-22 | Pictometry International Corp. | System and process for color-balancing a series of oblique images |
US10580169B2 (en) | 2007-10-12 | 2020-03-03 | Pictometry International Corp. | System and process for color-balancing a series of oblique images |
US7991226B2 (en) | 2007-10-12 | 2011-08-02 | Pictometry International Corporation | System and process for color-balancing a series of oblique images |
US9520000B2 (en) | 2007-12-03 | 2016-12-13 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real facade texture |
US11263808B2 (en) | 2007-12-03 | 2022-03-01 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real façade texture |
US10896540B2 (en) | 2007-12-03 | 2021-01-19 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real façade texture |
US9275496B2 (en) | 2007-12-03 | 2016-03-01 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real facade texture |
US10573069B2 (en) | 2007-12-03 | 2020-02-25 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real facade texture |
US10229532B2 (en) | 2007-12-03 | 2019-03-12 | Pictometry International Corporation | Systems and methods for rapid three-dimensional modeling with real facade texture |
US8531472B2 (en) | 2007-12-03 | 2013-09-10 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real façade texture |
US8588547B2 (en) | 2008-08-05 | 2013-11-19 | Pictometry International Corp. | Cut-line steering methods for forming a mosaic image of a geographical area |
US10839484B2 (en) | 2008-08-05 | 2020-11-17 | Pictometry International Corp. | Cut-line steering methods for forming a mosaic image of a geographical area |
US9898802B2 (en) | 2008-08-05 | 2018-02-20 | Pictometry International Corp. | Cut line steering methods for forming a mosaic image of a geographical area |
US10424047B2 (en) | 2008-08-05 | 2019-09-24 | Pictometry International Corp. | Cut line steering methods for forming a mosaic image of a geographical area |
US11551331B2 (en) | 2008-08-05 | 2023-01-10 | Pictometry International Corp. | Cut-line steering methods for forming a mosaic image of a geographical area |
US9933254B2 (en) | 2009-05-22 | 2018-04-03 | Pictometry International Corp. | System and process for roof measurement using aerial imagery |
US8401222B2 (en) | 2009-05-22 | 2013-03-19 | Pictometry International Corp. | System and process for roof measurement using aerial imagery |
US10198857B2 (en) | 2009-10-26 | 2019-02-05 | Pictometry International Corp. | Method for the automatic material classification and texture simulation for 3D models |
US9330494B2 (en) | 2009-10-26 | 2016-05-03 | Pictometry International Corp. | Method for the automatic material classification and texture simulation for 3D models |
US9959667B2 (en) | 2009-10-26 | 2018-05-01 | Pictometry International Corp. | Method for the automatic material classification and texture simulation for 3D models |
US11483518B2 (en) | 2010-07-07 | 2022-10-25 | Pictometry International Corp. | Real-time moving platform management system |
US8477190B2 (en) | 2010-07-07 | 2013-07-02 | Pictometry International Corp. | Real-time moving platform management system |
US10621463B2 (en) | 2010-12-17 | 2020-04-14 | Pictometry International Corp. | Systems and methods for processing images with edge detection and snap-to feature |
US11003943B2 (en) | 2010-12-17 | 2021-05-11 | Pictometry International Corp. | Systems and methods for processing images with edge detection and snap-to feature |
US8823732B2 (en) | 2010-12-17 | 2014-09-02 | Pictometry International Corp. | Systems and methods for processing images with edge detection and snap-to feature |
US10325350B2 (en) | 2011-06-10 | 2019-06-18 | Pictometry International Corp. | System and method for forming a video stream containing GIS data in real-time |
US10346935B2 (en) | 2012-03-19 | 2019-07-09 | Pictometry International Corp. | Medium and method for quick square roof reporting |
US10502813B2 (en) | 2013-03-12 | 2019-12-10 | Pictometry International Corp. | LiDAR system producing multiple scan paths and method of making and using same |
US11525897B2 (en) | 2013-03-12 | 2022-12-13 | Pictometry International Corp. | LiDAR system producing multiple scan paths and method of making and using same |
US10311238B2 (en) | 2013-03-12 | 2019-06-04 | Pictometry International Corp. | System and method for performing sensitive geo-spatial processing in non-sensitive operator environments |
US9881163B2 (en) | 2013-03-12 | 2018-01-30 | Pictometry International Corp. | System and method for performing sensitive geo-spatial processing in non-sensitive operator environments |
US9275080B2 (en) | 2013-03-15 | 2016-03-01 | Pictometry International Corp. | System and method for early access to captured images |
US10311089B2 (en) | 2013-03-15 | 2019-06-04 | Pictometry International Corp. | System and method for early access to captured images |
US10037463B2 (en) | 2014-01-10 | 2018-07-31 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US10204269B2 (en) | 2014-01-10 | 2019-02-12 | Pictometry International Corp. | Unmanned aircraft obstacle avoidance |
US11747486B2 (en) | 2014-01-10 | 2023-09-05 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US10318809B2 (en) | 2014-01-10 | 2019-06-11 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US10181081B2 (en) | 2014-01-10 | 2019-01-15 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US10032078B2 (en) | 2014-01-10 | 2018-07-24 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US10181080B2 (en) | 2014-01-10 | 2019-01-15 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US9612598B2 (en) | 2014-01-10 | 2017-04-04 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US11120262B2 (en) | 2014-01-10 | 2021-09-14 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US11087131B2 (en) | 2014-01-10 | 2021-08-10 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US10037464B2 (en) | 2014-01-10 | 2018-07-31 | Pictometry International Corp. | Unmanned aircraft structure evaluation system and method |
US9292913B2 (en) | 2014-01-31 | 2016-03-22 | Pictometry International Corp. | Augmented three dimensional point collection of vertical structures |
US9542738B2 (en) | 2014-01-31 | 2017-01-10 | Pictometry International Corp. | Augmented three dimensional point collection of vertical structures |
US10571575B2 (en) | 2014-01-31 | 2020-02-25 | Pictometry International Corp. | Augmented three dimensional point collection of vertical structures |
US11686849B2 (en) | 2014-01-31 | 2023-06-27 | Pictometry International Corp. | Augmented three dimensional point collection of vertical structures |
US10338222B2 (en) | 2014-01-31 | 2019-07-02 | Pictometry International Corp. | Augmented three dimensional point collection of vertical structures |
US11100259B2 (en) | 2014-02-08 | 2021-08-24 | Pictometry International Corp. | Method and system for displaying room interiors on a floor plan |
US9953112B2 (en) | 2014-02-08 | 2018-04-24 | Pictometry International Corp. | Method and system for displaying room interiors on a floor plan |
US11417081B2 (en) | 2016-02-15 | 2022-08-16 | Pictometry International Corp. | Automated system and methodology for feature extraction |
US10796189B2 (en) | 2016-02-15 | 2020-10-06 | Pictometry International Corp. | Automated system and methodology for feature extraction |
US10402676B2 (en) | 2016-02-15 | 2019-09-03 | Pictometry International Corp. | Automated system and methodology for feature extraction |
US10671648B2 (en) | 2016-02-22 | 2020-06-02 | Eagle View Technologies, Inc. | Integrated centralized property database systems and methods |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2266704T3 (es) | Procedimiento y aparato para capturar, geolocalizar y medir imagenes oblicuas. | |
EP1696204B1 (en) | Method for capturing, geolocating and measuring oblique images |