ES2693785T3 - Procedimiento y disposición para desarrollar un modelo tridimensional de un entorno - Google Patents

Procedimiento y disposición para desarrollar un modelo tridimensional de un entorno Download PDF

Info

Publication number
ES2693785T3
ES2693785T3 ES13871359.9T ES13871359T ES2693785T3 ES 2693785 T3 ES2693785 T3 ES 2693785T3 ES 13871359 T ES13871359 T ES 13871359T ES 2693785 T3 ES2693785 T3 ES 2693785T3
Authority
ES
Spain
Prior art keywords
model
distance
information
images
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13871359.9T
Other languages
English (en)
Inventor
Folke Isaksson
Ingmar Andersson
Johan Bejeryd
Johan Borg
Per CARLBOM
Leif Haglund
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxar International Sweden AB
Original Assignee
Vricon Systems AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vricon Systems AB filed Critical Vricon Systems AB
Application granted granted Critical
Publication of ES2693785T3 publication Critical patent/ES2693785T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Procedimiento (1000, 1100) para desarrollar un modelo 3D de un entorno, que comprende las etapas de: proporcionar una pluralidad de imágenes superpuestas del entorno (1010, 1110), cada imagen está asociada a datos de navegación, los datos de navegación comprenden información de posición y una dirección de orientación de una cámara que captura las imágenes en cada instante de captura; proporcionar información de distancia (1020, 1120) mediante un dispositivo de medición de distancia, dicha información de distancia comprende un valor de distancia y datos de navegación asociados a cada una de una pluralidad de mediciones de distancia, los datos de navegación que comprenden información de posición y la dirección de pulsos transmitidos por dicho dispositivo de medición de distancia para la reflexión en el entorno; desarrollo (1030, 1130) del modelo 3D en base a la pluralidad de imágenes superpuestas y la información de distancia; caracterizado porque la etapa de desarrollo (1030, 1130) del modelo 3D comprende las etapas de proporcionar (1031) el modelo 3D en base a la pluralidad de imágenes superpuestas; y actualizar (1034) el modelo 3D con la información de distancia usando un proceso iterativo, en el que el desarrollo del modelo 3D comprende comparar el modelo 3D con información del dispositivo de medición de distancia, actualizar el modelo 3D en partes del modelo 3D donde existe una discrepancia entre el modelo 3D y la información de las mediciones de distancia, en base a la información de distancia, y verificar que las partes del modelo 3D actualizadas en base a la información de distancia describan mejor la realidad que el modelo 3D correspondiente no actualizado con la información de distancia.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCION
Procedimiento y disposicion para desarrollar un modelo tridimensional de un entorno Campo tecnico
La presente invencion se refiere a un procedimiento y disposicion para desarrollar un modelo 3D de un entorno.
Antecedentes tecnicos
Un mercado de rapido crecimiento tanto en negocios civiles como militares es el de los sistemas de informacion geografica. El conocimiento sobre las condiciones geograficas constituye un soporte de decision fundamental para las empresas, autoridades y en el ejercito. La informacion geografica puede comprender mapas digitales que tienen capas de informacion superpuestas, tales como infraestructura, tipo de terreno y diferentes tipos de objetos. Esta forma de proporcionar mapas digitales consume mucho tiempo y comprende la formacion de mapas bidimensionales que comprenden la captura de imagenes del terreno desde un avion y el procesamiento posterior de las imagenes capturadas. Es un proceso que consume aun mas tiempo para formar mapas tridimensionales a partir de imagenes capturadas o conjuntos de datos de alcance del terreno/infraestructura.
El documento WO 2009/003529 se refiere a otro tipo de sistema de informacion geografica. Se refiere a una disposicion y un procedimiento para proporcionar una representacion tridimensional del mapa o un modelo de un area. La disposicion comprende una unidad de procesamiento dispuesta para, por una pluralidad de tiempo grabado, imagenes superpuestas del area a ser procesadas en estereo, asociar estados de navegacion para que cada pixel de cada imagen grabada en el tiempo se correlacione con un estado de navegacion correspondiente y para realizar el procesamiento estereo en base a los estados de navegacion asociados para que todos los pfxeles en la representacion del mapa o el modelo 3D se especifiquen en tres dimensiones geograficas.
Un problema con el procesamiento estereo de las imagenes superpuestas es que un cambio espacial brusco tiende a desaparecer o desaparecer parcialmente durante el procesamiento estereo, ya que solo una parte de las imagenes superpuestas capta el fuerte cambio espacial. Una forma de solucionar este problema es introducir un telemetro laser o un dispositivo LIDAR (Deteccion por Luz y Distancia por sus siglas en ingles) en las proximidades del dispositivo de formacion de imagenes. Las mediciones del alcance del laser se realizan en un objeto o area particular durante el penodo en que se toman las imagenes superpuestas del objeto o area particular. Cada medicion de alcance del laser es muy precisa en un solo punto y se puede utilizar para mejorar la precision del modelo 3D.
El documento US2010/0204974 divulga un LIDAR y uno o mas dispositivos de formacion de imagenes electroopticas (EO) que pueden adquirir asincronicamente disparos LIDAR e imagenes EO. Los datos de navegacion y tiempo se pueden usar para asociar un disparo LIDAR y/o imagen EO particular con datos de navegacion. Los datos de navegacion se pueden usar para correlacionar de forma cruzada un disparo LIDAR con una pluralidad seleccionada de imagenes EO superpuestas. La informacion del modelo de alcance se puede determinar a partir de secuencias de imagenes EO usando una tecnica de formacion de imagenes estereo. La tecnica de formacion de imagenes estereo se puede esparcir utilizando los datos de disparo LIDAR.
US 2012/0038902 divulga un procedimiento para calcular las mediciones de alcance tubrido, en el que se obtienen mediciones de alcance de un objetivo junto con al menos dos imagenes del objetivo y la ubicacion y la orientacion de las imagenes. Las mediciones de alcance hfbrido se calculan en base a las mediciones de alcance y las imagenes.
Un objeto de la presente invencion es mejorar aun mas el modelado.
Sumario de la invencion
Esto se ha resuelto en un ejemplo por medio de un procedimiento para desarrollar un modelo 3D de un entorno. El procedimiento comprende las etapas de proporcionar una pluralidad de imagenes superpuestas del entorno, donde cada imagen esta asociada a datos de navegacion, los datos de navegacion que comprende informacion de posicion y una direccion de orientacion de una camara que captura las imagenes en cada instante de captura; proporcionar informacion de distancia mediante un dispositivo de medicion de distancia, dicha informacion de distancia que comprende un valor de distancia y datos de navegacion asociados a cada una de una pluralidad de mediciones de distancia, los datos de navegacion que comprende informacion de posicion y la direccion de pulsos transmitidos por dicho dispositivo de medicion de distancia para la reflexion en el entorno; y el desarrollo del modelo 3D en base a la pluralidad de imagenes superpuestas y la informacion de distancia. La etapa de desarrollo del modelo 3D comprende las etapas de proporcionar el modelo 3D en base a la pluralidad de imagenes superpuestas y actualizar el modelo 3D con la informacion de distancia usando un proceso iterativo.
El desarrollo del modelo 3D comprende comparar el modelo 3D con informacion del dispositivo de medicion de
5
10
15
20
25
30
35
40
45
50
distancia, actualizar el modelo 3D en partes del modelo 3D donde existe una discrepancia entre el modelo 3D y la informacion de las mediciones de distancia, en base a la informacion de distancia, y verificar que las partes del modelo 3D actualizadas en base a la informacion de distancia describe mejor la realidad que el modelo 3D correspondiente no actualizado con la informacion de distancia.
En una opcion, la etapa de proporcionar una pluralidad de imagenes superpuestas del entorno comprende capturar una pluralidad de imagenes superpuestas del entorno utilizando un dispositivo de formacion de imagenes, proporcionar datos de navegacion relacionados con imagenes; y asociar la pluralidad de imagenes superpuestas con respectivos datos de navegacion.
En una opcion, la etapa de proporcionar la informacion de distancia comprende transmitir una pluralidad de pulsos desde un dispositivo de medicion de distancia para la reflexion en el entorno, recibir los pulsos reflejados del entorno; proporcionar datos de navegacion relacionados con los pulsos transmitidos y/o recibidos; determinar informacion relacionada con una relacion entre el tiempo de transmision y el tiempo de recepcion de cada pulso recibido; y asociar los datos de posicionamiento con cada informacion relacionada con la relacion entre el tiempo de transmision y el tiempo de recepcion con los respectivos datos de navegacion;
La informacion de distancia puede ser provista por medio de LIDAR, en el que los pulsos son pulsos de laser. La informacion de distancia puede ser provista por medio de radar. La informacion de distancia puede ser provista por medio de sonar.
Los datos de navegacion comprenden informacion con respecto a la posicion, orientacion y hora.
En una opcion, el procedimiento ademas comprende una etapa para determinar una relacion de ponderacion entre la medicion de distancia y el modelo 3D proporcionado, en el que la actualizacion del modelo 3D con la informacion de distancia es en base a la ponderacion determinada. La relacion de ponderacion se puede determinar en base a un porcentaje de una diferencia entre el valor de la medicion de distancia y el modelo proporcionado. La relacion de ponderacion se puede determinar en base a una incertidumbre en el modelo 3D proporcionado. La relacion de ponderacion se puede determinar en base a una incertidumbre en la medicion de distancia. En una opcion, la etapa de desarrollo del modelo 3D comprende las etapas de:
a) determinar distancias estereo de las imagenes superpuestas;
b) generar el modelo 3D en base a las distancias estereo de una seleccion de imagenes superpuestas;
c) determinar la diferencia entre el modelo 3D y la informacion de distancia;
d) actualizar el modelo 3D en base a la diferencia entre el modelo 3D y la informacion de distancia y en base a la relacion de ponderacion determinada,
e) evaluar el modelo actualizado frente al modelo proporcionado para determinar cual de los modelos es mas preciso
f) actualizar la seleccion de las imagenes superpuestas en base a la evaluacion,
g) repetir la etapa b) a f).
la etapa e) de evaluar el modelo actualizado frente al modelo proporcionado puede comprender re-proyectar las imagenes estereo en base a el modelo 3D actualizado.
La etapa f) de actualizar la seleccion de imagenes superpuestas puede comprender seleccionar solamente aquellas imagenes y/o sub-imagenes que muestran partes del entorno relevante para el modelo mas preciso.
La etapa g) de repetir la etapa de desarrollo del modelo 3D puede comprender las etapas de determinar una diferencia entre el modelo generado en base a distancias estereo y un modelo generado en base a distancias estereo en una etapa previa, en el que el desarrollo del modelo 3D es abortado si la diferencia esta por debajo de un nivel seleccionado.
El modelo 3D puede ser representado como una malla. El modelo 3D se puede representar como una representacion de superficie. El modelo 3D se puede representar como una representacion en voxel.
La invencion tambien se refiere a un programa informatico que comprende un codigo de programa para desarrollar un modelo 3D de un entorno, que comprende la etapa de proporcionar una pluralidad de imagenes superpuestas del entorno, cada imagen asociada de datos de navegacion, los datos de navegacion que comprenden informacion de posicion y una direccion de orientacion de una camara que captura las imagenes en cada instante de captura; proporcionar informacion de distancia mediante un dispositivo de medicion de distancia, dicha informacion de distancia que comprende un valor de distancia y datos de navegacion de cada una de una pluralidad de mediciones de distancia, donde los datos de navegacion comprenden informacion de posicion y la direccion de los pulsos transmitidos por dicho dispositivo de medicion de distancia para la reflexion
en el entorno; y desarrollar el modelo 3D en base a la pluralidad de imagenes superpuestas y la informacion de distancia. La etapa de desarrollo del modelo 3D comprende las etapas de proporcionar el modelo 3D en base a la pluralidad de imagenes superpuestas; y actualizar el modelo 3D con la informacion de distancia usando un proceso iterativo.
5 La invencion tambien se refiere a un producto de programa informatico que comprende un codigo de programa almacenado en un medio legible por computadora para desarrollar un modelo 3D de un entorno, que comprende la etapa de proporcionar una pluralidad de imagenes superpuestas del entorno, cada imagen asociada de datos de navegacion, proporcionar informacion de distancia, donde dicha informacion LIDAR comprende un valor de distancia y datos de navegacion de una pluralidad de mediciones de distancia; y 10 desarrollar el modelo 3D en base a la pluralidad de imagenes superpuestas y la informacion de distancia. La etapa de desarrollo del modelo 3D comprende las etapas de proporcionar el modelo 3D en base a la pluralidad de imagenes superpuestas; y actualizar el modelo 3D con la informacion de distancia usando un proceso iterativo.
En una realizacion, la presente invencion comprende una disposicion para desarrollar un modelo 3D de un 15 entorno, donde dicha disposicion comprende una memoria. La memoria esta dispuesta para almacenar una pluralidad de imagenes superpuestas del entorno, cada imagen asociada a datos de navegacion, donde los datos de navegacion comprenden informacion de posicion y una direccion de orientacion de una camara que captura las imagenes en cada instante de captura y para almacenar informacion de distancia proporcionada por un dispositivo de medicion de distancia, donde dicha informacion de distancia comprende un valor de 20 distancia y datos de navegacion de cada una de una pluralidad de mediciones de distancia, y los datos de navegacion que comprende informacion de posicion y la direccion de pulsos transmitidos por dicho dispositivo de medicion de distancia para la reflexion en el entorno; y una unidad de procesamiento dispuesta para desarrollar el modelo 3D en base a la pluralidad de imagenes superpuestas y la informacion de distancia. La unidad de procesamiento esta dispuesta para determinar el modelo 3D en base a la pluralidad de imagenes 25 superpuestas; y para actualizar el modelo 3D con la informacion de distancia usando un proceso iterativo, en el que la unidad de procesamiento esta dispuesta para comparar el modelo 3D determinado con informacion del dispositivo de medicion de distancia, para actualizar el modelo 3D determinado en partes del modelo 3D determinado donde existe una discrepancia entre el modelo 3D determinado y la informacion de las mediciones de distancia, en base a la informacion de distancia, y verificar que las partes del modelo 3D actualizadas en 30 base a la informacion de distancia describen mejor la realidad segun lo presentado en las imagenes que el correspondiente modelo 3D determinado no actualizado con la informacion de distancia.
Breve descripcion de las figuras
La invencion se describira adicionalmente con referencia a los dibujos adjuntos.
La Fig. 1 ilustra una disposicion para desarrollar un modelo 3D de un entorno al menos parcialmente montado en un 35 avion.
La Fig. 2 ilustra esquematicamente la funcion de una camara en la disposicion de la Fig. 1.
La Fig. 3 ilustra esquematicamente la funcion de una camara y un dispositivo LIDAR en la disposicion de la Fig. 1.
Las Figs. 4a y 4b ilustran esquematicamente un ejemplo de un patron de exploracion proporcionado por el dispositivo LIDAr en la disposicion en la Fig. 1.
40 La Fig. 5 es un esquema de bloques que ilustra un ejemplo de la disposicion de la Fig. 1.
La Fig. 6 es una ilustracion esquematica de una primera parte del modelado de una escena entre edificios.
La Fig. 7 es una ilustracion esquematica de una segunda parte del modelado de una escena entre edificios.
La Fig. 8 es una ilustracion esquematica de una escena en la que se transmite un pulso de laser.
La Fig. 9 es una ilustracion esquematica del modelado de una escena con un bosque.
45 La Fig. 10 muestra un diagrama de flujo que ilustra un ejemplo de un procedimiento para desarrollar un modelo 3D de un entorno.
La Fig. 11 muestra un diagrama de flujo que ilustra un ejemplo de un procedimiento para desarrollar un modelo 3D de un entorno.
Descripciones detalladas de la invencion
50 En la figura 1, una disposicion 101 para desarrollar un modelo tridimensional de un entorno 103 esta montado sobre un soporte movil 102. En el ejemplo ilustrado, el soporte es un vehuculo trasportado aereo. El vehuculo aereo es, por ejemplo, un avion de combate o civil tripulado o no tripulado. El soporte movil es en un ejemplo alternativo (no se
5
10
15
20
25
30
35
40
45
50
55
muestra) un satelite, un vetnculo terrestre o una embarcacion, por ejemplo, un camion, barco o submarino. La disposicion 101 tambien se puede sostener o montar en una persona. En un ejemplo, solo partes de la disposicion estan montadas en el soporte movil mientras que otras partes, por ejemplo, partes de procesamiento, estan en una ubicacion remota.
El modelo tridimensional proporcionado por la disposicion 101 esta relacionado con el sistema de coordenadas geograficas. El modelo 3D se proporciona a partir del procesamiento en imagenes estereo de una pluralidad de imagenes georreferenciadas superpuestas del entorno. Las imagenes georreferenciadas se proporcionan desde al menos una camara. Ademas, el modelo 3D se actualiza con informacion de un dispositivo de medicion de distancia.
En un ejemplo, se puede utilizar una o una pluralidad de cameras que comprenden una camara para luz visual, una camara IR, y/o una camara de video. El dispositivo de medicion de distancia puede ser cualquier tipo de dispositivo de medicion de distancia dispuesto para determinar una distancia con resolucion espacial. El dispositivo de medicion de distancia comprende un transmisor dispuesto para transmitir continuamente pulsos a un receptor dispuesto para recibir pulsos transmitidos desde el transmisor y reflejados en el entorno. El dispositivo de medicion de distancia esta dispuesto para determinar una distancia al punto de reflexion en base a la diferencia de tiempo entre la transmision y la recepcion en un pulso determinado. El dispositivo de medicion de distancia esta en un ejemplo operando en base a luz optica, ultrasonica y/o en base a radar. El dispositivo optico de medicion de distancia esta en un ejemplo basado en LIDAR. En un ejemplo, el dispositivo optico de medicion de distancia comprende un transmisor laser y un detector dispuestos para detectar radiacion laser. En un ejemplo, el transmisor es un proyector que transmite un patron de luz y el receptor asociado es una camara. En la siguiente descripcion, la medicion de distancia se describira en relacion con LIDAR.
Asf, la disposicion para desarrollar el modelo tridimensional comprende al menos una camara y un dispositivo LIDAR soportado por un soporte movil 102. El dispositivo LIDAR esta configurado para obtener la informacion de intervalo del entorno transmitiendo energfa laser hacia el entorno y detectando la energfa laser reflejada y/o emitida desde allL
La disposicion 101 para desarrollar el modelo tridimensional esta dispuesta para proporcionar primero el modelo 3D en base a la pluralidad de imagenes superpuestas y luego actualizar el modelo 3D con la informacion LIDAR. Una diferencia entre el modelo 3D proporcionado y la informacion LIDAR esta en un ejemplo determinado en cada ubicacion donde la informacion LIDAR esta disponible. La ponderacion de la medicion LIDAR en el modelo actualizado se determina en base a un esquema predeterminado. Por ejemplo, la ponderacion de la informacion LIDAR se determina como un porcentaje de una diferencia entre el modelo 3D y la informacion LIDAR. En un ejemplo, el porcentaje es el 100% de la diferencia, es decir, la ponderacion de la informacion LIDAR es del 100%. En un ejemplo alternativo, la ponderacion de la informacion LIDAR es 40-60%.
En un ejemplo, se determina una incertidumbre en el modelo 3D en cada ubicacion donde se encuentra disponible la informacion LIDAR. En este ejemplo, la ponderacion de la informacion LIDAR se determina tambien o en su lugar en base a la incertidumbre en el modelo 3D. Se describiran ejemplos detallados de incertidumbres en el modelo 3D en relacion con la figura 5. Ademas, tambien se puede determinar una incertidumbre relacionada con la medicion de LIDAR. La ponderacion de la medicion LIDAR en el modelo actualizado se determina tambien o en su lugar en base a la incertidumbre en la medicion LIDAR.
En la Fig. 2, al menos una camara 204 se ilustra soportada por un soporte movil no mostrado. En un primer momento, al menos una camara apunta en una primera direccion a un primer campo de vision 205a para una primera imagen 206a capturada por la camara 204. En un segundo momento, al menos una camara 204 esta dirigida en una segunda direccion a un segundo campo de vision 205b para una segunda imagen 206b capturada por la camara 204. Al menos una camara 204 esta dispuesta para proporcionar una pluralidad de imagenes al menos parcialmente superpuestas 206a, 206b cubriendo cada una al menos una parte del entorno. El modelo se puede mejorar cuantas mas imagenes de diferentes posiciones de camara esten disponibles para modelar un objeto o una superficie en el entorno. En un ejemplo, cuando las imagenes se capturan desde un vetnculo en el aire, algunas superficies visibles desde muchas posiciones en el aire se capturan en 20 o mas imagenes diferentes, mientras que otras superficies son visibles en menos imagenes diferentes.
En la Fig. 3, un dispositivo de medicion de distancia (no mostrado) esta dispuesto en un soporte movil junto con la/s camara/s 304 descrita/s anteriormente. En este documento, describimos el dispositivo de medicion de distancia en relacion con LIDAR. La informacion de alcance proporcionada por las mediciones LIDAR se usa para ayudar a desarrollar un modelo 3D. El dispositivo LIDAR se dirige al suelo para escanear con pulsos 307 las mismas partes cubiertas por las imagenes 306a, 306b tomadas por la/s camara/s 304. El area de un pulso LIDAR es mucho mas pequena que el area de una imagen tomada de la misma altura. Por lo tanto, en un ejemplo, se proporcionan una pluralidad de pulsos LIDAR dentro del area de cada imagen.
En las Figuras 4a y 4b, se ilustran ejemplos de diferentes patrones de escaneo 408, 409 en el suelo proporcionados por un dispositivo de medicion de distancia dispuesto en un soporte movil. La direccion del soporte movil (no se muestra) se ilustra con una flecha. En 4a, el laser esta dispuesto para realizar un movimiento hacia atras y hacia adelante en una direccion sustancialmente perpendicular a la direccion de movimiento del soporte movil (no
5
10
15
20
25
30
35
40
45
50
55
mostrado) para explorar el entorno en un patron de zigzag 408. En la Fig. 4b, el dispositivo LIDAR esta dispuesto de modo que el haz de laser dirigido al entorno gira en un drculo, proporcionando as^ pulsos LIDAR 231 que forman un patron helicoidal 409 a medida que el soporte se mueve en la direccion de la flecha para explorar el entorno. En un ejemplo, el dispositivo LIDAR esta dispuesto para realizar el movimiento lineal y/o circular. En un ejemplo alternativo, el dispositivo LIDAR esta dispuesto de manera fija y una disposicion de espejo en la trayectoria del haz desde el dispositivo LIDAR esta dispuesta para realizar un movimiento pivotante a fin de proporcionar el escaneo lineal y/o circular. Una ventaja con los pulsos LIDAR que forman un patron helicoidal es que se logra una alta resolucion en todas las direcciones ya que la diferencia entre dos pulsos LIDAR en una cierta direccion es pequena al menos entre algunos pares de pulsos LIDAR a lo largo de la pluralidad de pulsos LIDAR formando un patron helicoidal. Cabe mencionar que la pluralidad de pulsos de LIDAR puede formar cualquier otro patron, tal como patron senoidal o cualquier patron irregular.
En un ejemplo, las imagenes de la camara se toman y las medidas de distancia se realizan en diferentes momentos. En un ejemplo alternativo, las imagenes de la camara se toman y las medidas de distancia se realizan al mismo tiempo.
En el ejemplo de la Fig. 5, se proporciona un modelo 3D utilizando una disposicion 501 para desarrollar un modelo tridimensional de un entorno. La disposicion 501 comprende al menos una camara 504 dispuesta para generar imagenes. Al menos una camara 504 esta dispuesta para proporcionar una pluralidad de imagenes superpuestas que cubre el entorno para el que esta construido el modelo. La camara es, por ejemplo, una camara para luz visual o una camara IR.
La disposicion 501 comprende ademas un dispositivo de medicion de distancia 510. Como se describe en relacion con la Figura 1, el dispositivo de medicion de distancia 510 puede ser cualquier tipo de dispositivo de medicion de distancia dispuesto para determinar una distancia con resolucion espacial. Por ejemplo, se puede usar medicion de distancia ladar, sonar, utilizando luz estructurada y/o radar ademas de las mediciones en base a las imagenes de la camara. Como se indico anteriormente, en la siguiente descripcion, las mediciones de distancia se describiran en relacion con LIDAR
La disposicion 501 comprende de acuerdo con este ejemplo, un sistema de posicionamiento 511 o un receptor de un sistema de posicionamiento dispuesto para proporcionar informacion de posicionamiento y direccion relacionada con al menos una camara y relacionada con el dispositivo LIDAR. La informacion de direccion se refiere a la direccion optica de la camara/dispositivo LIDAR. Las imagenes estan asociadas a esta informacion de posicionamiento y direccion. Ademas, las mediciones de distancia estan asociadas a esta informacion de posicionamiento y direccion. Ademas, las imagenes y/o las distancias medidas de LIDAR pueden estar asociadas a la informacion de temporizacion. La informacion de temporizacion se proporciona con precision suficiente para la aplicacion.
El sistema de posicionamiento 511 comprende en un ejemplo un receptor de un sistema de posicionamiento basado en satelites, tal como GPS. El sistema de posicionamiento tambien puede comprender un sistema de navegacion inercial. La informacion de temporizacion puede ser provista desde el receptor en el sistema de posicionamiento, estando dispuesto dicho receptor para recibir y procesar senales de un sistema de posicionamiento basado en satelites, tal como GPS.
Ademas, la disposicion 501 comprende una unidad de procesamiento 512 dispuesta para, en base a la informacion de posicion y direccion relacionada con al menos una camara 504, procesar en imagenes estereo un numero arbitrario de conjuntos de imagenes al menos parcialmente superpuestas generados por al menos una camara para proporcionar el modelo tridimensional. En detalle, la unidad de procesamiento 512 esta en un ejemplo dispuesta para encontrar los puntos correspondientes en las imagenes al menos parcialmente superpuestas y para encontrar estimaciones de disparidad en base a los puntos correspondientes para proporcionar el procesamiento de imagenes estereo. En un ejemplo, la unidad de procesamiento 512 esta dispuesta para, para cada imagen que debe ser procesada en imagen estereo, asociar la informacion de posicion y direccion de modo que cada pixel de cada imagen se correlacione con la informacion de posicion y direccion correspondiente. El procesamiento de imagen estereo se realiza en base a la informacion de posicion y direccion asociada, de modo que todos los pfxeles en el modelo 3D se especifican en tres dimensiones geograficas.
En un ejemplo, la unidad de procesamiento 512 esta configurada para dividir el entorno en una pluralidad de areas o puntos, proporcionar para cada area o punto una pluralidad de conjuntos de imagenes georreferenciadas, en el que cada imagen comprende el area o punto, realizar para cada area o punto procesamiento estereo de imagen en cada conjunto de imagenes para proporcionar una pluralidad de submodelos 3D para esa area o punto y proporcionar el modelo 3D para cada area o punto en base a la pluralidad de submodelos 3D. Por ejemplo, el modelo 3D para cada area o punto se proporciona promediando el punto o el area provista por los diferentes submodelos. En un ejemplo, las imagenes o conjuntos de imagenes estan asociados a un factor de ponderacion que depende de la calidad de la imagen.
El promedio puede ser ponderado. Finalmente, la unidad de procesamiento 512 esta configurada para componer el modelo 3D en base a los modelos 3D relacionados con las diferentes areas o puntos.
5
10
15
20
25
30
35
40
45
50
55
La unidad de procesamiento 512 puede estar dispuesta para realizar un ajuste del haz.
La unidad de procesamiento 512 ademas esta dispuesta para proporcionar el modelo 3D tambien en base a informacion del dispositivo de medicion de distancia 510. La unidad de procesamiento 512 es en un ejemplo dispuesto para desarrollar el modelo 3D en base a la pluralidad de imagenes superpuestas y para actualizar el modelo con la informacion de distancia del dispositivo de medicion de distancia, cuando corresponda. En detalle, el modelo 3D que cubre un area o entorno determinado se desarrolla utilizando la pluralidad de imagenes superpuestas. El modelo 3D luego se compara con informacion del dispositivo de medicion de distancia. En aquellas partes del entorno donde el modelo 3D coincide sustancialmente con la informacion proporcionada a partir de las mediciones de distancia, se considera finalizado el modelo 3D proporcionado.
Sin embargo, en aquellas partes del modelo 3D donde existe una discrepancia entre el modelo 3D y la informacion de las mediciones de distancia, el modelo 3D se actualiza en aquellas partes, en base a la informacion de distancia. La ponderacion de la informacion de distancia in el modelo actualizado se puede determinar como se describe mas arriba y se ejemplificara en mas detalle a continuacion.
La unidad de procesamiento 512 esta dispuesta para verificar que las partes del modelo 3D actualizadas en base a la informacion de distancia describen mejor la realidad segun lo presentado en las imagenes que el modelo 3D correspondiente no actualizado con la informacion de distancia. Esto se realiza en un ejemplo re- proyectando una imagen a otra imagen en aquellas partes donde el modelo se ha actualizado, para determinar si el modelo actualizado brinda una imagen estimada mejor re-proyectada que el modelo no actualizado. En detalle, el modelo no actualizado y el modelo actualizado se pueden determinar en base a una comparacion de una imagen I2
tomada desde una ubicacion determinada con diferentes imagenes estimadas Q determinadas para la misma ubicacion determinada. Las imagenes estimadas se determinan en base a otra imagen I1 tomada desde otra ubicacion y proyectada en el modelo 3D sin actualizar respectivamente el modelo 3D actualizado a la posicion de la ubicacion de la imagen 12- Por lo tanto, la imagen estimada se determina como M), en el que M
representa el modelo 3D sin actualizar, respectivamente, el modelo actualizado. En comparacion, la imagen I2 tomada desde la ubicacion determinada con las imagenes estimadas /2 esa imagen estimada /2 que es mas
similar a la imagen original I2 esta asociada al mejor modelo. En un ejemplo, las imagenes se comparan o combinan en pequenas ventanas de las imagenes. Por lo tanto, las imagenes se comparan sub-imagen por sub-imagen. En un ejemplo, la coincidencia se realiza en base a una tecnica de correlacion. En un ejemplo, la coincidencia se realiza en base a un algoritmo basado en fase. En un ejemplo, la coincidencia se realiza en base a un algoritmo basado en segmentacion.
Asf, si el modelo realizado en base solamente a las imagenes superpuestas proporciona la mejor estimacion de imagen para la imagen I2, entonces se supone que la informacion de distancia no debe usarse en el modelo o al menos en menor medida que en el modelo actualizado. Si, por otro lado, el modelo desarrollado basado tambien en la informacion de distancia ofrece la mejor estimacion de imagen para la imagen I2, entonces se supone que la informacion de distancia mejora el modelo 3D.
La unidad de procesamiento 512 puede disponerse para verificar de otras maneras conocidas por el experto en la tecnica que el modelo 3D actualizado en base a la informacion de distancia describe mejor la realidad segun lo presentado en las imagenes que el modelo 3D no actualizado con la informacion de distancia.
En aquellas partes del modelo 3D donde se ha determinado que la informacion de distancia mejora el modelo 3D, la unidad de procesamiento 512 esta dispuesta para repetir el desarrollo de un modelo en base a solo imagenes superpuestas. Esta vez, el desarrollo del modelo es en base a una seleccion de las imagenes superpuestas en las que las coordenadas del modelo actualizado son visibles. La unidad de procesamiento 512 entonces esta dispuesta para comparar el modelo con la informacion de distancia. Si hay una diferencia entre el modelo y la informacion de distancia en algun punto, entonces el modelo 3D se actualiza en este punto como se describio anteriormente. La unidad de procesamiento entonces esta dispuesta para verificar que el modelo 3D actualizado en base a la informacion de distancia describe mejor la realidad segun lo presentado en las imagenes que el modelo 3D no actualizado con la informacion de distancia, como se describe mas arriba. Si se verifica que el modelo actualizado describe mejor el entorno, la unidad de procesamiento 512 esta dispuesta para repetir el desarrollo del modelo en base a una seleccion de imagenes superpuestas y/o en base a una seleccion de sub-imagenes superpuestas. Si no se verifica que el modelo actualizado describa mejor el entorno, la actualizacion del modelo se puede finalizar o repetir nuevamente utilizando una menor influencia de la medicion de distancia. Si, por ejemplo, la informacion de distancia es incorrecta, como si se hubiera medido frente a un ave voladora, esta informacion de distancia no mejorara el modelo y, por lo tanto, sera rechazada en la verificacion del modelo actualizado.
La unidad de procesamiento 512 esta en un ejemplo para determinar una diferencia entre el modelo desarrollado y un modelo desarrollado en la etapa anterior y para salir del desarrollo del modelo 3D si la diferencia disminuye un valor predeterminado. Como se entiende a partir de lo anterior, la unidad de procesamiento 512 tambien puede disponerse para salir del desarrollo del modelo si se determina que la informacion de distancia no mejora el modelo.
5
10
15
20
25
30
35
40
45
50
55
La unidad de procesamiento 512 en un ejemplo esta dispuesta para determinar una incertidumbre en algunas ubicaciones o en cada ubicacion donde esta disponible la informacion LIDAR. La unidad de procesamiento entonces esta dispuesta para determinar la ponderacion de la medicion LIDAR en el modelo actualizado en base a la incertidumbre en el modelo 3D en esa ubicacion espedfica. En un ejemplo, la incertidumbre en el modelo se determina en base al angulo entre el eje optico de las imagenes de la camara utilizadas para modelar y un plano de la superficie del modelo en esa ubicacion espedfica. Por ejemplo, para las superficies del modelo 3D que son perpendiculares a un eje optico de la camara en esa ubicacion espedfica, la incertidumbre en el modelo 3D es menor que para las superficies que son sustancialmente paralelas al eje optico de la camara. Ademas, los puntos medidos por el dispositivo LIDAR, que no son visibles para ninguna de las camaras ya que hay objetos modelados que oscurecen esta ubicacion, la incertidumbre del modelo puede considerarse alta. La unidad de procesamiento 512 tambien puede disponerse para determinar una incertidumbre relacionada con la medicion LIDAR. La ponderacion de la medicion LIDAR en el modelo actualizado se determina en base a la incertidumbre en el modelo 3D y/o la incertidumbre en la medicion LIDAR.
En un ejemplo, el modelo 3D esta representado como una malla. En un ejemplo alternativo, el modelo 3D esta representado como una representacion de superficie. En un ejemplo alternativo, el modelo 3D esta representado como una representacion de voxel.
La unidad de procesamiento 512 comprende en un ejemplo un programa informatico que comprende un codigo de programa para desarrollar un modelo 3D segun lo debatido mas arriba. Ademas, un producto de programa informatico comprende un codigo de programa almacenado en un medio legible por computadora para desarrollar un modelo 3D de un entorno.
En el ejemplo mostrado, la disposicion 501 tambien comprende una memoria 513 para almacenar datos relacionados con el modelo tridimensional calculado por la unidad de procesamiento 512. La memoria tambien esta dispuesta para almacenar informacion relacionada con las imagenes superpuestas y la informacion de distancia. La disposicion 501 comprende ademas una unidad de visualizacion o presentacion 514 dispuesta para proporcionar informacion relacionada con el modelo 3D. La unidad de visualizacion puede estar dispuesta para presentar una parte seleccionada del modelo 3D. La disposicion 501 tambien puede comprender medios de entrada (no mostrados) para seleccionar una parte del modelo 3D y el visualizador esta dispuesto para presentar informacion relacionada con la parte seleccionada.
La disposicion 501 tambien puede comprender un transmisor (no mostrado) dispuesto para transmitir la informacion relacionada con el modelo 3D a un receptor en una ubicacion remota. En un ejemplo, el transmisor al menos sustituye parcialmente la memoria 513 y/o la unidad de visualizacion 514. En un ejemplo alternativo, se proporciona el transmisor ademas de la memoria 513 y/o la unidad de visualizacion 514. En un ejemplo, la disposicion no comprende la/s camara/s 504 y el dispositivo de medicion de distancia 510. La unidad de procesamiento 512 entonces esta dispuesta para desarrollar el modelo en base una imagen e informacion de distancia almacenada en la memoria 513.
En la Fig. 6, se ilustra una primera parte de un procedimiento para desarrollar un modelo 3D de un entorno. Se ha determinado un modelo 3D 620 en base a las imagenes tomadas desde una pluralidad de posiciones de camara 604a, 604b, 604c, 604d. En el ejemplo ilustrado, se muestra un campo de vision 605a, 605b, 605c, 605d para la camara respectiva 604a, 604b, 604c, 604d en el momento de tomar las imagenes. Por lo tanto, el campo de vision ilustra la cobertura de las imagenes captadas.
El modelo 3D 620 se compara con los puntos de medicion LIDAR 621a, 621b, 621c en las ubicaciones correspondientes. En el ejemplo ilustrado, el modelo 3D y las mediciones LIDAR coinciden sustancialmente en una primera y tercera ubicacion de medicion 621a, 621c. Sin embargo, el punto de medicion LIDAR 621b difiere de un punto correspondiente en el modelo 620. En el ejemplo ilustrado, el segundo punto de medicion 621b de la medicion LIDAR se forma en el suelo de un callejon entre dos edificios 622a, 622b. Como el modelo 3D y la medicion LIDAR son diferentes, el modelo 3D se dibuja localmente en una direccion hacia el punto de medicion LIDAR. En un ejemplo, el modelo 3D 620 se dibuja hasta al menos un punto actualizado entre el modelo y el segundo punto de medicion 621b determinado por la ponderacion de la medicion LIDAR. En un ejemplo, se selecciona al menos un punto actualizado de manera que el modelo 3D 620 se dibuja en el segundo punto de medicion 621b. En un ejemplo, al menos un punto actualizado se determina en base la ponderacion de la informacion LIDAR. La ponderacion de la informacion LIDAR se determina en base a un esquema predeterminado, como se debatio anteriormente
En un ejemplo la ponderacion de la medicion LIDAR tambien o en su lugar se determina en base a una incertidumbre en el modelo 3D. En un ejemplo, la incertidumbre en el modelo es en base a la relacion angular entre la superficie del modelo 620 en la ubicacion del segundo punto de medicion 621b y los ejes opticos de las camaras al tomar las imagenes disponibles. Si la superficie y los ejes opticos son casi paralelos, entonces la incertidumbre es mayor que si la relacion entre la superficie y los ejes opticos es cercana a la perpendicular.
Ademas, en un ejemplo, la incertidumbre en el modelo es, en su lugar o ademas de ello determinada mediante a partir de cuantas o en que alto porcentaje de las imagenes de la camara son visibles los puntos de medicion LIDAR.
5
10
15
20
25
30
35
40
45
50
55
60
En este ejemplo ilustrado, solo algunas de las imagenes de la camara se toman desde tal ubicacion y en tal direccion que el punto de medicion LIDAR sena visible. La incertidumbre es en un ejemplo mas alta que si el punto LIDAR es visible desde un alto porcentaje o sustancialmente todas las imagenes utilizadas en el desarrollo del modelo 3D. El punto del modelo 3D se determina para que se mueva hacia la ubicacion de medicion LIDAR correspondiente en una medida determinada en base a la incertidumbre modelo 3D.
En la figura 7, se muestra una segunda parte de un procedimiento para desarrollar un modelo 3D de un entorno. Se ha determinado un modelo actualizado 722. El modelo de actualizacion es en base al modelo desarrollado utilizando solamente pares de imagenes superpuestas y actualizado con al menos un punto actualizado 723 determinado en base a la informacion de distancia. Segun lo debatido mas arriba, la ponderacion de la informacion a distancia se ha determinado de acuerdo con un esquema predeterminado. Se evalua el modelo actualizado 722. Esto tambien se describio en relacion con la Fig. 5. Si se considera que el modelo actualizado 722 es mejor que el modelo no actualizado, entonces el modelo se volvera a desarrollar utilizando solo aquellas imagenes que muestren e/los punto/s actualizado/s 723 del modelo 3D proporcionado en base al segundo punto de medicion (621b en la figura 6) y en base a la ponderacion de la medicion LIDAR. En la Fig. 7, un cono 724 ilustra que imagenes y/o sub-imagenes pueden usarse para el redesarrollo del modelo. El procedimiento descrito en relacion con la Fig. 6 se repite usando las imagenes en el cono determinado. Asf, un modelo 3D 620 se determinara en base a las imagenes tomadas desde una pluralidad de posiciones de camara 704b, 704c dentro del cono 724. Tambien se pueden usar sub- imagenes, en el ejemplo ilustrado, se muestra un campo de vision 705b, 705c para la camara respectiva 704b, 704c en el momento de tomar las imagenes. Por lo tanto, el campo de vision ilustra la cobertura de las imagenes capturadas.
En la Fig. 8, se ilustra un ejemplo en el que sena util que la ponderacion de la medicion LIDAR se determinara en base a una incertidumbre en la medicion LIDAR. El pulso de un dispositivo LIDAR 810 utilizado tiene un lobulo de haz 825 que tiene un cierto tamano en seccion transversal. En el ejemplo ilustrado, un pulso para determinar una distancia genera dos resultados de distancia diferentes debido a la extension del lobulo 825 en su seccion transversal. Por lo tanto, existe una incertidumbre en las mediciones de distancia en bordes afilados o internos tales como edificios. En este caso, la ponderacion de la informacion LIDAR puede ser menor que en areas donde no se requiere una alta resolucion espacial en un plano perpendicular al haz.
En la Fig. 9, se desarrolla un modelo de bosque. En esta situacion, el modelo producido por las imagenes y las mediciones LIDAR proporcionara resultados diferentes. Un modelo 920 proporcionado en base a imagenes superpuestas estara cerca de las copas de los arboles y, potencialmente, las copas de los arboles no se modelaran en toda su extension. Las mediciones LIDAR proporcionaran puntos de medicion diseminados. Algunos puntos de medicion estaran en las copas de los arboles y algunos puntos de medicion estaran cerca del suelo. Por lo tanto, la situacion puede manejarse en una pluralidad de maneras. En un ejemplo, las mediciones LIDAR se evaluan y se puede determinar a partir del patron de puntos que estos puntos no se pueden usar en el modelado. Entonces esos puntos de medicion LIDAR que no son deseables de usar se pueden eliminar. En un ejemplo adicional o alternativo, se utilizan los puntos de medicion LIDAR. Aquellos que estan cerca del suelo estaran determinados a no mejorar el modelo y, por lo tanto, seran rechazados. Esos puntos de medicion LIDAR que estan cerca de las copas de los arboles se pueden usar para modelar las copas de los arboles mas cerca de su extension completa. En un tercer ejemplo, el patron de los puntos de medicion LIDAR se usa para determinar una incertidumbre en la informacion LIDAR y, por lo tanto, se puede usar en el modelado en una medida determinada por la incertidumbre en la medicion LIDAR. Estos diferentes ejemplos pueden combinarse.
En la Fig. 10 se ilustra un ejemplo de un procedimiento 1000 para desarrollar un modelo 3D en base a imagenes superpuestas e informacion de distancia. El procedimiento comprende proporcionar 1010, imagenes superpuestas asociadas a datos de navegacion. Ademas, tambien se proporciona informacion de distancia 1020 que comprende un valor de distancia y se asocia con datos de navegacion. A partir de entonces, se desarrolla el modelo 3D 1030 en base a la pluralidad de imagenes superpuestas y la informacion de distancia. En el desarrollo del modelo 3D, se proporciona el modelo 3D 1031 en base a la pluralidad de imagenes superpuestas, el modelo proporcionado 1031 es comparado 1032 con la informacion de distancia y el modelo proporcionado se actualiza 1034 con la informacion de distancia usando un proceso iterativo, cuando corresponda. En un ejemplo, se determina una relacion de ponderacion entre la medicion de distancia y el modelo 3D proporcionado 1033. El modelo 3D luego puede actualizarse 1034 con la informacion de distancia en la ponderacion determinada 1033. La relacion de ponderacion puede, por ejemplo, determinarse en base a un porcentaje de una diferencia entre el valor de la medicion de distancia y el modelo proporcionado. La relacion de ponderacion tambien puede o en su lugar se puede determinar en base a una incertidumbre en el modelo 3D proporcionado. La relacion de ponderacion puede, en su lugar o ademas, ser determinada en base a una incertidumbre en la medicion de distancia.
En un ejemplo, las distancias estereo se determinan 1015 a partir de las imagenes superpuestas proporcionadas. El modelo entonces se puede proporcionar en base a las distancias estereo determinadas. En un ejemplo, las distancias estereo se determinan a partir de las imagenes superpuestas en base a correlacion. En un ejemplo, las distancias estereo se determinan a partir de las imagenes superpuestas en base a un algoritmo basado en fase. En un ejemplo, las distancias estereo se determinan a partir de las imagenes superpuestas en base a un algoritmo basado en segmentacion. En un ejemplo, se usa cualquier otro procedimiento estereo conocido por la
5
10
15
20
25
30
35
40
45
50
persona experta en la tecnica.
El modo actualizado se evalua 1035 frete al modelo provisto, no actualizado para determinar cual de los modelos es mas preciso. Si el modelo no actualizado se determina como el mas preciso, el desarrollo del modelo puede finalizar. Si se determina que el modelo actualizado es el mas preciso, o al menos se determina que la informacion de distancia mejora el modelo, el proceso se repite. La evaluacion 1035 del modelo actualizado frente al modelo proporcionado incluye en un ejemplo reproyectar las imagenes estereo en base a los modelos 3D actualizados y sin actualizar y comparar los resultados.
La seleccion de imagenes despues se actualiza 1036 en base a las coordenadas del modelo actualizado. En un ejemplo, la actualizacion 1036 de la seleccion de imagenes superpuestas comprende seleccionar solamente aquellas imagenes y/o sub-imagenes que muestran partes del entorno relevante para el modelo mas preciso (actualizado o no actualizado).
En un ejemplo la decision de repetir 1037 el desarrollo del modelo comprende las etapas de determinar una diferencia entre el modelo generado en base a las imagenes superpuestas y un modelo generado en base a la seleccion de superposicion en una etapa previa. El desarrollo del modelo 3D luego se puede salir si la diferencia esta por debajo de un nivel seleccionado. En la figura 11, se muestra un diagrama de flujo que ilustra un ejemplo de un procedimiento 1100 para desarrollar un modelo 3D de un entorno.
En el ejemplo ilustrado, una etapa de proporcionar 1110 datos de imagenes comprende las etapas de proporcionar 1111 una pluralidad de imagenes superpuestas del entorno, proporcionar datos de navegacion 1112 y asociar 1113 los datos de navegacion con las respectivas imagenes. Los datos de navegacion pueden comprender informacion de posicion y una direccion de orientacion de una camara que captura las imagenes en cada instante de captura. Por lo tanto, los datos de navegacion pueden comprender informacion sobre la posicion y la orientacion. Tambien puede comprender informacion relacionada con el tiempo.
Ademas, como la etapa de proporcionar 1120 informacion de distancia comprende las etapas de transmitir 1121 una pluralidad de pulsos tales como el laser desde un dispositivo de medicion de distancia para la reflexion en el entorno, recibir 1122 los pulsos reflejados del entorno, proporcionar 1123 datos de navegacion relacionados con los pulsos y determinar 1124 la informacion relacionada con una relacion entre el tiempo de transmision y el tiempo de recepcion de cada pulso recibido.
La distancia entre el dispositivo de medicion de distancia y el punto de reflexion asociado a cada pulso se puede determinar en base a la relacion determinada. Luego, los datos de navegacion estan asociados 1125 a cada distancia determinada. Los datos de navegacion pueden comprender la informacion de posicion y la direccion de los pulsos transmitidos. Por lo tanto, los datos de navegacion pueden comprender informacion sobre la posicion y la orientacion. Tambien puede comprender informacion relacionada con el tiempo.
En un ejemplo, la informacion de distancia se proporciona por medio de LIDAR. En un ejemplo, la informacion de distancia se proporciona por medio de radar. En un ejemplo, la informacion de distancia se proporciona por medio de sonar.
A continuacion, el modelo 3D se desarrolla 1130 en base a los datos de imagen proporcionados y en base a la informacion de distancia proporcionada. En un ejemplo, los datos de imagen y las mediciones de distancia se proporcionan utilizando la misma plataforma. Entonces puede que no sea necesario determinar los datos de navegacion espedficamente tanto para la/s camara/s como para la unidad de medicion de distancia. Entonces, puede ser suficiente conocer la relacion entre la/s camara/s y el dispositivo de medicion de distancia. El modelo 3D se puede representar como una representacion de superficie y/o un voxel y/o una malla.

Claims (16)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    REIVINDICACIONES
    1. Procedimiento (1000, 1100) para desarrollar un modelo 3D de un entorno, que comprende las etapas de:
    proporcionar una pluralidad de imagenes superpuestas del entorno (1010, 1110), cada imagen esta asociada a datos de navegacion, los datos de navegacion comprenden informacion de posicion y una direccion de orientacion de una camara que captura las imagenes en cada instante de captura;
    proporcionar informacion de distancia (1020, 1120) mediante un dispositivo de medicion de distancia, dicha informacion de distancia comprende un valor de distancia y datos de navegacion asociados a cada una de una pluralidad de mediciones de distancia, los datos de navegacion que comprenden informacion de posicion y la direccion depulsostransmitidos por dicho dispositivo de medicion de distancia para la reflexion en el entorno;
    desarrollo (1030, 1130) del modelo 3D en base a la pluralidad de imagenes superpuestas y la informacion de distancia;
    caracterizado porque
    la etapa de desarrollo (1030, 1130) del modelo 3D comprende las etapas de proporcionar (1031) el modelo 3D en base a la pluralidad de imagenes superpuestas; y
    actualizar (1034) el modelo 3D con la informacion de distancia usando un proceso iterativo,
    en el que el desarrollo del modelo 3D comprende comparar el modelo 3D con informacion del dispositivo de medicion de distancia, actualizar el modelo 3D en partes del modelo 3D donde existe una discrepancia entre el modelo 3D y la informacion de las mediciones de distancia, en base a la informacion de distancia, y verificar que las partes del modelo 3D actualizadas en base a la informacion de distancia describan mejor la realidad que el modelo 3D correspondiente no actualizado con la informacion de distancia.
  2. 2. Procedimiento de acuerdo con la reivindicacion 1, que ademas comprende una etapa para determinar (1033) una relacion de ponderacion entre la informacion de distancia y el modelo 3D proporcionado, en el que la actualizacion (1034) del modelo 3D con la informacion de distancia es en base a la ponderacion determinada.
  3. 3. Procedimiento de acuerdo con la reivindicacion 2, en el que la relacion de ponderacion se determina (1033) en base a un porcentaje de una diferencia entre el valor de la medicion de distancia y el modelo proporcionado y/o en base a una incertidumbre en el modelo 3D proporcionado y/o en base a una incertidumbre en la medicion de distancia.
  4. 4. Procedimiento de acuerdo con una cualquiera de las reivindicaciones 2-3, en el que la etapa de desarrollo del modelo 3D comprende las etapas de:
    a) determinar (1015) distancias estereo de las imagenes superpuestas;
    b) proporcionar (1031) el modelo 3D en base a las distancias estereo de una seleccion de las imagenes superpuestas;
    c) determinar (1032) la diferencia entre el modelo 3D y la informacion de distancia;
    d) actualizar (1034) el modelo 3D en base a la diferencia entre el modelo 3D y la informacion de distancia y en base a la relacion de ponderacion determinada,
    e) evaluar (1035) el modelo actualizado frente al modelo proporcionado para determinar cual de los modelos es el mas preciso
    f) actualizar (1036) la seleccion de las imagenes superpuestas en base a la evaluacion,
    g) repetir (1037) la etapa b) a f).
  5. 5. Procedimiento de acuerdo con la reivindicacion 4, en el que la etapa e) de evaluar (1035) el modelo actualizado frente al modelo proporcionado comprende re-proyectar las imagenes estereo en base al modelo 3D actualizado.
  6. 6. Procedimiento de acuerdo con la reivindicacion 4 o 5, en el que la etapa f) de actualizar (1036) la seleccion de imagenes superpuestas comprende seleccionar solamente aquellas imagenes y/o sub-imagenes que muestran partes del entorno relevantes para el modelo mas preciso.
  7. 7. Procedimiento de acuerdo con una cualquiera de las reivindicaciones 4 a 6, en el que la etapa g) de repetir
    5
    10
    15
    20
    25
    30
    35
    40
    45
    (1037) la etapa dedesarrollo del modelo 3D comprende las etapas de:
    determinar una diferencia entre el modelo generado en base a distancias estereo y el modelo generado en base a distancias estereo en una etapa previa, en el que el desarrollo del modelo 3D es abortado si la diferencia esta por debajo de un nivel seleccionado.
  8. 8. Procedimiento de acuerdo con cualquiera de las reivindicaciones precedentes, en el que la etapa (1010; 1110) de proporcionar una pluralidad deimagenes superpuestasdel entorno comprende:
    capturar (1111) una pluralidad de imagenes superpuestas del entorno utilizando un dispositivo de formacion de imagenes;
    proporcionar (1112) datos de navegacion relacionados con las imagenes; y
    asociar (1113) la pluralidad de imagenes superpuestas con los respectivos datos de navegacion.
  9. 9. Procedimiento de acuerdo con la reivindicacion 8, en el que la etapa de proporcionar (1020; 1120) la informacion de distancia comprende:
    transmitir (1121) una pluralidad de pulsos desde un dispositivo de medicion de distancia para la reflexion en el entorno;
    recibir (1122) pulsos reflejados del entorno;
    proporcionar (1123) datos de navegacion relacionados con los pulsos transmitidos y/o recibidos;
    determinar (1124) informacion relacionada con una relacion entre el tiempo de transmision y el tiempo de recepcion de cada pulso recibido;
    asociar (1125) datos de posicionamiento a cada informacion relacionada con la relacion entre el tiempo de transmision y el tiempo de recepcion con los respectivos datos de navegacion;
  10. 10. Procedimiento de acuerdo con cualquiera de las reivindicaciones precedentes, en el que la informacion de distancia se proporciona por medio de LIDAR, en el que los pulsos son pulsos de laser y/o en el que la informacion de distancia se proporciona por medio de radar y/o en el que la informacion de distancia se proporciona por medio de sonar.
  11. 11. Procedimiento de acuerdo con cualquiera de las reivindicaciones precedentes, en el que los datos de navegacion comprenden informacion con respecto a la posicion, orientacion y opcionalmente hora.
  12. 12. Procedimiento de acuerdo con cualquiera de las reivindicaciones precedentes, en el que el modelo 3D esta representado como una malla.
  13. 13. Procedimiento de acuerdo con una cualquiera de las reivindicaciones 1-11, en el que el modelo 3D esta representado como una representacion de superficie.
  14. 14. Procedimiento de acuerdo con una cualquiera de las reivindicaciones 1-11, en el que el modelo 3D esta representado como una representacion de voxel.
  15. 15. Programa informatico que comprende un codigo de programa para desarrollar un modelo 3D de un entorno, que comprende la etapa de:
    proporcionar una pluralidad de imagenes superpuestas del entorno, cada imagen asociada a datos de navegacion, los datos de navegacion comprenden informacion de posicion y una direccion de orientacion de una camara que captura las imagenes en cada instante de captura;
    proporcionar informacion de distancia mediante un dispositivo de medicion de distancia, dicha informacion de distancia que comprende un valor de distancia y datos de navegacion de cada una de una pluralidad de las mediciones de distancia, los datos de navegacion que comprenden informacion de posicion y la direccion de pulsos transmitidos por dicho dispositivo de medicion de distancia para la reflexion en el entorno;
    desarrollo del modelo 3D en base a la pluralidad deimagenes superpuestas y la informacion de distancia;
    caracterizado porque
    la etapa de desarrollo del modelo 3D comprende las etapas de: proporcionar el modelo 3D en base a la pluralidad de imagenes superpuestas; y
    actualizar el modelo 3D con a informacion de distancia usando un proceso iterativo, dicho desarrollo del modelo
    5
    10
    15
    20
    25
    3D comprende comparar el modelo 3D con informacion del dispositivo de medicion de distancia, actualizar el modelo 3D en partes del modelo 3D
    en las que existe una discrepancia entre el modelo 3D y la informacion de las mediciones de distancia, en base a la informacion de distancia, y verificar que las partes del modelo 3D actualizadas en base a la informacion de distancia describan mejor la realidad que lo presentado en las imagenes que el modelo 3D correspondiente no actualizado con la informacion de distancia.
  16. 16. Disposicion (101, 501) para desarrollar un modelo 3D de un entorno, donde dicha disposicion comprende una memoria (513), estando la memoria dispuesta para almacenar una pluralidad de imagenes superpuestas del entorno, cada imagen asociada a los datos de navegacion, donde los datos de navegacion comprenden informacion de posicion y una direccion de orientacion de una camara que captura las imagenes en cada instante de captura y para almacenar informacion de distancia proporcionada mediante un dispositivo de medicion de distancia, donde dicha informacion de distancia comprende un valor de distancia y datos de navegacion de cada una de una pluralidad de mediciones de distancia, y donde los datos de navegacion comprenden informacion de posicion y la direccion de pulsos transmitidos por dicho dispositivo de medicion de distancia para la reflexion en el entorno;
    y una unidad de procesamiento (513) dispuesta para desarrollar el modelo 3D en base a la pluralidad de imagenes superpuestas y la informacion de distancia;
    caracterizado porque la unidad de procesamiento (513) esta dispuesta para determinar el modelo 3D en base a la pluralidad de imagenes superpuestas; y para actualizar el modelo 3D con la informacion de distancia utilizando un proceso iterativo, en el que la unidad de procesamiento esta dispuesta para comparar el modelo 3D con informacion del dispositivo de medicion de distancia, para actualizar el modelo 3D determinado en partes del modelo 3D determinado donde existe una discrepancia entre el modelo 3D determinado y la informacion de las mediciones de distancia, en base a la informacion de distancia, y para verificar que las partes del modelo 3D actualizadas en base a la informacion de distancia describan mejor la realidad segun lo presentado en las imagenes que el correspondiente modelo 3D determinado no actualizado con la informacion de distancia.
ES13871359.9T 2013-01-21 2013-01-21 Procedimiento y disposición para desarrollar un modelo tridimensional de un entorno Active ES2693785T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/SE2013/050044 WO2014112911A1 (en) 2013-01-21 2013-01-21 Method and arrangement for developing a three dimensional model of an environment

Publications (1)

Publication Number Publication Date
ES2693785T3 true ES2693785T3 (es) 2018-12-13

Family

ID=51209895

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13871359.9T Active ES2693785T3 (es) 2013-01-21 2013-01-21 Procedimiento y disposición para desarrollar un modelo tridimensional de un entorno

Country Status (4)

Country Link
US (2) US9891321B2 (es)
EP (1) EP2946365B1 (es)
ES (1) ES2693785T3 (es)
WO (1) WO2014112911A1 (es)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9547935B2 (en) * 2014-02-24 2017-01-17 Vricon Systems Ab Method and a system for building a three-dimensional model from satellite images
GB201412060D0 (en) 2014-07-07 2014-08-20 Vito Nv Method and system for photogrammetric processing of images
US9880263B2 (en) 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
CN106289157B (zh) * 2015-06-12 2019-10-29 联想(北京)有限公司 一种信息处理方法及电子设备
EP3859676B1 (en) 2015-06-30 2024-07-31 Meta Platforms, Inc. Method in constructing a model of a scenery and device therefor
US11846733B2 (en) * 2015-10-30 2023-12-19 Coda Octopus Group Inc. Method of stabilizing sonar images
EP3182157B1 (en) 2015-12-14 2020-04-15 Leica Geosystems AG Method for creating a spatial model with a hand-held distance measuring device
US20170261604A1 (en) * 2016-03-11 2017-09-14 Raytheon Bbn Technologies Corp. Intercept drone tasked to location of lidar tracked drone
US20170350968A1 (en) * 2016-06-06 2017-12-07 Goodrich Corporation Single pulse lidar correction to stereo imaging
US20180100927A1 (en) * 2016-10-12 2018-04-12 Faro Technologies, Inc. Two-dimensional mapping system and method of operation
SE541287C2 (en) 2017-02-27 2019-06-11 Katam Tech Ab Forest surveying apparatus and method using video sequences to generate 3D models
SE543568C2 (en) * 2017-02-27 2021-03-30 Katam Tech Ab Improved forest surveying apparatus and method using video sequences to generate 3D models and for height determination
JP6854195B2 (ja) * 2017-06-09 2021-04-07 株式会社トプコン 画像処理装置、画像処理方法および画像処理用プログラム
DE102017117049A1 (de) * 2017-07-27 2019-01-31 Testo SE & Co. KGaA Verfahren zur Erstellung eines 3D-Modells von einem Objekt
JP6939195B2 (ja) * 2017-07-27 2021-09-22 株式会社大林組 検査処理システム、検査処理方法及び検査処理プログラム
EP3875902B1 (en) * 2018-11-21 2024-02-21 Guangzhou Xaircraft Technology Co., Ltd Planning method and apparatus for surveying and mapping sampling points, control terminal and storage medium
GB2582554B (en) * 2019-03-21 2021-04-21 Rovco Ltd Subsea surveying system
EP3796252B1 (en) 2019-09-17 2021-09-22 Vricon Systems Aktiebolag Resolution enhancement of aerial images or satellite images
WO2021120175A1 (zh) 2019-12-20 2021-06-24 驭势科技(南京)有限公司 三维重建方法、装置、系统和存储介质
GB2595246A (en) * 2020-05-19 2021-11-24 Airbus Defence & Space Ltd Photogrammetry
EP4102467A1 (en) 2021-06-08 2022-12-14 Maxar International Sweden AB A method for 3d reconstruction from satellite imagery

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6757445B1 (en) * 2000-10-04 2004-06-29 Pixxures, Inc. Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models
US8994822B2 (en) * 2002-08-28 2015-03-31 Visual Intelligence Lp Infrastructure mapping system and method
US7424133B2 (en) * 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US7697748B2 (en) * 2004-07-06 2010-04-13 Dimsdale Engineering, Llc Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range
WO2009003529A1 (en) 2007-07-04 2009-01-08 Saab Ab Arrangement and method for providing a three dimensional map representation of an area
US8284190B2 (en) * 2008-06-25 2012-10-09 Microsoft Corporation Registration of street-level imagery to 3D building models
US9185361B2 (en) * 2008-07-29 2015-11-10 Gerald Curry Camera-based tracking and position determination for sporting events using event information and intelligence data extracted in real-time from position information
US8427505B2 (en) * 2008-11-11 2013-04-23 Harris Corporation Geospatial modeling system for images and related methods
US20100204974A1 (en) 2009-02-09 2010-08-12 Utah State University Lidar-Assisted Stero Imager
US20100204964A1 (en) * 2009-02-09 2010-08-12 Utah State University Lidar-assisted multi-image matching for 3-d model and sensor pose refinement
GB0908200D0 (en) 2009-05-13 2009-06-24 Red Cloud Media Ltd Method of simulation of a real physical environment
US9208612B2 (en) * 2010-02-12 2015-12-08 The University Of North Carolina At Chapel Hill Systems and methods that generate height map models for efficient three dimensional reconstruction from depth information
US8494687B2 (en) * 2010-03-12 2013-07-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method for enhancing a three dimensional image from a plurality of frames of flash LIDAR data
US8718393B2 (en) * 2010-07-28 2014-05-06 Shenzhen Institutes Of Advanced Technology Chinese Academy Of Sciences Method for reconstruction of urban scenes
US9229106B2 (en) 2010-08-13 2016-01-05 Ryan Dotson Enhancement of range measurement resolution using imagery
US8736818B2 (en) * 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR

Also Published As

Publication number Publication date
WO2014112911A1 (en) 2014-07-24
US20150362595A1 (en) 2015-12-17
EP2946365B1 (en) 2018-08-08
US9891321B2 (en) 2018-02-13
EP2946365A1 (en) 2015-11-25
US20180059247A1 (en) 2018-03-01
EP2946365A4 (en) 2016-09-21

Similar Documents

Publication Publication Date Title
ES2693785T3 (es) Procedimiento y disposición para desarrollar un modelo tridimensional de un entorno
CN106327573B (zh) 一种针对城市建筑的实景三维建模方法
AU2014247986B2 (en) Underwater platform with lidar and related methods
US20200041623A1 (en) METHOD AND APPARATUS FOR AUTOMATIC CALIBRATION OF MOBILE LiDAR SYSTEMS
Pfeifer et al. Laser scanning–principles and applications
ES2780575T3 (es) Un procedimiento y disposición para proporcionar un modelo 3d
DK2588882T3 (en) A method of producing a digital photo, wherein at least some of the pixels comprise position information and such a digital photo
US20090262974A1 (en) System and method for obtaining georeferenced mapping data
RU2591875C1 (ru) Способ построения карты экзогенных геологических процессов местности вдоль трассы магистрального нефтепровода
US10527423B1 (en) Fusion of vision and depth sensors for navigation in complex environments
CN105424006A (zh) 基于双目视觉的无人机悬停精度测量方法
US20090008554A1 (en) Method for infrared imaging of living or non-living objects including terrains that are either natural or manmade
JP5762131B2 (ja) キャリブレーション装置、キャリブレーション装置のキャリブレーション方法およびキャリブレーションプログラム
US11346666B2 (en) System and method for measuring a displacement of a mobile platform
JP5841346B2 (ja) 航空レーザ測量システム
JP2016080572A (ja) レーザ計測システム
Nagai et al. UAV borne mapping by multi sensor integration
US20220049956A1 (en) Method for water level measurement and method for obtaining 3d water surface spatial information using unmanned aerial vehicle and virtual water control points
CN108917753A (zh) 基于从运动恢复结构的飞行器位置确定方法
Mouget et al. Photogrammetric archaeological survey with UAV
JP2018119852A (ja) 位置特定装置、位置特定方法、位置特定システム、位置特定用プログラム、無人航空機および無人航空機識別用ターゲット
ES2757678T3 (es) Conformación de imágenes de fase temporal para un punto de vista artificial
Sardemann et al. Acquisition of geometrical data of small rivers with an unmanned water vehicle
JP7161298B2 (ja) ターゲット装置、測量システム
ES2806391T3 (es) Procedimiento para la determinación de los datos de posición de un objeto objetivo en un sistema de referencia y procedimiento para el guiado de una aeronave configurada preferentemente como misil