ES2798798T3 - Procedimiento y aparato para obtener imágenes de determinación de distancia con un UAV, y UAV - Google Patents
Procedimiento y aparato para obtener imágenes de determinación de distancia con un UAV, y UAV Download PDFInfo
- Publication number
- ES2798798T3 ES2798798T3 ES16848160T ES16848160T ES2798798T3 ES 2798798 T3 ES2798798 T3 ES 2798798T3 ES 16848160 T ES16848160 T ES 16848160T ES 16848160 T ES16848160 T ES 16848160T ES 2798798 T3 ES2798798 T3 ES 2798798T3
- Authority
- ES
- Spain
- Prior art keywords
- coordinate system
- uav
- image
- overlapping region
- pixel point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000005259 measurement Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 description 19
- 230000008859 change Effects 0.000 description 13
- 230000008901 benefit Effects 0.000 description 5
- 238000010521 absorption reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- DMBHHRLKUKUOEG-UHFFFAOYSA-N diphenylamine Chemical compound C=1C=CC=CC=1NC1=CC=CC=C1 DMBHHRLKUKUOEG-UHFFFAOYSA-N 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
- G08G5/0069—Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Un procedimiento para obtener una imagen de determinación de distancia con un vehículo aéreo no tripulado, UAV, que comprende: leer (S1) una secuencia de imágenes de una escena predeterminada captada por una cámara aerotransportada del UAV, donde la N-ésima imagen y la (N+1)-ésima imagen de la secuencia de imágenes tienen una región superpuesta, y una relación entre un área de la región superpuesta y un área de la N-ésima imagen o una relación entre el área de la región superpuesta y un área de la (N+1)-ésima imagen es mayor que una relación preestablecida; para cada punto de píxel en la región superpuesta, calcular (S2) una distancia de movimiento de cada punto de píxel en la región superpuesta en un sistema de coordenadas de cámara del UAV; y calcular (S2) una derivada de la distancia de movimiento de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV con respecto al tiempo para obtener una velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV; obtener (S3) una velocidad de vuelo real del UAV en un sistema de coordenadas mundial mediante un dispositivo de medición de velocidad; caracterizado por que el procedimiento comprende además: obtener un valor de profundidad del i-ésimo punto de píxel (Zi) de acuerdo con una relación entre la velocidad de vuelo real (vm) del UAV en el sistema de coordenadas mundial y la velocidad de movimiento de píxel (vi) de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV y la longitud focal (f) de la cámara aerotransportada, obtener una imagen de determinación de distancia de cada región superpuesta de acuerdo con el valor de profundidad del i-ésimo punto de píxel (Zi) y obtener una imagen de determinación de distancia de la escena preestablecida mediante la integración de la imagen de determinación de distancia de cada región superpuesta (S4).
Description
DESCRIPCIÓN
Procedimiento y aparato para obtener imágenes de determinación de distancia con un UAV, y UAV
Campo
La presente divulgación se refiere al campo técnico del procesamiento de imágenes y, más en particular, a un procedimiento y un aparato para obtener una imagen de determinación de distancia con un vehículo aéreo no tripulado (UAV) y a un vehículo aéreo no tripulado.
Antecedentes
En formas convencionales de generación de imágenes, un modelo de imagen tridimensional se convierte en una imagen bidimensional de escala de grises y la información de profundidad de la imagen se pierde durante el proceso de generación de imágenes. Sin embargo, la información de profundidad de la imagen es muy importante para aplicaciones posteriores (tal como una reconstrucción 3D, el trazado de mapas geográficos, etc.), por lo que es importante obtener una imagen de determinación de distancia (o un mapa de profundidad) tanto para la investigación teórica como para la práctica de ingeniería.
Existen dos formas de obtener una imagen de determinación de distancia en la técnica relacionada: procedimientos de adquisición activa y procedimientos de medición pasiva. En los procedimientos de adquisición activa, energía tal como un láser, ondas electromagnéticas, ondas ultrasónicas, etc. puede emitirse de manera activa, la cual es posteriormente reflejada por un obstáculo y, a continuación, se recibe dicha energía reflejada. Los procedimientos de medición pasiva se basan en la visión artificial, tal como la visión binocular.
Actualmente, los procedimientos para obtener una imagen de determinación de distancia con un UAV incluyen habitualmente emitir un haz de energía de manera activa, detectar la energía devuelta y calcular la imagen de determinación de distancia de acuerdo con la energía detectada. Sin embargo, estos procedimientos se ven afectados susceptiblemente por el entorno circundante; por ejemplo, la luz puede influir en el láser. Además, estos procedimientos requieren que el objeto a medir sea capaz de reflejar la energía. Cuando la mayor parte de la energía de emisión se absorbe, dará lugar a un fallo. Además, el alcance medible de estos procedimientos es limitado porque la energía emitida se atenuará en la atmósfera. Cuando una distancia es demasiado larga, la atenuación será tan acusada que la información de profundidad no se puede medir con precisión. Por otro lado, el procedimiento de visión binocular requiere dos cámaras y debe haber una cierta distancia entre las dos cámaras. Cuanto mayor sea la distancia a medir, mayor tendrá que ser la distancia entre las dos cámaras. En lo que respecta a un pequeño UAV, esto aumentará su carga, y la distancia máxima entre las dos cámaras es limitada, también debido al espacio limitado del pequeño UAV.
El documento de Madjidi H. et al: "Vision-based positioning and terrain mapping by global alignment for UAVs" (ADVANCED VIDEO AND SIGNAL BASED SURVELLANCE, 2003. Actas de la conferencia del IEEE celebrada el 21 y el 22 de julio de 2003, PISCATAWAY, NJ, EE.UU. IEEE, páginas 305-312) se refiere a la generación de mapas topográficos tridimensionales a partir de vídeo estereoscópico o monocular, sobre áreas de cobertura a escala de kilómetros, captado por plataformas aerotransportadas de baja altitud.
Resumen
La presente solicitud se refiere a un procedimiento para obtener una imagen de determinación de distancia con un vehículo aéreo no tripulado, UAV, de acuerdo con la reivindicación independiente 1, y a un aparato para obtener una imagen de determinación de distancia con un vehículo aéreo no tripulado, UAV, de acuerdo con la reivindicación independiente 6. Otros aspectos de la presente solicitud se definen por las reivindicaciones dependientes.
Aspectos y ventajas adicionales de formas de realización de la presente divulgación se expondrán, en parte, en la siguiente descripción, resultarán evidentes, en parte, a partir de la siguiente descripción o se obtendrán llevando a la práctica las formas de realización de la presente divulgación.
Breve descripción de los dibujos
Los aspectos y ventajas anteriores y/u otros de la presente divulgación se harán evidentes y se apreciarán más fácilmente a partir de la siguiente descripción de las formas de realización con referencia a los dibujos, en los que,
la Fig. 1 es un diagrama de flujo que ilustra un procedimiento para obtener una imagen de determinación de distancia con un UAV de acuerdo con una forma de realización de la presente divulgación,
la Fig. 2 es un diagrama esquemático que ilustra un modelo para obtener una imagen de determinación de distancia con un UAV de acuerdo con una forma de realización de la presente divulgación, y
la Fig. 3 es un diagrama de bloques que ilustra un aparato para obtener una imagen de determinación de distancia con un UAV de acuerdo con una forma de realización de la presente divulgación.
Descripción detallada
A continuación se hará referencia en detalle a formas de realización a modo de ejemplo, cuyos ejemplos se ilustran en los dibujos adjuntos, donde elementos idénticos o similares y elementos que tienen funciones idénticas o similares se denotan mediante números de referencia similares a lo largo de la descripción. Las formas de realización descritas en el presente documento con referencia a los dibujos son explicativas, sirven para explicar la presente divulgación y no debe interpretarse que limitan las formas de realización de la presente divulgación.
Un procedimiento para obtener una imagen de determinación de distancia con un vehículo aéreo no tripulado (UAV) y un UAV de acuerdo con formas de realización de la presente divulgación se describirán con referencia a los dibujos adjuntos como siguiente.
La Fig. 1 es un diagrama de flujo que ilustra un procedimiento para obtener una imagen de determinación de distancia con un UAV de acuerdo con una forma de realización de la presente divulgación. Como se ilustra en la Fig. 1, el procedimiento puede incluir lo siguiente.
En el bloque S1 se lee una secuencia de imágenes de una escena predeterminada captada por una cámara aerotransportada del UAV, donde la N-ésima imagen y la (N+1)-ésima imagen de la secuencia de imágenes tienen una región superpuesta, y una relación entre un área de la región superpuesta y un área de la N-ésima imagen o una relación entre el área de la región superpuesta y un área de la (N+1)-ésima imagen es mayor que una relación preestablecida. En otras palabras, se lee la secuencia de imágenes de un objeto a medir capturada o tomada por la cámara aerotransportada del UAV y se extraen dos imágenes contiguas de la misma, por ejemplo, la N-ésima imagen y la (N+1)-ésima imagen. Además, la N-ésima imagen y la (N+1)-ésima imagen deben tener la región superpuesta. Para garantizar la precisión de un cálculo de flujo óptico subsiguiente, la relación entre el área de la región superpuesta y el área de la N-ésima imagen o la (N+1)-ésima imagen debe ser mayor que la relación preestablecida. Más en particular, en un ejemplo de la presente divulgación, por ejemplo, la relación preestablecida es del 60%, es decir, el área de la región superpuesta representa más del 60% del área de la N-ésima imagen o la (N+1)-ésima imagen.
Además, en un ejemplo de la presente divulgación, para garantizar las cualidades de las imágenes tomadas por la cámara aerotransportada y para reducir la perturbación en el siguiente cálculo de flujo óptico que puede ser causada por vibraciones del armazón del UAV, la cámara aerotransportada puede instalarse en el UAV a través de una plataforma autoestabilizante, por ejemplo, como se ilustra en la Fig. 2. Por otro lado, para reducir la influencia de la distorsión de la propia imagen tomada por la cámara, el ángulo visual de la cámara aerotransportada no puede ser demasiado grande. En un ejemplo de la presente divulgación, el ángulo visual de la cámara aerotransportada se selecciona para que sea menor que un ángulo preestablecido. Más en particular, por ejemplo, el ángulo preestablecido puede ser de 60 grados, como se ilustra en la Fig. 2. Obviamente, el ángulo preestablecido no se limita al ángulo anterior y se puede seleccionar de acuerdo con los requisitos de una escena concreta (por ejemplo, el ángulo preestablecido puede ser inferior a 60 grados), y este ejemplo se ilustra simplemente como un ejemplo.
Además, en algunos ejemplos, como se mencionó anteriormente, cuando la distorsión de la imagen tomada por la cámara aerotransportada es acusada, la distorsión de las imágenes en la secuencia de imágenes debe ajustarse para hacer que la distorsión esté en un intervalo tolerable para las operaciones siguientes.
En el bloque S2, para cada punto de píxel en la región superpuesta, se obtiene información de cambio de posición del punto de píxel en la (N+1 )-ésima imagen con respecto a la N-ésima imagen, y se obtiene una velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en un sistema de coordenadas de cámara del UAV de acuerdo con la información de cambio de posición.
En algunos ejemplos, por ejemplo, el cambio de la información de posición (es decir, la información de cambio de posición) de cada punto de píxel en la región superpuesta en la (N+1 )-ésima imagen con respecto a la N-ésima imagen, se puede obtener mediante un procedimiento de flujo óptico basado en la coincidencia de características, y la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV se puede obtener de acuerdo con el cambio de la información de posición.
En un ejemplo de la presente divulgación, el bloque S2 puede incluir adicionalmente lo siguiente.
Se calcula una distancia de movimiento de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV. En detalle, en algunos ejemplos, la distancia de movimiento de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV se puede calcular mediante el procedimiento de flujo óptico basado en la coincidencia de características.
En un ejemplo de la presente divulgación, calcular la distancia de movimiento de cada punto de píxel en la reglón superpuesta en el sistema de coordenadas de cámara del UAV puede incluir: calcular información de movimiento de un mismo punto de píxel en función de la información de posición del mismo punto de píxel en la N-ésima imagen y la (N+1)-ésima imagen y obtener una distancia de movimiento del mismo punto de píxel en el sistema de coordenadas de cámara de acuerdo con la información de movimiento. Como un ejemplo particular, la distancia de movimiento de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV se puede calcular mediante la siguiente ecuación
donde, (x-i, 71) representa la información de posición del punto de píxel en la N-ésima imagen, (x2, y¡) representa la información de posición del punto de píxel en la (N+1)-ésima imagen, y (ux, uy) representa la distancia de movimiento del punto de píxel en el sistema de coordenadas de cámara.
El bloque S2 puede incluir además lo siguiente. Se calcula una derivada de la distancia de movimiento de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV con respecto al tiempo para obtener la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV.
En otras palabras, en un ejemplo particular, con el procedimiento de flujo óptico basado en la coincidencia de características, se determina una correspondencia de una posición en la (N+1)-ésima imagen para cada punto de píxel en la N-ésima imagen, después se puede calcular la distancia de movimiento de cada punto de píxel en la N-ésima imagen hasta la (N+1)-ésima imagen, y la velocidad de movimiento de píxel de cada punto de píxel en el sistema de coordenadas de cámara del UAV se puede obtener en función de la distancia de movimiento. En detalle, el procedimiento de flujo óptico basado en la coincidencia de características puede incluir un algoritmo denso y un algoritmo disperso. Con el algoritmo denso, todos los puntos de píxel en una imagen participan en el cálculo para obtener la velocidad de movimiento de píxel de cada punto de píxel en la imagen. Por otro lado, con el algoritmo disperso se pueden seleccionar partes de puntos de píxel en la imagen que son fáciles de rastrear, y el cálculo de flujo óptico se realiza con respecto a los puntos de píxel seleccionados para obtener velocidades de movimiento de píxel de estos puntos de píxel fáciles de rastrear. En un ejemplo de la presente divulgación, el procedimiento de flujo óptico práctico basado en la coincidencia de características es, por ejemplo, un algoritmo denso. Cabe destacar que calcular las velocidades de movimiento de píxel de los puntos de píxel en el sistema de coordenadas de cámara mediante el procedimiento de flujo óptico basado en la coincidencia de características es solo un ejemplo de la presente divulgación, lo que no debe interpretarse que limita la presente divulgación. Otros procedimientos para calcular las velocidades de movimiento de píxel de los puntos de píxel en el sistema de coordenadas de cámara también se pueden aplicar en la presente divulgación, los cuales están dentro del alcance de la presente divulgación.
En el bloque S3 se obtiene la velocidad de vuelo real del UAV en un sistema de coordenadas mundial.
En la práctica, la velocidad de vuelo real del UAV en el sistema de coordenadas mundial puede medirse mediante un dispositivo de medición de velocidad tal como la medición de velocidad de posicionamiento GNSS (sistema global de navegación por satélite) (por ejemplo, GPS (sistema de posición global), satélite de navegación Beidou (Osa Mayor), etc.), un medidor de velocidad aerodinámica o un radar. Después se obtiene la velocidad de vuelo medida del UAV en el sistema de coordenadas mundial.
En el bloque S4 se obtiene una imagen de determinación de distancia de cada región superpuesta de acuerdo con la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV, la velocidad de vuelo real del UAV en el sistema de coordenadas mundial y parámetros de la cámara aerotransportada. Después, la imagen de determinación de distancia de cada región superpuesta puede integrarse para obtener una imagen de determinación de distancia de la escena preestablecida. En un ejemplo de la presente divulgación, los parámetros de la cámara aerotransportada pueden incluir una longitud focal de la cámara aerotransportada.
En detalle, dado que la cámara aerotransportada está instalada en la plataforma autoestabilizante, se puede asumir que cuando se toma la imagen, la velocidad angular de la cámara aerotransportada es siempre cero. En una circunstancia en la que la velocidad angular de la cámara aerotransportada es siempre cero o cercana a cero cuando se toma cada imagen, el bloque S4 puede incluir además lo siguiente.
Se establecen relaciones entre la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV, la velocidad de vuelo real del UAV en el sistema de coordenadas mundial y la altura de vuelo del UAV. En detalle, por ejemplo, las relaciones entre la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV, la velocidad de vuelo real del UAV en el sistema de coordenadas mundial y la altura de vuelo del UAV se pueden establecer en función
del principio de formación de imágenes estenopeicas, y las relaciones se pueden expresar mediante la siguiente ecuación
Z
v = v
—
/ 5
donde vm es la velocidad de vuelo real del UAV en el sistema de coordenadas mundial, ves la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV, Z es la altura de vuelo del UAV y f es la longitud focal de la cámara aerotransportada.
El bloque S4 puede incluir además lo siguiente. La ecuación que expresa las relaciones mencionadas en el bloque SD41 se transforma para obtener un valor de profundidad de cada punto de píxel en la región superpuesta mediante la siguiente ecuación
donde Zi es el valor de profundidad del i-ésimo punto de píxel en la región superpuesta, v es la velocidad de movimiento de píxel del i-ésimo punto de píxel en el sistema de coordenadas de cámara, vm es la velocidad de vuelo real del UAV en el sistema de coordenadas mundial y f es la longitud focal de la cámara aerotransportada, que es una constante conocida.
El bloque S4 puede incluir además lo siguiente. La imagen de determinación de distancia de cada región superpuesta se obtiene de acuerdo con el valor de profundidad de cada punto de píxel en cada región superpuesta obtenida en el bloque S42, y la imagen de determinación de distancia de cada región superpuesta puede integrarse para obtener la imagen de determinación de distancia de la escena preestablecida (el objeto a medir).
En un ejemplo de la presente divulgación, el proceso anterior puede incluir además determinar si una orientación del sistema de coordenadas de cámara sigue una orientación del sistema de coordenadas mundial, y cuando la orientación del sistema de coordenadas de cámara no sigue la orientación del sistema de coordenadas mundial, ajustar la orientación del sistema de coordenadas de cámara para hacer que la orientación del sistema de coordenadas de cámara siga la orientación del sistema de coordenadas mundial.
En resumen, la presente divulgación calcula datos de profundidad de imagen mediante la combinación de la velocidad de movimiento de píxel de cada punto de píxel en el sistema de coordenadas de cámara del UAV y la velocidad de vuelo real del propio UAV y obtiene la imagen de determinación de distancia en consecuencia. Por lo tanto, cualquier procedimiento para usar una velocidad de imagen (la velocidad de movimiento de píxel de cada punto de píxel en el sistema de coordenadas de cámara del UAV) y la velocidad de vuelo real del propio UAV para obtener la imagen de determinación de distancia estará dentro del alcance de la presente divulgación.
Con el procedimiento para obtener una imagen de determinación de distancia con un UAV de acuerdo con formas de realización de la presente divulgación, la secuencia de imágenes es tomada por la cámara aerotransportada del UAV. Para la región superpuesta de dos imágenes contiguas, la velocidad de movimiento de píxel de cada punto de píxel en el sistema de coordenadas de cámara del UAV se obtiene en función de la información de cambio de posición de cada punto de píxel. La velocidad de vuelo real del UAV en el sistema de coordenadas mundial se mide mediante dispositivos tales como un GPS aerotransportado. Después se puede calcular la imagen de determinación de distancia de acuerdo con las relaciones entre las velocidades de movimiento de píxel de puntos de píxel en el sistema de coordenadas de cámara del UAV, la velocidad de vuelo real del UAV en el sistema de coordenadas mundial y la altura de vuelo del UAV. Con el procedimiento puede obtenerse con precisión la imagen de determinación de distancia, y el proceso es simple y fácil de realizar. Además, no hay requisitos de reflexión energética para el objeto a medir, de modo que la distancia medible es suficientemente larga y no hay ningún problema de atenuación de energía, por lo que tiene un amplio alcance de aplicación. Además, el procedimiento puede realizarse en el UAV de la técnica relacionada sin dispositivos adicionales y, por lo tanto, puede beneficiarse de una reducción en la carga del UAV y de un menor coste de medición. Además, también se puede evitar el fallo en la medición activa causado por la atenuación o absorción de energía en la superficie del objeto.
Las formas de realización de la presente divulgación también proporcionan un aparato para obtener una imagen de determinación de distancia con un UAV.
La Fig. 3 es un diagrama de bloques que ilustra un aparato para obtener una imagen de determinación de distancia con un UAV de acuerdo con una forma de realización de la presente divulgación. Como se ilustra en la Fig. 3, el aparato 100 para obtener una imagen de determinación de distancia con un UAV incluye un módulo de lectura 110, un módulo de cálculo 120, un módulo de medición 130 y un módulo de generación de imágenes 140.
En detalle, el módulo de lectura 110 está configurado para leer una secuencia de imágenes de una escena predeterminada captada por una cámara aerotransportada del UAV, donde la N-ésima imagen y la (N+1)-ésima imagen de la secuencia de imágenes tienen una región superpuesta, y una relación entre un área de la región superpuesta y un área de la N-ésima imagen o una relación entre el área de la región superpuesta y un área de la (N+1)-ésima imagen es mayor que una relación preestablecida. En otras palabras, la secuencia de imágenes de un objeto a medir es tomada por la cámara aerotransportada y se extraen dos imágenes contiguas de la misma, por ejemplo, la N-ésima imagen y la (N+1)-ésima imagen. Además, la N-ésima imagen y la (N+1)-ésima imagen deben tener la región superpuesta. Para garantizar la precisión de un cálculo de flujo óptico subsiguiente, la relación entre el área de la región superpuesta y el área de la N-ésima imagen o la (N+1 )-ésima imagen debe ser mayor que la relación preestablecida. Más en particular, en un ejemplo de la presente divulgación, por ejemplo, la relación preestablecida es del 60%, es decir, el área de la región superpuesta representa más del 60% del área de la N-ésima imagen o la (N+1)-ésima imagen.
Además, en un ejemplo de la presente divulgación, para garantizar las cualidades de las imágenes tomadas por la cámara aerotransportada y para reducir la perturbación en el siguiente cálculo de flujo óptico que puede ser causada por vibraciones del armazón del UAV, la cámara aerotransportada puede instalarse en el UAV a través de una plataforma autoestabilizante, por ejemplo. Por otro lado, para reducir la influencia de la distorsión de la propia imagen tomada por la cámara aerotransportada, el ángulo visual de la cámara aerotransportada no puede ser demasiado grande. En un ejemplo de la presente divulgación, el ángulo visual de la cámara aerotransportada se selecciona para que sea menor que un ángulo preestablecido. Más en particular, por ejemplo, el ángulo preestablecido puede ser de 60 grados. Obviamente, el ángulo preestablecido no se limita al ángulo anterior y se puede seleccionar de acuerdo con los requisitos de una escena concreta (por ejemplo, el ángulo preestablecido puede ser inferior a 60 grados), y este ejemplo se ilustra simplemente como un ejemplo.
En un ejemplo de la presente divulgación, cuando la distorsión de la imagen tomada por la cámara aerotransportada es acusada, el módulo de lectura 100 está configurado además para ajustar la distorsión en la secuencia de imágenes para hacer que la distorsión esté en un intervalo tolerable para las operaciones siguientes.
El módulo de cálculo 120 está configurado para obtener, para cada punto de píxel en la región superpuesta, información de cambio de posición del punto de píxel en la (N+1)-ésima imagen con respecto a la N-ésima imagen, y para obtener una velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en un sistema de coordenadas de cámara del UAV de acuerdo con la información de cambio de posición. En detalle, por ejemplo, el módulo de cálculo 120 está configurado para obtener el cambio de la información de posición (es decir, la información de cambio de posición) de cada punto de píxel en la región superpuesta en la (N+1)-ésima imagen con respecto a la N-ésima imagen mediante un procedimiento de flujo óptico basado en la coincidencia de características, y para obtener la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV de acuerdo con el cambio de la información de posición.
En un ejemplo de la presente divulgación, el módulo de cálculo 120 está configurado para calcular la distancia de movimiento de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV mediante el flujo óptico en función de la coincidencia de características. Esta acción puede incluir además calcular información de movimiento de un mismo punto de píxel en función de la información de posición del mismo punto de píxel en la N-ésima imagen y la (N+1)-ésima imagen y obtener una distancia de movimiento del mismo punto de píxel en el sistema de coordenadas de cámara de acuerdo con la información de movimiento; calcular una derivada de la distancia de movimiento de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV con respecto al tiempo para obtener la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV.
Como un ejemplo particular, la distancia de movimiento de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV se puede calcular mediante la siguiente ecuación
donde (x1, y1) representa la información de posición del punto de píxel en la N-ésima imagen, (x2, y2) representa la información de posición del punto de píxel en la (N+1)-ésima imagen, y (ux, uy) representa la distancia de movimiento del punto de píxel en el sistema de coordenadas de cámara. Con el procedimiento de flujo óptico basado en la coincidencia de características, se determina una correspondencia de una posición en la N-ésima imagen para cada punto de píxel en la N-ésima imagen, después se puede calcular la distancia de movimiento de cada punto de píxel en la N-ésima imagen hasta la (N+1)-ésima imagen, y la velocidad de movimiento de píxel de cada punto de píxel en el sistema de coordenadas de cámara del UAV se puede obtener en función de la distancia de movimiento. En detalle, el procedimiento de flujo óptico basado en la coincidencia de características puede incluir un algoritmo denso y un algoritmo disperso. Con el algoritmo denso, todos los puntos de píxel en una imagen participan en el cálculo para obtener la velocidad de movimiento de píxel de cada punto de píxel en la imagen. Por otro lado, con el algoritmo disperso se pueden seleccionar partes de puntos de píxel en la imagen que son fáciles de rastrear, y el cálculo de flujo
óptico se realiza con respecto a los puntos de píxel seleccionados para obtener velocidades de movimiento de píxel de estos puntos de píxel fáciles de rastrear. En un ejemplo de la presente divulgación, el procedimiento de flujo óptico práctico basado en la coincidencia de características puede ser un algoritmo denso. Cabe destacar que calcular las velocidades de movimiento de píxel de los puntos de píxel en el sistema de coordenadas de cámara mediante el procedimiento de flujo óptico basado en la coincidencia de características es solo un ejemplo de la presente divulgación, lo que no debe interpretarse que limita la presente divulgación. Otros procedimientos para calcular las velocidades de movimiento de píxel de los puntos de píxel en el sistema de coordenadas de cámara también se pueden aplicar en la presente divulgación, los cuales están dentro del alcance de la presente divulgación.
El módulo de medición 130 está configurado para obtener la velocidad de vuelo real del UAV en un sistema de coordenadas mundial. En la práctica, la velocidad de vuelo real del UAV en el sistema de coordenadas mundial puede obtenerse mediante GPS, un satélite de navegación Beidou (Osa Mayor), un medidor de velocidad aerodinámica o un radar.
El módulo de generación de imágenes 140 está configurado para obtener una imagen de determinación de distancia de cada región superpuesta de acuerdo con la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV, la velocidad de vuelo real del UAV en el sistema de coordenadas mundial y parámetros de la cámara aerotransportada, y para obtener una imagen de determinación de distancia de la escena preestablecida mediante la integración de la imagen de determinación de distancia de cada región superpuesta. En un ejemplo de la presente divulgación, los parámetros de la cámara aerotransportada pueden incluir una longitud focal de la cámara aerotransportada.
En detalle, dado que la cámara aerotransportada está instalada en la plataforma autoestabilizante, se puede asumir que cuando se toma la imagen, la velocidad angular de la cámara aerotransportada es siempre cero. En un ejemplo de la presente divulgación, el módulo de generación de imágenes 140 está configurado para establecer relaciones entre la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV, la velocidad de vuelo real del UAV en el sistema de coordenadas mundial y la altura de vuelo del UAV. En detalle, el módulo de generación de imágenes 140 puede configurarse para establecer las relaciones entre la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV, la velocidad de vuelo real del UAV en el sistema de coordenadas mundial y la altura de vuelo del UAV en función del principio de generación de imágenes estenopeicas. Las relaciones pueden expresarse mediante la siguiente ecuación:
donde vm es la velocidad de vuelo real del UAV en el sistema de coordenadas mundial, v es la velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV, Z es la altura de vuelo del UAV y f es la longitud focal de la cámara aerotransportada.
Después se obtiene un valor de profundidad de cada punto de píxel en la región superpuesta en función de las relaciones anteriores de la siguiente manera:
donde Z¡ es el valor de profundidad del i-ésimo punto de píxel en la región superpuesta, vi es la velocidad de movimiento de píxel del i-ésimo punto de píxel en el sistema de coordenadas de cámara, vm es la velocidad de vuelo real del UAV en el sistema de coordenadas mundial y f es la longitud focal de la cámara aerotransportada, que es una constante conocida.
Por último, la imagen de determinación de distancia de cada región superpuesta se obtiene de acuerdo con el valor de profundidad de cada punto de píxel en cada región superpuesta, y la imagen de determinación de distancia de cada región superpuesta puede integrarse para obtener la imagen de determinación de distancia de la escena preestablecida (el objeto a medir).
En un ejemplo de la presente divulgación, el aparato 100 para obtener una imagen de determinación de distancia con un UAV incluye además, por ejemplo, un módulo de ajuste (no ilustrado en las figuras). El módulo de ajuste está configurado para determinar si una orientación del sistema de coordenadas de cámara sigue una orientación del sistema de coordenadas mundial, y para ajustar la orientación del sistema de coordenadas de cámara para hacer que la orientación del sistema de coordenadas de cámara siga la orientación del sistema de coordenadas mundial cuando la orientación del sistema de coordenadas de cámara no sigue la orientación del sistema de coordenadas mundial.
En resumen, la presente divulgación calcula datos de profundidad de imagen mediante la combinación de la velocidad de movimiento de píxel de cada punto de píxel en el sistema de coordenadas de cámara del UAV y la velocidad de vuelo real del propio UAV y obtiene la imagen de determinación de distancia en consecuencia. Por lo tanto, cualquier procedimiento para usar una velocidad de imagen (la velocidad de movimiento de píxel de cada punto de píxel en el sistema de coordenadas de cámara del UAV) y la velocidad de vuelo real del propio UAV para obtener la imagen de determinación de distancia estará dentro del alcance de la presente divulgación.
Con el aparato para obtener una imagen de determinación de distancia con un UAV de acuerdo con formas de realización de la presente divulgación, la secuencia de imágenes capturada por la cámara aerotransportada del UAV es leída por el módulo de lectura. Para la región superpuesta de dos imágenes contiguas, la velocidad de movimiento de píxel de cada punto de píxel en el sistema de coordenadas de cámara del UAV se obtiene en función de la información de cambio de posición de cada punto de píxel mediante el módulo de cálculo. La velocidad de vuelo real del UAV en el sistema de coordenadas mundial se mide mediante el módulo de medición, por ejemplo dispositivos tales como un GPS aerotransportado. Después se puede calcular la imagen de determinación de distancia de acuerdo con las relaciones entre las velocidades de movimiento de píxel de puntos de píxel en el sistema de coordenadas de cámara del UAV, la velocidad de vuelo real del UAV en el sistema de coordenadas mundial y la altura de vuelo del UAV mediante el módulo de generación de imágenes. Con el aparato puede obtenerse con precisión la imagen de determinación de distancia. Además, no hay requisitos de reflexión energética para el objeto a medir, de modo que la distancia medible es suficientemente larga y no hay ningún problema de atenuación de energía, por lo que tiene un amplio alcance de aplicación. Además, el aparato puede realizarse en el UAV de la técnica relacionada sin dispositivos adicionales y, por lo tanto, puede beneficiarse de una reducción en la carga del UAV y de un menor coste de medición. Además, también se puede evitar el fallo en la medición activa causado por la atenuación o absorción de energía en la superficie del objeto.
Las formas de realización de la presente divulgación también proporcionan un UAV. El UAV incluye una cámara aerotransportada, un dispositivo de medición de velocidad, un procesador y un armazón. La cámara aerotransportada y el dispositivo de medición de velocidad están acoplados al procesador, respectivamente. El armazón está configurado para que la cámara aerotransportada, el dispositivo de medición de velocidad y el procesador se instalen en el mismo. La cámara aerotransportada está configurada para captar una secuencia de imágenes de una escena preestablecida. El dispositivo de medición de velocidad está configurado para medir o calcular una velocidad de vuelo real del UAV en el sistema de coordenadas mundial. En la práctica, el dispositivo de medición de velocidad puede incluir una medición de velocidad de posicionamiento GNSS (sistema global de navegación por satélite) (por ejemplo, GPS (sistema de posición global), satélite de navegación Beidou (Osa Mayor), etc.), un medidor de velocidad aerodinámica o un radar.
El procesador está configurado para llevar a cabo el procedimiento anterior para obtener una imagen de determinación de distancia con un UAV. En otras palabras, el procesador incluye el aparato para obtener una imagen de determinación de distancia con un UAV descrito en formas de realización anteriores de la presente divulgación.
En un ejemplo de la presente divulgación, el UAV incluye además una plataforma autoestabilizante y la cámara aerotransportada puede instalarse en el armazón a través de la plataforma autoestabilizante.
Con el UAV de acuerdo con formas de realización de la presente divulgación, la cámara aerotransportada, el dispositivo de medición de velocidad y el procesador se instalan en el armazón. La secuencia de imágenes es tomada por la cámara aerotransportada y leída por el procesador. Para la región superpuesta de dos imágenes contiguas, la velocidad de movimiento de píxel de cada punto de píxel en el sistema de coordenadas de cámara del UAV se obtiene en función de la información de cambio de posición de cada punto de píxel. La velocidad de vuelo real del UAV en el sistema de coordenadas mundial se mide mediante un dispositivo tal como un GPS aerotransportado. Después se puede calcular la imagen de determinación de distancia de acuerdo con las relaciones entre las velocidades de movimiento de píxel de puntos de píxel en el sistema de coordenadas de cámara del UAV, la velocidad de vuelo real del UAV en el sistema de coordenadas mundial y la altura de vuelo del UAV. Por lo tanto, puede obtenerse con precisión la imagen de determinación de distancia. Además, no hay requisitos de reflexión energética para el objeto a medir, de modo que la distancia medible es suficientemente larga y no hay ningún problema de atenuación de energía, por lo que tiene un amplio alcance de aplicación. Además, el procedimiento puede realizarse en el UAV de la técnica relacionada sin dispositivos adicionales y, por lo tanto, puede beneficiarse de una reducción en la carga del UAV y de un menor coste de medición. Además, también se puede evitar el fallo en la medición activa causado por la atenuación o absorción de energía en la superficie del objeto.
Los números de serie de las formas de realización en la presente divulgación solo tienen fines descriptivos y no implican que la forma de realización correspondiente sea preferible o ventajosa.
En formas de realización anteriores de la presente divulgación, se puede poner especial énfasis en diferentes partes y los detalles de las partes que no se describen en algunas formas de realización se pueden encontrar en otras formas de realización.
Debe entenderse que el contenido técnico divulgado en las formas de realización de la presente divulgación también puede lograrse de otras maneras. Las formas de realización de aparato descritas anteriormente solo tienen fines ilustrativos. Por ejemplo, la división de módulos puede ser lógica y funcional, y puede lograrse mediante diferentes maneras de división. Por ejemplo, una pluralidad de módulos de ensamblaje pueden combinarse o integrarse en otro sistema, o algunas características pueden omitirse o no ejecutarse. Además, los términos "acoplado", "acoplado directamente" o "conexión de comunicación" ilustrados o analizados pueden hacer referencia también a un acoplamiento indirecto o conexión de comunicación a través de algunas interfaces, unidades o módulos, y pueden realizarse eléctricamente o de otras maneras.
Las unidades descritas como componentes o módulos individuales pueden estar, o no, físicamente separadas; las unidades descritas como un componente de visualización pueden ser, o no, una unidad física, es decir, estar ubicadas en un lugar o estar distribuidas en una pluralidad de unidades de red. El objetivo de la presente divulgación puede lograrse mediante una parte o la totalidad de los módulos, de acuerdo con los requisitos prácticos.
Además, unidades funcionales individuales en las formas de realización de la presente divulgación pueden integrarse en un módulo de procesamiento o pueden estar físicamente presentes por separado, o dos o más unidades pueden integrarse en un módulo. El módulo integrado descrito anteriormente puede realizarse en forma de hardware o puede realizarse en forma de un módulo funcional de software.
Cuando el módulo integrado se realiza en forma de un módulo funcional de software y se vende o utiliza como un producto individual, el módulo integrado también puede almacenarse en un medio de almacenamiento legible por ordenador. Teniendo esto en cuenta, la naturaleza de las soluciones técnicas de la presente divulgación o, en otras palabras, las partes que contribuyen a la técnica anterior o a la totalidad o parte de la solución, puede realizarse o implementarse en un producto de software. El producto de software puede almacenarse en un medio de almacenamiento legible por ordenador que incluye instrucciones para que un dispositivo informático (ordenador personal, servidor o dispositivo de red) realice todas o parte de las etapas en los procedimientos descritos en las formas de realización de la presente divulgación. El medio de almacenamiento legible por ordenador puede incluir un disco flash, una memoria de solo lectura (ROM), una memoria de acceso aleatorio (RAM), un disco duro móvil, un disco magnético, un disco óptico o cualquier medio que pueda almacenar códigos de programa.
Aunque se han mostrado y descrito formas de realización explicativas, los expertos en la técnica apreciarán que se pueden realizar cambios, alternativas y modificaciones en las formas de realización.
Claims (10)
1. Un procedimiento para obtener una imagen de determinación de distancia con un vehículo aéreo no tripulado, UAV, que comprende:
leer (S1) una secuencia de imágenes de una escena predeterminada captada por una cámara aerotransportada del UAV, donde la N-ésima imagen y la (N+1)-ésima imagen de la secuencia de imágenes tienen una región superpuesta, y una relación entre un área de la región superpuesta y un área de la N-ésima imagen o una relación entre el área de la región superpuesta y un área de la (N+1)-ésima imagen es mayor que una relación preestablecida;
para cada punto de píxel en la región superpuesta, calcular (S2) una distancia de movimiento de cada punto de píxel en la región superpuesta en un sistema de coordenadas de cámara del UAV; y calcular (S2) una derivada de la distancia de movimiento de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV con respecto al tiempo para obtener una velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV; obtener (S3) una velocidad de vuelo real del UAV en un sistema de coordenadas mundial mediante un dispositivo de medición de velocidad;
caracterizado por que el procedimiento comprende además:
obtener un valor de profundidad del i-ésimo punto de píxel (Zi) de acuerdo con una relación entre la velocidad de vuelo real (vm) del UAV en el sistema de coordenadas mundial y la velocidad de movimiento de píxel (vi) de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV y la longitud focal (f) de la cámara aerotransportada, obtener una imagen de determinación de distancia de cada región superpuesta de acuerdo con el valor de profundidad del i-ésimo punto de píxel (Zi) y obtener una imagen de determinación de distancia de la escena preestablecida mediante la integración de la imagen de determinación de distancia de cada región superpuesta (S4).
3. El procedimiento de acuerdo con la reivindicación 2, que comprende además:
determinar si una orientación del sistema de coordenadas de cámara sigue una orientación del sistema de coordenadas mundial;
cuando la orientación del sistema de coordenadas de cámara no sigue la orientación del sistema de coordenadas mundial, ajustar la orientación del sistema de coordenadas de cámara para hacer que la orientación del sistema de coordenadas de cámara siga la orientación del sistema de coordenadas mundial.
4. El procedimiento de acuerdo con una cualquiera de las reivindicaciones 1 -3, en el que un ángulo visual de la cámara aerotransportada es menor que un ángulo preestablecido, y el ángulo preestablecido es igual a o menor que 60 grados.
5. El procedimiento de acuerdo con una cualquiera de las reivindicaciones 1-4, que antes de calcular la distancia de movimiento de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV, comprende además: ajustar la distorsión de imágenes en la secuencia de imágenes.
6. Un aparato para obtener una imagen de determinación de distancia con un vehículo aéreo no tripulado, UAV, que comprende:
un módulo de lectura (110), configurado para leer una secuencia de imágenes de una escena predeterminada captada por una cámara aerotransportada del UAV, donde la N-ésima imagen y la (N+1)-ésima imagen de la secuencia de imágenes tienen una región superpuesta, y una relación entre un área de la región superpuesta y un área de la N-ésima imagen o una relación entre el área de la región superpuesta y un área de la (N+1)-ésima imagen es mayor que una relación preestablecida;
un módulo de cálculo (120), configurado para calcular, para cada punto de píxel en la región superpuesta, una distancia de movimiento de cada punto de píxel en la región superpuesta en un sistema de coordenadas de cámara del UAV; y calcular una derivada de la distancia de movimiento de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV con respecto al tiempo para obtener una velocidad de movimiento de píxel de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV;
un módulo de medición (130), configurado para obtener la velocidad de vuelo real del UAV en un sistema de coordenadas mundial mediante un dispositivo de medición de velocidad;
caracterizado por que el dispositivo comprende además:
un módulo de generación de imágenes (140), configurado para
obtener un valor de profundidad del i-ésimo punto de píxel (Zi) de acuerdo con una relación entre la velocidad de vuelo real (vm) del UAV en el sistema de coordenadas mundial y la velocidad de movimiento de píxel (vi) de cada punto de píxel en la región superpuesta en el sistema de coordenadas de cámara del UAV y la longitud focal (f) de la cámara aerotransportada, obtener una imagen de determinación de distancia de cada región superpuesta de acuerdo con el valor de profundidad del i-ésimo punto de píxel (Zi) y obtener una imagen de determinación de distancia de la escena preestablecida mediante la integración de la imagen de determinación de distancia de cada región superpuesta.
7. El aparato de acuerdo con la reivindicación 6, en el que,
el valor de profundidad del i-ésimo punto de píxel (Zi) se obtiene mediante la siguiente fórmula:
z t = lm>'
(O
< i < sumipixels)''}.
‘ * '[
8. El aparato de acuerdo con la reivindicación 7, que comprende además:
un módulo de ajuste, configurado para determinar si una orientación del sistema de coordenadas de cámara sigue una orientación del sistema de coordenadas mundial, y para ajustar la orientación del sistema de coordenadas de cámara para hacer que la orientación del sistema de coordenadas de cámara siga la orientación del sistema de coordenadas mundial cuando la orientación del sistema de coordenadas de cámara no sigue la orientación del sistema de coordenadas mundial.
9. El aparato de acuerdo con una cualquiera de las reivindicaciones 6-8, en el que un ángulo visual de la cámara aerotransportada es menor que un ángulo preestablecido y el ángulo preestablecido es igual a o menor que 60 grados.
10. El aparato de acuerdo con una cualquiera de las reivindicaciones 6-9, en el que la cámara aerotransportada está configurada además para ajustar la distorsión de imágenes en la secuencia de imágenes.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510628505.7A CN105225241B (zh) | 2015-09-25 | 2015-09-25 | 无人机深度图像的获取方法及无人机 |
PCT/CN2016/099925 WO2017050279A1 (zh) | 2015-09-25 | 2016-09-23 | 无人机深度图像的获取方法、装置及无人机 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2798798T3 true ES2798798T3 (es) | 2020-12-14 |
Family
ID=54994190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16848160T Active ES2798798T3 (es) | 2015-09-25 | 2016-09-23 | Procedimiento y aparato para obtener imágenes de determinación de distancia con un UAV, y UAV |
Country Status (8)
Country | Link |
---|---|
US (1) | US10198004B2 (es) |
EP (1) | EP3264364B1 (es) |
JP (1) | JP6484729B2 (es) |
KR (1) | KR101886013B1 (es) |
CN (1) | CN105225241B (es) |
AU (1) | AU2016327918B2 (es) |
ES (1) | ES2798798T3 (es) |
WO (1) | WO2017050279A1 (es) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105225241B (zh) | 2015-09-25 | 2017-09-15 | 广州极飞科技有限公司 | 无人机深度图像的获取方法及无人机 |
US11461912B2 (en) | 2016-01-05 | 2022-10-04 | California Institute Of Technology | Gaussian mixture models for temporal depth fusion |
US10665115B2 (en) * | 2016-01-05 | 2020-05-26 | California Institute Of Technology | Controlling unmanned aerial vehicles to avoid obstacle collision |
WO2017149962A1 (ja) * | 2016-03-02 | 2017-09-08 | ソニー株式会社 | 撮像制御装置、撮像制御方法、およびプログラム |
CN105809687B (zh) * | 2016-03-08 | 2019-09-27 | 清华大学 | 一种基于图像中边沿点信息的单目视觉测程方法 |
CN106771329B (zh) * | 2016-12-27 | 2020-06-05 | 歌尔科技有限公司 | 一种无人机减速过程中运行速度的检测方法 |
CN106708081B (zh) * | 2017-03-17 | 2019-06-04 | 北京思比科微电子技术股份有限公司 | 多旋翼无人飞行器控制系统 |
CN109923488A (zh) * | 2017-04-27 | 2019-06-21 | 深圳市大疆创新科技有限公司 | 使用可移动物体生成实时地图的系统和方法 |
CN109211185A (zh) * | 2017-06-30 | 2019-01-15 | 北京臻迪科技股份有限公司 | 一种飞行设备、获取位置信息的方法及装置 |
CN107329490B (zh) * | 2017-07-21 | 2020-10-09 | 歌尔科技有限公司 | 无人机避障方法及无人机 |
CN107610212B (zh) * | 2017-07-25 | 2020-05-12 | 深圳大学 | 场景重建方法、装置、计算机设备以及计算机存储介质 |
CN113329182A (zh) * | 2017-08-31 | 2021-08-31 | 深圳市大疆创新科技有限公司 | 一种图像处理方法、无人机及系统 |
WO2019070839A1 (en) | 2017-10-05 | 2019-04-11 | California Institute Of Technology | SIMULTANEOUS REPRESENTATION OF MOBILE AND STATIC OBSTACLES FOR AUTOMATICALLY CONTROLLED VEHICLES |
US11127202B2 (en) * | 2017-12-18 | 2021-09-21 | Parthiv Krishna | Search and rescue unmanned aerial system |
CN109961395B (zh) * | 2017-12-22 | 2022-10-11 | 展讯通信(上海)有限公司 | 深度图像的生成及显示方法、装置、系统、可读介质 |
WO2019119426A1 (zh) * | 2017-12-22 | 2019-06-27 | 深圳市大疆创新科技有限公司 | 基于无人机的立体成像方法和装置 |
WO2019126930A1 (zh) * | 2017-12-25 | 2019-07-04 | 深圳市道通智能航空技术有限公司 | 测距方法、装置以及无人机 |
WO2019144281A1 (zh) * | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 表面图形确定方法和装置 |
CN108335353B (zh) | 2018-02-23 | 2020-12-22 | 清华-伯克利深圳学院筹备办公室 | 动态场景的三维重建方法、装置和系统、服务器、介质 |
CN109661631A (zh) * | 2018-03-27 | 2019-04-19 | 深圳市大疆创新科技有限公司 | 无人机的控制方法、装置和无人机 |
CN108804161B (zh) * | 2018-06-21 | 2022-03-04 | 北京字节跳动网络技术有限公司 | 应用的初始化方法、装置、终端和存储介质 |
CN111344644B (zh) * | 2018-08-01 | 2024-02-20 | 深圳市大疆创新科技有限公司 | 用于基于运动的自动图像捕获的技术 |
CN109084733A (zh) * | 2018-09-12 | 2018-12-25 | 朱光兴 | 一种智能遥感测绘系统 |
JP6631900B1 (ja) * | 2018-09-25 | 2020-01-15 | 株式会社エアロネクスト | 飛行体 |
CN111192318B (zh) * | 2018-11-15 | 2023-09-01 | 杭州海康威视数字技术股份有限公司 | 确定无人机位置和飞行方向的方法、装置及无人机 |
EP3885702A4 (en) * | 2018-11-21 | 2021-12-01 | Guangzhou Xaircraft Technology Co., Ltd | SURVEYING AND MAPPING SYSTEM, METHOD, APPARATUS, DEVICE AND SUPPORT |
US11151737B1 (en) * | 2018-12-20 | 2021-10-19 | X Development Llc | Automatic field of view detection |
CN109978947B (zh) * | 2019-03-21 | 2021-08-17 | 广州极飞科技股份有限公司 | 一种监控无人机的方法、装置、设备和存储介质 |
CN110414392B (zh) * | 2019-07-15 | 2021-07-20 | 北京天时行智能科技有限公司 | 一种障碍物距离的确定方法及装置 |
CN110487184A (zh) * | 2019-09-17 | 2019-11-22 | 河北唐银钢铁有限公司 | 无人机测量料场物料的系统及方法 |
CN110880184B (zh) * | 2019-10-03 | 2023-07-21 | 上海淡竹体育科技有限公司 | 一种基于光流场进行摄像头自动巡检的方法及装置 |
CN111340840A (zh) * | 2020-02-28 | 2020-06-26 | 浙江大华技术股份有限公司 | 确定目标物体相对运动速度的方法、设备和装置 |
CN112198891B (zh) * | 2020-04-22 | 2021-12-07 | 北京理工大学 | 多旋翼机自主回收方法 |
CN111506112A (zh) * | 2020-05-09 | 2020-08-07 | 中海油能源发展装备技术有限公司 | 基于海上油气田设备设施的无人机倾斜摄影方法 |
CN112364796B (zh) * | 2020-11-18 | 2023-08-01 | 合肥湛达智能科技有限公司 | 一种基于深度学习的目标速度检测方法及系统 |
CN113177984B (zh) * | 2021-06-30 | 2021-09-17 | 湖北亿咖通科技有限公司 | 基于稀疏直接法的语义要素测距方法、装置和电子设备 |
CN113759944A (zh) * | 2021-08-19 | 2021-12-07 | 深圳市鑫疆基业科技有限责任公司 | 基于指定高度飞行的自动巡检方法、系统和设备 |
CN114782525B (zh) * | 2022-06-22 | 2022-09-20 | 中国地质大学(武汉) | 基于全局几何约束的无人机影像定位定向方法及设备 |
CN117724532B (zh) * | 2023-12-18 | 2024-06-21 | 青岛九天国际飞行学院股份有限公司 | 一种基于LTE Cat1技术的飞行数据无线传输系统 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2697917B2 (ja) | 1989-09-28 | 1998-01-19 | 日本電信電話株式会社 | 三次元座標計測装置 |
JPH0696208A (ja) * | 1991-04-26 | 1994-04-08 | Nippon Telegr & Teleph Corp <Ntt> | カメラ移動による奥行測定方法 |
JPH05141930A (ja) * | 1991-11-19 | 1993-06-08 | Nippon Telegr & Teleph Corp <Ntt> | 3次元形状計測装置 |
JP4970296B2 (ja) | 2008-01-21 | 2012-07-04 | 株式会社パスコ | オルソフォト画像の生成方法、および撮影装置 |
US20090201380A1 (en) * | 2008-02-12 | 2009-08-13 | Decisive Analytics Corporation | Method and apparatus for streamlined wireless data transfer |
CN202075794U (zh) * | 2011-05-24 | 2011-12-14 | 段连飞 | 一种无人机航摄立体成像处理设备 |
EP2538298A1 (en) * | 2011-06-22 | 2012-12-26 | Sensefly Sàrl | Method for acquiring images from arbitrary perspectives with UAVs equipped with fixed imagers |
CN102749071B (zh) * | 2012-04-24 | 2015-08-05 | 北京林业大学 | 一种基于无人机航空摄影监测土壤侵蚀的方法 |
US9798928B2 (en) * | 2013-07-17 | 2017-10-24 | James L Carr | System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability |
CN103426200B (zh) * | 2013-08-26 | 2017-05-03 | 天津大学 | 基于无人机航拍序列图像的树木三维重建方法 |
EP2849150A1 (en) * | 2013-09-17 | 2015-03-18 | Thomson Licensing | Method for capturing the 3D motion of an object, unmanned aerial vehicle and motion capture system |
CN105225241B (zh) * | 2015-09-25 | 2017-09-15 | 广州极飞科技有限公司 | 无人机深度图像的获取方法及无人机 |
-
2015
- 2015-09-25 CN CN201510628505.7A patent/CN105225241B/zh active Active
-
2016
- 2016-09-23 US US15/565,582 patent/US10198004B2/en not_active Expired - Fee Related
- 2016-09-23 ES ES16848160T patent/ES2798798T3/es active Active
- 2016-09-23 JP JP2017566134A patent/JP6484729B2/ja not_active Expired - Fee Related
- 2016-09-23 AU AU2016327918A patent/AU2016327918B2/en not_active Ceased
- 2016-09-23 WO PCT/CN2016/099925 patent/WO2017050279A1/zh active Application Filing
- 2016-09-23 KR KR1020177034364A patent/KR101886013B1/ko active IP Right Grant
- 2016-09-23 EP EP16848160.4A patent/EP3264364B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3264364A1 (en) | 2018-01-03 |
EP3264364A4 (en) | 2018-06-20 |
AU2016327918B2 (en) | 2019-01-17 |
CN105225241B (zh) | 2017-09-15 |
KR20170137934A (ko) | 2017-12-13 |
KR101886013B1 (ko) | 2018-08-06 |
US20180120847A1 (en) | 2018-05-03 |
WO2017050279A1 (zh) | 2017-03-30 |
JP6484729B2 (ja) | 2019-03-13 |
CN105225241A (zh) | 2016-01-06 |
AU2016327918A1 (en) | 2017-10-12 |
WO2017050279A9 (zh) | 2018-01-25 |
US10198004B2 (en) | 2019-02-05 |
EP3264364B1 (en) | 2020-04-22 |
JP2018527554A (ja) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2798798T3 (es) | Procedimiento y aparato para obtener imágenes de determinación de distancia con un UAV, y UAV | |
JP7398506B2 (ja) | ローカライゼーション基準データを生成及び使用する方法及びシステム | |
CN109375237B (zh) | 一种全固态面阵三维成像激光雷达系统 | |
Liu et al. | TOF lidar development in autonomous vehicle | |
US10969493B2 (en) | Data processing device, data processing method, and data processing program | |
ES2693785T3 (es) | Procedimiento y disposición para desarrollar un modelo tridimensional de un entorno | |
US20140293266A1 (en) | Local Alignment and Positioning Device and Method | |
CN110108984B (zh) | 电力巡线激光雷达系统多传感器的空间关系同步方法 | |
CN105783875B (zh) | 一种集成非扫描激光雷达的航空摄影测量系统及方法 | |
JP2016080572A (ja) | レーザ計測システム | |
JP6333396B2 (ja) | モバイルプラットフォームの変位を計測する方法及び装置 | |
KR101394881B1 (ko) | 하나 이상의 타겟들의 지리적 위치측정 방법 | |
US20180283851A1 (en) | Motion detection device and three-dimensional shape measurement device using same | |
US10109074B2 (en) | Method and system for inertial measurement having image processing unit for determining at least one parameter associated with at least one feature in consecutive images | |
US20180172833A1 (en) | Laser repeater | |
CN104251994B (zh) | 长基线激光测距实现无控制点卫星精确定位系统及方法 | |
ES2875368T3 (es) | Sistema de observación a bordo que comprende un lidar para obtener imágenes tridimensionales de alta resolución | |
JP6470658B2 (ja) | レーザ計測システムおよびレーザ計測方法 | |
CN103697825A (zh) | 一种超分辨3d激光测量系统及方法 | |
RU2583954C2 (ru) | Способ определения высоты облачности (варианты) | |
Drouin et al. | Active time-of-flight 3D imaging systems for medium-range applications | |
Monroy | Principles of Photogrammetry and LiDAR | |
RU2583877C2 (ru) | Способ определения высоты облачности | |
JP2024021131A (ja) | 姿勢角補正装置および姿勢角補正方法 | |
Jiang et al. | A Synthetic Error Analysis of Positioning Equation for Airborne Three-Dimensional Laser Imaging Sensor |