ES2968959T3 - Aeronave no tripulada de navegación que utiliza cabeceo - Google Patents
Aeronave no tripulada de navegación que utiliza cabeceo Download PDFInfo
- Publication number
- ES2968959T3 ES2968959T3 ES19849057T ES19849057T ES2968959T3 ES 2968959 T3 ES2968959 T3 ES 2968959T3 ES 19849057 T ES19849057 T ES 19849057T ES 19849057 T ES19849057 T ES 19849057T ES 2968959 T3 ES2968959 T3 ES 2968959T3
- Authority
- ES
- Spain
- Prior art keywords
- roof
- unmanned aircraft
- distance
- camera
- pitch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—Three-dimensional [3D] imaging with simultaneous measurement of time-of-flight at a two-dimensional [2D] array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/221—Remote-control arrangements
- G05D1/222—Remote-control arrangements operated by humans
- G05D1/224—Output arrangements on the remote controller, e.g. displays, haptics or speakers
- G05D1/2244—Optic
- G05D1/2245—Optic providing the operator with a purely computer-generated representation of the environment of the vehicle, e.g. virtual reality
- G05D1/2246—Optic providing the operator with a purely computer-generated representation of the environment of the vehicle, e.g. virtual reality displaying a map of the environment
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/229—Command input data, e.g. waypoints
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/242—Means based on the reflection of waves generated by the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/246—Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
- G05D1/2465—Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM] using a 3D model of the environment
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/40—Control within particular dimensions
- G05D1/46—Control of position or course in three dimensions [3D]
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/644—Optimisation of travel parameters, e.g. of energy consumption, journey time or distance
- G05D1/6445—Optimisation of travel parameters, e.g. of energy consumption, journey time or distance for optimising payload operation, e.g. camera or spray coverage
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/656—Interaction with payloads or external entities
- G05D1/689—Pointing payloads towards fixed or moving targets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2105/00—Specific applications of the controlled vehicles
- G05D2105/80—Specific applications of the controlled vehicles for information gathering, e.g. for academic research
- G05D2105/89—Specific applications of the controlled vehicles for information gathering, e.g. for academic research for inspecting structures, e.g. wind mills, bridges, buildings or vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2107/00—Specific environments of the controlled vehicles
- G05D2107/10—Outdoor regulated spaces
- G05D2107/17—Spaces with priority for humans, e.g. populated areas, pedestrian ways, parks or beaches
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2109/00—Types of controlled vehicles
- G05D2109/20—Aircraft, e.g. drones
- G05D2109/25—Rotorcrafts
- G05D2109/254—Flying platforms, e.g. multicopters
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2111/00—Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
- G05D2111/10—Optical signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Se divulgan métodos y sistemas para navegar aeronaves no tripuladas para capturar imágenes a una distancia constante desde una superficie de una estructura, tal como un techo, incluyendo un sistema que comprende un sistema informático que tiene uno o más procesadores y uno o más medios legibles por computadora no transitorios. , los procesadores ejecutan instrucciones para hacer que uno o más procesadores: generen información de aeronaves no tripuladas que incluye información de trayectoria de vuelo para capturar imágenes de una sección de techo que tiene un avión, la información de trayectoria de vuelo configurada para dirigir una aeronave no tripulada a realizar un vuelo trayectoria basada al menos en parte en una inclinación de la sección de techo e información de uno o más sensores indicativos de una ubicación de la sección de techo, la trayectoria de vuelo configurada para incluir puntos de referencia en los cuales la aeronave no tripulada captura imágenes a una distancia constante del avión de la sección del techo. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Aeronave no tripulada de navegación que utiliza cabeceo
Referencia cruzada a solicitudes relacionadas
La presente solicitud de patente reivindica prioridad de la solicitud de patente provisional número 62/770,570, presentada el 21 de noviembre de 2018, titulado “Aeronave no tripulada de navegación que utiliza cabeceo”Antecedentes
Los vehículos aéreos no tripulados (UAV), comúnmente conocidos como drones, son aeronaves sin piloto humano a bordo. El vuelo puede ser controlado por procesadores de ordenador a bordo y/o por control remoto de un piloto ubicado en tierra. Los documentos de la técnica anterior WO2018/204552A1, US2016A327950A1 y US2018/204469A1 se refieren a métodos de inspección de estructuras mediante UAV.
Dentro de la industria de seguros, el uso de UAV puede ayudar a obtener estimaciones de evaluación de estructuras o partes de estructuras, como tejados, a las que puede resultar difícil acceder. Por ejemplo, se puede colocar una cámara u otros sensores en el<u>A<v>para que se pueda ver el tejado de una estructura sin tener que subir físicamente al tejado.
El plan de vuelo del UAV puede basarse en la evaluación del área geográfica alrededor de la estructura y generalmente está individualizado para cada estructura. La distancia desde el UAV a la estructura en el plan de vuelo es importante para proporcionar una resolución de imagen consistente de las imágenes tomadas por las cámaras del UAV y/o para proporcionar una “distancia de muestra” conocida entre la estructura y los sensores del UAV. Las imágenes tomadas sin resoluciones y/o distancias consistentes pueden requerir procesamiento adicional para determinar qué imágenes son adecuadas para su uso y/o hacer que una imagen sea consistente con otras imágenes tomadas.
Durante el vuelo de un UAV utilizado para evaluar una estructura o partes de una estructura, como el tejado, las distancias desde el UAV a las áreas de interés de la estructura pueden variar. En algunos casos, el vuelo del UAV se controla manualmente y un piloto controla de forma remota y completamente manual la distancia desde el UAV a la estructura. Este control manual no reglamentado da como resultado distancias muy variables entre el UAV y las áreas de interés de la estructura. En otros casos, el vuelo del UAV se establece de manera que el UAV atraviese un plano por encima de la estructura y/o un círculo establecido alrededor de la estructura. Sin embargo, dado que la mayoría de las estructuras tienen partes, como tejados, que están inclinadas y que tienen diferentes facetas, el uso de una trayectoria de vuelo plana o circular da como resultado variaciones en la distancia real entre el UAV y la superficie del área de interés de la estructura.
Lo que se necesita son sistemas y métodos que controlen de manera más precisa y exacta la distancia entre el UAV y la estructura y, por lo tanto, proporcionen distancias de muestra consistentes para imágenes y/o resolución consistente de imágenes.
Breve descripción de las distintas vistas de los dibujos
Los números de referencia similares en las figuras representan y se refieren al mismo elemento o función o similares. Las implementaciones de la divulgación pueden entenderse mejor cuando se considera la siguiente descripción detallada de la misma. Dicha descripción hace referencia a las ilustraciones pictóricas, esquemas, gráficos, dibujos y apéndices adjuntos. En los dibujos:
La figura 1 es un diagrama esquemático de una realización de un sistema de evaluación de estructuras de aeronaves no tripuladas según la presente divulgación.
La figura 2 es una imagen de una aeronave no tripulada con una cámara colocada alrededor de una estructura. La figura 3 es un diagrama de flujo de una realización ejemplar de una lógica de programa según la presente divulgación.
La figura 4 es una captura de pantalla ejemplar de una imagen oblicua de la estructura mostrada en la figura 2. La figura 5 es un diagrama ejemplar que ilustra el desplazamiento lateral y vertical de una aeronave no tripulada en relación con una estructura según la presente divulgación.
La figura 6 es una captura de pantalla ejemplar de una imagen nadir de la estructura mostrada en la figura 4, ilustrando la captura de pantalla un plan de vuelo ejemplar para una aeronave no tripulada.
La figura 7 es otra captura de pantalla ejemplar de la imagen del nadir de la estructura mostrada en la figura 6, ilustrando la captura de pantalla otro plan de vuelo ejemplar para una aeronave no tripulada.
La figura 8 es una captura de pantalla ejemplar de una imagen nadir de la estructura mostrada en la figura 4, ilustrando la captura de pantalla la trayectoria de la cámara de una aeronave no tripulada.
La figura 9 es una captura de pantalla ejemplar de un informe de estructura mostrado en una unidad de visualización de un terminal de usuario.
La figura 10 es una captura de pantalla ejemplar de dos imágenes oblicuas de una estructura, mostrando cada imagen oblicua la estructura en un período de tiempo distinto.
La figura 11 es un diagrama de flujo de otra realización ejemplar de una lógica de programa según la presente divulgación.
La figura 12 es un diagrama de flujo de todavía otra realización ejemplar de una lógica de programa según la presente divulgación.
La figura 13 es un diagrama de flujo de todavía otra realización ejemplar de una lógica de programa según la presente divulgación.
La figura 14 es una ilustración de partes de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 15 es una ilustración de partes de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 16 es una captura de pantalla ejemplar de una visualización en un sistema para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 17 es una ilustración de partes de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 18 es una captura de pantalla ejemplar de una visualización en un sistema para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 19 es una ilustración de partes de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 20 es una ilustración de partes de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 21 es una ilustración de partes de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 22 es una ilustración de partes de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 23 es una ilustración de partes de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 24 es una ilustración de partes de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 25 es un diagrama de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 26 es un diagrama de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 27 es una ilustración de partes de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 28 es una captura de pantalla ejemplar de una visualización en un sistema para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 29 es una ilustración de una aeronave no tripulada ejemplar según la presente divulgación. La figura 30 es una ilustración de una aeronave no tripulada ejemplar según la presente divulgación. La figura 31 es una ilustración de una aeronave no tripulada ejemplar según la presente divulgación.
La figura 32A es una ilustración de una vista en perspectiva de una aeronave no tripulada ejemplar según la presente divulgación.
La figura 32B es otra vista en perspectiva de la aeronave no tripulada ejemplar de la figura 32A.
La figura 33 es una ilustración de una aeronave no tripulada ejemplar según la presente divulgación.
La figura 34A es una ilustración de una aeronave no tripulada ejemplar según la presente divulgación.
La figura 34B es una vista lateral de la aeronave no tripulada ejemplar de la figura 34A.
La figura 34C es una vista desde un extremo de la aeronave no tripulada ejemplar de la figura 34A.
La figura 35 es un diagrama de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
La figura 36 es un diagrama de un método para navegar una aeronave no tripulada usando el cabeceo de un tejado según la presente divulgación.
Descripción detallada
Tal como se utilizan en el presente documento, los términos “basado en red”, “basado en la nube” y cualquier variación de los mismos pretenden incluir el suministro de recursos computacionales configurables bajo demanda a través de la interfaz con un ordenador y/o una red informática, con software y/o datos ubicados al menos parcialmente en el ordenador y/o en la red informática, agrupando la potencia de procesamiento de dos o más procesadores en red.
Tal como se utilizan en la presente divulgación, los términos “proporcionar”, “que proporciona” y sus variaciones comprenden mostrar o proporcionar la visualización de una página web (por ejemplo, una página web para tejados) en uno o más terminales de usuario que interactúan con un ordenador y/o red(es) informática(s) y/o permitir que uno o más terminales de usuario participe(n), tal como interactuando con uno o más mecanismos en una página web (por ejemplo, una página web para tejados) enviando y/o recibiendo señales (por ejemplo, digitales, ópticas, y/o similares) a través de una interfaz de red informática (por ejemplo, puerto Ethernet, puerto TCP/IP, puerto óptico, módem por cable y combinaciones de los mismos). A un usuario se le puede proporcionar una página web en un navegador web o en una aplicación de software, por ejemplo.
Tal como se utiliza en el presente documento, el término “solicitud de estructura”, “orden de estructura”, “solicitud de plan de vuelo”, “orden de plan de vuelo”, y cualquier variación de los mismos puede comprender una característica de la interfaz gráfica de usuario o una característica de una aplicación de software, que permite a un usuario indicar a un sistema anfitrión que el usuario desea realizar una orden, tal como interactuando con el sistema anfitrión a través de una red informática e intercambiando señales (por ejemplo, digitales, ópticas y/o similares), con el sistema anfitrión utilizando un protocolo de red, por ejemplo. Dicho mecanismo puede implementarse con un código ejecutable por ordenador ejecutado por uno o más procesadores, por ejemplo, con un botón, un hipervínculo, un icono, un símbolo en donde se puede hacer clic, un micrófono y/o combinaciones de los mismos, que pueden activarse mediante un terminal de usuario interconectado con al menos un procesador a través de una red informática, por ejemplo.
Haciendo referencia ahora a las figuras 1 y 2, en ellas se muestra una realización ejemplar de un sistema 10 de evaluación de estructuras de aeronaves no tripuladas según la presente divulgación. El sistema 10 de evaluación de estructuras de aeronaves no tripuladas puede comprender uno o más sistemas 12 anfitriones que interactúan y/o se comunican con uno o más terminales 14 de usuario a través de una red 16.
En algunas realizaciones, el uno o más sistemas 12 anfitriones pueden recibir información de identificación relacionada con una estructura 21 (por ejemplo, un edificio) a través de los terminales 14 de usuario, y/o datos indicativos de las posiciones geográficas de la estructura 21. Usando la información de identificación y el posicionamiento geográfico de la estructura 21, el uno o más sistemas 12 anfitriones pueden generar información de aeronaves no tripuladas que incluye una o más información de trayectoria de vuelo, información de control de cámara y/o información de control de cardán. La información de la aeronave no tripulada puede ser utilizada por una aeronave 18 no tripulada para capturar una o más imágenes 62 aéreas (por ejemplo, imágenes nadir y/o imágenes oblicuas) de la estructura 21. La aeronave 18 no tripulada también puede denominarse en el presente documento vehículo aéreo no tripulado o UAV.
En algunas realizaciones, la información de la trayectoria de vuelo, la información de control de la cámara y/o la información de control del cardán se pueden determinar de forma automática y/o semiautomática mediante el análisis y el uso de imágenes georreferenciadas. En algunas realizaciones, la información de la trayectoria de vuelo, la información de control de la cámara y/o la información de control del cardán se pueden determinar automáticamente y/o semiautomáticamente usando una combinación de información del sensor de la aeronave 18 no tripulada, datos indicativos de uno o más puntos en la estructura 21, y/o datos indicativos de modelos 2D y/o 3D de la estructura 21. Como tal, la manipulación y/o análisis manual por parte de un usuario puede minimizarse y/o eliminarse. En otras realizaciones, la información de la trayectoria de vuelo, la información de control de la cámara y/o la información de control del cardán se pueden determinar con la ayuda de un usuario que proporciona datos interactuando con una o más imágenes oblicuas mostradas de la estructura 21 y/o de otra manera ingresa datos en uno o más de los terminales 14 de usuario.
La estructura 21 puede ser una estructura hecha por el hombre, tal como un edificio o infraestructura (por ejemplo, un puente). En un ejemplo mostrado en la figura 2, la estructura 21 es un edificio residencial. Alternativa o adicionalmente, la estructura 21 puede ser una estructura natural, tal como un árbol, por ejemplo.
La aeronave 18 no tripulada puede ser cualquier tipo de vehículo aéreo no tripulado que pueda controlarse mediante el uso de un plan de vuelo. El vuelo de la aeronave 18 no tripulada puede controlarse de forma autónoma como se describe con mayor detalle en el presente documento. En algunas realizaciones, el vuelo puede controlarse usando un plan de vuelo en combinación con el pilotaje por parte de un usuario ubicado externamente a la aeronave 18 no tripulada. La aeronave 18 no tripulada a modo de ejemplo puede incluir el Dron con cámara UAC SR100 profesional fabricado y distribuido por la sociedad Cadence Technology ubicada en Singapur. Otras aeronaves 18 no tripuladas ejemplares pueden incluir el dron Skydio, fabricado y distribuido por la sociedad Skydio, ubicada en Redwood City, California, que incluye múltiples cámaras que tienen campos de visión superpuestos que cubren colectivamente un campo de visión de 360 grados alrededor de la aeronave 18 no tripulada.
Las imágenes de los campos de visión superpuestos se pueden utilizar como parte de un sistema de detección y evitación de colisiones que ayuda a la aeronave 18 no tripulada a evitar obstáculos cerca de la estructura. Los obstáculos ejemplares incluyen líneas eléctricas, árboles, antenas, edificios próximos, pájaros, otras aeronaves o similares. Los obstáculos (y las zonas sin obstáculos) se pueden detectar mediante técnicas de triangulación aérea para interpretar las imágenes. Otras aeronaves no tripuladas ejemplares pueden incluir los drones DJI (ejemplos no exclusivos de los cuales incluyen el Phantom 4 Pro v2, el Mavic Pro y el Mavic 2), fabricados y distribuidos por DJI, distrito de Nanshan, Shenzhen, China.
Generalmente, la aeronave 18 no tripulada puede comprender una estructura de avión, un controlador, un sistema de comunicaciones, un sistema de energía, un sistema de propulsión y un sistema de aviónica. En algunas realizaciones, la aeronave 18 no tripulada puede comprender un sistema de navegación, o el sistema de navegación puede estar parcial o completamente en el(los) terminal(es) 14 de usuario y/o el sistema 12 anfitrión y/o en cualquier otro lugar de la red 16. En algunas realizaciones, la aeronave 18 no tripulada puede comprender uno o más controles electrónicos de velocidad (ESC). En algunas realizaciones, la aeronave 18 no tripulada puede comprender uno o más buses de energía. En algunas realizaciones, la aeronave 18 no tripulada puede comprender uno o más dispositivos de reducción de velocidad. En algunas realizaciones, la aeronave 18 no tripulada puede comprender uno o más actuadores. El sistema de propulsión puede incluir una o más hélices 222 (un buje con varias láminas o palas de aire giratorias) y/o uno o más chorros. El sistema de aviónica puede incluir mecanismos de control de vuelo mecánicos y electrónicos tales como motor(es), servo(s), interruptores de control de combustible, etc., asociados con diversas operaciones de vuelo.
Se entenderá que se puede utilizar cualquier tipo de estructura de aeronave como base de la estructura de la aeronave 18 no tripulada. Ejemplos no exclusivos de tipos de aeronaves 18 no tripuladas que tienen diferentes estructuras incluyen una aeronave 18 no tripulada de ala fija que tiene una hélice trasera o delantera, una aeronave 18 no tripulada de ala fija que tiene múltiples hélices de ala, una aeronave 18 no tripulada de tipo helicóptero, una aeronave 18 no tripulada de múltiples rotores, una aeronave 18 no tripulada de rotor basculante, una aeronave 18 no tripulada de tipo jet y una aeronave 18 no tripulada de tipo dirigible. En algunas realizaciones, la estructura de la aeronave 18 no tripulada puede tener una o más superficies de control tales como elevadores, timones, flaps, listones y/o alerones.
La aeronave 18 no tripulada puede incluir uno o más procesadores 27 informáticos capaces de ejecutar instrucciones y una o más memorias 29 no transitorias. El uno o más procesadores 27 pueden ser capaces de leer y/o ejecutar código ejecutable del procesador y/o de crear, manipular, alterar y/o almacenar estructuras de datos informáticos en una o más memorias 29 no transitorias (a las que también se puede hacer referencia en el presente documento como medio 29 no transitorio legible por ordenador). El uno o más procesadores 27 informáticos pueden ser parte del controlador.
La aeronave 18 no tripulada puede incluir uno o más sensores 17. Los sensores 17 pueden incluir uno o más sensores de ubicación configurados para determinar la distancia, presencia y/o forma de uno o más puntos y/o superficie de un objeto. Ejemplos no exclusivos de tales objetos incluyen la estructura 21 y/u obstáculos en la trayectoria de la aeronave 18 no tripulada. Los sensores 17 pueden incluir sensores de infrarrojos, dispositivos de radar, dispositivos LiDAR y/o dispositivos de sonar. Los sensores 17 pueden incluir sensores activos, sensores pasivos o una combinación de sensores activos y pasivos.
Un sensor pasivo es un instrumento diseñado para recibir, capturar y/o medir emisiones, reflejos o refracciones, como la luz. Un sensor pasivo puede medir la luz reflejada, como la luz solar reflejada emitida por el sol. Un sensor activo es un instrumento utilizado para medir señales transmitidas por el sensor que fueron reflejadas, refractadas o dispersadas desde uno o más objetos. Un sensor activo tiene su propia fuente de luz o iluminación. En particular, un sensor activo envía activamente una onda/señal y mide la retrodispersión reflejada de vuelta al sensor activo.
En una realización, uno o más sensores 17 es un sensor 17 configurado para obtener múltiples lecturas de distancia en ángulos 39 conocidos entre sí. Un ejemplo de dicho sensor 17 se describe en la patente estadounidense n.° 9,244,272, titulada “Lidar System Producing Multiple Scan Paths and Method of Making and Using Same”, presentada el 26 de enero de 2016.
En una realización, el uno o más sensores 17 son dos o más sensores 17 colocados en un ángulo 39 conocido entre sí (ver, por ejemplo, la figura 19). En una realización, un primer sensor 17a puede estar sustancialmente orientado hacia adelante en relación con la dirección de desplazamiento de la aeronave 18 no tripulada y un segundo sensor 17b puede estar orientado hacia abajo en relación con la aeronave 18 no tripulada (ver, por ejemplo, la figura 19). En una realización, una línea a lo largo de una primera distancia 41 determinada por el primer sensor 17 puede estar aproximadamente a noventa grados de una línea a lo largo de una segunda distancia 43 determinada por el segundo sensor 17 (véanse, por ejemplo, las figuras 19 y 26). En una realización, el ángulo 39 conocido entre la línea a lo largo de la primera distancia 41 determinada por el primer sensor 17 y la línea a lo largo de la segunda distancia determinada por el segundo sensor 17 puede ser menor o mayor de noventa grados (ver, por ejemplo, las figuras 25-26).
En una realización, se puede acceder a las lecturas de los sensores de uno o más sensores 17 de la aeronave 18 no tripulada a través de una biblioteca de componentes que permite la conexión a una aeronave 18 no tripulada específica mientras está conectada a su control remoto físico mediante un cable de comunicación (o mediante transmisión inalámbrica), y leer su estado de vuelo actual, así como los valores de los distintos sensores (cuando estén presentes) de la propia aeronave. Un ejemplo no exclusivo de dicha biblioteca de componentes es el kit de desarrollo de software (“SDK”) de DJI titulado DJI Mobile SDK para iOS. Un SDK particular de un fabricante de aeronaves 18 no tripuladas permite a un desarrollador de aplicaciones de software conectarse a la aeronave 18 no tripulada (como los modelos DJI Phantom o Mavic), leer su estado actual, obtener lecturas de sus sensores 17 y crear misiones que la aeronave 18 no tripulada realizará por sí sola según un conjunto específico de instrucciones.
Dado que el SDK puede obtener lecturas de múltiples modelos de aeronaves 18 no tripuladas, y no todas las aeronaves 18 no tripuladas tienen el mismo conjunto de sensores 17 de distancia (algunas aeronaves 18 no tripuladas no tienen sensores de distancia), un creador de aplicaciones de software debe determinar qué sensores 17 pueden leerse, así como determinar cuántos sensores 17 (y qué sensores 17) devolverán los resultados esperados para su aplicación de software.
Las figuras 29 a 34 ilustran ejemplos no exclusivos de aeronaves 18 no tripuladas que tienen uno o más sensores 17. El uno o más sensores 17 pueden incluir sensores de distancia ultrasónicos y/o sensores infrarrojos que apuntan hacia abajo al suelo en relación con la aeronave 18 no tripulada en una posición neutral. posición (ver, por ejemplo, las figuras 29-30). Los sensores 17 de distancia ultrasónicos funcionan enviando señales de alta frecuencia (al menos superiores al alcance del oído humano) en un cono. El ancho del cono varía, aunque puede tener unos setenta grados de ancho. Cualquier obstáculo/objeto que refleje esas señales las enviará de regreso a los sensores 17 de distancia ultrasónicos. Al medir la diferencia entre el tiempo emitido y el tiempo recibido de las señales de distancia ultrasónicas, se puede calcular una distancia entre el sensor 17 de distancia ultrasónico y el obstáculo o estructura 21. En una realización, los sensores 17 de distancia ultrasónicos pueden tener una precisión de diez centímetros y pueden producir cálculos de distancia que son válidos hasta cinco metros. Algunas aeronaves 17 no tripuladas pueden usar sensores 17 infrarrojos (ver la figura 30), pero pueden informar las lecturas del sensor infrarrojo como si fueran lecturas del sensor ultrasónico. El SDK puede devolver la salida de los sensores 17 de distancia ultrasónicos (o infrarrojos) en un único punto (por ejemplo, la propiedad “altura ultrasónica en metros” en el estado de controlador de vuelo de DJI). Este valor que se devuelve puede usarse como la distancia hacia abajo desde el sensor 17 hasta la estructura 21.
La aeronave 18 no tripulada puede incluir una o más cámaras 19 configuradas para proporcionar imágenes 62 aéreas. En algunas realizaciones, la cámara 19 puede montarse en un soporte 220 de cardán (por ejemplo, un cardán de tres ejes).
La aeronave 18 no tripulada puede incluir uno o más sensores 17 de “visión”, que pueden combinar sensores 17 ultrasónicos/infrarrojos y cámaras 19 que apuntan en varias direcciones desde la aeronave 18 no tripulada, para permitir que la aeronave 18 no tripulada detecte con mayor precisión cualquier obstáculo/objeto en esas direcciones (ver las figuras 31-32). Desde la perspectiva del SDK, los sensores 17 son capaces de devolver la distancia al obstáculo/objeto más cercano que detectan. Los sensores 17 pueden apuntar hacia adelante (siguiendo la dirección de la cámara 19 principal en la aeronave 18 no tripulada), hacia atrás y/o hacia los lados. Algunas aeronaves 18 no tripuladas pueden tener uno o más sensores 17 que apuntan hacia arriba y hacia abajo. Los sensores 17 pueden tener un rango de operación específico (medido en grados, donde el punto de origen es el propio sensor 17), como se ejemplifica en la aeronave 18 no tripulada ejemplar representada en las figuras 33-34.
Además, en algunas realizaciones, la aeronave 18 no tripulada puede incluir uno o más receptores de sistema de posicionamiento global (GPS), una o más unidades de navegación inercial (INU), uno o más relojes, uno o más giroscopios, una o más brújulas, uno o más altímetros, y/o similares, de modo que la posición y orientación de la aeronave 18 no tripulada en instantes de tiempo específicos puedan monitorearse, registrarse y/o almacenarse con y/o correlacionarse con imágenes 62 particulares.
La una o más cámaras 19 pueden ser capaces de capturar imágenes 62 fotográficamente y/o electrónicamente, así como registrar el momento en donde se capturan imágenes 62 particulares. En una realización, esto se puede lograr enviando una señal a un procesador (que recibe señales horarias del GPS) cada vez que se captura una imagen 62. La una o más cámaras 19 pueden incluir, entre otras, cámaras convencionales, cámaras digitales, sensores digitales, dispositivos de carga acoplada y/o similares. En algunas realizaciones, una o más cámaras 19 pueden ser cámaras de resolución ultra alta. La cámara 19 puede capturar imágenes digitales y/o las imágenes 62 capturadas pueden transformarse en imágenes digitales. Las imágenes digitales comprenden píxeles.
La una o más cámaras 19 pueden incluir características conocidas o determinables que incluyen, entre otras, distancia focal, tamaño del sensor, relación de aspecto, términos de distorsión radial y otros, desplazamiento del punto principal, paso de píxel, alineación y/o similares.
Haciendo referencia a la figura 1, la aeronave 18 no tripulada puede comunicarse con uno o más terminales 14 de usuario. El uno o más terminales 14 de usuario pueden implementarse como un ordenador personal, un ordenador de mano, un teléfono inteligente, un ordenador portátil, un televisor con capacidad de red, un decodificador de TV, una tableta, un lector de libros electrónicos, un ordenador portátil, un ordenador de escritorio, un dispositivo portátil con capacidad de red, una consola de videojuegos, un servidor, una grabadora de video digital, un reproductor de DVD, un reproductor Blu-Ray y combinaciones de los mismos, por ejemplo. En una realización ejemplar, el terminal 14 de usuario puede comprender una unidad 20 de entrada, una unidad 22 de visualización, un procesador 23 capaz de interactuar con la red 16, una o más memorias 25 no transitorias (que también pueden denominarse en el presente documento medio 25 no transitorio legible por ordenador), código ejecutable por procesador y un navegador web capaz de acceder a un sitio web y/o comunicar información y/o datos a través de una red, tal como la red 16. Como entenderán las personas con experiencia ordinaria en la técnica, el uno o más terminales 14 de usuario pueden comprender una o más memorias 25 no transitorias que tienen código ejecutable por procesador y/o aplicaciones de software, por ejemplo.
La unidad 20 de entrada puede ser capaz de recibir entradas de información por un usuario y/u otro(s) procesador(es), y transmitir dicha información al terminal 14 de usuario y/o al uno o más sistemas 12 anfitriones. La unidad 20 de entrada puede ser implementada como un teclado, una pantalla táctil, un ratón, una bola de seguimiento, un micrófono, un lector de huellas digitales, un puerto de infrarrojos, un teclado deslizable, un teclado desplegable, un teléfono celular, PDA, un controlador de videojuegos, un control remoto, una máquina de fax, una interfaz de red y combinaciones de los mismos, por ejemplo. En algunas realizaciones, el terminal 14 de usuario está cargado con software de gestión de vuelo para controlar la aeronave 18 no tripulada.
La unidad 22 de visualización puede generar información en una forma perceptible por un usuario y/u otros procesadores. Por ejemplo, la unidad 22 de visualización puede ser un servidor, un monitor de ordenador, una pantalla, una pantalla táctil, un altavoz, un sitio web, un televisor, un teléfono inteligente, PDA, un teléfono móvil, una máquina de fax, una impresora, un ordenador portátil, una pantalla portátil y/o combinaciones de los mismos. Debe entenderse que en algunas realizaciones ejemplares, la unidad 20 de entrada y la unidad 22 de visualización pueden implementarse como un único dispositivo, tal como, por ejemplo, una pantalla táctil o una tableta. Debe entenderse además que, tal como se utiliza en el presente documento, el término usuario no se limita a un ser humano y puede comprender un ordenador, un servidor, un sitio web, un procesador, una interfaz de red, un ser humano, un terminal de usuario, un ordenador virtual y combinaciones de los mismos, por ejemplo.
Como se analizó anteriormente, el sistema 10 puede incluir uno o más sistemas 12 anfitriones. El uno o más sistemas 12 anfitriones pueden estar parcial o completamente basados en red o en la nube, y no necesariamente ubicados en una única ubicación física. Cada uno de los sistemas 12 anfitriones puede además ser capaz de interconectarse y/o comunicarse con el uno o más terminales 14 de usuario a través de la red 16, tal como intercambiando señales (por ejemplo, digitales, ópticas y/o similares) a través de uno o más puertos (por ejemplo, físicos o virtuales) utilizando un protocolo de red, por ejemplo. Además, cada sistema 12 anfitrión puede ser capaz de interconectarse y/o comunicarse con otros sistemas anfitriones directamente y/o a través de la red 16, tal como intercambiando señales (por ejemplo, digitales, ópticas y/o similares) a través de uno o más puertos.
Cabe señalar que múltiples sistemas 12 anfitriones pueden ser controlados independientemente por entidades independientes. Por ejemplo, en algunas realizaciones, el sistema 10 puede incluir dos sistemas 12 anfitriones con un primer sistema anfitrión controlado por una primera empresa y un segundo sistema anfitrión controlado por una segunda empresa distinta de la primera empresa.
El uno o más sistemas 12 anfitriones pueden comprender uno o más procesadores 24 que trabajan juntos, o de forma independiente, para ejecutar código ejecutable por procesador, una o más memorias 26 capaces de almacenar código ejecutable por procesador, uno o más dispositivos 28 de entrada y uno o más dispositivos 30 de salida. Cada elemento del uno o más sistemas 12 anfitriones puede estar parcial o completamente basado en red o en la nube, y no necesariamente ubicado en una única ubicación física. Además, en realizaciones que tienen múltiples sistemas 12 anfitriones, cada sistema anfitrión puede comunicarse directamente con sistemas anfitriones adicionales y/o sistemas de terceros a través de la red 16.
El uno o más procesadores 24 pueden implementarse como uno o varios procesadores 24 trabajando juntos, o de forma independiente para ejecutar la lógica como se describe en el presente documento. Las realizaciones ejemplares del uno o más procesadores 24 incluyen un procesador de señales digitales (DSP), una unidad central de procesamiento (CPU), una matriz de puertas programables en campo (FPGA), un microprocesador, un procesador multinúcleo y/o combinaciones de los mismos. El uno o más procesadores 24 pueden ser capaces de comunicarse con la una o más memorias 26 a través de una trayectoria (por ejemplo, bus de datos). El uno o más procesadores 24 pueden ser capaces de comunicarse con los dispositivos 28 de entrada y los dispositivos 30 de salida.
El uno o más procesadores 24 pueden ser además capaces de interconectarse y/o comunicarse con el uno o más terminales 14 de usuario y/o aeronaves 18 no tripuladas a través de la red 16. Por ejemplo, el uno o más procesadores 24 pueden ser capaces de comunicarse a través de la red 16 intercambiando señales (por ejemplo, digitales, ópticas y/o similares) a través de uno o más puertos físicos o virtuales (es decir, puertos de comunicación) usando un protocolo de red. Debe entenderse que en ciertas realizaciones que utilizan más de un procesador 24, el uno o más procesadores 24 pueden estar ubicados de forma remota entre sí, ubicados en la misma ubicación o comprendiendo un procesador unitario de múltiples núcleos (no mostrado). El uno o más procesadores 24 pueden ser capaces de leer y/o ejecutar código ejecutable por procesador y/o de crear, manipular, alterar y/o almacenar estructuras de datos de ordenador en una o más memorias 26, a las que también se puede hacer referencia en el presente documento como medio 26 no transitorio legible por ordenador.
La una o más memorias 26 pueden ser capaces de almacenar código ejecutable por procesador. Además, la una o más memorias 26 pueden implementarse como una memoria no transitoria convencional, tal como, por ejemplo, una memoria de acceso aleatorio (RAM), un CD-ROM, un disco duro, una unidad de estado sólido, una unidad flash, una tarjeta de memoria, un DVD-ROM, un disquete, una unidad óptica y/o combinaciones de los mismos. Debe entenderse que si bien una o más memorias 26 pueden estar ubicadas en la misma ubicación física que el sistema 12 anfitrión, la una o más memorias 26 pueden estar ubicadas de forma remota del sistema 12 anfitrión, y pueden comunicarse con el uno o más procesadores 24 a través de la red 16. Además, cuando se usa más de una memoria 26, una primera memoria puede estar ubicada en la misma ubicación física que el sistema 12 anfitrión, y las memorias 26 adicionales pueden estar ubicadas en una ubicación física remota del sistema 12 anfitrión. La(s) ubicación(es) física(s) de la una o más memorias 26 pueden variar. Además, una o más memorias 26 pueden implementarse como una “memoria en la nube” (es decir, una o más memorias 26 pueden basarse parcial o completamente en la red 16 o acceder a ella utilizando la red 16).
El uno o más dispositivos 28 de entrada pueden transmitir datos a los procesadores 24 y pueden implementarse como un teclado, un ratón, una pantalla táctil, una cámara, un teléfono celular, una tableta, un teléfono inteligente, PDA, un micrófono, un adaptador de red, un ordenador portátil y/o combinaciones de los mismos. Los dispositivos 28 de entrada pueden estar ubicados en la misma ubicación física que el sistema 12 anfitrión, o pueden estar ubicados remotamente y/o parcial o completamente basados en la red.
El uno o más dispositivos 30 de salida pueden transmitir información desde el procesador 24 a un usuario, de modo que el usuario pueda percibir la información. Por ejemplo, los dispositivos 30 de salida pueden implementarse como un servidor, un monitor de ordenador, un teléfono celular, una tableta, un altavoz, un sitio web, PDA, un fax, una impresora, un proyector, un monitor de ordenador portátil, una pantalla portátil y/o combinaciones de los mismos. El dispositivo 30 de salida puede estar ubicado físicamente junto con el sistema 12 anfitrión, o puede estar ubicado de forma remota del sistema 12 anfitrión, y puede estar parcial o completamente basado en una red (por ejemplo, un sitio web). Como se usa en el presente documento, el término “usuario” no se limita a un ser humano y puede comprender un ser humano, un ordenador, un sistema anfitrión, un teléfono inteligente, una tableta y/o combinaciones de los mismos, por ejemplo.
La red 16 puede permitir la comunicación bidireccional de información y/o datos entre uno o más sistemas 12 anfitriones, los terminales 14 de usuario y/o la aeronave 18 no tripulada. La red 16 puede interactuar con el uno o más sistemas 12 anfitriones, los terminales 14 de usuario y la aeronave 18 no tripulada de diversas maneras. En algunas realizaciones, el uno o más sistemas 12 anfitriones, los terminales 14 de usuario y/o la aeronave 18 no tripulada pueden comunicarse a través de un puerto de comunicación. Por ejemplo, la red 16 puede interactuar mediante interfaces ópticas y/o electrónicas, y/o puede usar una pluralidad de topografías y/o protocolos de red que incluyen, entre otros, Ethernet, TCP/IP, trayectorias de circuitos conmutados y/o combinaciones de los mismos. Por ejemplo, la red 16 puede implementarse como la World Wide Web (o Internet), una red de área local (LAN), una red de área amplia (WAN), una red metropolitana, una red inalámbrica, una red celular, una red GSM, una red CDMA, una red 3G, una red 4G, una red satelital, una red de radio, una red óptica, una red de cable, una red telefónica pública conmutada, una red Ethernet y/o combinaciones de las mismas. Además, la red 16 puede usar una variedad de protocolos de red para permitir una interfaz y/o comunicación bidireccional de datos y/o información entre el uno o más sistemas 12 anfitriones, el uno o más terminales 14 de usuario y/o la aeronave 18 no tripulada.
En algunas realizaciones, el uno o más sistemas 12 anfitriones, los terminales 14 de usuario y/o la aeronave 18 no tripulada pueden comunicarse utilizando un medio legible por ordenador no transitorio. Por ejemplo, los datos obtenidos desde el terminal 14 de usuario pueden almacenarse en una unidad flash USB. La unidad flash USB puede ser transferida y recibida por la aeronave 18 no tripulada comunicando así información, tal como información de la aeronave no tripulada que incluye información de trayectoria de vuelo, información de control de cámara y/o información de control de cardán del terminal 14 de usuario a la aeronave 18 no tripulada. La unidad flash USB también se puede usar para transferir imágenes 62 capturadas por la cámara 19, posición, orientación y fecha de hora a los terminales 14 de usuario.
Haciendo referencia a las figuras 1 y 2, la una o más memorias 26 pueden almacenar código ejecutable por procesador y/o información que comprende una base 32 de datos de ubicación de estructura, una o más bases 34 de datos de imágenes, una o más bases 35 de datos de forma de estructura y lógica 36 de programa. El código ejecutable por procesador puede almacenarse como una estructura de datos, tal como una base de datos y/o una tabla de datos, por ejemplo. En algunas realizaciones, una o más memorias 25 del terminal 14 de usuario y/o de la aeronave 18 no tripulada, pueden incluir una base 32 de datos de estructura, una o más bases 34 de datos de imágenes, una o más bases 35 de datos de forma de estructura y lógica 36 de programa tal como se describe con más detalle en el presente documento. En algunas realizaciones, la base 32 de datos de ubicación de estructura, la una o más bases 34 de datos de imágenes y/o la una o más bases 35 de datos de forma de estructura se pueden combinar.
La base 32 de datos de ubicación de estructura puede incluir información geográfica (por ejemplo, ubicación, datos GIS) sobre la estructura 21. Por ejemplo, la base 32 de datos de ubicación de estructura puede almacenar información de identificación sobre la estructura que incluye, entre otros, dirección, ubicación geográfica, latitud/longitud, y/o similares.
La una o más memorias 26 pueden incluir una o más bases 34 de datos de imágenes. La una o más bases 34 de datos de imágenes pueden almacenar imágenes digitales y/o imágenes digitales georreferenciadas. Dichas imágenes pueden representarse mediante un mapa de píxeles único y/o mediante una serie de mapas de píxeles en mosaico que, cuando se agregan, recrean el mapa de píxeles de la imagen. Las imágenes georreferenciadas pueden incluir imágenes de nadir, ortorrectificadas y/o georreferenciadas oblicuas.
El uno o más procesadores 24 pueden proporcionar las imágenes a través de la base 34 de datos de imágenes a los usuarios en el uno o más terminales 14 de usuario. En algunas realizaciones, una o más bases 34 de datos de imágenes pueden incluirse dentro de los terminales 14 de usuario. Las imágenes georreferenciadas pueden tener información de ubicación geográfica para los píxeles de las imágenes 62. Por ejemplo, las imágenes 62 pueden procesarse como se describe en la patente estadounidense 7.424.133, presentada el 9 de septiembre de 2008, titulada “Method and Apparatus for Capturing, Geolocating and Measuring Oblique Images”; y/o la publicación de patente estadounidense US20150221079A1, publicada el 6 de agosto de 2015, titulada “Augmented Three Dimensional Point Collection of vertical Structures”. La información de ubicación geográfica puede incluir coordenadas geográficas del terreno, así como estructuras y objetos ubicados sobre el suelo en la imagen. La información de ubicación geográfica de los píxeles de la imagen puede ser parte de los metadatos asociados con la imagen.
La georreferenciación de las imágenes puede basarse al menos en parte en uno o más puntos de tierra y/o puntos de superficie conocidos. Ejemplos no exclusivos de puntos de tierra y/o puntos de superficie conocidos incluyen modelos de elevación digitales (DEM), nubes de puntos, modelos tridimensionales, puntos trazados/mapeados individualmente y planos de terreno teselado.
En una realización, las imágenes pueden georreferenciarse basándose al menos en parte en la búsqueda y localización de uno o más modelos de superficie o nube de puntos que tienen ubicaciones dentro de una proximidad predeterminada de la ubicación de la aeronave 18 no tripulada y/o en la dirección de orientación de la aeronave 18 no tripulada. En una realización, las imágenes pueden georreferenciarse basándose al menos en parte en la búsqueda y localización de uno o más puntos de tierra o planos de tierra que tienen ubicaciones de tierra dentro de una proximidad predeterminada de la aeronave 18 no tripulada.
En una realización, las imágenes 62 pueden estar geolocalizadas. Geolocalizar la imagen 62 puede comprender asociar la imagen 62 con una ubicación o estructura en una ubicación. Un ejemplo de uso para la geolocalización de la imagen 62 es para imágenes que representan objetos sobre el suelo sin representar el suelo, o sin información de ubicación en el suelo, o sin acceso a información de ubicación en la superficie para los objetos representados. Por ejemplo, una imagen 62 puede representar una chimenea en un tejado sin representar la ubicación en el suelo. Los metadatos se pueden utilizar para asociar la imagen con una ubicación o estructura particular. Por ejemplo, se pueden usar metadatos que estén asociados con el uno o más dispositivos de captura de imágenes en el momento en que se capturaron las imágenes 62 aéreas, tales como latitud y longitud del uno o más dispositivos de captura de imágenes y/o uno o más de altitud, orientación, actitud y rumbo del uno o más dispositivos de captura de imágenes. Los metadatos pueden correlacionarse con la ubicación o estructura asociando así la imagen 62 con la ubicación o estructura 21.
La una o más bases 35 de datos de forma de estructura pueden incluir información geoespacial y/o relacional sobre la estructura 21. Ejemplos no exclusivos de dicha información dentro de la base 35 de datos de forma de estructura incluyen información de modelo bidimensional, información de modelo tridimensional, datos de nubes de puntos, puntos de datos indicativos de una configuración geométrica de la estructura 21, datos de características (con respecto a partes de la estructura 21), datos relacionales (por ejemplo, la relación entre los puntos de la estructura 21) y combinaciones de los mismos.
La una o más memorias 26 pueden almacenar además código y/o instrucciones ejecutables por procesador, que pueden comprender la lógica 36 de programa. La lógica 36 de programa puede comprender instrucciones y/o código ejecutables por procesador, que cuando son ejecutados por el procesador 24, pueden provocar que el procesador 24 ejecute el software de análisis y visualización de imágenes para generar, mantener, proporcionar y/o alojar un sitio web que proporciona una o más solicitudes de evaluación de estructura, por ejemplo. La lógica 36 de programa puede hacer además que el procesador 24 recopile información de identificación sobre la estructura 21 (por ejemplo, dirección), permita que uno o más usuarios validen una ubicación de la estructura, obtenga posiciones geográficas de la estructura y similares, como se describe en el presente documento.
Haciendo referencia a la figura 3, en la misma se muestra un diagrama 40 de flujo ejemplar de la lógica 36 de programa para crear un informe de evaluación de estructura según la presente divulgación. La lógica 36 de programa puede comprender código ejecutable, que cuando se ejecuta por el uno o más procesadores 24 puede hacer que el uno o más procesadores 24 ejecuten una o más de las siguientes etapas.
En una etapa 42, el uno o más sistemas 12 anfitriones pueden recibir información de identificación de la estructura desde el terminal 14 de usuario. Por ejemplo, el uno o más sistemas 12 anfitriones pueden recibir la dirección de la estructura, la ubicación geográfica de la estructura (por ejemplo, coordenadas X, Y, Z, coordenadas de latitud/longitud), una ubicación del terminal 14 de usuario determinada por un sistema de posición geográfica (GPS), y/o similares.
En algunas realizaciones, el usuario puede validar la ubicación de la estructura 21. Uno o más procesadores 24 pueden proporcionar una o más imágenes 62 a través de la base 34 de datos de imágenes a la unidad 22 de visualización del terminal 14 de usuario. Por ejemplo, la figura 4 ilustra una captura 60 de pantalla ejemplar de una imagen 62 oblicua de la estructura 21 que puede visualizarse en la unidad 22 de visualización del terminal 14 de usuario, mostrado en el diagrama de bloques de la figura 1. La una o más imágenes 62 pueden ser imágenes georreferenciadas que ilustran partes o la totalidad de la estructura 21. Con referencia a las figuras 1 y 4, la lógica 36 de programa puede hacer que el procesador 24 proporcione a los usuarios la una o más imágenes 62 georreferenciadas (por ejemplo, a través de la unidad 22 de visualización), y permita al usuario validar la ubicación de la estructura 21 (por ejemplo, a través de la unidad 20 de entrada). Por ejemplo, el usuario puede utilizar un elemento de arrastrar y soltar proporcionado por la lógica 36 de programa a través del terminal 14 de usuario para seleccionar la estructura 21 dentro de la una o más imágenes 62 georreferenciadas. La selección de la estructura 21 dentro de la una o más imágenes 62 georreferenciadas puede proporcionar una o más imágenes validadas y una ubicación validada de la estructura 21. Cabe señalar que, en algunas realizaciones, la lógica de programa del terminal 14 de usuario, con o en lugar de la lógica 36 de programa del procesador 24 puede proporcionar a los usuarios la una o más imágenes 62 georreferenciadas para permitir la validación de la ubicación de la estructura 21.
En algunas realizaciones, la validación de las imágenes 62 georreferenciadas puede ser proporcionada por uno o más sistemas anfitriones adicionales a través de uno o más procesadores 24 en lugar de, o en combinación con, el sistema 12 anfitrión. Por ejemplo, el sistema 12 anfitrión puede dirigir al usuario a un segundo sistema anfitrión en donde uno o más procesadores del segundo sistema anfitrión pueden proporcionar imágenes 62 georreferenciadas desde la base de datos de imágenes al usuario para la validación de una o más estructuras 21.
En algunas realizaciones, la ubicación geográfica puede incluir coordenadas, y el usuario puede proporcionar la validación de la ubicación geográfica alterando una o más coordenadas de la ubicación geográfica. Los usuarios pueden alterar la una o más coordenadas mediante métodos que incluyen, entre otros, manipulación manual, arrastrar y soltar elementos y similares.
En algunas realizaciones, la ubicación de la estructura 21 puede determinarse automáticamente mediante la ubicación del terminal 14 de usuario. Por ejemplo, un usuario puede estar físicamente presente en la estructura 21, y el usuario puede estar sosteniendo el terminal 14 de usuario que determina su ubicación usando cualquier tecnología adecuada, como un sistema de posicionamiento global o triangulación de ubicación mediante señales inalámbricas. Usando las coordenadas de ubicación del terminal 14 de usuario, se puede determinar la ubicación de la estructura 21.
En una etapa 44, se puede determinar una huella y/o un modelo tridimensional de la estructura 21. La huella y/o el modelo tridimensional pueden proporcionar uno o más límites bidimensionales (por ejemplo, lados) y/o contornos de la estructura 21. Por ejemplo, la huella y/o el modelo tridimensional de la estructura 21 pueden determinarse utilizando sistemas y métodos que incluyen, entre otros, los descritos en la patente estadounidense n.° 8,145,578, titulada “Aerial Roof Estimation System and Method”; la patente estadounidense n.° 8,170,840, titulada “Pitch Determination Systems and Mehods for Aerial Roof Estimation”; la patente estadounidense n.° 8,209,152, titulada “Concurrent Display Systems and Methods for Aerial Roof Estimation”; la patente estadounidense n.° 9,911,228, titulada “Geometric Correction of Rough Wireframe Models Derived from Photographs”; la patente estadounidense n.° 8.078.436, titulada “Aerial Roof Estimation Systems and Methods”; y la patente estadounidense n.° 8,977,520, titulada “Computer System for Automatically Classifying Roof Elements”. En algunas realizaciones, la huella y/o el modelo tridimensional de la estructura 21 se pueden proporcionar al usuario a través de la unidad 22 de visualización. Por ejemplo, en algunas realizaciones, la huella y/o el modelo tridimensional de la estructura 21 se puede mostrar como una capa en una o más imágenes (por ejemplo, imagen nadir) a través de la unidad 22 de visualización.
En algunas realizaciones, el uno o más procesadores 24 pueden proporcionar, a través de la unidad 22 de visualización, uno o más sitios web al usuario para la evaluación de múltiples imágenes oblicuas para proporcionar la huella y/o el modelo tridimensional de la estructura 21. Por ejemplo, el usuario y/o los procesadores 24 pueden identificar bordes de la estructura 21. Se puede obtener información bidimensional y/o tridimensional con respecto a los bordes (por ejemplo, posición, orientación y/o longitud) a partir de las imágenes utilizando, por ejemplo, la selección de puntos por parte del usuario dentro de las imágenes y/o las técnicas enseñadas en la patente estadounidense n.° 7,424,133 y/o estereofotogrametría. Usando la información bidimensional y/o tridimensional (por ejemplo, orientación de posición y/o longitud), se pueden determinar segmentos de línea con múltiples segmentos de línea que forman al menos una parte de la huella y/o el modelo tridimensional de la estructura 21.
En una etapa 46 opcional, se pueden obtener datos indicativos de posiciones geográficas relacionadas con la huella de la estructura 21 y/o información de altura de la estructura. Por ejemplo, en algunas realizaciones, se puede determinar la altura de la estructura 21 sobre el suelo. La altura de la estructura 21 sobre el suelo puede ayudar a determinar la altitud para el plan de vuelo de la aeronave 18 no tripulada como se analiza con mayor detalle en el presente documento. En algunas realizaciones, se puede utilizar más de una altura. Por ejemplo, si la estructura 21 es un edificio de dos niveles que tiene una parte de un solo piso y una parte de dos pisos, se puede determinar una primera altura para el primer piso y se puede determinar una segunda altura para el segundo piso. La altitud para la trayectoria de vuelo de la aeronave 18 no tripulada puede variar en función de las diferentes alturas de la estructura 21 o de los objetos muy próximos a la estructura 21.
Las mediciones de las posiciones geográficas de la estructura 21, tal como una estructura vertical, pueden incluir técnicas como se describe en la patente estadounidense n.° 7,424,133. El término “estructuras verticales”, como se usa en el presente documento, incluye estructuras que tienen al menos una parte de una superficie que no es completamente horizontal. Por ejemplo, las “estructuras verticales” como se describen en el presente documento incluyen estructuras que son completamente verticales y estructuras que no son completamente verticales, tales como estructuras que están inclinadas en ángulo y/o que caen hacia el suelo. El lado de una estructura no se limita a sólo una o más paredes de la estructura 21, sino que puede incluir todas las partes visibles de la estructura 21 desde un punto de vista. Por ejemplo, cuando la presente divulgación analiza una estructura 21, tal como una casa, un “lado” o “ lado vertical” incluye la pared de la casa y el tejado por encima de la pared hasta el punto más alto de la casa.
En algunas realizaciones, usando la unidad 20 de entrada y/o la unidad 22 de visualización, el usuario puede dar opcionalmente detalles adicionales con respecto a posiciones geográficas pertenecientes a la estructura 21. Por ejemplo, si la estructura 21 es el tejado de un edificio, el usuario puede incluir la identificación de áreas tales como aleros, bordes de goteo, cumbreras y/o similares. Además, el usuario puede proporcionar manualmente valores de cabeceo, distancia, ángulo y/o similares. Adicional o alternativamente, el uno o más procesadores 24 pueden evaluar imágenes y/u otros datos y determinar áreas que incluyen aleros, bordes de goteo, cumbreras y/o similares sin entrada manual del usuario.
En una etapa 48, usando la huella, altura, puntos de datos indicativos de una configuración geométrica de la estructura 21, información del modelo tridimensional de la estructura 21, y/o posiblemente posiciones geográficas adicionales o información perteneciente a la estructura 21 y/o puntos de datos indicativos de la ubicación geográfica de obstrucciones en posibles trayectorias de vuelo tales como árboles y cables de servicios públicos, la información de la aeronave no tripulada puede ser generada por el uno o más sistemas 12 anfitriones y/o el terminal 14 de usuario. La información de la aeronave no tripulada puede incluir información de trayectoria de vuelo, información de control de la cámara y/o información de control del cardán.
La información de la trayectoria de vuelo puede configurarse para dirigir la aeronave 18 no tripulada para que vuele una trayectoria de vuelo en relación con la estructura 21. La trayectoria de vuelo puede configurarse para permitir que la aeronave 18 no tripulada tome lecturas de sensores y/o imágenes aéreas de la estructura 21. En algunas realizaciones, se puede mostrar una trayectoria de vuelo al usuario en una o más imágenes (por ejemplo, nadir, oblicua) a través de la unidad 22 de visualización. Por ejemplo, la figura 6 ilustra una captura 66 de pantalla ejemplar de una imagen 68 nadir que muestra una trayectoria 70 de vuelo alrededor de la estructura 21. En algunas realizaciones, la trayectoria 70 de vuelo puede visualizarse como una capa que se superpone a la imagen 68 nadir de la estructura 21 en la unidad 22 de visualización de la figura 1.
En general, la información de la trayectoria de vuelo dirige la aeronave 18 no tripulada en tres dimensiones. Haciendo referencia a las figuras 5 y 6, en una realización la información de la trayectoria de vuelo se puede determinar de manera que la trayectoria 70 de vuelo alrededor de la estructura 21 esté desplazada lateral y/o verticalmente de las posiciones geográficas del contorno de la estructura 21. En particular, el desplazamiento L<desplazamiento>lateral y el desplazamiento V<desplazamiento>vertical puede depender de la altura H de la estructura 21, la orientación de la cámara con respecto a la aeronave 18 no tripulada y las características de la cámara 19.
Haciendo referencia a la figura 5, generalmente al determinar el desplazamiento de la estructura 21, el campo de visión (FOV) de la cámara 19 se puede colocar de manera que un centro C1 está a la mitad de la altura H de la estructura 21, por ejemplo. Además, se pueden agregar una o más regiones B de influencia al FOV. Las regiones B de influencia pueden aumentar el ángulo del FOV en un porcentaje. Por ejemplo, las regiones B1 y B2 de influencia ilustradas en la figura 5 pueden aumentar el ángulo del FOV entre un 20-50 %. Para determinar el desplazamiento L<desplazamiento>lateral y el desplazamiento V<desplazamiento>vertical de la cámara 19 desde la estructura 21, se puede establecer un ángulo © predeterminado dentro de un rango de aproximadamente 25 grados a aproximadamente 75 grados. Una vez establecido el ángulo ©, el desplazamiento L<desplazamiento>lateral y el desplazamiento V<desplazamiento>vertical de la cámara 19 con respecto a la estructura 21 se puede determinar usando principios trigonométricos, por ejemplo. Por ejemplo, el desplazamiento L<desplazamiento>lateral puede determinarse basándose en la siguiente ecuación:
L<desplazamiento>- C<1>* Sen (©) (Ec. 1)
en donde C<1>es la línea central del campo de visión FOV. El desplazamiento V<desplazamiento>vertical puede determinarse basándose en la siguiente ecuación:
L<desplazamiento>- C<1>* Cos(©) (Ec. 2)
en donde C<1>es la línea central del campo de visión FOV.
La información de la trayectoria de vuelo puede opcionalmente dirigir el balanceo, cabeceo y guiñada de la aeronave 18 no tripulada. Por ejemplo, algunas versiones de la aeronave 18 no tripulada pueden no tener un cardán multieje y, como tal, pueden dirigirse para apuntar a la cámara 19 mediante cambios en la guiñada, cabeceo o balanceo de la aeronave 18 no tripulada. La guiñada, cabeceo y balanceo actuales de la aeronave 18 no tripulada se pueden medir usando un sistema de posición y orientación que forma parte de la aeronave 18 no tripulada. En algunas realizaciones, el sistema de orientación y posición se puede implementar usando acelerómetros basados en microelectromecánica y/o girómetros basados en microelectromecánica.
En muchos casos, puede haber obstáculos a lo largo de la trayectoria 70 de vuelo. Algunos de esos obstáculos pueden ser detectados por el sistema mediante el uso de imágenes. En algunas realizaciones, la trayectoria 70 de vuelo se puede determinar de manera que se pueda minimizar la interferencia con elementos externos (por ejemplo, árboles y cables telefónicos). Por ejemplo, la figura 7 ilustra una variación de la trayectoria 70 de vuelo determinada en la figura 4 en donde la trayectoria 70a de vuelo de la figura 7 minimiza la interferencia siguiendo el contorno de la estructura 21.
Un mapa de confianza en tierra, como se describe en la patente estadounidense n.° 8,588,547, podría usarse para identificar objetos en donde existe un alto grado de confianza de que se encuentran elevados del suelo. Luego se podrían utilizar métodos de autocorrelación y autotriangulación aérea para determinar las alturas de estas posibles obstrucciones. Si la trayectoria 70 de vuelo pasara por una de estas obstrucciones, la trayectoria 70 de vuelo puede ser marcada y el algoritmo puede entonces intentar encontrar la mejor solución para atravesar las obstrucciones. Por ejemplo, la trayectoria 70 de vuelo puede modificarse de modo que la aeronave 18 no tripulada pueda volar más cerca de la estructura 21 como se muestra en la figura 7, lo que podría requerir pases adicionales debido a una resolución más fina de las imágenes tomadas en esos lugares y, por lo tanto, un ancho de trayectoria más pequeño. En otro ejemplo, la trayectoria 70 de vuelo puede modificarse de modo que la aeronave 18 no tripulada pueda volar sobre la obstrucción y apuntar la cámara 19 en un ángulo oblicuo más pronunciado, lo que nuevamente puede requerir un ajuste de la trayectoria 70 de vuelo para garantizar una cobertura total. En una realización, para cualquier trayectoria 70 de vuelo que esté marcada por posibles obstrucciones, un operario del sistema puede validar la ruta correctiva elegida y modificarla según sea necesario.
Además de los obstáculos que se identifican en la imagen, también puede haber obstáculos que no se pueden identificar en la imagen. Estos podrían ser árboles o estructuras más nuevos que no estaban en las imágenes originales utilizadas para la planificación de vuelos, cables u otros objetos que pueden no aparecer en las imágenes con suficiente detalle para poder determinar su ubicación u otros obstáculos inesperados. Como tal, la aeronave 18 no tripulada también puede incorporar un sistema de detección y evitación de colisiones en algunas realizaciones. Por ejemplo, el sistema de detección y evitación de colisiones puede estar basado en imágenes y/o en sensores. Cuando hay un obstáculo a lo largo de la trayectoria de vuelo, el software que guía la aeronave 18 no tripulada puede intentar primero acercarse a la estructura 21 a lo largo de la trayectoria desde la trayectoria 70 de vuelo hasta una trayectoria objetivo. Si, después de un umbral adecuado de movimiento, la aeronave 18 no tripulada no puede sortear el obstáculo, el sistema de detección y evitación de colisiones puede dirigir la aeronave 18 no tripulada de regreso a su punto original de detección de colisión y/o puede intentar volar por encima del obstáculo. En un ejemplo, el umbral de movimiento adecuado se puede establecer en aproximadamente el 10 % de la distancia entre la aeronave 18 no tripulada y la estructura 21. Por ejemplo, si la distancia es 104' en los ejemplos anteriores, el umbral puede ser el 10 % de 104', es decir, 10,4', de modo que una superposición de aproximadamente el 20 % todavía garantiza una cobertura completa de las imágenes/exploraciones de la estructura 21.
Dado que el software que controla la aeronave 18 no tripulada mantiene la cámara 19 apuntada a la trayectoria objetivo, volar la aeronave 18 no tripulada aún más arriba puede permitir la captura por parte de la cámara 19 de imágenes de partes deseadas de la estructura 21; pero el ángulo oblicuo de visión hacia abajo puede cambiar y la resolución de las imágenes tomadas puede volverse más granulada.
En algunas circunstancias, un operario puede intervenir para sortear el obstáculo con la aeronave 18 no tripulada. En estos casos, el software que se ejecuta en un procesador 27 de la aeronave 18 no tripulada puede transmitir una señal al operario, por ejemplo, en forma de una alarma audible, y permitir dirigir al operario la aeronave 18 no tripulada alrededor del obstáculo.
La información de control de la cámara se puede cargar en el software que se ejecuta en el procesador 27 de la aeronave 18 no tripulada para controlar el accionamiento de la cámara 19 de la aeronave 18 no tripulada. Por ejemplo, la información de control de la cámara puede dirigir la cámara 19 para capturar imágenes (por ejemplo, imágenes oblicuas) en una o más ubicaciones 74 geográficas predefinidas (que se denominan en lo sucesivo puntos de captura de vuelo), como se ilustra en la captura 72 de pantalla de la figura 8. En algunas realizaciones, la información de control de la cámara puede dirigir la cámara 19 para capturar imágenes según un cronograma (por ejemplo, periódico, aleatorio). Además, la información de control de la cámara puede controlar parámetros de la cámara que incluyen, entre otros, zoom, distancia focal, control de exposición y/o similares.
En una realización, cuando la aeronave 18 no tripulada pasa por los puntos de captura de vuelo, la(s) cámara(s) 19 puede(n) activarse para capturar imágenes. Para garantizar que las imágenes se capturen en las ubicaciones deseadas, los puntos de captura de vuelo pueden no ser simplemente puntos, sino que pueden ser planos verticales que son perpendiculares a la trayectoria 70 de vuelo y que pasan a través de los puntos de captura de vuelo. Por lo tanto, incluso si la aeronave 18 no tripulada está por encima o lejos de la trayectoria de vuelo en ese momento, cuando pasa a través de ese plano, y por lo tanto sobre o al lado del punto de captura de vuelo, el software que controla la aeronave 18 no tripulada puede hacer que la cámara 19 dispare para capturar imágenes.
La información de control del cardán se puede cargar en el software que se ejecuta en el procesador 27 de la aeronave 18 no tripulada para controlar la dirección de la cámara 19 con respecto a la estructura 21. Por ejemplo, la información de control del cardán puede controlar la orientación de la cámara 19 en tres dimensiones de manera que, durante la captura de una imagen, la cámara 19 se alinea con una ubicación predeterminada en la estructura 21 que puede denominarse en el presente documento puntos de captura objetivo.
En una etapa 50, la información de la aeronave no tripulada puede almacenarse en uno o más medios legibles por ordenador no transitorios del sistema 12 anfitrión y/o del terminal 14 de usuario. Por ejemplo, en algunas realizaciones, el sistema 12 anfitrión puede determinar la información de la aeronave no tripulada, comunicar la información de la aeronave no tripulada al terminal 14 de usuario a través de la red 16, de manera que la información de la aeronave no tripulada pueda almacenarse en uno o más medios no transitorios legibles por ordenador. Adicional o alternativamente, el terminal 14 de usuario puede determinar la información de la aeronave no tripulada y almacenar la información de la aeronave no tripulada en uno o más medios no transitorios legibles por ordenador. En algunas realizaciones, el uno o más medios legibles por ordenador no transitorios pueden incluir una unidad flash USB u otro dispositivo de almacenamiento de datos similar.
En una etapa 52, la información de la aeronave no tripulada puede cargarse en la aeronave 18 no tripulada. Por ejemplo, la información de la aeronave no tripulada puede luego cargarse en la aeronave 18 no tripulada mediante la transferencia del medio legible por ordenador no transitorio (por ejemplo, una unidad flash USB) o transmitirse de forma inalámbrica desde el terminal 14 de usuario. Cabe señalar que la información de la aeronave no tripulada puede cargarse y/o almacenarse en la aeronave 18 no tripulada mediante cualquier comunicación, incluida la comunicación a través de la red 16.
La aeronave 18 no tripulada puede utilizar la información de la aeronave no tripulada para capturar una o más imágenes de la estructura 21, tales como imágenes oblicuas. Generalmente, la aeronave 18 no tripulada puede seguir la trayectoria 70 de vuelo dentro de la información de la aeronave no tripulada obteniendo una o más imágenes 62 oblicuas como se establece dentro de la información de control de la cámara y la información de control del cardán. En algunas realizaciones, un usuario puede manipular manualmente la trayectoria 70 de vuelo de la información de la aeronave no tripulada durante el vuelo de la aeronave 18 no tripulada. Por ejemplo, el usuario puede solicitar a la aeronave 18 no tripulada que agregue una trayectoria 70 de vuelo adicional o repita la misma trayectoria 70 de vuelo para obtener imágenes 62 adicionales.
En una etapa 54, el uno o más procesadores 24 pueden recibir una o más imágenes 62, tales como imágenes oblicuas, capturadas por la aeronave 18 no tripulada. La información de la trayectoria de vuelo, la información de control de la cámara y la información de control del cardán pueden dirigir la aeronave 18 no tripulada para capturar una o más imágenes 62 oblicuas en ubicaciones y momentos predeterminados como se describe en el presente documento. La una o más imágenes 62 oblicuas pueden comunicarse al uno o más procesadores 24 a través de la red y/o almacenarse en uno o más medios legibles por ordenador no transitorios. La una o más imágenes 62 oblicuas pueden almacenarse en una o más bases 34 de datos de imágenes. En algunas realizaciones, la una o más imágenes 62 oblicuas pueden comunicarse al terminal 14 de usuario, y el terminal 14 de usuario puede comunicar las imágenes 62 al uno o más procesadores 24.
En una etapa 56, el uno o más procesadores 24 pueden generar un informe de estructura. La lógica 36 de programa puede permitir que uno o más terminales 14 de usuario interactúen con el procesador 24 a través de la red 16 para proporcionar una o más páginas web de informes de estructura que permitan a los usuarios ver el informe de estructura. Por ejemplo, la figura 9 ilustra una captura 76 de pantalla ejemplar de un informe 78 de estructura en la unidad 22 de visualización de un terminal 14 de usuario.
Una o más imágenes 62 obtenidas de la cámara 19 de la aeronave 18 no tripulada pueden usarse para la evaluación de la estructura 21 para el informe 78 de estructura. Por ejemplo, si la estructura 21 es un edificio, las imágenes 62 obtenidas de la cámara 19 pueden utilizarse en una evaluación de seguro (por ejemplo, daños por inundaciones, daños por granizo, daños por tornados).
En el informe 78 de estructura se pueden proporcionar una o más imágenes 62 obtenidas de la cámara. Por ejemplo, el informe 78 de estructura en la figura 9 incluye un conjunto 82 de datos de imágenes. El conjunto 82 de datos de imágenes puede incluir imágenes 62 nadir y/u oblicuas de la estructura 21. Además, el conjunto 82 de datos de imágenes puede incluir una o más imágenes 62 de objetos de interés en y/o dentro de la estructura 21. Por ejemplo, si el informe 78 de estructura detalla daños a un tejado de la estructura 21, una o más imágenes 62 de daños al tejado pueden incluirse dentro del conjunto 82 de datos de imágenes. En algunas realizaciones, imágenes de terceros de la estructura 21 pueden incluirse dentro del informe 78 de estructura.
Se pueden proporcionar detalles estructurales en el informe 78 de estructura dentro de un conjunto 84 de datos de estructura como se ilustra en la figura 9. El conjunto 84 de datos de estructura puede incluir información relacionada con la estructura 21 que incluye, entre otros, área de la estructura 21 (por ejemplo, metros cuadrados (pies)), detalles del tejado (por ejemplo, pendiente, longitud de cumbrera, longitud de valle, longitud de alero, longitud del rastrillo), la altura de la estructura 21, y/o similares. Además, el conjunto 84 de datos de estructura puede incluir información de pedido para el informe 78 de estructura. Por ejemplo, el conjunto 84 de datos de estructura puede incluir información con respecto a la hora en que se realizó un pedido para el informe 78 de estructura, la hora en la que se completó el pedido para el informe 78 de estructura, el mecanismo de entrega para el informe 78 de estructura, el precio del pedido para el informe 78 de estructura, y/o similares, por ejemplo.
En base a la información de la trayectoria de vuelo, la información de control de la cámara y la información de control del cardán durante la captura de imágenes, también se puede conocer la ubicación de la cámara 19 con respecto a la estructura 21 para las imágenes capturadas. Por ejemplo, en algunas realizaciones, se puede determinar la ubicación X, Y, Z (por ejemplo, latitud, longitud y altitud) de una ubicación vista dentro de cada imagen 62. La información puede usarse para evaluar adicionalmente objetos en y/o dentro de la estructura 21. En algunas realizaciones, las imágenes 62 capturadas por la aeronave 18 no tripulada pueden usarse para generar un modelo bidimensional o tridimensional de la estructura 21.
En uso, algunas realizaciones del sistema 10 de evaluación de estructuras de aeronaves no tripuladas se pueden usar de la siguiente manera. Por ejemplo, un perito de seguros u otro operario de campo puede llegar a la estructura 21 para evaluar la estructura 21 en busca de daños o para la suscripción. El operario puede utilizar una aplicación en línea en un dispositivo informático portátil en red (por ejemplo, terminal 14 de usuario), tal como una tableta, teléfono inteligente u ordenador portátil, y seleccionar la propiedad y estructura 21. Esta selección se puede realizar con<información de identificación, por ejemplo, con un>GpS<que determina la ubicación actual del operario, ingresando una>dirección de calle en la barra de búsqueda, ingresando la ubicación geográfica en el terminal 14 de usuario, desplazándose por un mapa o imagen aérea mostrada en el terminal 14 de usuario de la ubicación actual, o a través de una propiedad objetivo preseleccionada realizada mediante prácticamente cualquier método que dé como resultado encontrar la propiedad y almacenarla para su posterior recuperación.
Una vez que se encuentra la ubicación, se puede mostrar una imagen o modelo tridimensional para esa propiedad y estructura 21 en la unidad 22 de visualización del terminal 14 de usuario. En una realización, la imagen puede ser una imagen oblicua y/o una imagen lateral de una calle, que puede proporcionar más información al operario para la verificación de la propiedad que las imágenes ortogonales tradicionales, ya que las imágenes ortogonales tradicionales no incluyen ninguna parte del lado de la imagen. Adicional o alternativamente, se puede utilizar un modelo 3D (que puede tener textura con una imagen oblicua o del lado de la calle). El operario puede verificar que la propiedad y estructura 21 en la unidad 22 de visualización coincida con la propiedad y estructura 21 a evaluar, para garantizar que el operario genere el informe adecuado.
Luego, el operario puede seleccionar la estructura 21 (por ejemplo, haciendo clic en la estructura 21 representada en la imagen) y puede solicitar un plan 70 de vuelo para esa estructura 21. Software, que se ejecuta en uno o ambos del terminal 14 de usuario y el sistema 12 anfitrión puede entonces aislar la estructura 21 y generar un contorno como se describió anteriormente. El software también puede hacer que el sistema del terminal 14 de usuario determine la altura (“H”) de la estructura 21, ya sea usando un método automatizado, o haciendo que el operario use una herramienta de altura en la imagen oblicua, tal como a través del método descrito en la patente estadounidense n.° 7,424,133. Esta altura H se puede utilizar para determinar automáticamente la altura de vuelo adecuada, el desplazamientoL<desplazamiento lateral y el desplazamiento>L<desplazamiento vertical para la trayectoria 70 de vuelo para la aeronave 18>no tripulada (que puede ser un sistema aéreo no tripulado). La altura H también se puede utilizar para apuntar la cámara 19 orientable transportada por la aeronave 18 no tripulada.
En una realización, se puede generar una “trayectoria objetivo” que sigue la trayectoria del perímetro de la estructura 21 y que está a una altura sobre el suelo tal que un centro C1 del campo de visión puede estar ubicado a la mitad de la altura de la estructura 21 como se ilustra en la figura 5. Por ejemplo, si la estructura 21 es una estructura de dos pisos y medio de 28' de altura, la trayectoria objetivo se generaría de manera que el centro C1 del campo de visión puede estar a 14' de altura sobre el suelo. Aunque, debe entenderse que la altura sobre el suelo no tiene por qué situar el centro C1 del campo de visión en la mitad de la altura de la estructura 21 y puede variar.
Se pueden usar características de la cámara 19, tales como, por ejemplo, la resolución efectiva deseada de la imagen, así como el tamaño general del sensor de la cámara 19 a bordo de la aeronave 18 no tripulada, para determinar el ancho de franja vertical máximo que se puede capturar en una sola pasada. Por ejemplo, si la resolución de imagen efectiva deseada es %” GSD y el sensor tiene 4000 píxeles en orientación vertical, entonces el ancho máximo de franja vertical sería 1000” o 125'. Se puede restar una zona de influencia B significativa para tener en cuenta errores de posición y orientación durante el vuelo, sacudidas debidas al viento y errores de posición absoluta en las imágenes de referencia. El tamaño de la zona B de influencia puede variar, pero puede ser aproximadamente una zona de influencia del 20 % en todos los lados de las imágenes. Como tal, en este ejemplo, el ancho máximo de franja vertical sería 75'. Si la estructura 21 tiene una altura H mayor que esta, entonces es posible que sea necesario capturar la estructura 21 en múltiples pasadas de la aeronave 18 no tripulada. Si es así, utilizando los mismos números de ejemplo anteriores, la primera pasada se capturaría a 37,5' por encima del suelo, la segunda a 112,5' sobre el suelo, la tercera a 187,5' sobre el suelo, y así sucesivamente hasta que se capturen las imágenes deseadas de la estructura 21.
Si la estructura 21 es más pequeña que el ancho de franja vertical máximo, entonces la resolución puede aumentarse más allá de la resolución de imagen efectiva deseada. En el ejemplo anterior de la casa de dos pisos y medio, la resolución se puede cambiar a 1/8”, lo que produciría un ancho de franja máximo de 37,5', que es más que suficiente para cubrir los 28' de altura de la estructura al tiempo que se incluye la zona B de influencia del 20 % en todos los lados.
Una vez determinada la resolución efectiva de la imagen, el desplazamiento L<desplazamiento>lateral y el desplazamiento V<desplazamiento>vertical podrán entonces determinarse. En una realización, el desplazamiento V<desplazamiento>vertical luego se puede determinar calculando la longitud de trayectoria que alcanza la resolución determinada. Por ejemplo, con un tamaño de cabeceo de sensor de 5 micrómetros y una lente de 50 mm, la longitud de trayectoria sería de 104'. Si las imágenes deseadas se van a capturar en un ángulo © de 40 grados (un ángulo de aproximadamente 40 grados a aproximadamente 50 grados hacia abajo desde la horizontal suele ser óptimo para imágenes aéreas oblicuas), entonces eso se traduce en un desplazamiento L<desplazamiento>lateral con una distancia de separación de 79,6' (coseno de 40 x 104') y un desplazamiento V<desplazamiento>vertical de ajuste de altura vertical de 66,8' (seno de 40 x 104').
Usando la trayectoria objetivo como punto de partida, la trayectoria ahora crecerá según la distancia del desplazamiento L<desplazamiento>lateral requerido y del desplazamiento V<desplazamiento>vertical utilizando operaciones morfológicas o de geometría estándar para crear la trayectoria 70 de vuelo. Por ejemplo, si la trayectoria objetivo fuera un círculo perfecto, el radio se extendería la distancia del desplazamiento L<desplazamiento>lateral de 79,6'. Si la trayectoria objetivo fuera un rectángulo, cada lado se extendería hacia afuera la distancia del desplazamiento L<desplazamiento>lateral de 79,6'. La altitud de vuelo para la trayectoria 70 de vuelo se puede determinar sumando la distancia del desplazamiento V<desplazamiento>vertical a la altura de la trayectoria objetivo y luego se sumaría eso a la elevación del suelo para el punto de inicio de la trayectoria 70 de vuelo. En el ejemplo de la casa de 28', la altitud de vuelo sería la suma de la altura de la trayectoria objetivo de 14' sobre suelo, el desplazamiento V<desplazamiento>vertical de 66,8' para la resolución deseada y la elevación de la base al inicio, que para este ejemplo será 280' sobre el elipsoide. Por tanto, la altura de vuelo resultante sería 360,8' sobre el elipsoide.
Los sistemas basados en GPS utilizan alturas elipsoidales. Si los datos de elevación disponibles, como un modelo de elevación digital estándar de la industria o la información del plano de tierra teselado contenida en las imágenes oblicuas, como se describe en la patente estadounidense n.° 7,424,133, se define en el nivel medio del mar, el valor de separación geoide para esa área se puede retroceder para determinar una altura elipsoidal, como es una práctica fotogramétrica bien conocida. Desde el punto de vista del software, se puede utilizar una biblioteca de software como la que está disponible en Blue Marble Geo para realizar esta conversión automáticamente.
A continuación, el software puede determinar los puntos de captura objetivo de la información de control de la cámara. Los puntos de captura objetivo pueden estar espaciados a lo largo de la trayectoria objetivo de tal manera que se asegure una cobertura total de la estructura 21 vertical. Esto se puede determinar usando un método similar al que se hizo con el ancho de franja vertical máximo. Una vez conocida la resolución deseada, se multiplica por el número de píxeles en la orientación horizontal del sensor de la cámara 19 y luego se resta la superposición suficiente.
Utilizando el ejemplo anterior, si hay 3000 píxeles en el sensor de la cámara 19 en la orientación horizontal y el software utiliza la misma superposición del 20 % y una resolución de imagen efectiva GSD de %” que se analiza anteriormente, entonces una distancia de separación adecuada los puntos de captura objetivo serían de 18,75'. Por lo tanto, se seleccionaría un punto de inicio arbitrario (normalmente se utiliza una esquina a lo largo de la pared frontal) y luego, yendo en una dirección arbitraria, se colocaría un punto de captura objetivo en la trayectoria objetivo cada 18,75' así como uno en la siguiente esquina si ocurre antes de un incremento completo. Luego se puede colocar un punto de captura objetivo al inicio del siguiente segmento a lo largo de la trayectoria objetivo y este patrón se puede repetir hasta que todos los segmentos tengan puntos de captura objetivo.
Una vez que se han determinado todos los puntos de captura de objetivos, los puntos de captura de objetivos se pueden proyectar sobre la trayectoria 70 de vuelo para crear puntos de captura de vuelo. Esta proyección se puede lograr extendiendo una línea hacia afuera desde la trayectoria objetivo que sea perpendicular a la trayectoria objetivo y encontrando dónde la línea intersecta la trayectoria 70 de vuelo. Esto tiene el efecto de aplicar la distancia de desplazamiento L<desplazamiento>lateral y desplazamiento V<desplazamiento>vertical calculados anteriormente. Estos puntos de captura de vuelo pueden usarse luego para disparar la cámara 19 cuando la aeronave 18 no tripulada pasa por los puntos de captura de vuelo. Al hacerlo, la aeronave 18 no tripulada puede mantener la cámara apuntada al respectivo punto de captura objetivo. Esta orientación se puede lograr mediante varios métodos, tales como una aeronave 18 no tripulada que puede girar, pero se logra mejor con una montura 220 de cardán controlada por ordenador para la cámara 19.
Adicional o alternativamente, la cámara 19 de la aeronave 18 no tripulada puede implementarse con un “modo de vídeo en movimiento completo”, mediante el cual se capturan imágenes continuas a una alta velocidad (normalmente superior a 1 fotograma por segundo hasta e incluso más de 30 fotogramas por segundo). La captura a altas velocidades de fotograma garantiza una superposición suficiente de las imágenes. Sin embargo, capturar a altas velocidades de fotogramas también genera una cantidad mucho mayor de datos de imagen, lo que requiere tiempos de carga más prolongados que cantidades más pequeñas de datos de imagen. Además, muchas cámaras 19 son capaces de capturar imágenes de mayor resolución en modo “vídeo de fotograma fijo” así como en modo “vídeo de movimiento completo”. Si bien se prefiere el modo de vídeo de fotograma fijo desde el punto de vista de la resolución y la transferencia de datos, si la cámara 19 tiene un modo de vídeo de movimiento completo, entonces también se puede utilizar el modo de vídeo de movimiento completo. Cuando está en modo de vídeo de movimiento completo, la aeronave 18 no tripulada puede seguir la trayectoria 70 de vuelo manteniendo la cámara 19 apuntada hacia la trayectoria objetivo mientras captura vídeo de movimiento completo.
La aeronave 18 no tripulada puede seguir la trayectoria 70 de vuelo indicada mediante vuelo autónomo. Existen numerosos sistemas informáticos que se pueden configurar como sistema de gestión de vuelos para lograrlo disponibles en el mercado actual. El sistema de gestión de vuelo, ya sea a bordo o en tierra y que se comunica con la aeronave 18 no tripulada a través de comunicación remota, puede entonces rastrear el progreso de la aeronave 18 no tripulada a lo largo de la trayectoria 70 de vuelo. Cuando la aeronave 18 no tripulada pasa por un punto de captura de vuelo, la cámara 19 puede activarse para capturar un fotograma. O en el caso de que se haya seleccionado video de movimiento completo, la cámara 19 puede estar disparando continuamente mientras la aeronave 18 no tripulada vuela a lo largo de la trayectoria 70 de vuelo. La posición y orientación de la aeronave 18 no tripulada pueden monitorearse y la cámara 19 apuntar hacia el correspondiente punto de captura objetivo, o en el caso de que se haya seleccionado video de movimiento completo, el sistema de gestión de vuelo puede mantener la cámara apuntada hacia el punto más cercano en la trayectoria objetivo. Esto se puede lograr calculando el desplazamiento direccional relativo entre la línea que avanza en la trayectoria de vuelo y la línea desde el punto de captura de vuelo hasta el punto de captura objetivo (o el punto más cercano en la trayectoria 70 de vuelo para video de movimiento completo). Esto da como resultado unos desplazamientos de guiñada y declinación del cardán de la cámara. Normalmente, estos desplazamientos son una guiñada relativa de 90 grados y una declinación relativa igual al ángulo oblicuo de visión hacia abajo seleccionado anteriormente (en el ejemplo, 40 grados). Sin embargo, dado que los sistemas aerotransportados se mueven continuamente por el aire, es posible que sea necesario tener en cuenta los desplazamientos para un cambio de posición, un cambio debido a la inclinación o un cambio en la guiñada, cabeceo o balanceo de la aeronave 18 no tripulada. Nuevamente, esto se puede hacer usando la trayectoria de avance a lo largo de la trayectoria 70 de vuelo en donde se encuentra actualmente la aeronave 18 no tripulada, y desviándose mediante desvíos relativos de guiñada, cabeceo y balanceo de la aeronave 18 no tripulada medidos por el sistema de posición y orientación, y luego se ajusta aún más mediante la guiñada y la declinación relativas como se describió anteriormente.
En una realización, un sistema computarizado para una aeronave 18 no tripulada puede comprender un sistema informático que tiene uno o más procesadores 23, 24, 27 y uno o más medios 25, 26, 29 legibles por ordenador no transitorios. El sistema informático puede comprender uno o más del procesador 23 de la aeronave 18 no tripulada, el procesador 24 del sistema 12 anfitrión, el procesador 27 del terminal 14 de usuario, y combinaciones de los mismos. El sistema informático puede comprender uno o más medios 29 no transitorios legibles por ordenador de la aeronave 18 no tripulada, el medio 26 no transitorio legible por ordenador del sistema 12 anfitrión, el medio 25 no transitorio legible por ordenador del terminal 14 de usuario, y combinaciones de los mismos.
El uno o más procesadores 23, 24, 27 pueden ejecutar software de análisis y visualización de imágenes para hacer que el uno o más procesadores 23, 24, 27 generen información de aeronaves no tripuladas que incluye información de trayectoria de vuelo para capturar imágenes 62 de una sección de un tejado que tiene un avión. Tal como se utiliza en el presente documento, el término “plano de tejado” es una superficie sobre la cual se ubicaría completamente una línea recta que une dos puntos cualesquiera de la superficie. La información de la trayectoria de vuelo puede configurarse para dirigir la aeronave 18 no tripulada para que vuele una trayectoria 70 de vuelo basada al menos en parte en un cabeceo 49 de la sección del tejado y la información de uno o más sensores 17 indicativos de una ubicación de la sección del tejado. La trayectoria 70 de vuelo puede configurarse para incluir puntos de ruta en donde la aeronave 18 no tripulada puede capturar imágenes 62 a una distancia 47 de captura de imágenes consistente desde el plano del tejado de la sección del tejado. La distancia 47 de captura de imágenes, que puede denominarse “distancia de muestra”, desde el tejado hasta la cámara 19 puede determinar la resolución de las imágenes 62 del tejado capturadas por la cámara 19 cuando otros parámetros de la cámara siguen siendo los mismos.
La trayectoria 70 de vuelo puede ser paralela al plano del tejado del tejado de la estructura 21, basándose en el cabeceo 49 de la superficie de la estructura 21 y en mantener una distancia 47 de captura de imágenes sustancialmente consistente entre el tejado de la estructura 21 y la aeronave 18 no tripulada. La trayectoria 70 de vuelo puede estar sustancialmente dentro de, y/o ajustarse para estar sustancialmente dentro de un rango 51 predeterminado de distancias 47 de captura de imágenes desde el tejado.
Haciendo referencia ahora a la figura 11, en una realización, un método 100 de navegación de una aeronave 18 no tripulada que captura imágenes 62 de un tejado usando cabeceo 49 puede comprender una etapa 102 de recibir, por parte de la aeronave 18 no tripulada, una trayectoria 70 de vuelo para la aeronave 18 no tripulada en relación con un tejado de una estructura 21. El tejado puede tener una pluralidad de secciones. La trayectoria 70 de vuelo puede tener puntos de ruta para capturar una o más imágenes 62 del tejado basándose en un modelo tridimensional del tejado que incluye un cabeceo 49 y/o dirección de pendiente para cada sección del tejado. El cabeceo 49 se puede expresar como “elevación sobre el recorrido” (una relación, expresada como una fracción, siendo el numerador el aumento en la distancia vertical y el denominador el recorrido en la distancia horizontal) y/o como un ángulo. Dos o más puntos de ruta de la trayectoria 70 de vuelo están dentro de un rango predeterminado de distancias de captura de imágenes desde el tejado.
En una etapa 104, el método 100 puede comprender recibir, por el uno o más procesadores 23, 24, 27 informáticos, una primera lectura de sensor de uno o más sensores 17 en la aeronave 18 no tripulada. La primera lectura de sensor puede ser indicativa de una primera distancia 41 entre la aeronave 18 no tripulada y el tejado de la estructura 21.
En una etapa 106, el método 100 puede comprender determinar, con el uno o más procesadores 23, 24, 27 informáticos, una distancia 47 de captura de imágenes actual desde el tejado a lo largo de una línea de visión hasta un sensor 17, tal como una cámara 19, en la aeronave 18 no tripulada. La determinación de la distancia 47 de captura de imágenes puede basarse en la primera distancia 41 y el cabeceo 49 del tejado.
En una etapa 108, el método 100 puede comprender ajustar la ubicación de la aeronave 18 no tripulada basándose en la distancia 47 de captura de imágenes actual para mantener la cámara 19 dentro del rango 51 predeterminado de distancias 47 de captura de imágenes en los puntos de ruta de la trayectoria 70 de vuelo y/o a lo largo de la trayectoria 70 de vuelo.
En una etapa 110, el método 100 puede comprender capturar imágenes del tejado de la estructura 21 con la cámara 19 en la aeronave 18 no tripulada en los puntos de ruta de la trayectoria 70 de vuelo dentro del rango 51 predeterminado de distancias de captura de imágenes.
Haciendo referencia ahora a la figura 12, en una realización, un método 150 para navegar una aeronave 18 no tripulada usando cabeceo puede comprender una etapa 152 de determinar, utilizando un primer sensor 17 en la aeronave 18 no tripulada, una primera distancia 41 o 43 entre la aeronave 18 no tripulada y un tejado de la estructura 21. En una etapa 154, el método 150 puede comprender orientar la cámara 19 en la aeronave 18 no tripulada para capturar un campo de visión del tejado en un ángulo 53 deseado en relación con el tejado, basándose en un cabeceo 49 conocido del tejado. En una etapa 156, el método 150 puede comprender determinar una distancia 47 de captura de imágenes desde el tejado a lo largo de una línea de visión hasta la cámara 19 en el ángulo 53 deseado, basándose al menos en la primera distancia 41 o 43 y el cabeceo 49.
La aeronave 18 no tripulada se puede mover a un rango 51 predeterminado de distancias 47 de captura de imágenes desde el tejado de la estructura 21. En una realización, mover la aeronave 18 no tripulada a un rango 51 predeterminado de distancias 47 de captura de imágenes se puede lograr visualizando un mensaje en el terminal 14 del operario para solicitar al operario a que navegue la aeronave 18 no tripulada dentro del rango 51 predeterminado de distancias 47 de captura de imágenes. Adicional o alternativamente, un sistema de gestión de vuelo autónomo dentro de la aeronave 18 no tripulada puede recibir instrucciones para navegar la aeronave 18 no tripulada en el rango 51 predeterminado de distancias 47 de captura de imágenes.
En una realización, opcionalmente, el método 150 puede comprender además la etapa 158, que comprende mostrar la distancia 47 de captura de imágenes determinada a un operario de la aeronave 18 no tripulada (por ejemplo, como se muestra en la figura 28, y tal como en la unidad 22 de visualización del terminal 14 de usuario); recibir, por parte de la aeronave 18 no tripulada, una orden con instrucciones para mover la aeronave 18 no tripulada a un rango 51 predeterminado de distancias 47 de captura de imágenes desde el tejado de la estructura 21; hacer navegar el aeronave 18 no tripulada hasta el rango 51 predeterminado; y capturar, con la cámara 19 de la aeronave 18 no tripulada, una o más imágenes 62 del tejado de la estructura 21 desde el rango 51 predeterminado de distancias 47 de captura de imágenes.
Adicional o alternativamente, la etapa 158, en una realización, el método 150 puede comprender además opcionalmente una etapa 160 que comprende determinar, con el uno o más procesadores 23, 24, 27 informáticos, que la distancia 47 de captura de imágenes determinada está fuera de un rango 51 predeterminado de distancias 47 de captura de imágenes desde el tejado de la estructura 21; mover la aeronave 18 no tripulada al rango 51 predeterminado de distancias 47 de captura de imágenes; y capturar, con la cámara 19 de la aeronave 18 no tripulada, una o más imágenes 62 del tejado de la estructura 21 desde el rango 51 predeterminado de distancias 47 de captura de imágenes.
En una realización, las etapas 156 y 158 y/o 160 pueden repetirse en una pluralidad de puntos de ruta en la trayectoria de vuelo de la aeronave 18 no tripulada y/o en otros puntos en la trayectoria de vuelo de la aeronave 18 no tripulada.
Haciendo referencia ahora a la figura 13, en una realización, un método 200 para navegar una aeronave 18 no tripulada usando cabeceo puede comprender una etapa 202 que puede comprender recibir, mediante uno o más procesadores 23, 24, 27 informáticos, una primera lectura de sensor de uno o más sensores 17 en la aeronave 18 no tripulada en una primera posición indicativa de una primera distancia 41 entre la aeronave no tripulada y un tejado de una estructura 21. La etapa 202 puede comprender además recibir, por parte del procesador 23, 24, 27 informático, una segunda lectura del sensor desde el uno o más sensores 17 en la aeronave 18 no tripulada en la primera posición indicativa de una segunda distancia 43 entre la aeronave 18 no tripulada y el tejado de la estructura 21. El ángulo 39 entre la línea de visión de la lectura del segundo sensor y la línea de visión de la primera lectura del sensor puede ser conocido (que también puede denominarse ángulo 39 conocido entre el punto de captura de la primera distancia 41 y el punto de captura de la segunda distancia 43), por ejemplo, basándose en ubicaciones conocidas y/u orientaciones del uno o más sensores 17 en la aeronave 18 no tripulada.
El método 200 puede comprender además una etapa 204 que comprende determinar, con el procesador 23, 24, 27 informático, un cabeceo 49 del tejado usando la primera distancia 41, la segunda distancia 43 y el ángulo 39 conocido. En una realización, determinar el cabeceo 49 puede comprender determinar el cabeceo 49 cuando el ángulo 39 conocido es de aproximadamente noventa grados, y la primera distancia 41 es una “distancia hacia adelante” en relación con la aeronave 18 no tripulada, y la segunda distancia 43 es una “distancia hacia abajo” distinta de cero de la aeronave 18 no tripulada. En tal ejemplo, el cabeceo 49 del tejado se puede determinar usando la siguiente fórmula:
Como se muestra en la figura 35, en una realización, determinar el cabeceo 49 puede comprender determinar el cabeceo 49 cuando el ángulo 39 conocido es menor o mayor que aproximadamente noventa grados, y la primera distancia 41 es una “distancia hacia adelante” en relación con la aeronave 18 no tripulada que es mayor que la segunda distancia 43, donde la segunda distancia 43 es una “distancia hacia abajo” distinta de cero desde la aeronave 18 no tripulada. En tal ejemplo, el cabeceo 49 del tejado se puede determinar usando la siguiente fórmula (donde “a “ es la primera distancia 41, donde “b” es la segunda distancia 43, y como se muestra en la figura 35):
En una realización, determinar el cabeceo 49 puede comprender determinar el cabeceo 49 cuando el ángulo 39 conocido es menor o mayor que aproximadamente noventa grados, y la primera distancia 41 es una “distancia hacia adelante” en relación con la aeronave 18 no tripulada que es menor que la segunda distancia 43, donde la segunda distancia 43 es una “distancia hacia abajo” distinta de cero desde la aeronave 18 no tripulada. En tal ejemplo, el cabeceo 49 del tejado se puede determinar usando la siguiente fórmula (donde “a” es la primera distancia 41, donde “b” es la segunda distancia 43, y como se muestra en la figura 35):
Además, la distancia 47 de captura de imágenes al tejado desde la cámara 19 se puede determinar utilizando una o ambas de las siguientes fórmulas cuando el ángulo 39 conocido es de aproximadamente noventa grados (donde “a” es la primera distancia 41, donde “b” es la segunda distancia 43):
Distancia de captura de imágenes = a * sen(cabeceo del tejado)
Distancia de captura de imágenes = b * cos(cabeceo del tejado)
Además, como se muestra en la figura 36, la distancia 47 de captura de imágenes al tejado desde la cámara 19 se puede determinar utilizando las siguientes fórmulas cuando el ángulo 39 conocido no es de noventa grados (donde “a” es la primera distancia 41, donde “b” es la segunda distancia 43):
Distancia de captura de imágenes = (b sen(90 - cabeceo del tejado 0 ) ) / (sen(Q cabeceo del tejado)) donde el ángulo N = 90 - Q cabeceo del tejado.
En una realización, la aeronave 18 no tripulada puede tener dos o más sensores 17 orientados hacia adelante y/o dos o más sensores 18 orientados hacia abajo en relación con la aeronave 18 no tripulada. En tal caso, los procesadores 23, 24, 27 informáticos pueden recibir dos o más lecturas de sensor de los dos o más sensores 17 orientados hacia adelante indicativos de dos o más primeras distancias 41, y pueden utilizar el valor más pequeño distinto de cero de las dos o más primeras distancias 41 como la “distancia hacia adelante” en la determinación del cabeceo 49 del tejado. Asimismo, el procesador 23, 24, 27 informático puede recibir dos o más lecturas de sensor de los dos o más sensores 17 orientados hacia abajo indicativos de dos o más segundas distancias 43, y puede utilizar el valor más pequeño distinto de cero de las dos o más segundas distancias 43 como la “distancia hacia abajo” en la determinación del cabeceo 49 del tejado.
El procesador 23, 24, 27 informático puede usar las lecturas del sensor específicamente de los sensores 17 de visión que apuntan hacia adelante para determinar la primera distancia 41 (la distancia hacia adelante). A diferencia de lo que sucede con los sensores descendentes ultrasónicos/infrarrojos, el SDK puede obtener las lecturas de cada sensor 17 de visión individual. Para determinar la primera distancia 41 (la distancia hacia adelante), el procesador 23, 24, 27 informático puede explorar todos los sensores 17 que apuntan hacia adelante en la aeronave 18 no tripulada (por ejemplo, cuatro sensores en la serie Phantom 4 Pro, dos sensores en la serie Mavic 2), y puede devolver la lectura más pequeña entre ellos siempre que esa lectura no sea cero.
El método 200 puede comprender además una etapa 206 que comprende determinar, con el uno o más procesadores 23, 24, 27 informáticos, una distancia 47 de captura de imágenes desde el tejado a lo largo de una línea de visión hasta la cámara 19 en la aeronave 18 no tripulada a un ángulo 53 de cámara deseado en relación con el tejado, en base al cabeceo 49, el ángulo 53 deseado, y una o más de la primera distancia 41 y la segunda distancia 43. En una realización, determinar la distancia de captura de imágenes puede comprender usar el cabeceo 49 combinado con una o más de la primera distancia 41 y la segunda distancia 43.
Por ejemplo, la distancia 47 de captura de imágenes se puede determinar usando una o ambas de las siguientes fórmulas:
(1) distancia de captura de imágenes = SEN (ángulo de cabeceo del tejado)*(primera distancia)
(2) distancia de captura de imágenes = COS(ángulo de cabeceo del tejado)*(segunda distancia)
En una realización de cualquiera de los métodos descritos en el presente documento, incluidos, entre otros, los métodos 100, 150, 200, la distancia 47 de captura de imágenes se puede determinar usando las siguientes etapas: (1) Recibir, obtener o determinar la primera distancia 41 (por ejemplo, una “distancia hacia adelante”) y la segunda distancia 43 (por ejemplo, una “distancia hacia abajo”).
(2) Si tanto la primera distancia 41 como la segunda distancia 43 están bien definidas (el término “bien definido” como se usa en el presente documento significa que el sensor 17 está detectando un objeto y el valor de lectura del sensor no es cero), entonces:
a. Si la primera distancia 41 (distancia hacia adelante) es menor que la segunda distancia 43 (distancia hacia abajo), entonces:
i. Establecer “distancia a usar” en la primera distancia 41 (distancia hacia adelante);
ii. Establecer “fuente de distancia” en “Adelante”.
b. De lo contrario:
i. Establecer la “distancia a usar” en la segunda distancia 43 (distancia hacia abajo);
ii. Establecer “fuente de distancia” en “Hacia abajo”.
(3) De lo contrario, si sólo la primera distancia 41 (distancia hacia adelante) está bien definida:
a. Establecer “distancia a usar” en la primera distancia 41 (distancia hacia adelante)
b. Establecer “fuente de distancia” en “Adelante”;
(4) En caso contrario, si sólo está bien definida la segunda distancia 43 (distancia hacia abajo):
a. Establecer la “distancia a usar” en la segunda distancia 43 (distancia hacia abajo);
b. Establecer “fuente de distancia” como “Hacia abajo”.
(5) Si tanto la “distancia a usar” como la “fuente de distancia” están bien definidas:
a. Si “fuente de distancia” es “Adelante”:
i. Determinar la distancia lineal al tejado (la distancia 47 de captura de imágenes) usando la siguiente fórmula:
Distancia al tejado = distancia a usar x sen(cabeceo del tejado)
b. De lo contrario:
i. Determinar la distancia lineal al tejado (la distancia 47 de captura de imágenes) usando la siguiente fórmula:
Distancia al tejado = distancia a usar x cos(cabeceo del tejado)
Además, el método 200 puede comprender una etapa 208 que puede comprender orientar la cámara 19 en la aeronave 18 no tripulada para capturar un campo de visión del tejado en un ángulo 53 deseado con relación al plano del tejado, en función del cabeceo 49 del tejado.
En una realización, opcionalmente el método puede comprender además una etapa 210, que puede comprender mostrar la distancia 47 de captura de imágenes determinada a un operario de la aeronave 18 no tripulada (ver, por ejemplo, la figura 28); recibir, por parte de la aeronave 18 no tripulada, una orden con instrucciones para mover la aeronave 18 no tripulada dentro de un rango 51 predeterminado de distancias 47 de captura de imágenes desde el tejado de la estructura 21; hacer navegar la aeronave 18 no tripulada hasta el rango 51 predeterminado; y capturar, con una cámara 19 en la aeronave 18 no tripulada, una o más imágenes 62 del tejado de la estructura 21 desde el rango 51 predeterminado de distancias 47 de captura de imágenes.
En una realización, adicional o alternativamente a la etapa 210, opcionalmente el método 200 puede comprender además una etapa 212 que puede comprender determinar, con el procesador 23, 24, 27 informático, que la distancia 47 de captura de imágenes determinada está fuera de un rango 51 predeterminado de distancias 47 de captura de imágenes desde el tejado de la estructura 21; mover la aeronave 18 no tripulada al rango 51 predeterminado de distancias 47 de captura de imágenes; y capturar, con la cámara 19 de la aeronave 18 no tripulada, una o más imágenes 62 del tejado de la estructura 21 desde el rango 51 predeterminado de distancias 47 de captura de imágenes.
En una realización, las etapas 206 y 208 y/o 210 pueden repetirse en una pluralidad de puntos de ruta en la trayectoria de vuelo de la aeronave 18 no tripulada y/o en otros puntos en la trayectoria de vuelo de la aeronave 18 no tripulada.
Con referencia a uno cualquiera o más de los métodos descritos en el presente documento, en una realización, los métodos 100, 150, 200 pueden comprender además recibir información de ubicación GPS con respecto a la ubicación geográfica de la aeronave 18 no tripulada basada en un sistema de posicionamiento global (GPS). Sin embargo, la información de ubicación GPS puede ser inexacta, ya que la información de ubicación GPS para la aeronave 18 no tripulada puede tener un error de más o menos 1,524 metros (cinco pies) desde la ubicación real de la aeronave 18 no tripulada. En una realización, la información de ubicación GPS puede usarse como punto de partida para la aeronave 18 no tripulada en relación con la ubicación de la estructura 21. El método 100 puede luego usar la primera lectura del sensor y/o la segunda lectura del sensor indicativas de las distancias primera y/o segunda al tejado y coordenadas del mundo real del tejado (que se pueden obtener a partir de un modelo tridimensional que tiene coordenadas del mundo real de partes del tejado) para ajustar la información de ubicación GPS para obtener la ubicación real de la aeronave 18 no tripulada. La información de ubicación GPS ajustada puede luego usarse para navegar la aeronave 18 no tripulada.
El ángulo 53 deseado de la línea de visión (también denominado campo de visión) desde la cámara 19 en relación con el plano del tejado puede ser cualquier ángulo que produzca imágenes 62 del tejado (ver la figura 19). En una realización, el ángulo 53 deseado es sustancialmente perpendicular a la superficie para capturar imágenes 62 sustancialmente perpendiculares a la superficie. El término “sustancialmente perpendicular” como se usa en el presente documento significa dentro de las tolerancias de la aeronave 18 no tripulada, el cardán (cuando se use) y la cámara 19, y está preferiblemente dentro del rango de aproximadamente ochenta y siete a aproximadamente noventa y tres grados medidos desde una línea o plano definido en la superficie. En una realización, el ángulo 53 deseado puede basarse en un tipo de condición del tejado que se va a evaluar. Por ejemplo, si la condición del tejado a evaluar es la cantidad y/o naturaleza del daño por granizo, entonces el ángulo 53 deseado puede estar en un rango menor o mayor que noventa grados. Tal ángulo oblicuo con relación al tejado puede permitir que las imágenes 62 capturen el daño del granizo con mayor precisión, debido a la naturaleza de las sombras que interactúan con las hendiduras en el tejado causadas por el granizo.
En una realización, los métodos 100, 150, 200 pueden comprender además asociar la distancia 47 de captura de imágenes determinada con la una o más imágenes 62, tales como metadatos de imagen.
Además, en una realización, el rango de distancia de captura de imagen predeterminado puede estar entre aproximadamente 1,2192 metros (cuatro pies) y aproximadamente 4,572 metros (quince pies). En una realización, el rango de distancia de captura de imagen predeterminado puede estar dentro de un rango de 0,6096 metros (dos pies) a 6,096 metros (veinte pies), y más preferiblemente de 2,4384 metros (ocho pies) a 3,6576 metros (doce pies). En una realización, el rango de distancia de captura de imagen predeterminado puede estar dentro de un rango de 1,524 metros (cinco pies) a 3,6576 metros (doce pies). La distancia 47 de captura de imagen deseada puede depender de una variedad de factores que incluyen una resolución deseada del tejado y el tamaño del sensor de la cámara 19.
En una realización, el uno o más sensores 17 pueden comprender dos o más sensores 17.
En una realización, uno o más de los métodos 100, 150, 200 pueden comprender además recibir, mediante el procesador 23, 24, 27 informático, una o más lecturas de sensores adicionales del uno o más sensores 17 en la aeronave 18 no tripulada en una o más posiciones adicionales de la aeronave 18 no tripulada, indicativas de distancias adicionales entre la aeronave 18 no tripulada y el tejado de la estructura 21. En una realización, el procesador 23, 24, 27 informático puede determinar la ubicación de una o más de las crestas del tejado, los aleros del tejado y el canalón del tejado comparando la primera distancia 41 o la segunda distancia 43 con las distancias adicionales en función de la magnitud del cambio entre las distancias 41, 43 primera o segunda y la siguiente de las distancias adicionales.
Por ejemplo, si se determina que la primera distancia 41 cuando la aeronave no tripulada está en una primera posición es 1,524 metros (cinco pies) desde el sensor 17 hasta el tejado, pero la siguiente distancia adicional cuando la aeronave no tripulada está en una segunda posición se determina que está a 6,096 metros (veinte pies) del sensor, entonces el procesador 23, 24, 27 informático puede determinar que el sensor 17 ya no está leyendo la distancia hasta el tejado, sino más bien hasta algún lugar más allá de la cumbrera o alero del tejado. El procesador 23, 24, 27 informático puede determinar de este modo la ubicación de la cresta o el alero basándose en la posición de la lectura del sensor y las posiciones primera y/o segunda de la aeronave 18 no tripulada. Se pueden tomar lecturas de sensor adicionales para mejorar la exactitud de la ubicación.
A modo de ejemplo, ahora se describirán los métodos 150, 200 para navegar la aeronave 18 no tripulada usando el cabeceo. Haciendo referencia ahora a la figura 14, en una realización, un operario puede ordenar a la aeronave 18 no tripulada que se mueva a una posición en relación con el tejado de la estructura 21 por encima y por delante de un canal o alero 250 del tejado y por debajo de una cresta 252 del tejado, tal como que uno o más sensores 17 de la aeronave 18 no tripulada estén alineados para detectar el tejado.
En una realización, opcionalmente, el operario puede calibrar la aeronave 18 no tripulada para confirmar la posición correcta en relación con el tejado. Por ejemplo, como se muestra en la figura 15, la aeronave 18 no tripulada puede apuntar la cámara 19 hacia abajo en relación con la aeronave 18 no tripulada (por ejemplo, activando un cardán unido a la cámara 19) y activar la cámara 19 (o activar una cámara 19 orientada hacia abajo). La imagen capturada por la cámara 19 se puede usar para confirmar que la aeronave 18 no tripulada está colocada sobre el tejado y en o más allá del alero 250 hacia la cresta 252. La figura 16 ilustra una imagen 62 ejemplar del tejado capturada desde una cámara 19 orientada hacia abajo en tal posición.
Adicional o alternativamente, como se muestra en la figura 17, la aeronave 18 no tripulada puede apuntar la cámara 19 hacia adelante (hacia el tejado) en relación con la aeronave 18 no tripulada (por ejemplo, activando un cardán unido a la cámara 19) y activar la cámara 19 (o activar una cámara 19 orientada hacia adelante). La imagen capturada por la cámara 19 puede usarse para confirmar que la aeronave 18 no tripulada (o al menos la cámara 19) está colocada al menos parcialmente debajo de la cresta 252 del tejado. La figura 18 ilustra una imagen 62 ejemplar del tejado capturada desde una cámara 19 orientada hacia adelante en tal posición.
En una realización, como se ilustra en la figura 19, la aeronave 18 no tripulada puede utilizar un primer sensor 17a o un primer sensor de dirección (tal como un sensor “orientado hacia adelante” en relación con la dirección de vuelo de la aeronave 18 no tripulada) para detectar una primera distancia 41 desde la aeronave 18 no tripulada al tejado de la estructura 21. Opcionalmente, en una realización, como se ilustra en las figuras 15-16, se puede mostrar al operario una imagen 62 del tejado para confirmar que el primer sensor 17a está alineado para detectar el tejado.
En una realización, como se ilustra en la figura 19, la aeronave 18 no tripulada puede utilizar un segundo sensor 17b o un segundo sensor de dirección (tal como un sensor “orientado hacia abajo” en relación con la dirección de vuelo de la aeronave 18 no tripulada) para detectar una segunda distancia 43 de la aeronave 18 no tripulada al tejado de la estructura 21. Opcionalmente, en una realización, como se ilustra en las figuras 17-18, se puede mostrar al operario una imagen 62 del tejado para confirmar que el segundo sensor 17 está alineado para detectar el tejado.
En una realización, la aeronave 18 no tripulada y/o el sistema 12 anfitrión pueden usar la primera distancia 41 y la segunda distancia 43 desde la aeronave 18 no tripulada hasta el tejado, junto con un ángulo 39 conocido entre el primer sensor 17 y la línea de visión del segundo sensor 17, para determinar un cabeceo 49 del tejado, como en la figura 19. En una realización, el cabeceo 49 puede conocerse o proporcionarse a partir de cálculos, modelos u otras fuentes de datos anteriores como se analiza en el presente documento. Opcionalmente, en una realización, el cabeceo 49 del tejado se puede mostrar al operario. En el ejemplo mostrado en la figura 19, el cabeceo 49 tiene un valor de 4,5/12 (o 20,6 grados).
En una realización, el ángulo 53 de la línea de visión de la cámara 19 se puede ajustar (o verificar que esté orientado a) un ángulo 53 deseado en función del cabeceo 49 del tejado. Por ejemplo, como se muestra en la figura 19, el ángulo 53 de la cámara se puede ajustar para que sea sustancialmente perpendicular al tejado para capturar imágenes 62 sustancialmente perpendiculares al plano del tejado. El ángulo 53 de la línea de visión de la cámara 19 puede ajustarse a más o menos de noventa grados con relación al plano del tejado. El ángulo 53 de la línea de visión de la cámara 19 se puede ajustar ajustando un cardán en donde se puede montar la cámara 19 en la aeronave 18 no tripulada y/o cambiando la guiñada, cabeceo y/o balanceo de la aeronave 18 no tripulada.
Los puntos de ruta de la trayectoria 70 de vuelo de la aeronave 18 no tripulada en donde la cámara 19 captura imágenes 62 (y/o la propia trayectoria 70 de vuelo) pueden determinarse y/o ajustarse basándose en el cabeceo 49 del tejado. Los puntos de ruta de la trayectoria 70 de vuelo y/o la trayectoria 70 de vuelo pueden determinarse y/o ajustarse de manera que la aeronave 18 no tripulada capture imágenes 62 en los puntos de ruta a una distancia de captura de imagen consistente desde el tejado, lo que produce imágenes 62 de resolución consistente cuando los demás parámetros de la cámara 19 permanecen iguales. La resolución consistente entre las imágenes 62 tomadas en múltiples puntos de ruta se puede utilizar para comparar y/o medir y/o evaluar el contenido de las imágenes 62, tal como cuando se evalúa el estado y/o el daño del tejado.
La distancia 47 de captura de imágenes al tejado desde la cámara 19 en la aeronave 18 no tripulada se puede determinar, como se describió previamente en relación con los métodos 100, 150, 200.
En una realización, como se muestra en las figuras 20, 21 y 28, la distancia 47 de captura de imágenes al tejado se puede mostrar al operario, tal como en el terminal 14 de usuario. En una realización, la distancia 47 de captura de imágenes se puede mostrar en gráficos visuales en relación con una indicación gráfica del rango 51 de distancia de captura de imagen deseado. Por ejemplo, se pueden mostrar líneas paralelas que son paralelas a un plano de tejado en el terminal 14 de usuario para indicar el rango 51 de distancia de captura de imagen deseado y/o la ubicación de la aeronave 18 no tripulada con respecto al rango 51 de distancia de captura de imágenes y/o al tejado. Opcionalmente, se le puede solicitar al operario que mueva la aeronave 18 no tripulada al rango 51 deseado predeterminado. En el ejemplo mostrado en la figura 20, la pantalla puede mostrar que la aeronave 18 no tripulada está a una distancia de 12,2' del tejado y se le puede solicitar al operario que se mueva hacia el tejado dentro del rango 51 deseado predeterminado. En el ejemplo mostrado en la figura 22, la pantalla puede mostrar que la aeronave 18 no tripulada está a una distancia de 3,2' del tejado y se le puede solicitar al operario que se aleje del tejado hacia el rango 51 deseado predeterminado.
En una realización, como se muestra en la figura 22, el operario puede enviar, y la aeronave 18 no tripulada puede recibir, una orden con instrucciones para mover la aeronave 18 no tripulada al rango 51 deseado predeterminado de distancias 47 de captura de imágenes desde el tejado de la estructura 21. El operario puede navegar la aeronave 18 no tripulada en el rango 51 predeterminado deseado. La cámara 19 en la aeronave 18 no tripulada puede entonces capturar una o más imágenes 62 del tejado de la estructura 21 desde el rango 51 predeterminado deseado de distancias 47 de captura de imágenes.
En una realización, adicional o alternativamente, el procesador 23, 24, 27 informático, puede determinar que la distancia 47 de captura de imágenes determinada está fuera de un rango 51 predeterminado de distancias 47 de captura de imágenes desde el tejado de la estructura 21. Entonces el procesador 23, 24, 27 informático puede mover automáticamente la aeronave 18 no tripulada dentro del rango 51 predeterminado de distancias 47 de captura de imágenes, sin participación del operario. La aeronave 18 no tripulada puede entonces capturar, con la cámara 19 de la aeronave 18 no tripulada, una o más imágenes 62 del tejado de la estructura 21 desde el rango 51 predeterminado de distancias 47 de captura de imágenes.
En una realización, como se muestra en las figuras 23-26, los métodos 150, 200 pueden ser más efectivos cuando la aeronave 18 no tripulada está colocada en una o más “zona 260 de trabajo” que permite que el uno o más sensores 17 obtengan la primera distancia 41 y la segunda distancia 43 al tejado. La ubicación de la zona 260 de trabajo puede variar dependiendo del ángulo de los sensores 17 en relación con la aeronave 18 no tripulada, entre sí (es decir, el ángulo 39 conocido) y/o el tejado. La zona 260 de trabajo también puede depender del tipo y/o potencia de los sensores 17. En consecuencia, los métodos 150, 200 pueden ser menos efectivos cuando la aeronave 18 no tripulada está colocada en una o más “zonas 262 muertas” donde puede ser más difícil, o menos preciso, o no viable, para uno o más sensores 17 obtener la primera distancia 41 y la segunda distancia 43 al tejado.
El procesador 23, 24, 27 informático, puede recibir una o más lecturas de sensor adicionales desde el uno o más sensores 17 en la aeronave 18 no tripulada en una o más posiciones adicionales de la aeronave 18 no tripulada, indicativas de distancias adicionales entre la aeronave 18 no tripulada y el tejado de la estructura 21. En una realización, el procesador 23, 24, 27 informático puede determinar la ubicación de una o más de la cumbrera 252 del tejado, los aleros 252 del tejado y el canalón del tejado comparando la primera distancia 41 o la segunda distancia 43 con las distancias adicionales en función de la magnitud del cambio entre la primera distancia 41 o la segunda distancia 43 y la siguiente de las distancias adicionales.
En una realización, como se ilustra en la figura 27, los métodos 150, 200 pueden repetirse para secciones adicionales del tejado. Si el cabeceo 49 es la misma para una primera sección y una segunda sección del tejado, entonces el cabeceo 49 puede no estar determinado para la segunda sección. Más bien, se puede utilizar el cabeceo 49 conocido para la segunda sección.
La figura 28 es una captura 300 de pantalla ejemplar de una visualización resultante de uno o más de los métodos descritos en el presente documento. La visualización puede incluir uno o más de los siguientes: una o más de la imagen 62 tomada desde la cámara 19 en la aeronave 18 no tripulada, la distancia 47 de captura de imágenes desde la cámara 19 hasta el tejado, el cabeceo 49 del tejado, la(s) distancia(s) desde el/los sensor(es) 17 hasta el tejado, la ubicación de la aeronave 18 no tripulada en un mapa geográfico en relación con el tejado y/o la estructura 21, indicadores visuales de advertencia (tales como barras, colores, texto, gráficos, etc.) indicativos de la ubicación de la cámara 19 en relación con el rango 51 de captura de imágenes predeterminado, e indicadores de control de navegación para la aeronave 18 no tripulada.
En una realización, el sistema 12 anfitrión y/o el operario pueden usar el modelo tridimensional de la estructura 21 de la base 35 de datos de forma de estructura (tal como un modelo tridimensional creado a partir de una o más imágenes) para crear total o parcialmente una trayectoria 70 de vuelo para la aeronave 18 no tripulada y/o puntos de ruta para capturar imágenes 62 de la estructura 21 con la(s) cámara(s) 19 de la aeronave 18 no tripulada. En esta realización, el modelo tridimensional puede incluir un valor de cabeceo para cada faceta de un tejado. Los valores de cabeceo se pueden usar entonces para determinar el ángulo 53 deseado de la cámara 19 en relación con el plano del tejado, y/o para determinar la distancia desde la cámara 19 al tejado, para capturar imágenes 62 a una distancia constante desde el tejado (como dentro del rango de distancia de captura de imagen deseado predeterminado).
En una realización, un operario puede navegar la aeronave 18 no tripulada hasta un punto de partida para la trayectoria de vuelo basándose en una distancia detectada a la estructura 21 desde el uno o más sensores 17 de la aeronave 18 no tripulada. En una realización, el uno o más sensores 17 y/o cámara(s) 19 de la aeronave 18 no tripulada pueden usarse para determinar una característica de la estructura 21 que se puede usar para hacer coincidir el modelo tridimensional (u otra información de la base 35 de datos de forma de estructura) para determinar un punto de partida para la trayectoria 70 de vuelo de la aeronave 18 no tripulada. La aeronave 18 no tripulada puede determinar y/o mantener una distancia 47 de captura de imagen predeterminada específica desde la estructura 21 usando uno o más del modelo tridimensional e información del uno o más sensores 17.
En uso, en una realización, un método para navegar una aeronave 18 no tripulada puede comprender una etapa de recibir, por parte de la aeronave 18 no tripulada, una trayectoria 70 de vuelo para la aeronave 18 no tripulada en relación con la estructura 21 para capturar una o más imágenes 62 de la estructura 21, en donde la trayectoria 70 de vuelo puede basarse en valores de cabeceo 49 y coordenadas del mundo real de un modelo tridimensional de la estructura 21 (tal como de la base 35 de datos de forma de estructura). En una realización, el modelo tridimensional de la estructura 21 puede basarse en una o más imágenes 62 aéreas de la estructura 21 y/o en una o más nubes de puntos que comprenden puntos de datos de la estructura 21 (tales como de la base 35 de datos de forma de estructura). La trayectoria 70 de vuelo puede incluir una pluralidad de puntos de ruta colocados a una distancia constante de la superficie de la estructura 21.
El método puede comprender además navegar, por parte de un operario, la aeronave 18 no tripulada a una ubicación en relación con un punto real de la estructura 21 que coincida con un punto modelo del modelo tridimensional de la estructura 21. El método puede comprender navegar, por la aeronave 18 no tripulada, la trayectoria 70 de vuelo. El método puede comprender además capturar imágenes 62 de la estructura 21 con una o más cámaras 19 en la aeronave 18 no tripulada mientras se navega por la trayectoria 70 de vuelo. En una realización, la una o más imágenes 62 de la superficie de la estructura 21 pueden capturarse en un ángulo 53 perpendicular a la superficie de la estructura 21, aunque se pueden usar otros ángulos 53.
En una realización, la trayectoria 70 de vuelo puede ser paralela al plano del tejado de la estructura 21, basándose en el modelo tridimensional de la estructura 21 para mantener una distancia 47 de captura de imágenes sustancialmente consistente entre el tejado de la estructura 21 y la aeronave 18 no tripulada. La trayectoria 70 de vuelo puede estar sustancialmente dentro, y/o ajustarse para estar sustancialmente dentro del rango 51 predeterminado de distancias 47 de captura de imágenes desde el tejado.
Una vez que se ha completado la trayectoria 70 de vuelo, el sistema de gestión de vuelo puede ordenar a la aeronave 18 no tripulada que regrese a su punto de lanzamiento y aterrice. El operario puede eliminar cualquier almacenamiento desmontable o transferir de otro modo las imágenes 62 desde el almacenamiento de memoria integrado a un sistema de almacenamiento de memoria extraíble o transferir las imágenes a través de alguna forma de red o enlace de comunicaciones. Las imágenes 62 resultantes pueden luego ser utilizadas por el terminal 14 de usuario y/o el sistema 12 anfitrión, para producir un informe de estructura y daños. Los sistemas para producir un informe de estructura y/o daños se describen en las patentes estadounidenses n.° 8.078.436; 8.145.578; 8.170.840; 8.209.152; 8.401.222, y una solicitud de patente identificada por n.° de serie estadounidense 12/909.962. El informe completo puede entonces ser proporcionado al operario y/u otro usuario.
En algunas realizaciones, se pueden incluir conjuntos de datos adicionales dentro del informe 78 de estructura. Por ejemplo, los conjuntos de datos pueden incluir, entre otros, datos meteorológicos, datos de seguros/valoración, datos del censo, datos del distrito escolar, datos de bienes raíces y similares.
Los conjuntos de datos meteorológicos pueden ser proporcionados por una o más bases de datos que almacenan información asociada con el tiempo (por ejemplo, inclemencias del tiempo). Un conjunto de datos meteorológicos dentro del informe 78 de estructura puede incluir, entre otros, información del historial de granizo y/o ubicación, datos de viento, datos de tormentas graves, datos de huracanes, datos de tornados y/o similares. En algunas realizaciones, la una o más bases de datos que proporcionan información meteorológica pueden estar alojadas en un sistema independiente (por ejemplo, LiveHaiIMap.com) y proporcionar información al sistema 12 anfitrión.
Los conjuntos de datos de seguros y/o valoración pueden ser proporcionados por una o más bases de datos que almacenan información asociada con el seguro y/o valoración de vivienda. Un conjunto de datos de seguro y/o valoración puede incluir, entre otros, el valor asegurado de la vivienda, el monto de la prima del seguro, el tipo de residencia (por ejemplo, multifamiliar, unifamiliar), el número de pisos (por ejemplo, casas de varios pisos, de un solo piso), tipo de edificio y/o similares. En algunas realizaciones, la una o más bases de datos pueden estar alojadas en un sistema independiente (por ejemplo, Bluebook, MSB, 360Value) y proporcionar información al sistema 12 anfitrión.
El conjunto de datos de seguro y/o valoración puede incluirse dentro del informe 78 de estructura y proporcionarse al usuario. Por ejemplo, durante la suscripción de una vivienda, una compañía de seguros puede solicitar el informe 78 de estructura de una vivienda recientemente comprada. La información dentro del informe 78 de estructura puede integrarse con información de seguro proporcionada por una base de datos de seguros y usarse para formar un informe de cotización. El informe de cotización podrá ser enviado al usuario y/o compañía de seguros. Alternativamente, el informe 78 de estructura puede enviarse únicamente a la compañía de seguros, utilizando la compañía de seguros la información para formular una cotización.
En otro ejemplo, el informe 78 de estructura puede usarse en una reclamación de seguro. En el caso de una catástrofe de un cliente, se pueden usar una o más bases de datos para proporcionar un conjunto de datos de seguro con información de reclamo en el informe 78 de estructura. Por ejemplo, una base de datos de seguro que tiene una póliza vigente (PIF) y una base de datos meteorológica puede usarse para correlacionar información sobre un reclamo de seguro para un tejado en particular. Esta información puede proporcionarse dentro del informe 78 de estructura. Además, en el caso de pérdida o alteraciones sustanciales de la estructura 21, pueden proporcionarse múltiples imágenes 62 dentro del informe 78 de estructura que muestran la estructura 21 en diferentes períodos de tiempo (por ejemplo, antes de la pérdida, después de la pérdida). Por ejemplo, la figura 10 ilustra una captura 86 de pantalla ejemplar de la estructura 21 que tiene una imagen 88a capturada en un primer período de tiempo (por ejemplo, antes de la pérdida) y una imagen 88b capturada en un segundo período de tiempo (por ejemplo, después de la pérdida).
Los conjuntos de datos inmobiliarios y/o censales también pueden incluirse en el informe 78 de estructura. Los conjuntos de datos inmobiliarios y/o censales pueden ser proporcionados por una o más bases de datos que tengan información detallada de una vivienda. Por ejemplo, un conjunto de datos inmobiliarios puede incluir, entre otros, el nombre del propietario, el precio de compra de la vivienda, el número de veces que la vivienda ha estado en el mercado, el número de días que la vivienda ha estado en el mercado, el tamaño del lote y/o similares. El conjunto de datos censales puede incluir información sobre el número de residentes dentro del hogar. En algunas realizaciones, la una o más bases de datos pueden estar alojadas en un sistema independiente (por ejemplo, Core Logic) y proporcionar información al sistema 12 anfitrión para proporcionar conjuntos de datos como se describe en el presente documento.
Se pueden proporcionar otros servicios relacionados con la estructura dentro del informe 78 de estructura. Por ejemplo, utilizando los pies cuadrados de la huella del tejado, se puede generar una cotización sobre el coste del aislamiento del tejado (por ejemplo, eficiencia energética, reemplazo del aislamiento y similares). Además, las auditorías se pueden realizar utilizando información dentro de una o más bases de datos. Por ejemplo, utilizando el área del tejado de una estructura, los reclamos de seguro pagados históricamente por comparables y la validación del pago de un reclamo específico para la vivienda, se puede hacer una comparación para determinar si el pago del servicio para el reclamo específico estuvo dentro de un cierto umbral. Debe entenderse que la auditoría también puede aplicarse a otras áreas como se describe en el presente documento.
Aunque en el presente documento se muestran imágenes de estructuras residenciales, cabe señalar que los sistemas y métodos de la presente divulgación se pueden aplicar a cualquier edificio o estructura residencial y/o comercial. Además, los sistemas y métodos de la presente divulgación se pueden aplicar a cualquier estructura hecha por el hombre y/o estructura natural.
Claims (13)
1. Un sistema que comprende:
uno o más procesadores (23, 24, 27) informáticos; y
uno o más medios (25, 26, 29) no transitorios legibles por ordenador que almacenan código ejecutable por ordenador, caracterizado porque el código ejecutable por ordenador hace que el uno o más procesadores (23, 24, 27) informáticos: reciban una trayectoria de vuelo para una aeronave (18) no tripulada en relación con un tejado de una estructura (21), teniendo el tejado una pluralidad de secciones, teniendo la trayectoria (70) de vuelo puntos de ruta para capturar una o más imágenes del tejado en base a un modelo tridimensional del tejado que incluye un cabeceo y dirección de pendiente para cada sección del tejado, en donde dos o más puntos de ruta están dentro de un rango (51) predeterminado de distancias de captura de imágenes desde el tejado, en donde la trayectoria (70) de vuelo se determina en base al menos en parte al cabeceo del tejado y al mantenimiento de una distancia de captura de imágenes constante entre el tejado de la estructura (21) y la aeronave (18) no tripulada en los dos o más puntos de ruta;
reciban una primera lectura de sensor de uno o más sensores (17) en la aeronave (18) no tripulada indicativa de una primera distancia (41) entre la aeronave (18) no tripulada y el tejado de la estructura;
determinen una distancia (47) de captura de imágenes actual desde el tejado a lo largo de una línea de visión hasta una cámara (19) en la aeronave (18) no tripulada, basándose en la primera distancia (41) y el cabeceo del tejado; ajusten la ubicación de la aeronave (18) no tripulada en función de la distancia (47) de captura de imágenes actual y el cabeceo del tejado para mantener la cámara (19) dentro del rango (51) predeterminado de distancias de captura de imágenes en los puntos de ruta de la trayectoria (70) de vuelo; y
capturen imágenes del tejado de la estructura (21) con la cámara (19) de la aeronave (18) no tripulada en los puntos de ruta de la trayectoria (70) de vuelo.
2. El sistema según la reivindicación 1, en donde el código ejecutable por ordenador que, cuando lo ejecuta el uno o más procesadores informáticos, provoca además que el uno o más procesadores informáticos:
orienten la cámara en la aeronave no tripulada para capturar un campo de visión del tejado en un ángulo deseado en relación con el tejado, en función del cabeceo del tejado.
3. El sistema según la reivindicación 1, en donde el código ejecutable por ordenador que, cuando lo ejecuta el uno o más procesadores informáticos, provoca además que el uno o más procesadores informáticos:
visualicen la distancia de captura de imágenes determinada a un operario de la aeronave no tripulada; y naveguen la aeronave no tripulada dentro del rango predeterminado utilizando la información del operario.
4. El sistema según la reivindicación 1, en donde el código ejecutable por ordenador que, cuando lo ejecuta el uno o más procesadores informáticos, provoca además que uno o más procesadores informáticos:
determinen, automáticamente, que la distancia de captura de imágenes determinada está fuera del rango predeterminado de distancias de captura de imágenes desde el tejado de la estructura; y
muevan la aeronave no tripulada al rango predeterminado de distancias de captura de imágenes.
5. El sistema según cualquiera de las reivindicaciones 3 y 4, en donde el rango predeterminado está entre aproximadamente 1,2192 metros (cuatro pies) y aproximadamente 4,572 metros (quince pies).
6. El sistema según la reivindicación 1, en donde el código ejecutable por ordenador que, cuando lo ejecuta el uno o más procesadores informáticos, provoca además que uno o más procesadores informáticos:
repitan, en una pluralidad de puntos de ruta en la trayectoria de vuelo de la aeronave no tripulada, una o más de las etapas de:
determinar la distancia de captura de imágenes actual desde el tejado a lo largo de una línea de visión hacia la cámara en la aeronave no tripulada, basándose en la primera distancia y el cabeceo del tejado;
ajustar la ubicación de la aeronave no tripulada basándose en la distancia de captura de imágenes actual y el cabeceo del tejado para mantener la cámara dentro del rango predeterminado de distancias de captura de imágenes en los puntos de ruta de la trayectoria de vuelo; y capturar imágenes de la estructura con la cámara de la aeronave no tripulada en los puntos de ruta de la trayectoria de vuelo.
7. El sistema según la reivindicación 1, en donde el código ejecutable por ordenador que, cuando lo ejecuta el uno o más procesadores informáticos, provoca además que el uno o más procesadores informáticos:
determinen la trayectoria de vuelo, al menos una parte de la trayectoria de vuelo paralela al tejado, basándose al menos en parte en el cabeceo del tejado y en la información procedente del uno o más sensores indicativos de la ubicación del tejado.
8. Un método para navegar una aeronave no tripulada, caracterizado por:
recibir una trayectoria (70) de vuelo para una aeronave (18) no tripulada en relación con un tejado de una estructura (21), teniendo el tejado una pluralidad de secciones, teniendo la trayectoria (70) de vuelo puntos de ruta para capturar una o más imágenes de la tejado basándose en un modelo tridimensional del tejado que incluye un cabeceo y dirección de pendiente para cada sección del tejado, en donde dos o más puntos de ruta están dentro de un rango (51) predeterminado de distancias de captura de imágenes desde el tejado, en donde la trayectoria (70) de vuelo se determina basándose al menos en parte en el cabeceo del tejado y al mantenimiento de una distancia de captura de imágenes consistente entre el tejado de la estructura (21) y la aeronave (18) no tripulada en los dos o más puntos de ruta;
recibir una primera lectura de sensor de uno o más sensores (17) en la aeronave (18) no tripulada indicativa de una primera distancia (41) entre la aeronave (18) no tripulada y el tejado de la estructura (21);
determinar una distancia (47) de captura de imágenes actual desde el tejado a lo largo de una línea de visión hasta una cámara (19) en la aeronave (18) no tripulada, basándose en la primera distancia (41) y el cabeceo del tejado; ajustar la ubicación de la aeronave (18) no tripulada en función de la distancia (47) de captura de imágenes actual y el cabeceo del tejado para mantener la cámara (19) dentro del rango (51) predeterminado de distancias de captura de imágenes en los puntos de ruta de la trayectoria (70) de vuelo; y
capturar imágenes del tejado de la estructura (21) con la cámara (19) de la aeronave (18) no tripulada en los puntos de ruta de la trayectoria (70) de vuelo.
9. El método según la reivindicación 8, que comprende, además:
orientar la cámara en la aeronave no tripulada para capturar un campo de visión del tejado en un ángulo deseado en relación con el tejado, en función del cabeceo del tejado.
10. El método según la reivindicación 8, que comprende, además:
mostrar la distancia de captura de imágenes determinada a un operario de la aeronave no tripulada; y
hacer navegar la aeronave no tripulada dentro del rango predeterminado utilizando la información del operario.
11. El método según la reivindicación 8, que comprende, además:
determinar, automáticamente, que la distancia de captura de imágenes determinada está fuera del rango predeterminado de distancias de captura de imágenes desde el tejado de la estructura; y mover la aeronave no tripulada al rango predeterminado de distancias de captura de imágenes.
12. El método según cualquiera de las reivindicaciones 10 y 11, en donde el rango predeterminado está entre aproximadamente 1,2192 metros (cuatro pies) y aproximadamente 4,572 metros (quince pies).
13. El método según la reivindicación 8, que comprende, además:
repetir, en una pluralidad de puntos de ruta en la trayectoria de vuelo de la aeronave no tripulada, una o más de las etapas de:
determinar la distancia de captura de imágenes actual desde el tejado a lo largo de una línea de visión hacia la cámara en la aeronave no tripulada, basándose en la primera distancia y el cabeceo del tejado;
ajustar la ubicación de la aeronave no tripulada basándose en la distancia de captura de imágenes actual y el cabeceo del tejado para mantener la cámara dentro del rango predeterminado de distancias de captura de imágenes en los puntos de ruta de la trayectoria de vuelo; y
capturar imágenes de la estructura con la cámara de la aeronave no tripulada en los puntos de ruta de la trayectoria de vuelo.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201862770570P | 2018-11-21 | 2018-11-21 | |
| PCT/US2019/062660 WO2020106984A1 (en) | 2018-11-21 | 2019-11-21 | Navigating unmanned aircraft using pitch |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2968959T3 true ES2968959T3 (es) | 2024-05-14 |
Family
ID=69528937
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES19849057T Active ES2968959T3 (es) | 2018-11-21 | 2019-11-21 | Aeronave no tripulada de navegación que utiliza cabeceo |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US12332660B2 (es) |
| EP (2) | EP3884352B8 (es) |
| AU (2) | AU2019384167B2 (es) |
| CA (1) | CA3120291A1 (es) |
| ES (1) | ES2968959T3 (es) |
| WO (1) | WO2020106984A1 (es) |
Families Citing this family (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107861518B (zh) * | 2017-11-03 | 2021-05-18 | 深圳市道通智能航空技术股份有限公司 | 一种无人飞行器的控制方法和终端 |
| JP6701153B2 (ja) * | 2017-11-10 | 2020-05-27 | 株式会社Subaru | 移動体の位置計測システム |
| US10983528B2 (en) * | 2018-07-25 | 2021-04-20 | Toyota Research Institute, Inc. | Systems and methods for orienting a robot in a space |
| AU2020300962A1 (en) * | 2019-04-06 | 2021-11-04 | Electric Sheep Robotics, Inc. | System, devices and methods for tele-operated robotics |
| JP2022527029A (ja) | 2019-04-06 | 2022-05-27 | エレクトリック シープ ロボティクス インコーポレイテッド | 遠隔操作型ロボットのためのシステム、装置、及び、方法 |
| JP7411919B2 (ja) * | 2019-07-08 | 2024-01-12 | パナソニックIpマネジメント株式会社 | 情報処理装置及び情報処理方法 |
| US11566894B2 (en) * | 2019-10-15 | 2023-01-31 | Flir Unmanned Aerial Systems Ulc | Systems and methods for generating a two-dimensional map |
| JP7444898B2 (ja) * | 2019-12-09 | 2024-03-06 | 富士フイルム株式会社 | 移動体、制御装置、及び撮像方法 |
| US11741843B2 (en) * | 2020-04-03 | 2023-08-29 | The Boeing Company | Systems and methods of radar surveillance on-board an autonomous or remotely piloted aircraft |
| WO2021232424A1 (zh) * | 2020-05-22 | 2021-11-25 | 深圳市大疆创新科技有限公司 | 飞行辅助方法及装置、无人飞行器、遥控器、显示器、无人飞行器系统和存储介质 |
| US12121826B2 (en) | 2020-05-28 | 2024-10-22 | Amax Group Usa, Llc | Hand gesture controlled flying toy |
| USD1059492S1 (en) | 2020-05-28 | 2025-01-28 | Amax Group Usa, Llc | Flying toy |
| USD1091375S1 (en) | 2020-08-03 | 2025-09-02 | Amax Group Usa, Llc | Quadcopter |
| CN113906481A (zh) * | 2020-10-13 | 2022-01-07 | 深圳市大疆创新科技有限公司 | 成像显示方法、遥控终端、装置、系统及存储介质 |
| WO2022135632A1 (de) * | 2020-12-22 | 2022-06-30 | Sam - Dimension Ug (Haftungsbeschränkt) | Vorrichtung und verfahren zur flächenkartierung |
| CN112947568B (zh) * | 2021-03-09 | 2022-10-25 | 四川腾盾科技有限公司 | 一种长航时大型无人机空中动态接入控制方法 |
| WO2022205294A1 (zh) * | 2021-04-01 | 2022-10-06 | 深圳市大疆创新科技有限公司 | 无人机的控制方法、装置、无人机及存储介质 |
| USD1003214S1 (en) * | 2021-06-09 | 2023-10-31 | Amax Group Usa, Llc | Quadcopter |
| USD1001009S1 (en) | 2021-06-09 | 2023-10-10 | Amax Group Usa, Llc | Quadcopter |
| US20230061934A1 (en) * | 2021-08-26 | 2023-03-02 | Drobotics Llc | Neural network-guided passive sensor drone inspection system |
| CA3250943A1 (en) * | 2022-04-29 | 2023-11-02 | Hover Inc. | METHODS, STORAGE SUPPORTS AND SYSTEMS FOR MEASURING THE ANGLE OF A ROOF FACET |
| USD1035787S1 (en) | 2022-06-24 | 2024-07-16 | Amax Group Usa, Llc | Flying toy |
| US12360286B2 (en) | 2022-10-14 | 2025-07-15 | Zesty.Ai, Inc. | Hail predictions using artificial intelligence |
| US12360287B2 (en) | 2022-10-14 | 2025-07-15 | Zesty.Ai, Inc. | Hail frequency predictions using artificial intelligence |
| US12536594B2 (en) | 2022-10-14 | 2026-01-27 | Zesty.Ai, Inc. | Hail severity predictions using artificial intelligence |
| CN116337086B (zh) * | 2023-05-29 | 2023-08-04 | 中国人民解放军海军工程大学 | 无人机网捕最优捕获位置计算方法、系统、介质及终端 |
| US20250093882A1 (en) * | 2023-09-20 | 2025-03-20 | Skydio, Inc. | Multi-Phase Semantic Three-Dimensional Scan For Structure Inspection |
| US20250139964A1 (en) * | 2023-10-26 | 2025-05-01 | CECC Maintenance Drone Co. | Systems and methods for surveying roofing structures |
| CN117572885B (zh) * | 2023-11-20 | 2024-05-31 | 鸣飞伟业技术有限公司 | 基于无人机热红外相机的夜间追踪方法、系统及相关装置 |
Family Cites Families (359)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US2273876A (en) | 1940-02-12 | 1942-02-24 | Frederick W Lutz | Apparatus for indicating tilt of cameras |
| US2791151A (en) | 1953-05-06 | 1957-05-07 | John T Pennington | Method of and apparatus for aerotriangulation with convergent photography |
| US3153784A (en) | 1959-12-24 | 1964-10-20 | Us Industries Inc | Photo radar ground contour mapping system |
| US5345086A (en) | 1962-11-28 | 1994-09-06 | Eaton Corporation | Automatic map compilation system |
| US3617016A (en) | 1968-05-27 | 1971-11-02 | Emil J Bolsey | Image motion and change transducers and systems controlled thereby |
| US3621326A (en) | 1968-09-30 | 1971-11-16 | Itek Corp | Transformation system |
| US3594556A (en) | 1969-01-08 | 1971-07-20 | Us Navy | Optical sight with electronic image stabilization |
| US3661061A (en) | 1969-05-05 | 1972-05-09 | Atomic Energy Commission | Picture position finder |
| US3614410A (en) | 1969-06-12 | 1971-10-19 | Knight V Bailey | Image rectifier |
| US3716669A (en) | 1971-05-14 | 1973-02-13 | Japan Eng Dev Co | Mapping rectifier for generating polarstereographic maps from satellite scan signals |
| US3725563A (en) | 1971-12-23 | 1973-04-03 | Singer Co | Method of perspective transformation in scanned raster visual display |
| US3864513A (en) | 1972-09-11 | 1975-02-04 | Grumman Aerospace Corp | Computerized polarimetric terrain mapping system |
| US4015080A (en) | 1973-04-30 | 1977-03-29 | Elliott Brothers (London) Limited | Display devices |
| JPS5223975Y2 (es) | 1973-05-29 | 1977-05-31 | ||
| US3877799A (en) | 1974-02-06 | 1975-04-15 | United Kingdom Government | Method of recording the first frame in a time index system |
| DE2510044A1 (de) | 1975-03-07 | 1976-09-16 | Siemens Ag | Anordnung zum aufzeichnen von zeichen unter verwendung von mosaikschreibwerken |
| US4707698A (en) | 1976-03-04 | 1987-11-17 | Constant James N | Coordinate measurement and radar device using image scanner |
| US4240108A (en) | 1977-10-03 | 1980-12-16 | Grumman Aerospace Corporation | Vehicle controlled raster display system |
| JPS5637416Y2 (es) | 1977-10-14 | 1981-09-02 | ||
| IT1095061B (it) | 1978-05-19 | 1985-08-10 | Conte Raffaele | Apparecchiatura per la registrazione magnetica di eventi casuali relativi a mezzi mobili |
| US4396942A (en) | 1979-04-19 | 1983-08-02 | Jackson Gates | Video surveys |
| FR2461305B1 (fr) | 1979-07-06 | 1985-12-06 | Thomson Csf | Systeme indicateur cartographique destine plus particulierement a la navigation aerienne |
| DE2939681A1 (de) | 1979-09-29 | 1981-04-30 | Agfa-Gevaert Ag, 5090 Leverkusen | Verfahren und vorrichtung zur ueberwachung der qualitaet bei der herstellung von fotografischen bildern |
| DE2940871C2 (de) | 1979-10-09 | 1983-11-10 | Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn | Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung |
| US4387056A (en) | 1981-04-16 | 1983-06-07 | E. I. Du Pont De Nemours And Company | Process for separating zero-valent nickel species from divalent nickel species |
| US4382678A (en) | 1981-06-29 | 1983-05-10 | The United States Of America As Represented By The Secretary Of The Army | Measuring of feature for photo interpretation |
| US4463380A (en) | 1981-09-25 | 1984-07-31 | Vought Corporation | Image processing system |
| US4495500A (en) | 1982-01-26 | 1985-01-22 | Sri International | Topographic data gathering method |
| US4490742A (en) | 1982-04-23 | 1984-12-25 | Vcs, Incorporated | Encoding apparatus for a closed circuit television system |
| US4586138A (en) | 1982-07-29 | 1986-04-29 | The United States Of America As Represented By The United States Department Of Energy | Route profile analysis system and method |
| US4491399A (en) | 1982-09-27 | 1985-01-01 | Coherent Communications, Inc. | Method and apparatus for recording a digital signal on motion picture film |
| US4527055A (en) | 1982-11-15 | 1985-07-02 | Honeywell Inc. | Apparatus for selectively viewing either of two scenes of interest |
| FR2536851B1 (fr) | 1982-11-30 | 1985-06-14 | Aerospatiale | Systeme de reconnaissance comportant un vehicule aerien tournant autour de son axe longitudinal |
| US4489322A (en) | 1983-01-27 | 1984-12-18 | The United States Of America As Represented By The Secretary Of The Air Force | Radar calibration using direct measurement equipment and oblique photometry |
| US4635136A (en) | 1984-02-06 | 1987-01-06 | Rochester Institute Of Technology | Method and apparatus for storing a massive inventory of labeled images |
| US4814711A (en) | 1984-04-05 | 1989-03-21 | Deseret Research, Inc. | Survey system and method for real time collection and processing of geophysicals data using signals from a global positioning satellite network |
| US4686474A (en) | 1984-04-05 | 1987-08-11 | Deseret Research, Inc. | Survey system for collection and real time processing of geophysical data |
| US4673988A (en) | 1985-04-22 | 1987-06-16 | E.I. Du Pont De Nemours And Company | Electronic mosaic imaging process |
| US4653136A (en) | 1985-06-21 | 1987-03-31 | Denison James W | Wiper for rear view mirror |
| DE211623T1 (de) | 1985-08-01 | 1987-07-02 | British Aerospace Plc, London | Identifikation von bodenzielen in den reflektierten signalen eines luftfahrzeugueberwachungsradars. |
| US4953227A (en) | 1986-01-31 | 1990-08-28 | Canon Kabushiki Kaisha | Image mosaic-processing method and apparatus |
| US4653316A (en) | 1986-03-14 | 1987-03-31 | Kabushiki Kaisha Komatsu Seisakusho | Apparatus mounted on vehicles for detecting road surface conditions |
| US4688092A (en) | 1986-05-06 | 1987-08-18 | Ford Aerospace & Communications Corporation | Satellite camera image navigation |
| US4956872A (en) | 1986-10-31 | 1990-09-11 | Canon Kabushiki Kaisha | Image processing apparatus capable of random mosaic and/or oil-painting-like processing |
| JPS63202182A (ja) | 1987-02-18 | 1988-08-22 | Olympus Optical Co Ltd | 傾斜ドツトパタ−ン形成方法 |
| US4814896A (en) | 1987-03-06 | 1989-03-21 | Heitzman Edward F | Real time video data acquistion systems |
| US5164825A (en) | 1987-03-30 | 1992-11-17 | Canon Kabushiki Kaisha | Image processing method and apparatus for mosaic or similar processing therefor |
| US4807024A (en) | 1987-06-08 | 1989-02-21 | The University Of South Carolina | Three-dimensional display methods and apparatus |
| US4899296A (en) | 1987-11-13 | 1990-02-06 | Khattak Anwar S | Pavement distress survey system |
| IL85731A (en) | 1988-03-14 | 1995-05-26 | B T A Automatic Piloting Syste | Aircraft control facility and method, in particular remotely controlled aircraft |
| US4843463A (en) | 1988-05-23 | 1989-06-27 | Michetti Joseph A | Land vehicle mounted audio-visual trip recorder |
| GB8826550D0 (en) | 1988-11-14 | 1989-05-17 | Smiths Industries Plc | Image processing apparatus and methods |
| US4906198A (en) | 1988-12-12 | 1990-03-06 | International Business Machines Corporation | Circuit board assembly and contact pin for use therein |
| JP2765022B2 (ja) | 1989-03-24 | 1998-06-11 | キヤノン販売株式会社 | 立体画像形成装置 |
| US5617224A (en) | 1989-05-08 | 1997-04-01 | Canon Kabushiki Kaisha | Imae processing apparatus having mosaic processing feature that decreases image resolution without changing image size or the number of pixels |
| US5086314A (en) | 1990-05-21 | 1992-02-04 | Nikon Corporation | Exposure control apparatus for camera |
| JPH0316377A (ja) | 1989-06-14 | 1991-01-24 | Kokusai Denshin Denwa Co Ltd <Kdd> | 2値画像の縮小方法及び装置 |
| US5166789A (en) | 1989-08-25 | 1992-11-24 | Space Island Products & Services, Inc. | Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates |
| FR2655448B1 (fr) | 1989-12-04 | 1992-03-13 | Vigilant Ltd | Systeme de controle d'un aeronef teleguide. |
| JP3147358B2 (ja) | 1990-02-23 | 2001-03-19 | ミノルタ株式会社 | 撮影地データを記録できるカメラ |
| US5335072A (en) | 1990-05-30 | 1994-08-02 | Minolta Camera Kabushiki Kaisha | Photographic system capable of storing information on photographed image data |
| EP0464263A3 (en) | 1990-06-27 | 1992-06-10 | Siemens Aktiengesellschaft | Device for obstacle detection for pilots of low flying aircrafts |
| US5191174A (en) | 1990-08-01 | 1993-03-02 | International Business Machines Corporation | High density circuit board and method of making same |
| US5200793A (en) | 1990-10-24 | 1993-04-06 | Kaman Aerospace Corporation | Range finding array camera |
| US5155597A (en) | 1990-11-28 | 1992-10-13 | Recon/Optical, Inc. | Electro-optical imaging array with motion compensation |
| JPH04250436A (ja) | 1991-01-11 | 1992-09-07 | Pioneer Electron Corp | 撮像装置 |
| US5265173A (en) | 1991-03-20 | 1993-11-23 | Hughes Aircraft Company | Rectilinear object image matcher |
| US5369443A (en) | 1991-04-12 | 1994-11-29 | Abekas Video Systems, Inc. | Digital video effects generator |
| DE69204345T2 (de) | 1991-04-16 | 1996-04-25 | Nippon Electric Co | Satelliten-Zwillings-Bildaufnahme für Abbildung und Steuerung. |
| US5555018A (en) | 1991-04-25 | 1996-09-10 | Von Braun; Heiko S. | Large-scale mapping of parameters of multi-dimensional structures in natural environments |
| US5633995A (en) | 1991-06-19 | 1997-05-27 | Martin Marietta Corporation | Camera system and methods for extracting 3D model of viewed object |
| US5231435A (en) | 1991-07-12 | 1993-07-27 | Blakely Bruce W | Aerial camera mounting apparatus |
| DE69232403T2 (de) | 1991-08-06 | 2002-08-22 | Canon K.K., Tokio/Tokyo | Dreidimensionales Modellverarbeitungsverfahren und -gerät |
| DE69123578T2 (de) | 1991-09-05 | 1997-04-03 | Nippon Electric Co | Bildaufnahmesystem, das korrekte Bildsignale einer Objektzone erzeugen kann |
| US5677515A (en) | 1991-10-18 | 1997-10-14 | Trw Inc. | Shielded multilayer printed wiring board, high frequency, high isolation |
| US5379105A (en) | 1991-10-24 | 1995-01-03 | Asahi Kogaku Kogyo Kabushiki Kaisha | Roof surface measuring apparatus |
| US5402170A (en) | 1991-12-11 | 1995-03-28 | Eastman Kodak Company | Hand-manipulated electronic camera tethered to a personal computer |
| US5247356A (en) | 1992-02-14 | 1993-09-21 | Ciampa John A | Method and apparatus for mapping and measuring land |
| US5270756A (en) | 1992-02-18 | 1993-12-14 | Hughes Training, Inc. | Method and apparatus for generating high resolution vidicon camera images |
| US5251037A (en) | 1992-02-18 | 1993-10-05 | Hughes Training, Inc. | Method and apparatus for generating high resolution CCD camera images |
| US5372337A (en) | 1992-05-01 | 1994-12-13 | Kress; Robert W. | Unmanned aerial aircraft having a single engine with dual jet exhausts |
| US5277380A (en) | 1992-06-22 | 1994-01-11 | United Technologies Corporation | Toroidal fuselage structure for unmanned aerial vehicles having ducted, coaxial, counter-rotating rotors |
| US5506644A (en) | 1992-08-18 | 1996-04-09 | Olympus Optical Co., Ltd. | Camera |
| US5481479A (en) | 1992-12-10 | 1996-01-02 | Loral Fairchild Corp. | Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance |
| US5342999A (en) | 1992-12-21 | 1994-08-30 | Motorola, Inc. | Apparatus for adapting semiconductor die pads and method therefor |
| US5414462A (en) | 1993-02-11 | 1995-05-09 | Veatch; John W. | Method and apparatus for generating a comprehensive survey map |
| US5508736A (en) | 1993-05-14 | 1996-04-16 | Cooper; Roger D. | Video signal processing apparatus for producing a composite signal for simultaneous display of data and video information |
| US5467271A (en) | 1993-12-17 | 1995-11-14 | Trw, Inc. | Mapping and analysis system for precision farming applications |
| AU690693B2 (en) | 1994-05-19 | 1998-04-30 | Geospan Corporation | Method for collecting and processing visual and spatial position information |
| DE4419359A1 (de) | 1994-06-03 | 1995-12-07 | Wolfram Dipl Ing Kirchner | Verfahren zur Erfassung, Auswertung, Ausmessung und Speicherung von Geo-Informationen |
| US5596494A (en) | 1994-11-14 | 1997-01-21 | Kuo; Shihjong | Method and apparatus for acquiring digital maps |
| US5581250A (en) | 1995-02-24 | 1996-12-03 | Khvilivitzky; Alexander | Visual collision avoidance system for unmanned aerial vehicles |
| RU2153700C2 (ru) | 1995-04-17 | 2000-07-27 | Спейс Системз/Лорал, Инк. | Система управления ориентацией и формированием изображения (варианты) |
| US5604534A (en) | 1995-05-24 | 1997-02-18 | Omni Solutions International, Ltd. | Direct digital airborne panoramic camera system and method |
| US5668593A (en) | 1995-06-07 | 1997-09-16 | Recon/Optical, Inc. | Method and camera system for step frame reconnaissance with motion compensation |
| US5963664A (en) | 1995-06-22 | 1999-10-05 | Sarnoff Corporation | Method and system for image combination using a parallax-based technique |
| US5904724A (en) | 1996-01-19 | 1999-05-18 | Margolin; Jed | Method and apparatus for remotely piloting an aircraft |
| US5835133A (en) | 1996-01-23 | 1998-11-10 | Silicon Graphics, Inc. | Optical system for single camera stereo video |
| US5983010A (en) | 1996-01-24 | 1999-11-09 | Jeffrey Earl Murdock | Method of describing a building structure |
| US5894323A (en) | 1996-03-22 | 1999-04-13 | Tasc, Inc, | Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data |
| US5798786A (en) | 1996-05-07 | 1998-08-25 | Recon/Optical, Inc. | Electro-optical imaging detector array for a moving vehicle which includes two axis image motion compensation and transfers pixels in row directions and column directions |
| US5844602A (en) | 1996-05-07 | 1998-12-01 | Recon/Optical, Inc. | Electro-optical imaging array and camera system with pitch rate image motion compensation which can be used in an airplane in a dive bomb maneuver |
| US5841574A (en) | 1996-06-28 | 1998-11-24 | Recon/Optical, Inc. | Multi-special decentered catadioptric optical system |
| EP0937230B1 (en) | 1996-11-05 | 2003-04-09 | BAE SYSTEMS Information and Electronic Systems Integration Inc. | Electro-optical reconnaissance system with forward motion compensation |
| US6108032A (en) | 1996-11-05 | 2000-08-22 | Lockheed Martin Fairchild Systems | System and method for image motion compensation of a CCD image sensor |
| RU2127075C1 (ru) | 1996-12-11 | 1999-03-10 | Корженевский Александр Владимирович | Способ получения томографического изображения тела и электроимпедансный томограф |
| US6222583B1 (en) | 1997-03-27 | 2001-04-24 | Nippon Telegraph And Telephone Corporation | Device and system for labeling sight images |
| US6597818B2 (en) | 1997-05-09 | 2003-07-22 | Sarnoff Corporation | Method and apparatus for performing geo-spatial registration of imagery |
| US6157747A (en) | 1997-08-01 | 2000-12-05 | Microsoft Corporation | 3-dimensional image rotation method and apparatus for producing image mosaics |
| US6097854A (en) | 1997-08-01 | 2000-08-01 | Microsoft Corporation | Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping |
| AU9783798A (en) | 1997-10-06 | 1999-04-27 | John A. Ciampa | Digital-image mapping |
| WO1999024936A1 (en) | 1997-11-10 | 1999-05-20 | Gentech Corporation | System and method for generating super-resolution-enhanced mosaic images |
| US5852753A (en) | 1997-11-10 | 1998-12-22 | Lo; Allen Kwok Wah | Dual-lens camera with shutters for taking dual or single images |
| US6037945A (en) | 1997-12-16 | 2000-03-14 | Xactware, Inc. | Graphical method for modeling and estimating construction costs |
| US6094215A (en) | 1998-01-06 | 2000-07-25 | Intel Corporation | Method of determining relative camera orientation position to create 3-D visual images |
| US6333749B1 (en) | 1998-04-17 | 2001-12-25 | Adobe Systems, Inc. | Method and apparatus for image assisted modeling of three-dimensional scenes |
| US6130705A (en) | 1998-07-10 | 2000-10-10 | Recon/Optical, Inc. | Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use |
| JP3954211B2 (ja) | 1998-08-20 | 2007-08-08 | 富士通株式会社 | 三次元シーンにおける形状及び模様の復元方法及び装置 |
| JP4245699B2 (ja) | 1998-09-16 | 2009-03-25 | オリンパス株式会社 | 撮像装置 |
| US6323885B1 (en) | 1998-09-18 | 2001-11-27 | Steven Paul Wiese | Real estate value map computer system |
| US6434265B1 (en) | 1998-09-25 | 2002-08-13 | Apple Computers, Inc. | Aligning rectilinear images in 3D through projective registration and calibration |
| WO2000029806A2 (de) | 1998-11-06 | 2000-05-25 | Friedhelm Gante | Verfahren zum vermessen der flächen eines hausdachs |
| US6496184B1 (en) | 1998-11-30 | 2002-12-17 | William T. Freeman | Method for inferring scenes from test images and training data using probability propagation in a markov network |
| JP3440009B2 (ja) | 1998-12-09 | 2003-08-25 | 株式会社エヌ・ティ・ティ・データ | 撮影画像管理方法及び遠隔撮影システム |
| DE19857667A1 (de) | 1998-12-15 | 2000-08-17 | Aerowest Photogrammetrie H Ben | Verfahren zur Erzeugung einer drei-dimensionalen Objektbeschreibung |
| US6167300A (en) | 1999-03-08 | 2000-12-26 | Tci Incorporated | Electric mammograph |
| US6448964B1 (en) | 1999-03-15 | 2002-09-10 | Computer Associates Think, Inc. | Graphic object manipulating tool |
| DE19922341C2 (de) | 1999-05-14 | 2002-08-29 | Zsp Geodaetische Sys Gmbh | Verfahren und eine Anordnung zur Bestimmung der räumlichen Koordinaten mindestens eines Objektpunktes |
| AUPQ056099A0 (en) | 1999-05-25 | 1999-06-17 | Silverbrook Research Pty Ltd | A method and apparatus (pprint01) |
| JP3410391B2 (ja) | 1999-05-31 | 2003-05-26 | 株式会社エヌ・ティ・ティ・データ | 遠隔撮影システム、撮影指示装置、撮影装置、情報表示装置及び遠隔撮影方法 |
| JP5210473B2 (ja) | 1999-06-21 | 2013-06-12 | 株式会社半導体エネルギー研究所 | 表示装置 |
| US6446053B1 (en) | 1999-08-06 | 2002-09-03 | Michael Elliott | Computer-implemented method and system for producing a proposal for a construction project |
| US6639596B1 (en) | 1999-09-20 | 2003-10-28 | Microsoft Corporation | Stereo reconstruction from multiperspective panoramas |
| JP2001195491A (ja) | 1999-11-02 | 2001-07-19 | Matsushita Electric Works Ltd | 住空間関連商品の販売支援方法と課金方法及びそのためのシステムと記録媒体 |
| AU2464101A (en) | 1999-12-29 | 2001-07-09 | Geospan Corporation | Any aspect passive volumetric image processing method |
| US6829584B2 (en) | 1999-12-31 | 2004-12-07 | Xactware, Inc. | Virtual home data repository and directory |
| US6826539B2 (en) | 1999-12-31 | 2004-11-30 | Xactware, Inc. | Virtual structure data repository and directory |
| US6980690B1 (en) | 2000-01-20 | 2005-12-27 | Canon Kabushiki Kaisha | Image processing apparatus |
| US6810383B1 (en) | 2000-01-21 | 2004-10-26 | Xactware, Inc. | Automated task management and evaluation |
| US7006977B1 (en) | 2000-02-03 | 2006-02-28 | Cory Attra | System for automating and improving home design and construction |
| AU3047801A (en) | 2000-02-03 | 2001-08-14 | Alst Technical Excellence Center | Image resolution improvement using a color mosaic sensor |
| US6385541B1 (en) | 2000-02-29 | 2002-05-07 | Brad Wayne Blumberg | Global positioning-based real estate database access device and method |
| US6741757B1 (en) | 2000-03-07 | 2004-05-25 | Microsoft Corporation | Feature correspondence between images using an image pyramid |
| WO2001069171A2 (en) | 2000-03-16 | 2001-09-20 | The Johns Hopkins University | Light detection and ranging (lidar) mapping system |
| US20020010594A1 (en) | 2000-03-20 | 2002-01-24 | Levine Michael R. | Method of payment for a healthcare service |
| EP1290893A2 (en) | 2000-03-29 | 2003-03-12 | Astrovision International, Inc. | Direct broadcast imaging satellite system apparatus and method |
| US7184072B1 (en) | 2000-06-15 | 2007-02-27 | Power View Company, L.L.C. | Airborne inventory and inspection system and apparatus |
| US6834128B1 (en) | 2000-06-16 | 2004-12-21 | Hewlett-Packard Development Company, L.P. | Image mosaicing system and method adapted to mass-market hand-held digital cameras |
| US6484101B1 (en) | 2000-08-16 | 2002-11-19 | Imagelinks, Inc. | 3-dimensional interactive image modeling system |
| US7313289B2 (en) | 2000-08-30 | 2007-12-25 | Ricoh Company, Ltd. | Image processing method and apparatus and computer-readable storage medium using improved distortion correction |
| US6421610B1 (en) | 2000-09-15 | 2002-07-16 | Ernest A. Carroll | Method of preparing and disseminating digitized geospatial data |
| US7487114B2 (en) | 2000-10-23 | 2009-02-03 | Costar Group, Inc. | System and method for associating aerial images, map features, and information |
| US6959120B1 (en) | 2000-10-27 | 2005-10-25 | Microsoft Corporation | Rebinning methods and arrangements for use in compressing image-based rendering (IBR) data |
| GB0028491D0 (en) | 2000-11-22 | 2001-01-10 | Isis Innovation | Detection of features in images |
| US20020143669A1 (en) | 2001-01-22 | 2002-10-03 | Scheer Robert H. | Method for managing inventory within an integrated supply chain |
| GB2371866A (en) | 2001-01-31 | 2002-08-07 | Hewlett Packard Co | Measuring apparatus |
| US20020154174A1 (en) | 2001-04-23 | 2002-10-24 | Redlich Arthur Norman | Method and system for providing a service in a photorealistic, 3-D environment |
| WO2002090887A2 (en) | 2001-05-04 | 2002-11-14 | Vexcel Imaging Gmbh | Digital camera for and method of obtaining overlapping images |
| US7046401B2 (en) | 2001-06-01 | 2006-05-16 | Hewlett-Packard Development Company, L.P. | Camera-based document scanning system using multiple-pass mosaicking |
| US20030028393A1 (en) | 2001-06-18 | 2003-02-06 | Coulston Robert Michael | Method and computer program for estimating project costs and time factors and facilitating management of remodeling and construction projects |
| JP2003006680A (ja) | 2001-06-20 | 2003-01-10 | Zenrin Co Ltd | 3次元電子地図データの生成方法 |
| US7509241B2 (en) | 2001-07-06 | 2009-03-24 | Sarnoff Corporation | Method and apparatus for automatically generating a site model |
| CA2352844C (en) | 2001-07-10 | 2009-11-17 | Geojet Information Solutions Inc. | 3-d map data visualization |
| US20030043824A1 (en) | 2001-08-31 | 2003-03-06 | Remboski Donald J. | Vehicle active network and device |
| US6847865B2 (en) | 2001-09-27 | 2005-01-25 | Ernest A. Carroll | Miniature, unmanned aircraft with onboard stabilization and automated ground control of flight path |
| US6747686B1 (en) | 2001-10-05 | 2004-06-08 | Recon/Optical, Inc. | High aspect stereoscopic mode camera and method |
| US6636803B1 (en) | 2001-11-30 | 2003-10-21 | Corus Home Realty | Real-estate information search and retrieval system |
| US20030103651A1 (en) | 2001-12-03 | 2003-06-05 | Kurt Novak | Photogrammetric apparatus |
| US7373303B2 (en) | 2001-12-10 | 2008-05-13 | E2Value, Inc. | Methods and systems for estimating building reconstruction costs |
| US7262790B2 (en) | 2002-01-09 | 2007-08-28 | Charles Adams Bakewell | Mobile enforcement platform with aimable violation identification and documentation system for multiple traffic violation types across all lanes in moving traffic, generating composite display images and data to support citation generation, homeland security, and monitoring |
| US7428337B2 (en) | 2002-01-09 | 2008-09-23 | Siemens Corporate Research, Inc. | Automatic design of morphological algorithms for machine vision |
| TW550521B (en) | 2002-02-07 | 2003-09-01 | Univ Nat Central | Method for re-building 3D model of house in a semi-automatic manner using edge segments of buildings |
| US6894809B2 (en) | 2002-03-01 | 2005-05-17 | Orasee Corp. | Multiple angle display produced from remote optical sensing devices |
| US20030171957A1 (en) | 2002-03-11 | 2003-09-11 | Watrous Leslie P. | Process for inspecting and certifying roofs for structures and repairing leaking roofs during the certification period |
| JP4184703B2 (ja) | 2002-04-24 | 2008-11-19 | 大日本印刷株式会社 | 画像修正方法およびシステム |
| US7639842B2 (en) | 2002-05-03 | 2009-12-29 | Imagetree Corp. | Remote sensing and probabilistic sampling based forest inventory method |
| US20030233310A1 (en) | 2002-06-17 | 2003-12-18 | Boris Stavrovski | Method and system for implementing a business transaction over the internet with use and consecutive transformation of information from publicly available databases, actual preferences of potential customers and statistical models of the market situation |
| US7725258B2 (en) | 2002-09-20 | 2010-05-25 | M7 Visual Intelligence, L.P. | Vehicle based data collection and processing system and imaging sensor system and methods thereof |
| EP1540937A4 (en) | 2002-09-20 | 2008-11-12 | M7 Visual Intelligence Lp | VEHICLE TESTED DATA COLLECTION AND TREATMENT SYSTEM |
| JP4185052B2 (ja) | 2002-10-15 | 2008-11-19 | ユニバーシティ オブ サザン カリフォルニア | 拡張仮想環境 |
| EP1696204B1 (en) | 2002-11-08 | 2015-01-28 | Pictometry International Corp. | Method for capturing, geolocating and measuring oblique images |
| US7424133B2 (en) | 2002-11-08 | 2008-09-09 | Pictometry International Corporation | Method and apparatus for capturing, geolocating and measuring oblique images |
| US7324666B2 (en) | 2002-11-15 | 2008-01-29 | Whitegold Solutions, Inc. | Methods for assigning geocodes to street addressable entities |
| US7221786B2 (en) | 2002-12-10 | 2007-05-22 | Eastman Kodak Company | Method for automatic construction of 2D statistical shape model for the lung regions |
| US6742741B1 (en) | 2003-02-24 | 2004-06-01 | The Boeing Company | Unmanned air vehicle and method of flying an unmanned air vehicle |
| SE0300871D0 (sv) | 2003-03-27 | 2003-03-27 | Saab Ab | Waypoint navigation |
| WO2004095328A1 (ja) | 2003-04-22 | 2004-11-04 | Sharp Kabushiki Kaisha | 太陽電池発注システム |
| US8051089B2 (en) | 2003-04-30 | 2011-11-01 | Hewlett-Packard Development Company, L.P. | Systems and methods for location-based real estate service |
| US7343232B2 (en) | 2003-06-20 | 2008-03-11 | Geneva Aerospace | Vehicle control system including related methods and components |
| US7305983B1 (en) | 2003-07-08 | 2007-12-11 | University Of Hawai'i | Assessment of solar energy potential on existing buildings in a region |
| US7018050B2 (en) | 2003-09-08 | 2006-03-28 | Hewlett-Packard Development Company, L.P. | System and method for correcting luminance non-uniformity of obliquely projected images |
| US7003400B2 (en) | 2003-10-22 | 2006-02-21 | Bryant Consultants, Inc. | Apparatus and method for displaying subsurface anomalies and surface features |
| JP2005151536A (ja) | 2003-10-23 | 2005-06-09 | Nippon Dempa Kogyo Co Ltd | 水晶発振器 |
| US7130741B2 (en) | 2003-10-23 | 2006-10-31 | International Business Machines Corporation | Navigating a UAV with a remote control device |
| US20050129306A1 (en) | 2003-12-12 | 2005-06-16 | Xianglin Wang | Method and apparatus for image deinterlacing using neural networks |
| CA2455359C (en) | 2004-01-16 | 2013-01-08 | Geotango International Corp. | System, computer program and method for 3d object measurement, modeling and mapping from single imagery |
| US7916940B2 (en) | 2004-01-31 | 2011-03-29 | Hewlett-Packard Development Company | Processing of mosaic digital images |
| FR2876446B1 (fr) | 2004-02-19 | 2007-04-20 | Measurix Sarl | Dispositif et procede de mesure de la superficie de surfaces planes polygonales dans l'espace. |
| JP2007525770A (ja) | 2004-02-27 | 2007-09-06 | インターグラフ ソフトウェアー テクノロジーズ カンパニー | 重複する複数の画像から単一の画像を形成する技術 |
| US7327880B2 (en) | 2004-03-12 | 2008-02-05 | Siemens Medical Solutions Usa, Inc. | Local watershed operators for image segmentation |
| US20050267657A1 (en) | 2004-05-04 | 2005-12-01 | Devdhar Prashant P | Method for vehicle classification |
| DE102004028635A1 (de) | 2004-06-15 | 2006-01-19 | Burkhard Heins | Verfahren zur Vermessung von Gegenständen mit einer Kamera |
| US20050288959A1 (en) | 2004-06-16 | 2005-12-29 | David Eraker | Map-based search for real estate service providers |
| US20060028550A1 (en) | 2004-08-06 | 2006-02-09 | Palmer Robert G Jr | Surveillance system and method |
| US7728833B2 (en) | 2004-08-18 | 2010-06-01 | Sarnoff Corporation | Method for generating a three-dimensional model of a roof structure |
| US8078396B2 (en) | 2004-08-31 | 2011-12-13 | Meadow William D | Methods for and apparatus for generating a continuum of three dimensional image data |
| WO2006042142A2 (en) | 2004-10-07 | 2006-04-20 | Bernard Widrow | Cognitive memory and auto-associative neural network based pattern recognition and searching |
| CA2484422A1 (en) | 2004-10-08 | 2006-04-08 | Furgro Airborne Surveys | Unmanned airborne vehicle for geophysical surveying |
| US20080279447A1 (en) | 2004-10-15 | 2008-11-13 | Ofek Aerial Photography International Ltd. | Computational Solution Of A Building Of Three Dimensional Virtual Models From Aerial Photographs |
| US7348895B2 (en) | 2004-11-03 | 2008-03-25 | Lagassey Paul J | Advanced automobile accident detection, data recordation and reporting system |
| JP4602074B2 (ja) | 2004-12-28 | 2010-12-22 | シャープ株式会社 | 太陽光発電装置設置支援システム及びプログラム |
| US7950579B2 (en) | 2005-01-31 | 2011-05-31 | The Kroger Co. | System and method for evaluating inventory |
| US7142984B2 (en) | 2005-02-08 | 2006-11-28 | Harris Corporation | Method and apparatus for enhancing a digital elevation model (DEM) for topographical modeling |
| GB2423839A (en) | 2005-02-28 | 2006-09-06 | Spelthorne Borough Council | Method of assessing energy efficiency of buildings |
| US20060200311A1 (en) | 2005-03-03 | 2006-09-07 | Arutunian Ethan B | Enhanced imagery, such as for lead generation for service providers who provide services associated with real estate |
| JPWO2006107017A1 (ja) | 2005-04-01 | 2008-09-25 | ヤマハ発動機株式会社 | 制御方法、制御装置および無人ヘリコプタ |
| US7869944B2 (en) | 2005-04-18 | 2011-01-11 | Roof Express, Llc | Systems and methods for recording and reporting data collected from a remote location |
| US7466244B2 (en) | 2005-04-21 | 2008-12-16 | Microsoft Corporation | Virtual earth rooftop overlay and bounding |
| US20060262112A1 (en) | 2005-05-23 | 2006-11-23 | Carnegie Mellon University | System and method for three-dimensional shape generation from partial and incomplete views, and interactive design system using same |
| US7554539B2 (en) | 2005-07-27 | 2009-06-30 | Balfour Technologies Llc | System for viewing a collection of oblique imagery in a three or four dimensional virtual scene |
| WO2007027847A2 (en) | 2005-09-01 | 2007-03-08 | Geosim Systems Ltd. | System and method for cost-effective, high-fidelity 3d-modeling of large-scale urban environments |
| FR2891936A1 (fr) | 2005-10-11 | 2007-04-13 | France Telecom | Procedes, dispositifs et programmes de transmission d'une structure de toit et de construction d'une representation tridimensionnelle d'un toit de batiment a partir de ladite structure. |
| US7844499B2 (en) | 2005-12-23 | 2010-11-30 | Sharp Electronics Corporation | Integrated solar agent business model |
| US20070179757A1 (en) | 2006-01-13 | 2007-08-02 | Chief Architect, Inc. | Architectural structure design methods, architectural structure design apparatuses and articles of manufacture |
| US20070220174A1 (en) | 2006-03-17 | 2007-09-20 | Fatdoor, Inc. | Marker placement in a mapping environment |
| US7778491B2 (en) | 2006-04-10 | 2010-08-17 | Microsoft Corporation | Oblique image stitching |
| US20070244608A1 (en) | 2006-04-13 | 2007-10-18 | Honeywell International Inc. | Ground control station for UAV |
| US7922115B2 (en) | 2006-04-21 | 2011-04-12 | Colgren Richard D | Modular unmanned air-vehicle |
| US7500391B2 (en) | 2006-04-27 | 2009-03-10 | Ecometriks, Llc | System and method for identifying the solar potential of rooftops |
| WO2008002875A2 (en) | 2006-06-26 | 2008-01-03 | Lockheed Martin Corporation | Method and system for providing a perspective view image by intelligent fusion of a plurality of sensor data |
| US20080144884A1 (en) | 2006-07-20 | 2008-06-19 | Babak Habibi | System and method of aerial surveillance |
| US7752018B2 (en) | 2006-07-20 | 2010-07-06 | Harris Corporation | Geospatial modeling system providing building roof type identification features and related methods |
| US7873238B2 (en) | 2006-08-30 | 2011-01-18 | Pictometry International Corporation | Mosaic oblique images and methods of making and using same |
| US20100121574A1 (en) | 2006-09-05 | 2010-05-13 | Honeywell International Inc. | Method for collision avoidance of unmanned aerial vehicle with other aircraft |
| DE102007030781A1 (de) | 2006-10-11 | 2008-04-17 | Gta Geoinformatik Gmbh | Verfahren zur Texturierung virtueller dreidimensionaler Objekte |
| IL179344A (en) | 2006-11-16 | 2014-02-27 | Rafael Advanced Defense Sys | Mobile Platform Tracking Method |
| US7890509B1 (en) | 2006-12-05 | 2011-02-15 | First American Real Estate Solutions Llc | Parcel data acquisition and processing |
| JP5075408B2 (ja) | 2006-12-28 | 2012-11-21 | シャープ株式会社 | 太陽光発電装置設置支援システム及びプログラム |
| US20100250022A1 (en) | 2006-12-29 | 2010-09-30 | Air Recon, Inc. | Useful unmanned aerial vehicle |
| US8593518B2 (en) | 2007-02-01 | 2013-11-26 | Pictometry International Corp. | Computer system for continuous oblique panning |
| US8520079B2 (en) | 2007-02-15 | 2013-08-27 | Pictometry International Corp. | Event multiplexer for managing the capture of images |
| US7920963B2 (en) | 2007-02-22 | 2011-04-05 | Iac Search & Media, Inc. | Map interface with a movable marker |
| TWI324080B (en) | 2007-03-23 | 2010-05-01 | Yu Tuan Lee | Remote-controlled motion apparatus with sensing terrestrial magnetism and remote control apparatus therefor |
| TWI361095B (en) | 2007-03-23 | 2012-04-01 | Yu Tuan Lee | Remote-controlled motion apparatus with acceleration self-sense and remote control apparatus therefor |
| US8145578B2 (en) | 2007-04-17 | 2012-03-27 | Eagel View Technologies, Inc. | Aerial roof estimation system and method |
| US8078436B2 (en) | 2007-04-17 | 2011-12-13 | Eagle View Technologies, Inc. | Aerial roof estimation systems and methods |
| US7832267B2 (en) | 2007-04-25 | 2010-11-16 | Ecometriks, Llc | Method for determining temporal solar irradiance values |
| US8385672B2 (en) | 2007-05-01 | 2013-02-26 | Pictometry International Corp. | System for detecting image abnormalities |
| EP2153245A1 (en) | 2007-05-04 | 2010-02-17 | Teledyne Australia Pty Ltd. | Collision avoidance system and method |
| US7970532B2 (en) | 2007-05-24 | 2011-06-28 | Honeywell International Inc. | Flight path planning to reduce detection of an unmanned aerial vehicle |
| US8346578B1 (en) | 2007-06-13 | 2013-01-01 | United Services Automobile Association | Systems and methods for using unmanned aerial vehicles |
| WO2009025928A2 (en) | 2007-06-19 | 2009-02-26 | Ch2M Hill, Inc. | Systems and methods for solar mapping, determining a usable area for solar energy production and/or providing solar information |
| US8471854B2 (en) | 2007-09-28 | 2013-06-25 | Harris Corporation | Geospatial modeling system providing user-selectable building shape options and related methods |
| US9279602B2 (en) | 2007-10-04 | 2016-03-08 | Sungevity Inc. | System and method for provisioning energy systems |
| US7991226B2 (en) | 2007-10-12 | 2011-08-02 | Pictometry International Corporation | System and process for color-balancing a series of oblique images |
| US8081798B2 (en) | 2007-11-20 | 2011-12-20 | Lawrence Livermore National Security, Llc | Method and system for detecting polygon boundaries of structures in images as particle tracks through fields of corners and pixel gradients |
| US8531472B2 (en) | 2007-12-03 | 2013-09-10 | Pictometry International Corp. | Systems and methods for rapid three-dimensional modeling with real façade texture |
| US9026272B2 (en) | 2007-12-14 | 2015-05-05 | The Boeing Company | Methods for autonomous tracking and surveillance |
| US8417061B2 (en) | 2008-02-01 | 2013-04-09 | Sungevity Inc. | Methods and systems for provisioning energy systems |
| US8275194B2 (en) | 2008-02-15 | 2012-09-25 | Microsoft Corporation | Site modeling using image data fusion |
| US8131406B2 (en) | 2008-04-09 | 2012-03-06 | Lycoming Engines, A Division Of Avco Corporation | Piston engine aircraft automated pre-flight testing |
| CN102077230A (zh) | 2008-04-17 | 2011-05-25 | 旅行者保险公司 | 用于确定和处理物体结构状况信息的方法和系统 |
| US8538151B2 (en) | 2008-04-23 | 2013-09-17 | Pasco Corporation | Building roof outline recognizing device, building roof outline recognizing method, and building roof outline recognizing program |
| WO2009131542A1 (en) | 2008-04-23 | 2009-10-29 | Drone Technology Pte Ltd | Module for data acquisition and control in a sensor/control network |
| US8588547B2 (en) | 2008-08-05 | 2013-11-19 | Pictometry International Corp. | Cut-line steering methods for forming a mosaic image of a geographical area |
| JP5134469B2 (ja) | 2008-08-21 | 2013-01-30 | 三菱重工業株式会社 | 無人機システム及びその運用方法 |
| US20100079267A1 (en) | 2008-09-29 | 2010-04-01 | Tsun-Huang Lin | Automobile Anti-Collision Early-Warning Device |
| US7969346B2 (en) | 2008-10-07 | 2011-06-28 | Honeywell International Inc. | Transponder-based beacon transmitter for see and avoid of unmanned aerial vehicles |
| US8543265B2 (en) | 2008-10-20 | 2013-09-24 | Honeywell International Inc. | Systems and methods for unmanned aerial vehicle navigation |
| US8170840B2 (en) | 2008-10-31 | 2012-05-01 | Eagle View Technologies, Inc. | Pitch determination systems and methods for aerial roof estimation |
| US8209152B2 (en) | 2008-10-31 | 2012-06-26 | Eagleview Technologies, Inc. | Concurrent display systems and methods for aerial roof estimation |
| US9437044B2 (en) | 2008-11-05 | 2016-09-06 | Hover Inc. | Method and system for displaying and navigating building facades in a three-dimensional mapping system |
| US8422825B1 (en) | 2008-11-05 | 2013-04-16 | Hover Inc. | Method and system for geometry extraction, 3D visualization and analysis using arbitrary oblique imagery |
| US8242623B2 (en) | 2008-11-13 | 2012-08-14 | Honeywell International Inc. | Structural ring interconnect printed circuit board assembly for a ducted fan unmanned aerial vehicle |
| US20100286859A1 (en) | 2008-11-18 | 2010-11-11 | Honeywell International Inc. | Methods for generating a flight plan for an unmanned aerial vehicle based on a predicted camera path |
| US20100215212A1 (en) | 2009-02-26 | 2010-08-26 | Honeywell International Inc. | System and Method for the Inspection of Structures |
| US20100228406A1 (en) | 2009-03-03 | 2010-09-09 | Honeywell International Inc. | UAV Flight Control Method And System |
| US8380367B2 (en) | 2009-03-26 | 2013-02-19 | The University Of North Dakota | Adaptive surveillance and guidance system for vehicle collision avoidance and interception |
| EP2251883B1 (fr) | 2009-05-14 | 2012-07-11 | Delphi Technologies, Inc. | Agencement d'un commutateur sur une plaque à circuits imprimés et méthode d'assemblage associée |
| US8401222B2 (en) | 2009-05-22 | 2013-03-19 | Pictometry International Corp. | System and process for roof measurement using aerial imagery |
| KR101262968B1 (ko) | 2009-09-02 | 2013-05-09 | 부산대학교 산학협력단 | 구형 탑재부를 구비한 무인항공기 및 무인항공기 탑재를 위한 무인지상차량을 포함하는 무인 항공 장치 |
| US8722140B2 (en) | 2009-09-22 | 2014-05-13 | Certainteed Corporation | Solar heat-reflective roofing granules, solar heat-reflective shingles, and process for producing the same |
| US9330494B2 (en) | 2009-10-26 | 2016-05-03 | Pictometry International Corp. | Method for the automatic material classification and texture simulation for 3D models |
| AU2010324768A1 (en) | 2009-11-25 | 2012-06-14 | Aerovironment, Inc. | Automatic configuration control of a device |
| KR20110068469A (ko) | 2009-12-16 | 2011-06-22 | 인하대학교 산학협력단 | 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법 |
| AU2011210538B2 (en) | 2010-02-01 | 2015-03-26 | Eagle View Technologies, Inc. | Geometric correction of rough wireframe models derived from photographs |
| US9036861B2 (en) | 2010-04-22 | 2015-05-19 | The University Of North Carolina At Charlotte | Method and system for remotely inspecting bridges and other structures |
| US8477190B2 (en) | 2010-07-07 | 2013-07-02 | Pictometry International Corp. | Real-time moving platform management system |
| US20120035887A1 (en) | 2010-08-03 | 2012-02-09 | Joseph Augenbraun | Shading analysis software |
| US8965598B2 (en) | 2010-09-30 | 2015-02-24 | Empire Technology Development Llc | Automatic flight control for UAV based solid modeling |
| US8977520B2 (en) | 2010-10-21 | 2015-03-10 | Pictometry International Corp. | Computer system for automatically classifying roof elements |
| KR101727122B1 (ko) | 2010-12-02 | 2017-04-14 | 건국대학교 산학협력단 | 무인 비행체의 가이드 비행 데이터 생성 시스템 및 그 방법 |
| US20120143482A1 (en) | 2010-12-02 | 2012-06-07 | Honeywell International Inc. | Electronically file and fly unmanned aerial vehicle |
| CN102194120B (zh) | 2011-01-24 | 2013-01-02 | 武汉理工大学 | 用遥感影像、相对高程和地理本体提取教学用地的方法 |
| DE102011010679A1 (de) | 2011-02-08 | 2012-08-09 | Eads Deutschland Gmbh | Unbemanntes Luftfahrzeug mit eingebautem Kollisionswarnsystem |
| EP2495688A1 (en) | 2011-03-02 | 2012-09-05 | Harman Becker Automotive Systems GmbH | Floor Number Determination in Buildings |
| FR2972364B1 (fr) | 2011-03-08 | 2014-06-06 | Parrot | Procede de pilotage suivant un virage curviligne d'un drone a voilure tournante a rotors multiples. |
| DE102011017564B4 (de) | 2011-04-26 | 2017-02-16 | Airbus Defence and Space GmbH | Verfahren und System zum Prüfen einer Oberfläche auf Materialfehler |
| US8676406B2 (en) | 2011-05-03 | 2014-03-18 | Raytheon Company | Unmanned aerial vehicle control using a gamepad |
| EP2538298A1 (en) * | 2011-06-22 | 2012-12-26 | Sensefly Sàrl | Method for acquiring images from arbitrary perspectives with UAVs equipped with fixed imagers |
| CA2845094A1 (en) | 2011-08-16 | 2013-04-18 | Unmanned Innovation Inc. | Modular flight management system incorporating an autopilot |
| TW201328344A (zh) | 2011-12-27 | 2013-07-01 | Hon Hai Prec Ind Co Ltd | 控制無人飛行載具進行影像採集的系統及方法 |
| US9933257B2 (en) | 2012-02-03 | 2018-04-03 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area |
| US20130204575A1 (en) | 2012-02-03 | 2013-08-08 | Chris Pershing | Systems and methods for estimation of building floor area |
| US10515414B2 (en) | 2012-02-03 | 2019-12-24 | Eagle View Technologies, Inc. | Systems and methods for performing a risk management assessment of a property |
| US8774525B2 (en) | 2012-02-03 | 2014-07-08 | Eagle View Technologies, Inc. | Systems and methods for estimation of building floor area |
| US10663294B2 (en) | 2012-02-03 | 2020-05-26 | Eagle View Technologies, Inc. | Systems and methods for estimation of building wall area and producing a wall estimation report |
| US9183538B2 (en) | 2012-03-19 | 2015-11-10 | Pictometry International Corp. | Method and system for quick square roof reporting |
| US9170106B2 (en) | 2012-04-19 | 2015-10-27 | Raytheon Corporation | Shock-resistant device and method |
| US9501760B2 (en) | 2012-04-24 | 2016-11-22 | Michael Paul Stanley | Media echoing and social networking device and method |
| US9609284B2 (en) | 2012-05-22 | 2017-03-28 | Otoy, Inc. | Portable mobile light stage |
| US20140018979A1 (en) | 2012-07-13 | 2014-01-16 | Honeywell International Inc. | Autonomous airspace flight planning and virtual airspace containment system |
| DE202013012544U1 (de) | 2012-11-15 | 2017-07-03 | SZ DJI Technology Co., Ltd. | Unbemanntes Luftfahrzeug mit mehreren Rotoren |
| US8874283B1 (en) | 2012-12-04 | 2014-10-28 | United Dynamics Advanced Technologies Corporation | Drone for inspection of enclosed space and method thereof |
| US20140316614A1 (en) | 2012-12-17 | 2014-10-23 | David L. Newman | Drone for collecting images and system for categorizing image data |
| US9162753B1 (en) | 2012-12-31 | 2015-10-20 | Southern Electrical Equipment Company, Inc. | Unmanned aerial vehicle for monitoring infrastructure assets |
| US9122708B2 (en) | 2013-02-19 | 2015-09-01 | Digitalglobe Inc. | Crowdsourced search and locate platform |
| US9075415B2 (en) | 2013-03-11 | 2015-07-07 | Airphrame, Inc. | Unmanned aerial vehicle and methods for controlling same |
| US9244272B2 (en) | 2013-03-12 | 2016-01-26 | Pictometry International Corp. | Lidar system producing multiple scan paths and method of making and using same |
| US8931144B2 (en) | 2013-03-14 | 2015-01-13 | State Farm Mutual Automobile Insurance Company | Tethering system and method for remote device |
| US20160148363A1 (en) | 2013-03-14 | 2016-05-26 | Essess, Inc. | Methods and systems for structural analysis |
| US8818572B1 (en) | 2013-03-15 | 2014-08-26 | State Farm Mutual Automobile Insurance Company | System and method for controlling a remote aerial device for up-close inspection |
| US9330504B2 (en) | 2013-04-30 | 2016-05-03 | Hover Inc. | 3D building model construction tools |
| US8991758B2 (en) | 2013-05-13 | 2015-03-31 | Precisionhawk Inc. | Unmanned aerial vehicle |
| US9798928B2 (en) | 2013-07-17 | 2017-10-24 | James L Carr | System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability |
| CA2920251C (en) | 2013-08-02 | 2025-10-07 | Xactware Solutions, Inc. | SYSTEM AND METHOD FOR DETECTING ELEMENTS IN AERIAL IMAGES USING GAP MAPPING AND SEGMENTATION TECHNIQUES |
| WO2015102731A2 (en) | 2013-10-18 | 2015-07-09 | Aerovironment, Inc. | Privacy shield for unmanned aerial systems |
| EP3060471A4 (en) | 2013-10-21 | 2017-06-28 | Kespry Inc. | Systems and methods for unmanned aerial vehicle landing |
| EP3060479A4 (en) | 2013-10-21 | 2017-05-17 | Kespry Inc. | System and methods for execution of recovery actions on an unmanned aerial vehicle |
| US10051178B2 (en) | 2013-12-06 | 2018-08-14 | Bae Systems Plc | Imaging method and appartus |
| US9292913B2 (en) | 2014-01-31 | 2016-03-22 | Pictometry International Corp. | Augmented three dimensional point collection of vertical structures |
| WO2015123348A1 (en) | 2014-02-11 | 2015-08-20 | Xactware Solutions, Inc. | System and method for generating computerized floor plans |
| US20150254738A1 (en) | 2014-03-05 | 2015-09-10 | TerrAvion, LLC | Systems and methods for aerial imaging and analysis |
| US9256225B2 (en) | 2014-05-12 | 2016-02-09 | Unmanned Innovation, Inc. | Unmanned aerial vehicle authorization and geofence envelope determination |
| US9310221B1 (en) | 2014-05-12 | 2016-04-12 | Unmanned Innovation, Inc. | Distributed unmanned aerial vehicle architecture |
| US9798322B2 (en) * | 2014-06-19 | 2017-10-24 | Skydio, Inc. | Virtual camera interface and other user interaction paradigms for a flying digital assistant |
| WO2016131005A1 (en) | 2015-02-13 | 2016-08-18 | Unmanned Innovation, Inc. | Unmanned aerial vehicle sensor activation and correlation |
| US20160307447A1 (en) | 2015-02-13 | 2016-10-20 | Unmanned Innovation, Inc. | Unmanned aerial vehicle remote flight planning system |
| CN106104203B (zh) * | 2015-07-13 | 2018-02-02 | 深圳市大疆创新科技有限公司 | 一种移动物体的距离检测方法、装置及飞行器 |
| JP6375503B2 (ja) | 2015-10-15 | 2018-08-22 | 株式会社プロドローン | 飛行型検査装置および検査方法 |
| US9740200B2 (en) | 2015-12-30 | 2017-08-22 | Unmanned Innovation, Inc. | Unmanned aerial vehicle inspection system |
| US9513635B1 (en) | 2015-12-30 | 2016-12-06 | Unmanned Innovation, Inc. | Unmanned aerial vehicle inspection system |
| WO2017116860A1 (en) | 2015-12-31 | 2017-07-06 | Unmanned Innovation, Inc. | Unmanned aerial vehicle rooftop inspection system |
| US9613538B1 (en) | 2015-12-31 | 2017-04-04 | Unmanned Innovation, Inc. | Unmanned aerial vehicle rooftop inspection system |
| US20180025649A1 (en) | 2016-02-08 | 2018-01-25 | Unmanned Innovation Inc. | Unmanned aerial vehicle privacy controls |
| US10671648B2 (en) | 2016-02-22 | 2020-06-02 | Eagle View Technologies, Inc. | Integrated centralized property database systems and methods |
| US9592912B1 (en) | 2016-03-08 | 2017-03-14 | Unmanned Innovation, Inc. | Ground control point assignment and determination system |
| US9658619B1 (en) | 2016-03-31 | 2017-05-23 | Unmanned Innovation, Inc. | Unmanned aerial vehicle modular command priority determination and filtering system |
| US10430890B1 (en) * | 2016-06-09 | 2019-10-01 | Allstate Insurance Company | Image-based processing for products |
| US10521664B2 (en) * | 2016-11-04 | 2019-12-31 | Loveland Innovations, LLC | Systems and methods for autonomous perpendicular imaging of test squares |
| US9886632B1 (en) * | 2016-11-04 | 2018-02-06 | Loveland Innovations, LLC | Systems and methods for autonomous perpendicular imaging of test squares |
| US9639960B1 (en) * | 2016-11-04 | 2017-05-02 | Loveland Innovations, LLC | Systems and methods for UAV property assessment, data capture and reporting |
| US11017679B2 (en) * | 2017-01-13 | 2021-05-25 | Skydio, Inc. | Unmanned aerial vehicle visual point cloud navigation |
| US9805261B1 (en) * | 2017-02-27 | 2017-10-31 | Loveland Innovations, LLC | Systems and methods for surface and subsurface damage assessments, patch scans, and visualization |
| US10375289B2 (en) * | 2017-03-31 | 2019-08-06 | Hangzhou Zero Zero Technology Co., Ltd. | System and method for providing autonomous photography and videography |
| US10012735B1 (en) | 2017-05-04 | 2018-07-03 | Loveland Innovations, LLC | GPS offset calibrations for UAVs |
| US10984182B2 (en) | 2017-05-12 | 2021-04-20 | Loveland Innovations, LLC | Systems and methods for context-rich annotation and report generation for UAV microscan data |
| US10364027B2 (en) * | 2017-10-24 | 2019-07-30 | Loveland Innovations, LLC | Crisscross boustrophedonic flight patterns for UAV scanning and imaging |
| US10872534B2 (en) * | 2017-11-01 | 2020-12-22 | Kespry, Inc. | Aerial vehicle inspection path planning |
-
2019
- 2019-11-21 US US16/691,197 patent/US12332660B2/en active Active
- 2019-11-21 EP EP19849057.5A patent/EP3884352B8/en active Active
- 2019-11-21 AU AU2019384167A patent/AU2019384167B2/en active Active
- 2019-11-21 CA CA3120291A patent/CA3120291A1/en active Pending
- 2019-11-21 ES ES19849057T patent/ES2968959T3/es active Active
- 2019-11-21 EP EP23202279.8A patent/EP4283340B1/en active Active
- 2019-11-21 WO PCT/US2019/062660 patent/WO2020106984A1/en not_active Ceased
-
2025
- 2025-09-24 AU AU2025237930A patent/AU2025237930A1/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| EP3884352B1 (en) | 2023-11-08 |
| US12332660B2 (en) | 2025-06-17 |
| US20200159252A1 (en) | 2020-05-21 |
| AU2019384167A1 (en) | 2021-07-08 |
| AU2025237930A1 (en) | 2025-10-16 |
| EP4283340C0 (en) | 2025-12-24 |
| EP4283340B1 (en) | 2025-12-24 |
| EP4283340A3 (en) | 2024-01-24 |
| EP3884352B8 (en) | 2023-12-13 |
| WO2020106984A1 (en) | 2020-05-28 |
| CA3120291A1 (en) | 2020-05-28 |
| EP3884352A1 (en) | 2021-09-29 |
| EP4283340A2 (en) | 2023-11-29 |
| AU2019384167B2 (en) | 2025-07-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2968959T3 (es) | Aeronave no tripulada de navegación que utiliza cabeceo | |
| AU2022203756B2 (en) | Unmanned aircraft structure evaluation system and method |