ES2846098T3 - Sistema y método para controlar un vehículo no tripulado en presencia de un objeto vivo - Google Patents

Sistema y método para controlar un vehículo no tripulado en presencia de un objeto vivo Download PDF

Info

Publication number
ES2846098T3
ES2846098T3 ES16917065T ES16917065T ES2846098T3 ES 2846098 T3 ES2846098 T3 ES 2846098T3 ES 16917065 T ES16917065 T ES 16917065T ES 16917065 T ES16917065 T ES 16917065T ES 2846098 T3 ES2846098 T3 ES 2846098T3
Authority
ES
Spain
Prior art keywords
uav
control
mode
live
proximity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16917065T
Other languages
English (en)
Inventor
You Zhou
Shaojie Shen
Jiexi Du
Guyue Zhou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Application granted granted Critical
Publication of ES2846098T3 publication Critical patent/ES2846098T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0033Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/042Control of altitude or depth specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Un método para controlar un objeto (118) móvil, que comprende: detectar un objeto (311, 312, 313, 611, 612, 613) vivo dentro de la proximidad del objeto (118) móvil; determinar un modo de operación para operar el objeto (118) móvil con el objeto (311, 312, 313, 611, 612, 613) vivo detectado dentro de la proximidad del objeto (118) móvil; aplicar un esquema de control asociado con el modo de operación para controlar una operación del objeto (118) móvil, en el que el esquema de control usa uno o más componentes de control para controlar un conjunto de características de movimiento; el método se caracteriza porque comprende, además: limitar la ganancia de control para al menos un componente de control en el esquema de control cuando el objeto (311, 312, 313, 611, 612, 613) vivo está interactuando con el objeto (118) móvil.

Description

DESCRIPCIÓN
Sistema y método para controlar un vehículo no tripulado en presencia de un objeto vivo
Una parte de la divulgación de este documento de patente contiene material que está sujeto a protección por derechos de autor. El propietario de los derechos de autor no tiene ninguna objeción a la reproducción por fax por parte de nadie del documento de patente o la divulgación de la patente, tal como aparece en el archivo o registros de patentes de la Oficina de Patentes y Marcas Registradas, pero se reserva todos los derechos de propiedad intelectual.
Campo de la invención
Las realizaciones divulgadas se refieren en general al control de objetos móviles y más en particular, pero no exclusivamente, al control de un vehículo no tripulado.
Antecedentes
Los vehículos no tripulados, como los vehículos aéreos no tripulados (UAV), se pueden utilizar para realizar tareas de vigilancia, reconocimiento y exploración para diversas aplicaciones. Debido a la gran popularidad de los UAV y la alta conveniencia en el mercado de UAV, es necesario agregar funciones más atractivas al UAV. Por ejemplo, es deseable que el UAV funcione en un entorno con presencia de objetos vivos. Esta es el área general que las realizaciones de la invención pretenden abordar.
El documento WO 2016/065625 A1 describe sistemas y métodos para guiar un objeto destino con un vehículo aéreo no tripulado en un entorno. El UAV puede configurarse para reconocer y localizar el objeto destino. El UAV se puede configurar para comunicar las acciones y el comportamiento del objeto destino a un usuario a través de un dispositivo de usuario en comunicación con el UAV. El UAV se puede configurar para proporcionar estímulos positivos y negativos al objeto destino para fomentar una acción o comportamiento. El UAV se puede configurar para reconocer y gestionar los residuos generados por el objeto destino.
El documento US 2016/068267 A1 describe sistemas y métodos para controlar un vehículo aéreo no tripulado dentro de un entorno. Un sistema comprende uno o más sensores transportados por el vehículo aéreo no tripulado y configurado para proporcionar datos de sensores y uno o más procesadores. El uno o más procesadores pueden configurarse individual o colectivamente para: determinar, basándose en los datos del sensor, un tipo de entorno para el entorno; seleccionar un modo de vuelo entre una pluralidad de modos de vuelo diferentes en función del tipo de entorno, en el que cada uno de la pluralidad de modos de vuelo diferentes está asociado con un conjunto diferente de reglas de funcionamiento para el vehículo aéreo no tripulado; y hacer que el vehículo aéreo no tripulado opere dentro del entorno mientras se ajusta al conjunto de reglas de operación del modo de vuelo seleccionado.
El documento WO 2007/041295 A2 describe un robot móvil invitado para interactuar con un residente humano, que realiza un procedimiento de búsqueda que atraviesa la habitación antes de interactuar con el residente, y puede preguntar verbalmente si el residente que se busca está presente. Al encontrar al residente, el robot móvil puede facilitar una sesión de teleconferencia con un tercero remoto o interactuar con el residente. El robot puede realizar un dialogo con el residente, reforzar el cumplimiento de la medicación u otros horarios. El robot incorpora funciones de seguridad para prevenir colisiones con el residente; y el robot puede anunciar de forma audible y/o indicar visiblemente su presencia para evitar convertirse en un obstáculo peligroso. Además, el robot móvil se comporta de acuerdo con una política de privacidad integral, por lo que cualquier grabación o transmisión del sensor debe ser aprobada por el residente.
Resumen
La presente invención se refiere a un método de acuerdo con la reivindicación 1, un sistema de acuerdo con la reivindicación 13, un soporte legible por ordenador no transitorio de acuerdo con la reivindicación 14 y un vehículo aéreo no tripulado de acuerdo con la reivindicación 15. Las reivindicaciones 2 a 10 se refieren a realizaciones especialmente ventajosas del método de acuerdo con la reivindicación 1.
En el presente documento se describen sistemas y métodos que pueden controlar un vehículo no tripulado con presencia de un objeto vivo. Un controlador puede detectar un objeto vivo dentro de la proximidad de un objeto móvil. Entonces, el controlador puede determinar un modo de operación para operar el objeto móvil con el objeto vivo dentro de la proximidad del objeto móvil. Además, el controlador puede aplicar un esquema de control asociado con el modo de operación para controlar una operación del objeto móvil.
Breve descripción de los dibujos
La figura 1 ilustra un entorno de objeto móvil, de acuerdo con diversas realizaciones de la presente invención.
La figura 2 ilustra un portador ejemplar en un entorno de objeto móvil, de acuerdo con realizaciones.
La figura 3 ilustra el control del movimiento del UAV con la presencia de uno o más objetos vivos, de acuerdo con diversas realizaciones de la presente invención.
La figura 4 muestra un diagrama ejemplar para ilustrar las transiciones entre diversos modos de funcionamiento del UAV, de acuerdo con diversas realizaciones de la presente invención.
La Figura 5 ilustra un mecanismo de operación de UAV ejemplar, de acuerdo con diversas realizaciones de la presente invención.
La Figura 6 ilustra la interacción de soporte entre un objeto vivo y un UAV, de acuerdo con diversas realizaciones de la presente invención.
La figura 7 ilustra un esquema de control ejemplar para controlar un UAV, de acuerdo con diversas realizaciones de la presente invención.
La figura 8 ilustra un esquema de control ejemplar para soportar un modo interactivo, de acuerdo con diversas realizaciones de la presente invención.
La figura 9 ilustra el control de un UAV en un modo interactivo, de acuerdo con diversas realizaciones de la presente invención.
La figura 10 muestra un diagrama de flujo del control de un objeto móvil con presencia de un objeto vivo en un entorno de objeto móvil, de acuerdo con diversas realizaciones de la presente invención.
Descripción detallada
La invención se ilustra, a modo de ejemplo y no a modo de limitación, en las figuras de los dibujos adjuntos en los que referencias similares indican elementos similares. Cabe señalar que las referencias a "un" o "una" o "alguna" realización(es) en esta descripción no son necesariamente a la misma realización, y tales referencias significan al menos una.
La siguiente descripción de la invención utiliza un vehículo aéreo no tripulado (UAV) como ejemplo de un objeto móvil. Será evidente para los expertos en la técnica que se pueden utilizar sin limitación otros tipos de objetos móviles. De acuerdo con diversas realizaciones de la presente invención, el sistema puede rastrear y detectar automáticamente un objetivo durante un largo período de tiempo, p. ej. utilizando un objeto móvil como un vehículo aéreo no tripulado (UAV), que tiene recursos limitados (por ejemplo, tanto en términos de capacidad informática como de recursos de energía). Además, el sistema puede proporcionar la capacidad de reorientación una vez que se pierde el objetivo. La figura 1 ilustra un entorno de objeto móvil, de acuerdo con diversas realizaciones de la presente invención. Como se muestra en la Figura 1, un objeto 118 móvil en un entorno 100 de objeto móvil puede incluir un portador 102 y una carga útil 104. Aunque el objeto 118 móvil se puede representar como una aeronave, esta representación no pretende ser limitante, y no es adecuada. Se puede utilizar el tipo de objeto móvil. Un experto en la técnica apreciaría que cualquiera de las realizaciones divulgadas en el presente documento en el contexto de los sistemas de aeronaves se puede aplicar a cualquier objeto móvil adecuado (por ejemplo, un UAV). En algunos casos, la carga útil 104 se puede proporcionar en el objeto 118 móvil sin requerir el portador 102.
De acuerdo con diversas realizaciones de la presente invención, el objeto 118 móvil puede incluir uno o más mecanismos 106 de movimiento (por ejemplo, mecanismos de propulsión), un sistema 108 de detección y un sistema 110 de comunicación.
Los mecanismos 106 de movimiento pueden incluir uno o más rotores, hélices, palas, motores, ruedas, ejes, imanes, toberas, animales o seres humanos. Por ejemplo, el objeto móvil puede tener uno o más mecanismos de propulsión. Los mecanismos 106 de movimiento pueden ser todos del mismo tipo. Alternativamente, los mecanismos 106 de movimiento pueden ser diferentes tipos de mecanismos de movimiento. Los mecanismos 106 de movimiento pueden montarse en el objeto 118 móvil (o viceversa), utilizando cualquier medio adecuado, tal como un elemento de soporte (por ejemplo, un árbol de transmisión). Los mecanismos 106 de movimiento se pueden montar en cualquier parte adecuada del objeto 118 móvil, como en la parte superior, inferior, frontal, posterior, laterales o combinaciones adecuadas de los mismos.
En algunas realizaciones, los mecanismos 106 de movimiento pueden permitir que el objeto 118 móvil despegue verticalmente desde una superficie o aterrice verticalmente sobre una superficie sin requerir ningún movimiento horizontal del objeto 118 móvil (por ejemplo, sin desplazarse por una pista). Opcionalmente, los mecanismos 106 de movimiento pueden operarse para permitir que el objeto 118 móvil flote en el aire en una posición y/u orientación especificadas. Uno o más de los mecanismos 106 de movimiento pueden controlarse independientemente de los otros mecanismos de movimiento. Alternativamente, los mecanismos 106 de movimiento pueden configurarse para ser controlados simultáneamente. Por ejemplo, el objeto 118 móvil puede tener múltiples rotores orientados horizontalmente que pueden proporcionar elevación y/o empuje al objeto móvil. Los múltiples rotores orientados horizontalmente se pueden accionar para proporcionar despegue vertical, aterrizaje vertical, y capacidades de flotación al objeto 118 móvil. En algunas realizaciones, uno o más de los rotores orientados horizontalmente pueden girar en el sentido de las agujas del reloj, mientras que uno o más de los rotores horizontales pueden girar en un sentido antihorario. Por ejemplo, el número de rotores en sentido horario puede ser igual al número de rotores en sentido antihorario. La tasa de rotación de cada uno de los rotores orientados horizontalmente se puede variar de forma independiente para controlar la elevación y/o el empuje producido por cada rotor, y así ajustar la disposición espacial, la velocidad y/o la aceleración del objeto 118 móvil (por ejemplo, con respecto a hasta tres grados de traslación y hasta tres grados de rotación).
El sistema 108 de detección puede incluir uno o más sensores que pueden detectar la disposición espacial, la velocidad y/o la aceleración del objeto 118 móvil (por ejemplo, con respecto a diversos grados de traslación y diversos grados de rotación). El uno o más sensores pueden incluir cualquiera de los sensores, incluidos sensores de GPS, sensores de movimiento, sensores de inercia, sensores de proximidad o sensores de imagen. Los datos de detección proporcionados por el sistema 108 de detección pueden usarse para controlar la disposición espacial, la velocidad y/o la orientación del objeto 118 móvil (por ejemplo, usando una unidad de procesamiento adecuada y/o un módulo de control). Alternativamente, el sistema 108 de detección se puede utilizar para proporcionar datos sobre el entorno que rodea al objeto móvil, como las condiciones meteorológicas, la proximidad a obstáculos potenciales, la ubicación de características geográficas, la ubicación de estructuras artificiales y similares.
El sistema 110 de comunicación permite la comunicación con el terminal 112 que tiene un sistema 114 de comunicación a través de señales 116 inalámbricas. Los sistemas 110, 114 de comunicación pueden incluir cualquier número de transmisores, receptores y/o transceptores adecuados para la comunicación inalámbrica. La comunicación puede ser una comunicación unidireccional, de modo que los datos se puedan transmitir en una sola dirección. Por ejemplo, la comunicación unidireccional puede implicar que sólo el objeto 118 móvil transmita datos al terminal 112, o viceversa. Los datos pueden transmitirse desde uno o más transmisores del sistema 110 de comunicación a uno o más receptores del sistema 112 de comunicación, o viceversa. Alternativamente, la comunicación puede ser una comunicación bidireccional, de modo que los datos se puedan transmitir en ambas direcciones entre el objeto 118 móvil y el terminal 112. La comunicación bidireccional puede implicar la transmisión de datos desde uno o más transmisores del sistema 110 de comunicación a uno o más receptores del sistema 114 de comunicación, y viceversa.
En algunas realizaciones, el terminal 112 puede proporcionar datos de control a uno o más del objeto 118 móvil, el portador 102 y la carga útil 104 y recibir información de uno o más del objeto 118 móvil, el portador 102 y la carga útil 104 (por ejemplo, información de posición y/o movimiento del objeto móvil, portador o carga útil, datos detectados por la carga útil tales como datos de imagen capturados por una cámara de carga útil y datos generados a partir de datos de imagen capturados por la cámara de carga útil). En algunos casos, los datos de control del terminal pueden incluir instrucciones para posiciones relativas, movimientos, actuaciones o controles del objeto móvil, portador y/o carga útil. Por ejemplo, los datos de control pueden resultar en una modificación de la ubicación y/u orientación del objeto móvil (por ejemplo, mediante el control de los mecanismos 106 de movimiento), o un movimiento de la carga útil con respecto al objeto móvil (por ejemplo, a través de control del portador 102). Los datos de control del terminal pueden resultar en el control de la carga útil, como el control del funcionamiento de una cámara u otro dispositivo de captura de imágenes (p. ej., tomar imágenes fijas o en movimiento, acercar o alejar, encender o apagar, cambiar de modo de imagen, cambiar la resolución de la imagen, cambiar el enfoque, cambiar la profundidad de campo, cambiar el tiempo de exposición, cambiar el ángulo de visión o el campo de visión).
En algunos casos, las comunicaciones del objeto móvil, portador y/o carga útil pueden incluir información de uno o más sensores (por ejemplo, del sistema 108 de detección o de la carga útil 104) y/o datos generados en base a la información de detección. Las comunicaciones pueden incluir información detectada de uno o más tipos diferentes de sensores (por ejemplo, sensores GPS, sensores de movimiento, sensor de inercia, sensores de proximidad o sensores de imagen). Tal información puede pertenecer a la posición (por ejemplo, ubicación, orientación), movimiento o aceleración del objeto móvil, portador y/o carga útil. Tal información de una carga útil puede incluir datos capturados por la carga útil o un estado detectado de la carga útil. Los datos de control transmitidos por el terminal 112 se pueden configurar para controlar un estado de uno o más del objeto 118 móvil, el portador 102 o la carga útil 104. Alternativamente o en combinación, el portador 102 y la carga útil 104 también pueden incluir cada uno un módulo de comunicación configurado para comunicarse con el terminal 112, de manera que el terminal pueda comunicarse con y controlar cada uno de los objetos 118 móviles, el portador 102 y la carga útil 104 de forma independiente.
En algunas realizaciones, el objeto 118 móvil puede configurarse para comunicarse con otro dispositivo remoto además del terminal 112, o en lugar del terminal 112. El terminal 112 también puede configurarse para comunicarse con otro dispositivo remoto, así como el objeto 118 móvil. Por ejemplo, el objeto 118 móvil y/o el terminal 112 pueden comunicarse con otro objeto móvil, o un portador o carga útil de otro objeto móvil. Cuando se desee, el dispositivo remoto puede ser un segundo terminal u otro dispositivo informático (por ejemplo, ordenador, portátil, tableta, teléfono inteligente u otro dispositivo móvil). El dispositivo remoto se puede configurar para transmitir datos al objeto 118 móvil, recibir datos del objeto 118 móvil, transmitir datos al terminal 112 y/o recibir datos del terminal 112. Opcionalmente, el dispositivo remoto puede conectarse al Internet u otra red de telecomunicaciones, de manera que los datos recibidos desde el objeto 118 móvil y/o el terminal 112 pueden cargarse en un sitio web o servidor.
La figura 2 ilustra un portador ejemplar en un entorno de objeto móvil, de acuerdo con realizaciones. El portador 200 se puede usar para acoplar una carga útil 202, como un dispositivo de captura de imágenes, a un objeto móvil como un UAV.
El portador 200 puede configurarse para permitir que la carga útil 202 gire alrededor de uno o más ejes, tales como tres ejes: X o eje de cabeceo, Z o eje de balanceo e Y o eje de guiñada, con respecto al objeto móvil. Por ejemplo, el portador 200 puede configurarse para permitir que la carga útil 202 gire sólo alrededor de uno, dos o tres de los ejes. Los ejes pueden ser o no ortogonales entre sí. El rango de rotación alrededor de cualquiera de los ejes puede estar limitado o no y puede variar para cada uno de los ejes. Los ejes de rotación pueden o no cruzarse entre sí. Por ejemplo, los ejes ortogonales pueden cruzarse entre sí. Pueden o no cruzarse en una carga útil 202. Alternativamente, pueden no cruzarse.
El portador 200 puede incluir un conjunto 211 de marco que comprende uno o más miembros de marco. Por ejemplo, un miembro de estructura puede configurarse para acoplarse y soportar la carga útil 202 (por ejemplo, un dispositivo de captura de imágenes).
En algunas realizaciones, el portador 201 puede comprender uno o más sensores 213 de portador útiles para determinar un estado del portador 201 o la carga útil 202 transportada por el portador 201. La información de estado puede incluir una disposición espacial (por ejemplo, posición, orientación, o actitud), una velocidad (por ejemplo, velocidad lineal o angular), una aceleración (por ejemplo, aceleración lineal o angular) y/u otra información sobre la portadora, un componente de la misma y/o la carga útil 202. En algunas realizaciones, la información de estado adquirida o calculada a partir de los datos del sensor puede usarse como datos de retroalimentación para controlar la rotación de los componentes (por ejemplo, miembros de marco) del portador. Los ejemplos de tales sensores portadores pueden incluir sensores de movimiento (por ejemplo, acelerómetros), sensores de rotación (por ejemplo, giroscopio), sensores de inercia y similares.
Los sensores 213 del portador se pueden acoplar a cualquier porción o porciones adecuadas del portador (por ejemplo, miembros de marco y/o miembros accionadores) y pueden o no ser móviles con relación al UAV. Adicional o alternativamente, al menos algunos de los sensores del portador se pueden acoplar directamente a la carga útil 202 transportada por el portador 201.
Los sensores 213 del portador pueden estar acoplados con algunos o todos los miembros accionadores del portador. Por ejemplo, se pueden acoplar tres sensores portadores respectivamente a los miembros 212 accionadores para un portador de tres ejes y configurarse para medir el accionamiento de los respectivos miembros 212 accionadores para el portador de tres ejes. Dichos sensores pueden incluir potenciómetros u otros sensores similares. En una realización, se puede insertar un sensor (por ejemplo, un potenciómetro) en el árbol del motor de un motor para medir la posición relativa de un rotor de motor y un estator de motor, midiendo así la posición relativa del rotor y el estator y generando una señal de posición representativa del mismo. En una realización, cada sensor acoplado al accionador está configurado para proporcionar una señal de posición para el miembro accionador correspondiente que este mide. Por ejemplo, se puede usar un primer potenciómetro para generar una primera señal de posición para el primer miembro accionador, se puede usar un segundo potenciómetro para generar una segunda señal de posición para el segundo miembro accionador, y se puede usar un tercer potenciómetro para generar una tercera señal de posición para el tercer miembro accionador. En algunas realizaciones, los sensores 213 del portador también se pueden acoplar a algunos o todos los miembros de marco del portador. Los sensores pueden transmitir información sobre la posición y/u orientación de uno o más miembros del marco del portador y/o el dispositivo de captura de imágenes. Los datos del sensor pueden usarse para determinar la posición y/u orientación del dispositivo de captura de imágenes con respecto al objeto móvil y/o un marco de referencia.
Los sensores 213 del portador pueden proporcionar datos de posición y/u orientación que pueden transmitirse a uno o más controladores (no mostrados) en el portador u objeto móvil. Los datos del sensor se pueden utilizar en un esquema de control basado en retroalimentación. El esquema de control se puede utilizar para controlar el accionamiento de uno o más miembros accionadores, como uno o más motores. Uno o más controladores, que pueden estar situados en un portador o en un objeto móvil que lleva el portador, pueden generar señales de control para accionar los miembros accionadores. En algunos casos, las señales de control se pueden generar en base a los datos recibidos de los sensores de la portadora indicativos de la disposición espacial de la portadora o de la carga útil 202 transportada por la portadora 201. Los sensores de la portadora pueden estar situados en la portadora o la carga útil 202, como se describió anteriormente en este documento. Las señales de control producidas por los controladores pueden ser recibidas por los diferentes controladores de accionador. Basándose en las señales de control, los diferentes controladores del accionador pueden controlar el accionamiento de los diferentes miembros del accionador, por ejemplo, para efectuar una rotación de uno o más componentes del portador. Un controlador de accionador puede incluir componentes de hardware y/o software adecuados para controlar la activación de un miembro de accionador correspondiente y recibir señales de posición de un sensor correspondiente (por ejemplo, potenciómetro). Las señales de control se pueden transmitir simultáneamente a los controladores del accionador para producir un accionamiento simultáneo de los miembros del accionador. Alternativamente, las señales de control se pueden transmitir secuencialmente, o solo a uno de los controladores del accionador. Ventajosamente, el esquema de control se puede utilizar para proporcionar un control de retroalimentación para accionar los miembros accionadores de un portador, permitiendo así una rotación más precisa y exacta de los componentes del portador.
En algunos casos, el portador 201 puede acoplarse indirectamente al UAV a través de uno o más elementos de amortiguación. Los elementos de amortiguación se pueden configurar para reducir o eliminar el movimiento de la carga (por ejemplo, carga útil, portador o ambos) causado por el movimiento del objeto móvil (por ejemplo, UAV). Los elementos de amortiguación pueden incluir cualquier elemento adecuado para amortiguar el movimiento de la carga acoplada, tal como un elemento de amortiguación activo, un elemento de amortiguación pasivo o un elemento de amortiguación híbrido que tenga características de amortiguación tanto activas como pasivas. El movimiento amortiguado por los elementos de amortiguación proporcionados en este documento puede incluir una o más vibraciones, oscilaciones, sacudidas o impactos. Tales movimientos pueden originarse a partir de movimientos del objeto móvil que se transmiten a la carga. Por ejemplo, el movimiento puede incluir vibraciones provocadas por el funcionamiento de un sistema de propulsión y/u otros componentes de un UAV.
Los elementos amortiguadores pueden proporcionar amortiguación del movimiento aislando la carga de la fuente de movimiento no deseado disipando o reduciendo la cantidad de movimiento transmitido a la carga (por ejemplo, aislamiento de vibraciones). Los elementos de amortiguación pueden reducir la magnitud (por ejemplo, la amplitud) del movimiento que de otro modo sería experimentado por la carga. La amortiguación de movimiento aplicada por los elementos de amortiguación se puede utilizar para estabilizar la carga, mejorando así la calidad de las imágenes capturadas por la carga (p. ej., dispositivo de captura de imágenes), así como reduciendo la complejidad computacional de los pasos de unión de imágenes necesarios para generar una imagen panorámica basada en las imágenes capturadas.
Los elementos de amortiguación descritos en este documento pueden formarse a partir de cualquier material o combinación de materiales adecuados, incluidos materiales sólidos, líquidos o gaseosos. Los materiales utilizados para los elementos amortiguadores pueden ser comprimibles y/o deformables. Por ejemplo, los elementos de amortiguación pueden estar hechos de esponja, espuma, caucho, gel y similares. Por ejemplo, los elementos de amortiguación pueden incluir bolas de caucho que tienen una forma sustancialmente esférica. Los elementos de amortiguación pueden tener cualquier forma adecuada, tal como sustancialmente esférica, rectangular, cilíndrica y similares. Alternativamente o, adicionalmente, los elementos amortiguadores pueden incluir materiales piezoeléctricos o materiales con memoria de forma. Los elementos de amortiguación pueden incluir uno o más elementos mecánicos, tales como resortes, pistones, hidráulica, neumática, amortiguadores, absorbedores de choque, aisladores y similares. Las propiedades de los elementos de amortiguación se pueden seleccionar para proporcionar una cantidad predeterminada de amortiguación de movimiento. En algunos casos, los elementos amortiguadores pueden tener propiedades viscoelásticas. Las propiedades de los elementos amortiguadores pueden ser isótropas o anisótropas. Por ejemplo, los elementos de amortiguación pueden proporcionar una amortiguación de movimiento igualmente a lo largo de todas las direcciones de movimiento. A la inversa, el elemento amortiguador puede proporcionar amortiguación de movimiento solo a lo largo de un subconjunto de las direcciones de movimiento (por ejemplo, a lo largo de una única dirección de movimiento). Por ejemplo, los elementos de amortiguación pueden proporcionar amortiguación principalmente a lo largo del eje Y (guiñada). Como tal, los elementos de amortiguación ilustrados se pueden configurar para reducir los movimientos verticales.
Aunque se pueden representar diversas realizaciones utilizando un solo tipo de elementos amortiguadores (por ejemplo, bolas de goma), se entenderá que se puede utilizar cualquier combinación adecuada de tipos de elementos amortiguadores. Por ejemplo, el portador puede acoplarse al objeto móvil utilizando uno o más elementos de amortiguación de cualquier tipo o tipos adecuados. Los elementos de amortiguación pueden tener características o propiedades iguales o diferentes, tales como rigidez, viscoelasticidad y similares. Cada elemento de amortiguación puede acoplarse a una porción diferente de la carga o solo a una cierta porción de la carga. Por ejemplo, los elementos de amortiguación pueden estar ubicados cerca de puntos de contacto o de acoplamiento o superficies entre la carga y los objetos móviles. En algunos casos, la carga se puede incrustar o encerrar en uno o más elementos de amortiguación.
La figura 3 ilustra el control del movimiento del UAV con la presencia de uno o más objetos vivos, de acuerdo con diversas realizaciones de la presente invención. Como se muestra en la Figura 3, un UAV 301 puede detectar uno o más objetos 311, 312 y 313, vivos que se presentan en el entorno 300 operativo del UAV. Por ejemplo, cada uno de los objetos 311, 312 o 313 vivos puede ser un humano, animal, mascota o cualquier otra forma de objeto que esté viva. Además, sin limitación, un objeto 311, 312 o 313 vivo puede ser cualquier objeto, como un robot, que puede comportarse como un objeto que está vivo.
De acuerdo con diversas realizaciones de la presente invención, la detección del objeto 311, 312 o 313 vivo puede basarse en la detección de un cambio ambiental. Por ejemplo, el UAV 301 puede detectar un objeto 311, 312 o 313 vivo utilizando uno o más sensores a bordo y/o exteriores del UAV 301.
De acuerdo con diversas realizaciones, los sensores a bordo o exteriores del UAV pueden recopilar diversos tipos de información ambiental. Un solo sensor puede recopilar un conjunto de información en un entorno o un grupo de sensores pueden trabajar juntos para recopilar un conjunto de información en un entorno. Los sensores se pueden utilizar para la detección de un objeto vivo, además del mapeo de ubicación, la navegación entre ubicaciones y la detección de obstáculos. Los sensores también se pueden utilizar para la vigilancia de un entorno o un tema de interés. Los sensores se pueden utilizar para reconocer un objeto vivo. El objeto vivo puede distinguirse de otros objetos del entorno. Se pueden usar sensores para reconocer un objeto que porta o lleva el objeto vivo. El objeto portado o llevado puede distinguirse de otros objetos en el entorno. Además, los sensores a bordo o exteriores del UAV pueden recopilar información como la ubicación del objeto vivo, la ubicación del UAV y la orientación del UAV.
Diversos ejemplos de sensores pueden incluir, entre otros, sensores de ubicación (p. ej., sensores del sistema de posicionamiento global (GPS), transmisores de dispositivos móviles que permiten la triangulación de la ubicación), sensores de visión (p. ej., dispositivos de imágenes capaces de detectar luz visible, infrarroja o ultravioleta, como cámaras), sensores de proximidad o rango (p. ej., sensores ultrasónicos, LADAR, cámaras de tiempo de vuelo o de profundidad), sensores inerciales (p. ej., acelerómetros, giroscopios, unidades de medición inercial (IMU)), sensores de altitud, sensores de actitud (por ejemplo, brújulas), sensores de presión (por ejemplo, barómetros), sensores de audio (por ejemplo, micrófonos) o sensores de campo (por ejemplo, magnetómetros, sensores electromagnéticos). Se puede utilizar cualquier número y combinación adecuados de sensores, como uno, dos, tres, cuatro, cinco o más sensores.
Opcionalmente, se pueden recibir datos de sensores de diferentes tipos (por ejemplo, dos, tres, cuatro, cinco o más tipos). Los sensores de diferentes tipos pueden medir diferentes tipos de señales o información (por ejemplo, posición, orientación, velocidad, aceleración, proximidad, presión, etc.) y/o utilizar diferentes tipos de técnicas de medición para obtener datos. Por ejemplo, los sensores pueden incluir cualquier combinación adecuada de sensores activos (por ejemplo, sensores que generan y miden energía a partir de su propia fuente de energía) y sensores pasivos (por ejemplo, sensores que detectan la energía disponible). Como otro ejemplo, algunos sensores pueden generar datos de medición absolutos que se proporcionan en términos de un sistema de coordenadas global (por ejemplo, datos de posición proporcionados por un sensor GPS, datos de actitud proporcionados por una brújula o magnetómetro), mientras que otros sensores pueden generar datos de medición relativos que se proporciona en términos de un sistema de coordenadas local (por ejemplo, velocidad angular relativa proporcionada por un giroscopio; aceleración de traslación relativa proporcionada por un acelerómetro; información de actitud relativa proporcionada por un sensor de visión; información de distancia relativa proporcionada por un sensor ultrasónico, LADa R, o cámara de tiempo de vuelo).
En algunas realizaciones, el UAV 301 puede tener sensores a bordo del UAV 301 que recopilan información directamente de un entorno. Por ejemplo, el UAV 301 puede detectar la presencia de un objeto 311, 312 o 313 vivo, cuando el sensor de visión o de audio a bordo del UAV captura imágenes o sonidos que indican la presencia de un objeto 311, 312 o 313 vivo. En algunas realizaciones, tal detección puede basarse en hacer coincidir una o más características observadas de los objetos detectados con una o más características de firma de objetos vivos, como la temperatura corporal y ciertas características de movimiento.
En un ejemplo, el UAV 301 puede comprender un sensor de visión, p. ej., una cámara. El sensor de visión puede estar encerrado en el cuerpo del UAV o transportado por el UAV como una carga útil externa. Por ejemplo, cuando el sensor de visión se transporta externamente como una carga útil, el sensor de visión se puede orientar debajo del cuerpo del UAV. Además, un portador puede conectar el sensor de visión al UAV. El portador puede configurarse de manera que el sensor de visión pueda girar y/o inclinarse en relación con el UAV. Además, el portador permite que el sensor de visión se traslade y/o gire en tres dimensiones. Por ejemplo, el portador puede permitir la rotación del sensor de visión alrededor de solo uno o dos ejes.
En otro ejemplo, el UAV 301 puede comprender un sensor de audio. El sensor de audio puede estar encerrado en el cuerpo del UAV 301 o transportado por el UAV 301 como una carga útil externa. El sensor de audio puede estar dispuesto en diferentes partes del cuerpo del UAV 301 u orientado hacia diferentes direcciones que rodean al UAV 301. Además, el sensor de audio puede aprovechar un filtro de ruido, que puede filtrar el ruido de fondo, como el del motor, hélice o ruido del viento. Además, el sensor de audio a bordo del uAv puede recibir señales de audio que son recolectadas por los receptores de audio instalados en el entorno circundante.
En otro ejemplo más, el UAV 301 puede comprender un sensor térmico. El sensor térmico puede estar en el cuerpo del UAV 301 o transportado por el UAV 301 como una carga útil externa. El sensor térmico puede detectar la variación de temperatura en el entorno que rodea al UAV 301, p. ej. basado en la detección de luz infrarroja. Luego, de acuerdo con la lectura de temperatura y/o la evaluación de las características de movimiento relacionadas (por ejemplo, reconocimiento de la marcha), el UAV puede ser consciente de la presencia de un objeto vivo (por ejemplo, un usuario) en el vecindario circundante.
En algunas realizaciones, el UAV 301 puede depender de uno o más sensores exteriores del UAV para recopilar datos que indiquen un cambio ambiental. Se pueden instalar diversos sensores en el entorno donde opera el UAV. El UAV puede recibir la información recopilada por los sensores exteriores del UAV, directa o indirectamente, para detectar si un objeto vivo se presenta en el entorno de operación, dentro de una proximidad del UAV 301 (por ejemplo, dentro de un umbral de distancia predeterminado del UAV 301).
De acuerdo con diversas realizaciones de la presente invención, el UAV 301 puede detectar un objeto 311 vivo una vez que recibe una señal del objeto 311 vivo. Por ejemplo, el objeto 311 vivo puede ser un usuario. El usuario puede estar en una ubicación, como una casa, un patio, una habitación, un edificio, un vehículo u otro espacio o área. El usuario puede comunicarse con uno o más procesadores a bordo del UAV 301 a través de un dispositivo electrónico. El dispositivo electrónico puede ser o no un dispositivo móvil. El dispositivo electrónico puede ser o no un terminal remoto capaz de controlar manualmente el vuelo del UAV. El dispositivo electrónico puede estar en comunicación con el UAV directamente a través de una conexión por cable o inalámbrica. El dispositivo electrónico puede además estar en comunicación con un procesador, a través de una conexión por cable o inalámbrica, el procesador puede además estar en comunicación con el UAV a través de una conexión por cable o inalámbrica. Alternativamente, el procesador puede estar a bordo del dispositivo electrónico y/o el UAV 301. Por ejemplo, el UAV puede tener uno o más procesadores integrados. Los uno o más procesadores integrados pueden comunicarse con un procesador externo y/o un dispositivo electrónico con una interfaz de usuario. En un ejemplo, la comunicación se puede basar en una interfaz de usuario, que puede estar en una pantalla electrónica como un ordenador de escritorio, ordenador portátil, teléfono inteligente, reloj inteligente, lentes inteligentes, tableta u otro dispositivo configurado para comunicarse con uno o más procesadores. Los procesadores integrados pueden realizar cualquier función de los procesadores descritos en este documento. Alternativamente, el UAV 301 puede comunicarse directamente con el dispositivo electrónico para comunicarse con un dispositivo o procesador intermedio.
De acuerdo con diversas realizaciones, el UAV 301 puede detectar la presencia de un objeto vivo detectando una señal emitida desde el objeto vivo. Por ejemplo, el objeto vivo puede llevar o estar incrustado con un dispositivo electrónico o etiqueta, que se puede identificar o rastrear automáticamente. Por ejemplo, tal dispositivo electrónico o etiqueta puede basarse en la identificación por radiofrecuencia (RFID), bluetooth o cualquier tecnología de comunicación de campo cercano (NFC). Las etiquetas pueden recolectar energía pasivamente de un lector RFID de interrogación a bordo del UAV 301, o emitir señales activamente al entorno circundante utilizando energía local.
De acuerdo con diversas realizaciones, el objeto 104 vivo puede tener opcionalmente un identificador portátil. Por ejemplo, el objeto vivo puede llevar un anillo, un collar, una muñequera o un collar. El sensor de visión del UAV puede detectar un patrón visual en el identificador portátil para localizar el objeto vivo destino. Alternativamente, el identificador portátil se puede incrustar con un dispositivo electrónico o una etiqueta, que se puede identificar electrónicamente mediante un sensor a bordo del UAV.
En algunas realizaciones, la detección del objeto 311, 312 o 313 vivo puede lograrse mediante la colaboración de diferentes sensores, incluidos los sensores a bordo del UAV y los sensores fuera del UAV 301. Por ejemplo, se pueden instalar uno o más detectores de movimiento en el suelo en el entorno 300 operativo del UAV. Una vez que un detector de movimiento detecta un objeto vivo, dicha información se puede transmitir al UAV 301, que a su vez puede confirmar la presencia del objeto vivo, así como la orientación y distancia del objeto vivo en relación con el UAV. Además, el UAV 301 puede refinar la detección del objeto vivo midiendo la velocidad y/o obteniendo la dimensión del objeto vivo (como la altura del objeto vivo). Por ejemplo, un ladrón que ingresa a una casa puede activar un detector de movimiento, que puede disparar al UAV. Luego, el UAV puede iniciar un modo de seguimiento y sigue al ladrón basándose en el movimiento medido del ladrón mediante sensores a bordo del UAV.
De acuerdo con diversas realizaciones, el UAV 301 en el entorno 300 operativo del UAV puede detectar un objeto vivo, que se presenta dentro de un área circundante del UAV 301. Además, el área circundante del UAV 301 (por ejemplo, el área circundante del UAV 301) se puede configurar como zonas múltiples. Por ejemplo, el área circundante del UAV 301 se puede configurar como diversas zonas de operación, tal como una zona normal, una zona segura y una zona interactiva.
Como se muestra en la Figura 3, el área circundante del UAV 301 puede configurarse como múltiples zonas 310-330, de acuerdo con lo definido por un radio geográfico. Por ejemplo, el objeto vivo 311 se ubica en una zona 330 normal (por ejemplo, fuera de una proximidad del UAV 301), mientras que el objeto 312 vivo se ubica en una zona 320 segura y el objeto 313 vivo se ubica en una zona 310 interactiva (por ejemplo, dentro de las proximidades del UAV 301).
En algunas realizaciones, el radio geográfico puede definir una región radial centrada en una ubicación actual del UAV 301. Alternativamente, el radio geográfico puede definir una región radial centrada en una ubicación de un objeto vivo, tal como un usuario. En algunas realizaciones, el área circundante se puede definir utilizando diversas formas geométricas, tales como polígonos, elipses y otras formas geométricas. El usuario puede definir una región geográfica utilizando coordenadas globales o coordenadas locales. En algunos casos, una región geográfica se puede definir como una región dentro de los límites definidos por el usuario, p. ej., definido mediante coordenadas globales.
De acuerdo con diversas realizaciones, un usuario puede definir el área circundante del UAV 301 a través de una interfaz de usuario que está en comunicación con un procesador a bordo o al exterior del UAV 301. El uno o más procesadores pueden estar en comunicación con una o más unidades de almacenamiento de memoria. La unidad de almacenamiento de memoria puede almacenar áreas pasadas definidas por el usuario. Las unidades del dispositivo de almacenamiento de memoria pueden almacenar datos geográficos, tal como mapas que pueden actualizarse opcionalmente. Opcionalmente, un usuario puede definir el área circundante cada vez que el uAv detecta un objeto vivo. Por ejemplo, el área circundante se puede definir como una región en la que el objeto vivo puede viajar de manera segura sin interferir con el UAV, un límite más allá del cual el objeto vivo puede interferir con el UAV y/o una región en la que el objeto vivo puede probablemente interferir con el UAV.
En diversas realizaciones, un usuario puede proporcionar un mapa visual. Se puede generar un mapa visual en una interfaz de usuario en un dispositivo electrónico. La interfaz de usuario puede proporcionar un mapa de un espacio local o elegido en el que un objeto vivo puede interactuar con el UAV. Un usuario puede marcar áreas, que están permitidas o no permitidas para el UAV y/o el objeto vivo para viajar, en el mapa provisto por la interfaz de usuario. En algunos casos, un usuario puede marcar áreas en el mapa utilizando una pantalla táctil proporcionada en la interfaz de usuario. El dedo de un usuario o un puntero (por ejemplo, el puntero del mouse, el puntero de la bola de seguimiento, etc.) se pueden usar para trazar el contorno de los límites. El usuario puede dibujar círculos en la interfaz de usuario para definir un área. Alternativamente, el usuario puede hacer clic o tocar puntos para definir las coordenadas de una región.
De acuerdo con diversas realizaciones, uno o más procesadores a bordo del UAV 301 pueden monitorizar el objeto vivo mientras reciben una o más señales de ubicación a bordo o fuera del UAV. Por ejemplo, el UAV puede rastrear y detectar automáticamente un objeto vivo destino durante un largo período de tiempo, p. ej., utilizando un objeto móvil como un vehículo aéreo no tripulado (UAV), que tiene recursos limitados (por ejemplo, tanto en términos de capacidad informática como de recursos de energía). Además, el sistema puede proporcionar la capacidad de reorientación una vez que se pierde el objeto vivo destino.
De acuerdo con diversas realizaciones, el UAV 301 puede cambiar el modo de operación después de la detección del objeto vivo. Tal determinación puede basarse en la distancia, la velocidad u otros factores. Por ejemplo, el UAV 301 puede estar en un modo de funcionamiento normal cuando está funcionando en una zona normal. Alternativamente, el UAV 301 puede estar en un modo de operación seguro cuando el UAV está operando en una zona segura, y el UAV 301 puede estar en un modo de operación interactivo cuando el UAV está en una zona interactiva. En algunas realizaciones, el UAV 301 puede cambiar el modo de funcionamiento después de la detección del objeto vivo. Tal determinación puede basarse en la distancia, la velocidad y/u otros factores. Además, la determinación del modo de funcionamiento puede basarse en el tipo de entorno. En algunas formas de realización, la configuración de las zonas puede verse afectada por factores tales como si el UAV está dentro de un entorno interior o un entorno exterior. Por ejemplo, las zonas de operación se pueden definir usando un radio mayor o en una forma regular cuando el UAV está operando en un ambiente exterior. Por otro lado, las zonas de operación se pueden definir usando un radio más pequeño o en una forma irregular cuando el UAV está operando en un ambiente interior.
La figura 4 muestra un diagrama de ejemplo para ilustrar las transiciones entre diversos modos de funcionamiento del UAV, de acuerdo con diversas realizaciones de la presente invención. Como se muestra en la Figura 4, el UAV 400 se puede configurar para operar en diversos modos de operación 401-404.
Por ejemplo, el UAV 400 puede estar operando en un modo 401 normal cuando no se detecta ningún objeto vivo, o se ubica en una zona normal. Por otro lado, cuando el UAV 400 detecta un objeto vivo dentro de la proximidad del UAV 400 (por ejemplo, una zona segura), el UAV 400 puede pasar a un modo 402 seguro. En tal caso, el UAV 400 puede aplicar diversos esquemas de seguridad con el fin de operar de manera segura, confiable y conveniente el UAV 400. Por ejemplo, tal esquema de seguridad puede incluir limitar la velocidad de movimiento del UAV 400 para prevenir la colisión con el objeto vivo o controlar el uAv 400 en un estado de flotación estacionario.
Además, el UAV 400 puede transitar a un modo 403 listo para interactuar, después de que el UAV 400 determina que un usuario muestra una intención de interactuar con el UAV, p. ej., acercándose al UAV 301 o agitando una mano. En algunas realizaciones, cuando el UAV 301 está en un modo listo para interactuar, el UAV 301 puede prepararse para la interacción.
De acuerdo con diversas realizaciones, el UAV puede emplear diferentes mecanismos para soportar la interacción con un objeto vivo, tal como un usuario. Por ejemplo, el UAV puede permanecer estable (es decir, permanecer suspendido) para la interacción del usuario. Por lo tanto, un usuario puede presionar un botón en el cuerpo del UAV. Además, el UAV puede elevar el rotor para permitir un fácil acceso por parte del usuario.
Como se muestra en la Figura 4, el UAV 400 puede entrar en un modo 404 interactivo (por ejemplo, desde el modo 403 listo para interactuar), tan pronto como el usuario comience (o esté a punto de) interactuar con el UAV 400. De acuerdo con diversas realizaciones, el UAV puede emplear un esquema de control diferente o reconfigurar el esquema de control para soportar la interacción entre el objeto vivo y el UAV 400. Alternativamente, el UAV puede pasar directamente del modo 402 seguro al modo 404 de interacción.
Una vez que el usuario termina de interactuar con el usuario, o si el usuario decide no interactuar con el UAV (por ejemplo, alejándose del UAV), el UAV puede regresar al modo 402 seguro antes de regresar al modo 401 normal. Alternativamente, el UAV puede transitar del modo 404 interactivo al modo 403 listo para interactuar, de modo que el UAV puede permanecer listo (o preparado) para la interacción del objeto vivo. Por ejemplo, si el usuario vuelve a conectarse con el UAV, el UAV puede transitar del modo 403 listo para interactuar al modo 404 interactivo.
Además, el UAV puede transitar del modo 402 seguro al modo 401 normal, cuando el objeto vivo decide no interactuar con el UAV o es incapaz de interactuar con el UAV (por ejemplo, cuando el objeto vivo está a una distancia sustancial lejos del UAV).
La figura 5 ilustra un mecanismo de funcionamiento de UAV ejemplar, de acuerdo con diversas realizaciones de la presente invención. Como se muestra en la Figura 5, un UAV 500 se puede configurar para operar en un modo 510 de operación UAV. El modo 501 de operación UAV puede determinar cómo opera el UAV 500 bajo una circunstancia particular, p. ej., después de la detección de un objeto vivo 501. Por ejemplo, el UAV 500 puede configurarse para tomar ciertas medidas de seguridad cuando el UAV 500 está funcionando en modo seguro. Alternativamente, el UAV puede estar en un nodo listo para interactuar con el fin de prepararse para entrar en un modo interactivo. En algunas realizaciones, el sistema puede aplicar un modo de funcionamiento del primer componente (por ejemplo, un modo seguro) cuando el objeto vivo se detecta dentro de la proximidad del objeto móvil, y puede aplicar un modo de funcionamiento del segundo componente (por ejemplo, un modo normal) cuando no se detecta ningún objeto vivo dentro de la proximidad del objeto móvil, y en el que el modo de funcionamiento del primer componente y el modo de funcionamiento del segundo componente son diferentes.
De acuerdo con diversas realizaciones, cuando el UAV 500 está operando en un modo 510 de operación de UAV, el UAV 500 se puede configurar para operar en un modo 502 de operación de componente de uAv . El modo 502 de operación de componente de UAV se puede configurar de manera diferente para diversos componentes a bordo del UAV 500, tales como sensores, rotores y motores, correspondientes a los diferentes modos 501 de operación del UAV. Además, el conjunto de componentes del UAV que pueden adoptar el modo de operación del componente del UAV puede ser preseleccionado o predefinido. Por ejemplo, cuando el UAV está operando en modo interactivo, un conjunto de componentes como los sensores de visión y el radar ultrasónico pueden configurarse para operar en modo interactivo, mientras que el barómetro y la unidad de medición inercial permanecen funcionando en modo normal. En algunas realizaciones, cuando el funcionamiento del UAV 500 transita hacia el modo interactivo, el funcionamiento de los componentes del UAV puede ajustarse en consecuencia para admitir el modo interactivo. Por ejemplo, la operación del oponente UAV, como el sensor a bordo del UAV, puede adoptar un modo de operación de componente UAV, ya que la operación del sensor puede ser interferida por el objeto vivo.
De acuerdo con diversas realizaciones, el UAV puede aprovechar diferentes modos 502 de operación de componentes del UAV que emplean diferentes lógicas de control, cuando el funcionamiento del UAV transita entre diferentes modos de operación. En algunas realizaciones, cuando el UAV está funcionando en un modo interactivo o en un modo listo para interactuar, se puede interferir en la medición de un sensor de visión o un sensor ultrasónico. Por ejemplo, cuando un usuario sostiene o toca el UAV desde abajo en el modo interactivo, la medición de los sensores, que están montados en la parte inferior del UAV, puede estar dañada y no ser confiable cuando el sensor está bloqueado por la mano del usuario. El UAV puede emplear una lógica que puede excluir o modificar la medición (por ejemplo, salto de datos) por los sensores interferidos. Por ejemplo, el sistema puede optar por confiar y utilizar la medición de los sensores que no están interferidos, como los sensores montados en la parte superior del UAV o un tipo diferente de sensores como el barómetro o la unidad de medida de inercia (IMU).
De acuerdo con diversas realizaciones, cuando el UAV 500 está operando en un modo 501 de operación UAV, el UAV 500 puede configurarse para operar en un modo 512 de operación de carga útil UAV. Por ejemplo, el sistema puede aplicar un primer modo de operación de carga útil (por ejemplo, un modo seguro) cuando el objeto vivo se detecta dentro de la proximidad del objeto móvil y puede aplicar un segundo modo de operación de carga útil (por ejemplo, un modo normal) cuando no se detecta ningún objeto vivo dentro de la proximidad del objeto móvil, y en el que el primer modo de operación de carga útil y el segundo modo de operación de carga útil son diferentes.
En algunas realizaciones, el modo 512 de operación de carga útil del UAV se puede configurar de manera diferente para los diferentes modos 501 de operación del UAV. En algunas realizaciones, la carga útil (por ejemplo, una cámara), que está unida al UAV 500, puede operar de manera correspondiente al modo de funcionamiento del UAV 500, p. ej. adoptando un modo de operación de carga útil UAV correspondiente. Por ejemplo, cuando el UAV 500 está funcionando en un modo normal, la lógica de control de un portador que transporta la carga útil, tal como una cámara, puede estabilizar la cámara para que mire en una determinada dirección. Por otro lado, cuando el UAV 500 entra en un modo interactivo, la lógica de control del portador puede permitir que el usuario gire libremente la cámara para apuntar a una dirección aleatoria que sea deseable.
La Figura 6 ilustra la interacción de soporte entre un objeto vivo y un UAV, de acuerdo con diversas realizaciones de la presente invención. Como se muestra en la Figura 6, un UAV 601 puede asociar un modo 602 de operación con un esquema 603 de control. Por ejemplo, el esquema 603 de control puede basarse en diversas metodologías de control, tales como un esquema de control proporcional-integral-derivado (PID).
De acuerdo con diversas realizaciones, el UAV 601 puede configurarse para comportarse de manera diferente para diferentes modos de funcionamiento. Por ejemplo, se pueden emplear diferentes esquemas 603 de control para configurar el UAV en diferentes modos 602 de operación. Alternativamente, se puede usar un esquema 603 de control para manejar diferentes modos de operación.
Como se muestra en la Figura 6, cuando se detecta un objeto 611 vivo fuera de una proximidad 610 del UAV 601, el UAV 601 puede estar operando en un modo de operación normal. En tal caso, el UAV 601 puede emplear un esquema de control normal para controlar diversas características de movimiento del UAV 601 (por ejemplo, la posición, la velocidad, la orientación y la inclinación del UAV 601). De manera correspondiente, un conjunto predeterminado o seleccionado de componentes y cargas útiles del UAV puede funcionar en un modo de funcionamiento normal. Por otro lado, cuando el objeto 612 vivo se mueve en la proximidad 610 del UAV 601, el UAV 601 puede estar operando en un modo seguro o en un modo listo para interactuar. En tal caso, el UAV 601 puede emplear un esquema de control que puede controlar las características de movimiento del UAV de una manera diferente. Por ejemplo, el UAV 601 puede aplicar un límite de velocidad o entrar en un estado de flotación. Además, cuando el objeto vivo 613 funciona en un modo interactivo, el componente, como los sensores a bordo del UAV 601 y la carga útil transportada por el UAV, pueden operar en el modo interactivo correspondiente.
De acuerdo con diversas realizaciones, el UAV 601 puede configurarse para emplear diferentes esquemas de control correspondientes a diferentes modos de operación. Por ejemplo, en un primer modo de funcionamiento, el sistema puede permitir que un usuario gire el UAV 601 con respecto a dos ejes. Por otro lado, el sistema puede permitir que un usuario gire el UAV 601 con respecto a los tres ejes en un segundo modo de operación. Además, el UAV 601 se puede configurar para emplear diferentes esquemas de control correspondientes a diferentes objetos vivos. Por ejemplo, al aprovechar diversas técnicas de reconocimiento de la marcha, el UAV 601 puede reconocer diferentes tipos de objetos vivos (por ejemplo, distinguir entre un usuario y una mascota). Además, el sistema puede asignar diferentes roles y/o asociar diferentes privilegios con los diferentes usuarios en función de diferentes perfiles de usuario. Por ejemplo, un usuario adulto puede tener un control total del UAV 601 mientras que un usuario infantil puede tener solo un subconjunto de la capacidad. Además, el UAV 601 se puede configurar para emplear diferentes esquemas de control basados en diversos factores adicionales, como los tipos ambientales (p. ej., espacio interior/lleno de gente versus espacio exterior/escaso) y el estado del UAV o componentes del mismo (p. ej., altitud, velocidad, orientación, duración de la batería, estado del sensor). Además, la correspondencia de los diversos esquemas de control con los diferentes modos de funcionamiento puede basarse en reglas, que se pueden configurar en tiempo real.
La Figura 7 ilustra un esquema de control ejemplar para controlar un UAV, de acuerdo con diversas realizaciones de la presente invención. Como se muestra en la Figura 7, un UAV 701 puede emplear un esquema 700 de control que incluye un componente 703 de control de posición, un componente 704 de control de velocidad, un componente 705 de control de inclinación y un componente 706 de control de orientación.
De acuerdo con diversas realizaciones, un sistema de detección en el UAV 701 puede medir el estado del UAV 701. Además, el sistema puede obtener el estado de vuelo estimado en base a diversas técnicas 702 de fusión de datos. El sistema de detección puede obtener la posición, velocidad, orientación, inclinación y velocidad angular del UAV medidos. Por ejemplo, un sensor GPS puede obtener la posición estimada del UAV 701, una IMU, que puede incluir un giroscopio, acelerómetro y magnetómetro, puede obtener la aceleración estimada y la velocidad angular del UAV 701, así como la orientación estimada del UAV 701.
De acuerdo con diversas realizaciones, el esquema 700 de control se puede ajustar para controlar el UAV 701 en diferentes circunstancias. Por ejemplo, para mantener el UAV 701 flotando en una posición fija o viajando a lo largo de una trayectoria deseada, el componente 703 de control de posición puede generar una velocidad 722 deseada para contrarrestar cualquier movimiento de deriva del UAV 701 lejos de su posición 721 deseada. Además, el componente 704 de control de velocidad puede generar la inclinación 723 deseada para lograr la velocidad 722 deseada. Entonces, el componente 705 de control de inclinación puede generar señales de control del motor para lograr la inclinación 723 deseada en base a la inclinación 714 estimada y la velocidad 715 angular estimada. Dichas señales de control de motor se pueden utilizar para controlar las diversas mecánicas 731-733 de movimiento asociadas con el UAV 701.
Como se muestra en la Figura 7, un componente de control de posición 703 puede obtener una velocidad 722 deseada basada en la diferencia de la posición 721 deseada y la posición 711 estimada. Además, un componente 704 de control de velocidad puede obtener la inclinación 723 deseada basada en la diferencia entre la velocidad 722 deseada y la velocidad 712 estimada. Además, un componente 705 de control de título puede calcular las señales de control del motor basándose en la velocidad 715 angular estimada y la diferencia entre la inclinación 723 deseada y la inclinación 714 estimada.
Además, el UAV 701 puede mantener una orientación fija o una orientación deseada, el componente de control de orientación puede generar señales de control del motor para generar una fuerza que puede contrarrestar cualquier desviación de la orientación del UAV. También como se muestra en la Figura 7, un componente 706 de control de orientación puede generar las señales de control del motor basándose en la diferencia entre la orientación 724 deseada y la orientación 713 estimada. Por lo tanto, las señales de control del motor combinadas o integradas se pueden usar para controlar las diversas mecánicas 731-733 de movimientos asociadas con el UAV 701, cuyas características de movimiento pueden medirse y pueden usarse para generar señales de control adicionales para controlar el UAV 701 en tiempo real.
De acuerdo con diversas realizaciones, el esquema 700 de control se puede configurar para diferentes modos de funcionamiento. Por ejemplo, el sistema puede limitar la ganancia de control en el componente 706 de control de orientación, de modo que cuando el usuario aplica una fuerza sobre el UAV desde una dirección lateral (por ejemplo, una dirección de guiñada), el UAV 701 puede girar como desee el usuario. Por otro lado, si el esquema de control no se modifica, el UAV 701 puede generar una fuerza de resistencia para mantener el UAV 701 en una orientación instantánea.
De acuerdo con diversas realizaciones, el sistema puede limitar la ganancia de control en el componente 703 de control de posición de una manera similar, de modo que cuando el usuario aplica una fuerza sobre el UAV 701 desde una dirección lateral, el UAV 701 puede moverse hacia ubicación diferente de acuerdo con lo que el usuario desee. Por otro lado, si no se modifica el esquema de control, el UAV 701 puede generar una fuerza de resistencia que puede intentar mantener una ubicación presente.
La figura 8 ilustra un esquema de control ejemplar para soportar un modo interactivo, de acuerdo con diversas realizaciones de la presente invención. Como se muestra en la Figura 8, el UAV 801 puede emplear un esquema 800 de control que incluye un componente 804 de control de inclinación, mientras que limita las ganancias de control para otros componentes de control (no mostrados).
De acuerdo con diversas realizaciones, el UAV 801 puede obtener la inclinación 812 estimada basándose en diferentes estados medidos del UAV. Por ejemplo, un módulo 802 de medición de inercia en el UAV 801 puede medir el estado del UAV, como una velocidad angular medida por un giroscopio y una inclinación medida por un acelerómetro. La estimación puede basarse en un filtro 803 que es capaz de realizar la fusión de datos de diferentes tipos de medición. Entonces, basándose en la diferencia entre la inclinación 811 deseada y la inclinación 812 estimada, el componente 804 de control de inclinación puede determinar la señal de control esperada para los motores 821-823 del UAV 801.
De acuerdo con diversas realizaciones, se puede aplicar un mecanismo 810 de control de seguridad en el esquema de control de modo que el UAV 801 pueda operar de una manera segura, confiable y conveniente. En algunas realizaciones, el UAV puede dirigir el motor para que deje de moverse tan pronto como detecte una condición anormal. Por ejemplo, el mecanismo 810 de control de seguridad puede dirigir el motor para que deje de funcionar, tan pronto como el UAV detecte un aumento repentino de la corriente en el motor, lo que puede indicar un posible bloqueo del motor (una condición en la que el motor deja de girar). La condición de bloqueo ocurre cuando el par de carga es mayor que el par del eje del motor (por ejemplo, en una situación de colisión). En la condición de bloqueo, el motor consume la corriente máxima pero el motor no gira.
La figura 9 ilustra el control de un UAV en un modo interactivo, de acuerdo con diversas realizaciones de la presente invención. Puede emplearse un esquema 900 de control para mantener un UAV en un plano horizontal mientras se permite al usuario girar libremente el UAV a una orientación deseada o mover libremente el UAV a una ubicación deseada, en un modo interactivo.
Como se muestra en la Figura 9A, se puede aplicar una fuerza F a lo largo de una dirección de guiñada para ajustar la orientación 901 del UAV en un plano horizontal (por ejemplo, un plano x-y). Después de la liberación de la fuerza F, el UAV puede permanecer en la orientación 911 como resultado de la aplicación de la fuerza F por parte del usuario. Por lo tanto, el usuario puede girar libremente el UAV a la orientación deseada, p. ej., con el propósito de tomar una foto o monitorizar una mascota.
Por otro lado, como se muestra en la Figura 9B, un usuario puede aplicar una fuerza F' a lo largo de una dirección vertical (por ejemplo, en un plano x-z) para mantener el UAV en una posición 912 inclinada. Una vez que se libera la fuerza F', el UAV puede volver a la actitud 902 horizontal original, ya que el componente de control de título en el esquema de control puede generar una fuerza contraria para devolver el UAV a la posición horizontal. Por lo tanto, el esquema 900 de control puede evitar que el UAV se desvíe en una dirección horizontal (ya que el UAV puede moverse horizontalmente mientras está en una posición inclinada). Como resultado, el UAV puede mantenerse en un espacio estrictamente controlado y puede evitar la colisión con los objetos circundantes, tal como un objeto vivo.
De acuerdo con diversas realizaciones, cuando se aplica una fuerza aleatoria sobre el UAV, el esquema 900 de control puede configurarse para responder solo a un componente (o porción) de la fuerza aplicada. Por ejemplo, usando el esquema de control como se muestra en la Figura 8, solo el componente de guiñada de la fuerza aplicada puede tener efecto mientras que se puede generar una fuerza contraria para mantener el UAV en una actitud horizontal. En otras palabras, el UAV se puede configurar para permitir al usuario girar libremente el UAV a lo largo de una dirección de guiñada y volver a la actitud horizontal una vez que se libera la fuerza. Por lo tanto, se puede evitar que el UAV se desvíe en una dirección horizontal, lo que es desfavorable y puede ser peligroso debido a la presencia del objeto vivo (por ejemplo, para evitar golpear al usuario).
En algunas realizaciones, el esquema 900 de control se puede configurar de diversas formas diferentes. Por ejemplo, el UAV se puede configurar para mantener la actitud de guiñada y cabeceo mientras permite que un usuario gire el UAV sobre un eje de balanceo. Además, el UAV se puede configurar para mantener la actitud de guiñada y balanceo mientras permite al usuario girar el UAV a lo largo de una dirección de cabeceo. Alternativamente, el UAV se puede configurar para mantener solo una de las posiciones de guiñada, balanceo y cabeceo mientras permite que un usuario gire el UAV sobre otros dos ejes.
De acuerdo con diversas realizaciones, se puede aplicar un esquema de control similar en la carga útil o el componente a bordo del UAV. Por ejemplo, un usuario puede mover primero el UAV a una ubicación particular con una orientación particular. Luego, el usuario puede ajustar la cámara que lleva el UAV para que apunte a una dirección particular para tomar una foto (limitando las ganancias de control de diversos componentes de control para el portador, por ejemplo, un cardán).
La figura 10 muestra un diagrama de flujo de control de un objeto móvil con presencia de un objeto vivo en un entorno de objeto móvil, de acuerdo con diversas realizaciones de la presente invención. Como se muestra en la Figura 16, en el paso 1001, el sistema puede detectar un objeto vivo dentro de la proximidad de un objeto móvil. Luego, en el paso 1002, el sistema puede determinar un modo de operación para operar el objeto móvil con el objeto vivo dentro de la proximidad del objeto móvil. Además, en el paso 1003, el sistema puede aplicar un esquema de control asociado con el modo de operación para controlar una operación del objeto móvil.
Se pueden realizar muchas características de la presente invención usando, o con la ayuda de hardware, software, firmware o combinaciones de los mismos. En consecuencia, las características de la presente invención pueden implementarse usando un sistema de procesamiento (por ejemplo, que incluye uno o más procesadores). Los procesadores ejemplares pueden incluir, sin limitación, uno o más microprocesadores de propósito general (por ejemplo, procesadores de uno o diversos núcleos), circuitos integrados específicos de la aplicación, procesadores de conjuntos de instrucciones específicos de la aplicación, unidades de procesamiento de gráficos, unidades de procesamiento de física, unidades de procesamiento de señal digital, coprocesadores, unidades de procesamiento de red, unidades de procesamiento de audio, unidades de procesamiento de cifrado y similares.
Las características de la presente invención se pueden implementar en, usando o con la ayuda de un producto de programa de ordenador que es un medio de almacenamiento (medio) o medio legible por ordenador (medio) que tiene instrucciones almacenadas sobre/en este que puede ser utilizado para programar un sistema de procesamiento para realizar cualquiera de las funciones aquí presentadas. El medio de almacenamiento puede incluir, pero no se limita a, cualquier tipo de disco, incluidos disquetes, discos ópticos, DVD, CD-ROM, microdrive y discos magnetoópticos, ROM, RAM, EPROM, EEPROM, DRAM, VRAM, dispositivos de memoria flash, tarjetas magnéticas u ópticas, nanosistemas (incluidos los circuitos integrados de memoria molecular) o cualquier tipo de medio o dispositivo adecuado para almacenar instrucciones y/o datos.
Almacenadas en cualquiera de los medios legibles por máquina (medios), las características de la presente invención pueden incorporarse en software y/o firmware para controlar el hardware de un sistema de procesamiento y para permitir que un sistema de procesamiento interactúe con otro mecanismo utilizando los resultados de la presente invención. Dicho software o firmware puede incluir, pero no se limita a, código de aplicación, controladores de dispositivo, sistemas operativos y entornos/contenedores de ejecución.
Las características de la invención también se pueden implementar en hardware usando, por ejemplo, componentes de hardware tales como circuitos integrados específicos de aplicación (ASIC) y dispositivos de matriz de puertas programables en campo (FPGA). La implementación de la máquina de estado de hardware para realizar las funciones descritas en este documento será evidente para los expertos en la técnica relevante.
Además, la presente invención puede implementarse convenientemente usando uno o más ordenadores, dispositivos informáticos, máquinas o microprocesadores digitales especializados o de propósito general convencionales, incluyendo uno o más procesadores, memoria y/o medios de almacenamiento legibles por ordenador programados de acuerdo con las enseñanzas de la presente divulgación. Los programadores expertos pueden preparar fácilmente la codificación de software apropiada basándose en las enseñanzas de la presente divulgación, como resultará evidente para los expertos en la técnica del software.
Aunque se han descrito anteriormente diversas realizaciones de la presente invención, debe entenderse que se han presentado a modo de ejemplo y no de limitación. Resultará evidente para los expertos en la técnica pertinente que se pueden realizar diversos cambios en la forma y los detalles sin apartarse del espíritu y alcance de la invención.
La presente invención se ha descrito anteriormente con la ayuda de bloques de construcción funcionales que ilustran el desempeño de funciones específicas y sus relaciones. Los límites de estos bloques de construcción funcionales a menudo se han definido arbitrariamente en el presente documento por conveniencia de la descripción. Pueden definirse límites alternativos siempre que las funciones especificadas y las relaciones de las mismas se realicen de manera apropiada.
La descripción anterior de la presente invención se ha proporcionado con fines ilustrativos y descriptivos. No pretende ser exhaustiva ni limitar la invención a las formas precisas divulgadas. La amplitud y el alcance de la presente invención no deben estar limitados por ninguna de las realizaciones ejemplares descritas anteriormente. Muchas modificaciones y variaciones serán evidentes para el experto en la técnica. Las modificaciones y variaciones incluyen cualquier combinación relevante de las características divulgadas. Las realizaciones se eligieron y describieron con el fin de explicar mejor los principios de la invención y su aplicación práctica, permitiendo así que otros expertos en la técnica comprendan la invención para diversas realizaciones y con diversas modificaciones que se adaptan al uso particular contemplado. Se pretende que el alcance de la invención quede definido por las siguientes reivindicaciones y su equivalencia.

Claims (15)

REIVINDICACIONES
1. Un método para controlar un objeto (118) móvil, que comprende:
detectar un objeto (311, 312, 313, 611, 612, 613) vivo dentro de la proximidad del objeto (118) móvil;
determinar un modo de operación para operar el objeto (118) móvil con el objeto (311, 312, 313, 611, 612, 613) vivo detectado dentro de la proximidad del objeto (118) móvil;
aplicar un esquema de control asociado con el modo de operación para controlar una operación del objeto (118) móvil, en el que el esquema de control usa uno o más componentes de control para controlar un conjunto de características de movimiento;
el método se caracteriza porque comprende, además:
limitar la ganancia de control para al menos un componente de control en el esquema de control cuando el objeto (311, 312, 313, 611, 612, 613) vivo está interactuando con el objeto (118) móvil.
2. El método de la reivindicación 1, en el que el objeto móvil es un vehículo aéreo no tripulado, UAV, y en el que el método comprende, además:
el uso de técnicas de reconocimiento de la marcha para que el UAV sea consciente de los diferentes tipos de objetos vivos; y
emplear diferentes esquemas de control correspondientes a diferentes objetos vivos.
3. El método de la reivindicación 1 o 2, que además comprende:
recibir una señal de un dispositivo remoto, en el que dicha señal indica si el objeto (311, 312, 313, 611,612, 613) vivo está dentro de la proximidad del objeto (118) móvil.
4. El método de la reivindicación 1 o 2, que además comprende:
detectar un cambio de entorno, lo que indica si el objeto (311,312, 313, 611,612, 613) vivo está dentro de la proximidad del objeto (118) móvil.
5. El método de la reivindicación 1 o 2, en el que los componentes de control incluyen uno o más de
un componente (703) de control de posición para realizar el control de posición,
un componente (704) de control de velocidad para realizar el control de velocidad,
un componente (706) de control de orientación para realizar el control de orientación, y
un componente (705) de control de inclinación para realizar el control de inclinación.
6. El método de la reivindicación 5, en el que el objeto móvil es un vehículo aéreo no tripulado, UAV, y en el que el método comprende, además:
limitar la ganancia de control en el componente de control de orientación, de manera que cuando un usuario aplica una fuerza sobre el UAV desde una dirección lateral, el UAV puede girar como desee el usuario; o
limitar la ganancia de control en el componente de control de posición, de modo que cuando un usuario aplica una fuerza sobre el UAV desde una dirección lateral, el UAV puede moverse a una ubicación diferente según lo desee el usuario.
7. El método de la reivindicación 5, que además comprende:
mantener el control de inclinación mientras relaja el control de posición, el control de velocidad y el control de orientación.
8. El método de la reivindicación 1 o 2, que además comprende:
aplicar un mecanismo de seguridad cuando el objeto (311, 312, 313, 611, 612, 613) vivo es detectado dentro de la proximidad del objeto (118) móvil.
9. El método de la reivindicación 1 o 2, que además comprende:
aplicar un primer modo de operación de componente cuando el objeto (311,312, 313, 611,612, 613) vivo es detectado dentro de la proximidad del objeto (118) móvil, y aplicar un segundo modo de operación de componente cuando no hay objeto (311, 312, 313, 611, 612, 613) vivo detectado dentro de la proximidad del objeto (118) móvil, y en el que el modo de funcionamiento del primer componente y el modo de funcionamiento del segundo componente son diferentes.
10. El método de la reivindicación 1 o 2, que además comprende:
aplicar un primer modo de operación de carga útil cuando el objeto (311, 312, 313, 611, 612, 613) vivo es detectado dentro de la proximidad del objeto (118) móvil, y aplicar un segundo modo de operación de carga útil cuando no se detecta ningún objeto (311, 312, 313, 611, 612, 613) vivo dentro de la proximidad del objeto (118) móvil, y en el que el primer modo de operación de carga útil y el segundo modo de operación de carga útil son diferentes.
11. El método de la reivindicación 1 o 2, que además comprende:
controlar el objeto (118) móvil para mantener un estado de flotación cuando el objeto (311, 312, 313, 611, 612, 613) vivo es detectado dentro de la proximidad del objeto (118) móvil.
12. El método de la reivindicación 1 o 2, en el que el modo de funcionamiento se selecciona entre un modo (401) normal, un modo (402) seguro, un modo (403) listo para interactuar y un modo (404) interactivo,
que comprende, además:
permitir que el objeto (118) móvil tenga un movimiento de guiñada cuando el objeto (118) móvil está funcionando en el modo (404) interactivo,
que comprende, además:
mantener el objeto (118) móvil en una actitud horizontal cuando el objeto (118) móvil está en el modo (404) interactivo.
13. Un sistema para controlar un objeto (118) móvil, que comprende:
uno o más microprocesadores;
un controlador que se ejecuta en uno o más microprocesadores, en el que el controlador opera para
detectar un objeto (311, 312, 313, 611, 612, 613) vivo dentro de la proximidad de un objeto (118) móvil; determinar un modo de operación para operar el objeto (118) móvil con el objeto (311, 312, 313, 611, 612, 613) vivo detectado dentro de la proximidad del objeto (118) móvil;
aplicar un esquema de control asociado con el modo de operación para controlar una operación del objeto (118) móvil, en el que el esquema de control usa uno o más componentes de control para controlar un conjunto de características de movimiento;
el sistema se caracteriza porque el controlador opera además para
limitar la ganancia de control para al menos un componente de control en el esquema de control cuando el objeto (311, 312, 313, 611, 612, 613) vivo está interactuando con el objeto (118) móvil.
14. Un medio legible por ordenador no transitorio con instrucciones almacenadas en el mismo, que cuando son ejecutados por un procesador, hacen que el procesador ejecute las operaciones del método de cualquiera de las reivindicaciones 1 a 12.
15. Un vehículo aéreo no tripulado (UAV), que comprende el sistema de la reivindicación 13.
ES16917065T 2016-09-27 2016-09-27 Sistema y método para controlar un vehículo no tripulado en presencia de un objeto vivo Active ES2846098T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2016/100358 WO2018058305A1 (en) 2016-09-27 2016-09-27 System and method for controlling unmaned vehicle with presence of live object

Publications (1)

Publication Number Publication Date
ES2846098T3 true ES2846098T3 (es) 2021-07-28

Family

ID=61762549

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16917065T Active ES2846098T3 (es) 2016-09-27 2016-09-27 Sistema y método para controlar un vehículo no tripulado en presencia de un objeto vivo

Country Status (6)

Country Link
US (1) US11475682B2 (es)
EP (2) EP3761135B1 (es)
CN (1) CN108700877B (es)
DK (1) DK3377952T3 (es)
ES (1) ES2846098T3 (es)
WO (1) WO2018058305A1 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6940461B2 (ja) * 2018-09-10 2021-09-29 日立グローバルライフソリューションズ株式会社 自律走行型掃除機
CN117930875A (zh) * 2018-12-04 2024-04-26 深圳市大疆创新科技有限公司 控制可移动装置的移动的方法及系统
CN110062345B (zh) * 2019-04-09 2022-03-22 深圳大学 一种无人机-物联网数据采集方法和系统
US11592837B1 (en) * 2021-10-30 2023-02-28 Beta Air, Llc Systems and methods to control gain for an electric aircraft

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8583282B2 (en) 2005-09-30 2013-11-12 Irobot Corporation Companion robot for personal interaction
KR101142737B1 (ko) * 2009-12-10 2012-05-04 한국원자력연구원 조류 대응 시스템
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US9110168B2 (en) * 2011-11-18 2015-08-18 Farrokh Mohamadi Software-defined multi-mode ultra-wideband radar for autonomous vertical take-off and landing of small unmanned aerial systems
WO2013176758A1 (en) * 2012-05-22 2013-11-28 Intouch Technologies, Inc. Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices
CN103543752B (zh) * 2013-10-09 2017-03-15 深圳市大疆创新科技有限公司 一种遥控方法和遥控系统
EP3008535B1 (en) * 2014-09-05 2018-05-16 SZ DJI Technology Co., Ltd. Context-based flight mode selection
CN106455523B (zh) * 2014-10-31 2020-08-04 深圳市大疆创新科技有限公司 用于遛宠物的系统和方法
CN104386250B (zh) * 2014-11-20 2017-01-11 河南送变电工程公司 一种多旋翼巡检飞行器及输电线路巡检系统
CN108137153B (zh) * 2015-01-18 2022-07-15 基础制造有限公司 用于无人机的装置、系统和方法
CN204868886U (zh) * 2015-07-10 2015-12-16 桂林电子科技大学 一种灾害现场可飞行的多功能机器人
CN105120011B (zh) * 2015-09-22 2019-02-12 杨珊珊 一种航拍数据下载系统及方法
CN105245809A (zh) * 2015-09-30 2016-01-13 小米科技有限责任公司 视频录制方法及装置
US10040551B2 (en) * 2015-12-22 2018-08-07 International Business Machines Corporation Drone delivery of coffee based on a cognitive state of an individual
US9963246B2 (en) * 2016-03-28 2018-05-08 Amazon Technologies, Inc. Combining depth and thermal information for object detection and avoidance
CN105931263B (zh) * 2016-03-31 2019-09-20 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备

Also Published As

Publication number Publication date
US20190213391A1 (en) 2019-07-11
EP3377952A1 (en) 2018-09-26
EP3377952A4 (en) 2018-12-19
EP3761135B1 (en) 2022-10-26
EP3377952B1 (en) 2020-10-28
DK3377952T3 (da) 2021-01-25
CN108700877A (zh) 2018-10-23
US11475682B2 (en) 2022-10-18
EP3761135A1 (en) 2021-01-06
WO2018058305A1 (en) 2018-04-05
CN108700877B (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN114019990A (zh) 用于控制可移动物体的系统和方法
ES2907503T3 (es) Umbral ajustable de proximidad para evitar objetos de un vehículo robótico basado en la presencia de carga(s) útil(es) detectada(s)
US11442473B2 (en) Systems and methods for surveillance with a visual marker
US11246289B2 (en) Systems and methods for walking pets
ES2846098T3 (es) Sistema y método para controlar un vehículo no tripulado en presencia de un objeto vivo
US10563985B2 (en) Inertial sensing device
Celik et al. Monocular vision SLAM for indoor aerial vehicles
ES2876449T3 (es) Cartografía de entorno de múltiples sensores
ES2902469T3 (es) Métodos y sistemas para el control del movimiento de dispositivos voladores
US20200257319A1 (en) Personal security robotic vehicle
JP6682381B2 (ja) 無人飛行体、飛行制御方法及び飛行制御プログラム
CN115220475A (zh) 用于uav飞行控制的系统和方法
CN107045355B (zh) 移动控制方法、自主移动机器人
Bujňák et al. Spherical robots for special purposes: a review on current possibilities
US20210134001A1 (en) System and method for moment capturing
WO2018010164A1 (zh) 一种避障检测方法、运动装置及无人机
Moshe et al. Indoor positioning and navigation for micro UAV drones—Work in progress
WO2018111075A1 (es) Sistema de aterrizaje automático con alta velocidad de descenso para drones
JP2021073796A (ja) 制御装置、及び画像を取得する方法
WO2017022178A1 (ja) 無人飛行体、飛行制御方法及び飛行制御プログラム
JPWO2020065719A1 (ja) 飛行体
KR20210122458A (ko) 무인 항공기 및 그것의 제어 방법
Zhang Deployment of Real Time UAV Aerial Surveillance with Coverage Model
BR102015016261A2 (pt) sistema e método para auxiliar pessoas deficientes visuais