ES2661087T3 - Puesto de control de drones - Google Patents

Puesto de control de drones Download PDF

Info

Publication number
ES2661087T3
ES2661087T3 ES14805305.1T ES14805305T ES2661087T3 ES 2661087 T3 ES2661087 T3 ES 2661087T3 ES 14805305 T ES14805305 T ES 14805305T ES 2661087 T3 ES2661087 T3 ES 2661087T3
Authority
ES
Spain
Prior art keywords
operator
functionalities
control
drones
control post
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14805305.1T
Other languages
English (en)
Inventor
Arnaud GALIMBERTI
Cécilia AGUERO
Jean-Philippe Pinheiro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Application granted granted Critical
Publication of ES2661087T3 publication Critical patent/ES2661087T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0026Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0027Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Puesto de control de una pluralidad de drones, que comprende: - un dispositivo de visualización (4) configurado para la visualización de elementos gráficos que incluye elementos gráficos activos (14A) configurados para la interacción de un operador (10) con el puesto de control (2) y/o uno o más drones, - una interfaz de control (8) para la entrada al puesto de control (2) por las órdenes del operador, y - un oculómetro (6) configurado para detectar la dirección de la mirada del operador (10), caracterizado porque el puesto de control (2) está configurado para activar selectivamente uno de una pluralidad de primeros modos operativos del puesto de control (2) asociados respectivamente con uno de los elementos gráficos activos (14A) en respuesta a la detección de la mirada del operador (10) en el elemento gráfico activo (14) correspondiente, cada primer modo operativo se configura para permitir al operador interactuar con uno o más elementos gráficos (14) y/o uno o más drones a través de la interfaz de control (8) según un conjunto de funcionalidades dado.

Description

DESCRIPCIÓN
Puesto de control de drones
5 [0001] La presente invención se refiere a un puesto de control de drones.
[0002] Más particularmente, la presente invención se refiere a un puesto de control de una pluralidad de
drones, que comprende:
10 - un dispositivo de visualización configurado para la visualización de elementos gráficos que incluye elementos gráficos activos configurados para la interacción de un operador con el puesto de control y/o uno o más drones,
- una interfaz de control para la entrada al puesto de control por las órdenes del operador, y
- un oculómetro configurado para detectar la dirección de la mirada del operador.
15 [0003] La invención se sitúa en el campo de los dispositivos de control y supervisión de una flota de drones.
Estos dispositivos están destinados a ayudar a asegurar el control de la totalidad o parte de las funciones de los drones, tales como la navegación de los drones de la flota, así como interactuar con las cargas útiles transportadas a bordo de los drones de la flota, tales como por ejemplo cámaras de observación del campo visible, campo de infrarrojos, etc.
20
[0004] Los dispositivos de este tipo que son conocidos permiten la visualización en el dispositivo de visualización de elementos gráficos activos, a través de los cuales el operador interactúa ya sea directamente con los drones, ya sea con los elementos gráficos en cuestión. Para ello, el operador del dispositivo debe seleccionar el dron con el que desea interactuar, por ejemplo mediante la activación de un icono para este fin, antes de introducir
25 las órdenes deseadas a través de la interfaz de control.
[0005] Este tipo de dispositivo presenta algunos inconvenientes. De hecho, el número de acciones requeridas por el operador antes de poder interactuar con un dron en particular es elevado, lo que produce como efecto complicar el tratamiento de los datos informáticos que permiten desempeñar las tareas en cuestión, pero también
30 aumentar el tiempo de reacción del operador y la carga cognitiva asociada con el uso del dispositivo de control.
[0006] El documento US2009/087029A1 describe un sistema y un procedimiento de control de drones con un dispositivo de visualización, que está destinado a reconocer el terreno. El documento US2005/047629 presenta una pluralidad de modos operativos del puesto de control que se activa y asocia con uno de los elementos gráficos
35 activos en respuesta a la detección de la mirada del operador. Uno de los objetivos de la invención es paliar estos inconvenientes.
[0007] Para este fin, la invención se refiere a un puesto de control de una pluralidad de drones tal como se define anteriormente caracterizado porque el puesto de control está configurado para activar selectivamente uno de
40 una pluralidad de primeros modos operativos del puesto de control respectivamente asociados con uno de los elementos gráficos activos en respuesta a la detección de la mirada del operador en el elemento gráfico activo correspondiente, cada primer modo operativo está configurado para permitir al operador interactuar con uno o más elementos gráficos y/o uno o más drones a través de la interfaz de control según un conjunto de funcionalidades dado.
45
[0008] Según otros aspectos de la invención, el puesto de control comprende una o más de las siguientes funcionalidades técnicas, por separado o según cualquier combinación técnicamente posible:
- los elementos gráficos activos comprenden una pluralidad de flujos de vídeo proporcionados respectivamente por 50 uno de los drones y al mismo tiempo visualizados a través del dispositivo de visualización, cada dron controlado por
el puesto de control proporciona al menos un flujo de vídeo, los primeros modos operativos correspondientes a los flujos de vídeo permiten al operador interactuar con los flujos de vídeo y al menos el dron proporciona el flujo de vídeo correspondiente según un primer conjunto de funcionalidades;
- se utiliza la disposición relativa de los flujos de vídeo en el dispositivo de visualización, además de la posición de la 55 mirada del operador detectada por el oculómetro, como datos de entrada de una o más funcionalidades de al menos
un conjunto de funcionalidades asociado con un elemento gráfico activo;
- el primer conjunto de funcionalidades comprende uno o más elementos del grupo formado por: una función de modificación de la disposición relativa de los flujos de vídeo en el dispositivo de visualización, una función de modificación de la orientación y/o del nivel de aumento de una cámara de adquisición instalada a bordo de un dron,
una función de conmutación entre dos modos operativos de un dron;
- la interfaz de control comprende una superficie táctil;
- la interfaz de control comprende una tableta de visualización táctil configurada para la visualización de informaciones relacionadas con los drones;
5 - la totalidad o parte de las funcionalidades de los primeros modos operativos del puesto de control se activan por la realización a través de la superficie táctil de un gesto o de una secuencia de gestos del grupo formado por: la puesta en contacto de uno o más dedos con la superficie táctil, el desplazamiento de un dedo sustancialmente según una dirección en la superficie táctil, el desplazamiento conjunto de una pluralidad de dedos sustancialmente según una dirección en la superficie táctil, el desplazamiento de dos o más de dedos entre sí en la superficie táctil, el golpeteo 10 sucesivo de uno o más dedos en la superficie táctil;
- el puesto de control está configurado para activar un segundo modo operativo en respuesta a la detección de la mirada del operador en una dirección distinta a la del dispositivo y en el que el operador interactúa con uno o más drones a través de la interfaz de control;
- el segundo modo operativo está configurado para la interacción del operador con uno o más drones según un 15 segundo conjunto de funcionalidades, el segundo conjunto de funcionalidades comprende al menos una
funcionalidad diferente de conjuntos de funcionalidades de los primeros modos operativos del puesto de control; y
- el puesto de control está configurado para modificar la apariencia de uno o más elementos gráficos en respuesta a la detección de la mirada del operador en la dirección correspondiente, y para modificar la apariencia de la interfaz de control en respuesta a la detección de la mirada del operador en una dirección distinta a la de un elemento
20 gráfico activo.
[0009] La invención se entenderá mejor tras la lectura de la siguiente descripción detallada, dada únicamente a modo de ejemplo y con referencia a las figuras anexas en las que:
25 - la Figura 1 es una ilustración esquemática de un puesto de control según la invención; y
- las Figuras 2 a 6 son representaciones esquemáticas de gestos realizados por un operador para interactuar con el puesto de control de la Figura 1.
[0010] La figura 1 ilustra un puesto de control 2 de una pluralidad de drones, de aquí en adelante puesto 2.
30
[0011] El puesto 2 comprende un dispositivo de visualización 4, de aquí en adelante dispositivo 4, un
oculómetro 6 así como una interfaz de control 8. Además, el dispositivo 2 comprende medios de tratamiento 9. El
puesto 2 es manipulado por un operador 10.
35 [0012] El puesto 2 permite al operador 10 interactuar con una flota de drones (no representados) a cada uno
de los cuales está asociado al menos un flujo de vídeo 12.
[0013] Cada flujo de vídeo 12 procede de una cámara instalada a bordo del dron correspondiente y tiene por objeto permitir la visualización en el dispositivo 4 de una zona vigilada por el dron. Los drones pueden ser de
40 diferentes tipos, por ejemplo algunos de los drones son drones aerotransportados, por ejemplo por al menos un ala rotatoria o por al menos otra ala fija, y otros son drones terrestres o incluso submarinos.
[0014] Por ejemplo, el puesto 2 permite el control simultáneo de dos drones, tres drones o más de tres drones.
45
[0015] El dispositivo 4 está configurado para realizar la visualización de elementos gráficos 14.
[0016] Los elementos gráficos 14 corresponden a los objetos generados por el puesto 2 y visualizados en el
dispositivo 4 durante su funcionamiento.
50
[0017] Los elementos gráficos 14 informan al operador 10 sobre los drones y/o el puesto 2. Los elementos gráficos 14 comprenden elementos gráficos activos 14A configurados para permitir también al operador interactuar con el puesto 2 y/o los drones a través de las funcionalidades activables por el operador 10 a través de la interfaz de control 8. Los elementos gráficos 14 también comprenden elementos gráficos pasivos 14B que no están
55 configurados para la interacción del operador con el puesto 2 o los drones.
[0018] Los elementos gráficos activos 14A comprenden los flujos de vídeo 12 proporcionadas por los drones controlados por el puesto 2. El dispositivo 4 está configurado para visualizar simultáneamente los flujos de vídeo 12.
[0019] En algunas realizaciones, los elementos gráficos activos 14A también comprenden uno o más símbolos 15 superpuestos en el flujo de vídeo 12 correspondiente. Un símbolo 15 está asociado con algunos puntos notables de las imágenes de flujo de vídeo, tales como por ejemplo un objetivo cuyo dron pretende detectar. Un símbolo 15 del flujo de vídeo 12 se presenta por ejemplo en forma de un marco en líneas continuas o líneas de
5 puntos. El símbolo 15 es generado por el propio dron durante la captura de imágenes o por el puesto 2 una vez que el flujo de vídeo 12 es recibido.
[0020] Los elementos gráficos activos 14A comprenden también botones 16 virtuales.
10 [0021] Los elementos gráficos pasivos 14B comprenden contornos 18 asociados respectivamente con un
flujo de vídeo 12 y delimitan el borde. Además, los elementos gráficos pasivos 14B comprenden un mapa de navegación 20. El mapa de navegación 20 informa al operador de la ubicación de los drones controlados por el puesto 2.
15 [0022] En algunas realizaciones, al menos un elemento gráfico activo 14A se visualiza de forma superpuesta
en un elemento gráfico pasivo 14B.
[0023] Por ejemplo, un botón 16 se visualiza de forma superpuesta sobre el mapa de navegación 20.
20 [0024] El dispositivo 4 comprende una pantalla de visualización 13. Alternativamente, el dispositivo 4
comprende al menos dos pantallas de visualización 13 entre las que se distribuyen los flujos de vídeo 12.
[0025] El oculómetro 6 está configurado para detectar la dirección de la mirada del operador 10. Más específicamente, el oculómetro 6 está configurado para detectar que la mirada del operador 10 se traslade o no al
25 dispositivo 4. El oculómetro 6 está además configurado para detectar el elemento gráfico 14 en el que traslada la mirada del operador 10 cuando éste ve el dispositivo 4.
[0026] La interfaz de control 8 está configurada para permitir al operador 10 introducir órdenes para interactuar con el puesto 2. Más específicamente, la interfaz de control 8 está configurada para permitir interacciones
30 con los elementos gráficos activos 14A.
[0027] Preferentemente, la interfaz de control 8 comprende una superficie táctil 22.
[0028] Ventajosamente, con referencia a la Figura 1, la interfaz de control 8 comprende una tableta 24 de 35 visualización provista de una superficie táctil 22.
[0029] Por ejemplo, la tableta 24 presenta una cara superior 25 que corresponde a la superficie táctil 22 y está configurada para realizar simultáneamente la visualización de informaciones relacionadas con los drones o con el funcionamiento del puesto 2.
40
[0030] Estas realizaciones permiten minimizar el número de equipos del puesto 2 y por lo tanto su coste, al tiempo que mejora su ergonomía.
[0031] Los medios de tratamiento 9 están conectados al dispositivo 4, al oculómetro 6 y a la interfaz de 45 control 8. Los medios de tratamiento 9 están configurados para hacerse cargo del funcionamiento de estos diversos
equipos. Por ejemplo, los medios de tratamiento 9 comprenden un dispositivo informático que consta de un procesador y una memoria (no representados) que comprende software que, cuando es ejecutado por el procesador, permite el funcionamiento del puesto 2 en su conjunto.
50 [0032] Los medios de tratamiento 9 están configurados para activar selectivamente uno de una pluralidad de
primeros modos operativos del puesto 2 asociados respectivamente con un elemento gráfico activo 14A en respuesta a la detección, por oculómetro 6, de la mirada del operador en el elemento activo gráfico 14A correspondiente.
55 [0033] A cada primer modo operativo del puesto 2 se asocia un conjunto de funcionalidades a través de las
cuales el operador interactúa con uno o más elementos gráficos 14 y/o uno o más drones.
[0034] Un primer modo operativo activo se desactiva en respuesta a la detección de la mirada del operador
en una dirección distinta a la del elemento gráfico activo 14A correspondiente, o al final de la ejecución de una
funcionalidad del primer modo operativo en cuestión.
[0035] Haciendo referencia a las figuras 2-6, una o más funcionalidades de los conjuntos de funcionalidades asociados con los primeros modos operativos del puesto 2 se activan por la realización a través de la superficie táctil
5 22 de la interfaz de control 8 de un gesto o de una secuencia de gestos del grupo formado por: la puesta en contacto de uno o más dedos con la superficie táctil, el desplazamiento de un dedo del operador 10 sustancialmente según una dirección en la superficie táctil 22 (figura 2), el desplazamiento conjunto de una pluralidad de dedos sustancialmente según una dirección en la superficie táctil 22 (figura 3), el golpeteo sucesivo de uno o más dedos en la superficie táctil 22 (Figuras 4 y 5), el desplazamiento de dos o más dedos del operador entre sí en la superficie 10 táctil 22 (Figura 6).
[0036] Tenga en cuenta que las funcionalidades asociadas con los primeros modos operativos se activan por la realización simultánea del gesto o de los gestos correspondientes a través de la superficie táctil 22 y la fijación de la mirada del operador en el elemento gráfico activo 14A asociado con el primer modo operativo correspondiente al
15 menos al comienzo de la realización del gesto o del primero de los gestos correspondientes.
[0037] En particular, los medios de tratamiento 9 están configurados para activar selectivamente uno de una pluralidad de primeros modos operativos asociados respectivamente a uno de los flujos de vídeo 12 visualizados en el dispositivo 4 para la interacción del operador 10 con los flujos de vídeo 12 y al menos el dron proporciona el flujo
20 de vídeo 12 correspondiente. Cada uno de estos modos operativos se activa en respuesta a la detección de la mirada del operador en el flujo de vídeo 12 correspondiente.
[0038] Por ejemplo, los primeros modos operativos asociados con el flujo de vídeo 12 están asociados con un primer conjunto de funcionalidades.
25
[0039] El primer conjunto de funcionalidades comprende uno o más elementos del grupo formado por: una función de modificación de la disposición relativa de los flujos de vídeo 12 (simbolizada por una flecha 26 en la figura 1), una función de modificación de la orientación y/o del nivel de aumento de un flujo de vídeo 12 (simbolizada por un punto de referencia 28 en la figura 1), una función de conmutación entre dos modos operativos de un dron cuyo
30 flujo de vídeo 12 es visualizable en el dispositivo 4 (representada por un símbolo 30 en la figura 1).
[0040] Por ejemplo, la función de modificación de la disposición relativa de los flujos de vídeo 12 permite al operador modificar el orden o la ubicación de los flujos de vídeo 12 en el dispositivo 4.
35 [0041] En algunas realizaciones, la disposición relativa de los flujos de vídeo 12 en el dispositivo 4 se utiliza
como datos de entrada de una o más funcionalidades asociadas con uno o más elementos gráficos activos 14A además de la posición de la mirada del operador detectada por el oculómetro 6. Por ejemplo, en el caso de una yuxtaposición de flujo de vídeo 12, la ejecución de una funcionalidad dada relativa a un elemento gráfico activo 14A activa una acción que afecta a un flujo de vídeo 12 situado en una ubicación predeterminada en la yuxtaposición, por 40 ejemplo, el flujo de vídeo 12 central para un número impar de flujo de vídeo 12 y/o que afecta al dron que proporciona el flujo de vídeo correspondiente. Esto permite simplificar el tratamiento realizado por los medios de tratamiento 9 y la ergonomía del puesto 2 para la realización de funcionalidades asociadas con un elemento gráfico 14 diferente al flujo de vídeo pero que afecta no obstante a un dron o a un flujo de vídeo 12 dado.
45 [0042] Además, la función de modificación de la orientación y/o del nivel de aumento de un flujo de vídeo 12
permite al operador desplazar el campo de visión de una cámara instalada a bordo del dron y modificar el nivel de aumento, y por lo tanto modificar el contenido de las imágenes del o de los flujos de vídeo 12 emitidos por el dron asociado y visualizado(s) en el dispositivo 4.
50 [0043] Por otra parte, la función de conmutación entre dos modos operativos de un dron permite al operador
cambiar un dron controlado por el puesto 2 entre dos modos operativos del dron. Por ejemplo, el puesto 2 está adaptado para cambiar un dron entre un modo operativo en el que el dron está destinado a detectar objetivos en el campo de observación de la o las cámaras a bordo, y un modo operativo en el que el dron está bloqueado en uno o más objetivos detectados previamente. Este último modo operativo tiene por ejemplo el efecto de lograr que el 55 campo de observación de la cámara o cada cámara del dron permanezca centrado en el o los objetivos en cuestión con el tiempo.
[0044] En algunas realizaciones, de manera alternativa o complementaria, la función de conmutación entre
dos modos operativos de un dron se asocia con un símbolo 15 en el flujo de vídeo 12 correspondiente.
[0045] Además, los medios de tratamiento 9 están configurados para activar un segundo modo operativo del puesto 2 en respuesta a la detección de la mirada del operador 10 en una dirección distinta a la del dispositivo 4. En el segundo modo operativo, el operador interactúa con uno o más drones controlados por el puesto 2 a través de la interfaz de control 8.
5
[0046] La interacción del operador 10 con el o los drones en el segundo modo operativo se realiza según un segundo conjunto de funcionalidades. Preferentemente, el segundo conjunto de funcionalidades comprende al menos una funcionalidad diferente de las funcionalidades de los conjuntos de funcionalidades asociados con los primeros modos operativos del puesto 2. Esto tiene por efecto incrementar el número de funcionalidades accesibles
10 por el operador 10 a través del puesto 2 mientras que no se requiere la adición de elementos adicionales, por ejemplo en la interfaz de control 8.
[0047] Por ejemplo, como para el primer conjunto de funcionalidades, una o más de las funcionalidades del
segundo conjunto de funcionalidad se activan por la realización a través de la superficie táctil 22 de un gesto o de
15 una secuencia de gestos del grupo descrito anteriormente con referencia a las figuras 2 a 6.
[0048] Por ejemplo, el segundo conjunto de funcionalidades comprende una función de importación de un
dron con vistas a su control por el puesto 2, o incluso de exportación de un dron controlado por el puesto 2 a otro puesto con vistas a su control por este último. Por ejemplo, para la exportación de un dron, el operador 10 efectúa,
20 en la superficie táctil 22, un gesto de arrastrar y soltar un icono 32 (visualizable en la cara superior 25 de la tableta 24) asociado con el dron a exportar a un icono de exportación 34. Para la importación de un dron, el operador hace clic en un icono 36 provisto para este fin en la interfaz de control 8. Alternativamente, una o las dos funciones de importación y exportación son alternativamente o también asociadas con los primeros modos operativos.
25 [0049] Además, por ejemplo, el segundo conjunto de funcionalidades comprende una función de control
individual y colectiva de la navegación de drones controlados por el puesto 2. El segundo conjunto de
funcionalidades puede también comprender una función de exportación de un flujo de vídeo 12 a otro puesto de control.
30 [0050] Además, los medios de tratamiento 9 están configurados para modificar la apariencia de la totalidad o
parte de los elementos gráficos 14 visualizados en el dispositivo 4 y de los elementos visualizados en la tableta 24
en respuesta a la detección de la dirección de la mirada del operador 10 o en respuesta a la ejecución de una funcionalidad. En particular, los medios de tratamiento 9 están configurados para modificar la apariencia de la totalidad o parte de los elementos gráficos activos 14A y de la totalidad o parte de los elementos gráficos pasivos 35 14B.
[0051] Por ejemplo, los medios de tratamiento 9 están configurados para modificar el color y/o el espesor del
contorno 18 de un flujo de vídeo 12 en respuesta a la detección de la mirada del operador en la dirección del flujo de vídeo 12 en cuestión. Por ejemplo, el contorno 18 ve su espesor aumentado, y pasa de un color anaranjado a un 40 color azul. Además, por ejemplo, los medios de tratamiento 9 modifican el espesor y/o el color de un elemento gráfico 14, tal como por ejemplo un símbolo 15, cuando el elemento gráfico 14 en cuestión es visto por el operador 10. Por ejemplo, el símbolo 15 ve su espesor y/o la naturaleza de su línea modificada cuando el operador realiza una orden de conmutación de un modo operativo del dron asociado a otro modo operativo.
45 [0052] En algunas realizaciones, los medios de tratamiento 9 también modifican la iluminación del dispositivo
4 en respuesta a la detección de la mirada del operador en la dirección del dispositivo 4. Además, la retroiluminación de la tableta 24 también se modifica en respuesta a la detección de la mirada del operador en una dirección distinta a la del dispositivo 4.
50 [0053] En algunas realizaciones, los medios de tratamiento 9 también están configurados para modificar la
apariencia de un elemento gráfico activo 14A que aparece en un flujo de vídeo 12 en respuesta a la realización por el operador de una o más funcionalidades que implican el elemento gráfico activo 14A en cuestión.
[0054] Durante el funcionamiento del puesto 2 según la invención, el operador 10 activa uno de los primeros 55 modos operativos que miran un elemento gráfico activo 14A. El primer modo operativo activado permanece activo
mientras el operador mantiene su mirada en dirección al elemento gráfico activo 14A en cuestión o hasta que el operador no active la ejecución de una funcionalidad asociada.
[0055] El operador puede entonces interactuar con los elementos gráficos activos 14A, especialmente los
flujos de vídeos 12, para interactuar con el puesto 2 y/o los drones controlados por el puesto 2. Para ello, ejecuta funcionalidades asociadas con el primer modo operativo en cuestión a través de la interfaz de control 8. Estas funcionalidades se activan por uno o más gestos del conjunto descrito anteriormente. La mirada del operador y las funcionalidades incluyen que el operador ejecute las órdenes que modifican la apariencia de uno o más elementos 5 gráficos 14.
[0056] Por el contrario, el operador 10 activa el segundo modo operativo del puesto 2 tan pronto como su
mirada no se traslade al dispositivo 4. El segundo modo operativo se mantiene activo hasta que el operador no
traslade su mirada en un elemento gráfico activo 14A del dispositivo 4, en cuyo caso, se activa el primer modo 10 operativo asociado. La apariencia, por ejemplo, la retroiluminación, de la superficie superior de la tableta 24 se modifica en respuesta a la activación del segundo modo operativo. El operador 10 interactúa con el o los drones a través del segundo conjunto de funcionalidades, que se activan respectivamente, en respuesta a la realización de uno o más gestos del grupo descrito anteriormente a través de la superficie táctil 22.
15 [0057] El poste 2 según la invención presenta varias ventajas.
[0058] En primer lugar, la visualización simultánea de flujo de vídeo 12 a partir de drones diferentes en el
dispositivo 4 permite el control de varios drones desde un único puesto 2. El costo asociado con el control de una flota de drones se reduce cuando es implementado por un puesto 2 según la invención.
20
[0059] La ayuda de un oculómetro 6 también permite enriquecer el funcionamiento del puesto 2, mientras que se mejora la ergonomía del puesto 2 para el operador.
[0060] La activación de uno de los primeros modos operativos en respuesta a la detección de la mirada del 25 operador en dirección de un elemento gráfico activo 14A permite minimizar el número de operaciones requeridas
para el operador para interactuar con la pluralidad de drones que el puesto 2 tiene por objetivo controlar. En consecuencia, los tratamientos realizados por los medios de tratamiento 9 para la realización de las funciones correspondientes se simplifican. Además, esto tiene como efecto que el puesto 2 presente una ergonomía mejorada para el operador.
30
[0061] La presencia de la superficie táctil 22 también tiene el efecto de minimizar el número de equipos necesarios para que el operador pueda interactuar con el puesto 2. El costo del poste 2 se reduce al mínimo y su ergonomía se mejora aún más.
35 [0062] Además, la tableta 24 también permite minimizar el número de equipos que comprende el puesto 2.
[0063] Además, las condiciones de activación del segundo modo de funcionamiento del puesto 2 permiten simplificar el funcionamiento del puesto 2. Del mismo modo, la ergonomía del puesto se mejora para el operador 10, en la medida en que el puesto 2, y en particular el oculómetro 6, presentan un funcionamiento transparente para
40 este último. En particular, el operador 10 no modifica el comportamiento natural de su mirada para manipular el puesto 2.
[0064] Las funcionalidades del primer conjunto de funcionalidades permiten que el puesto 2 sea adaptable a cada operador en la medida en que el operador tiene acceso a funciones de modificación de la disposición de los
45 flujos de vídeos 12 en el dispositivo 4. Además, los tratamientos realizados por los medios de tratamiento 9 se reducen al mínimo en el caso de una interacción del operador con un flujo de vídeo 12, ya que el puesto 2 no requiere que el operador interactúe con órdenes específicamente dedicadas a la orientación de la cámara instalada a bordo de los drones, tales como por ejemplo una palanca de mando física dedicada o incluso una palanca de mando virtual situada en la interfaz de control 8. Estas ventajas también se aplican a la funcionalidad de 50 conmutación entre dos modos operativos de un dron.
[0065] Por otra parte, los gestos que permiten la activación de las funcionalidades de los conjuntos de funcionalidades son fáciles de realizar. Permiten mejorar la ergonomía del puesto 2, pero también simplificar el tratamiento realizado por los medios de tratamiento 9 para la aplicación del puesto 2.
55
[0066] En algunas realizaciones, los elementos gráficos activos 14A comprenden, para cada dron controlado por el puesto 2, un plan de navegación 37 superpuesto sobre el mapa 20. Un plan de navegación 37 se presenta por ejemplo en forma de un trazo en el mapa 20.
[0067] Además, la tableta 24 está configurada para la visualización de un mapa geográfico 38. Por ejemplo, el mapa 20 es una subparte del mapa geográfico 38 y se centra en el dron asociado con un flujo de vídeo dado.
[0068] Las funcionalidades asociadas con el primer modo operativo relativo a un plan de navegación 37 5 comprende funcionalidades de modificación del plan de navegación 37. Por ejemplo, una de estas funcionalidades
se implementa mediante la selección táctil por el operador de una o más ubicaciones del mapa geográfico 38. Estas ubicaciones se integrarán en el plan de navegación 37 correspondiente.
[0069] En algunas realizaciones, los elementos gráficos activos 14A comprenden barras temporales 40 10 asociadas respectivamente con uno de los flujos de vídeo 12 y en las que aparecen eventos 42 asociados con el
funcionamiento del dron correspondiente.
[0070] Los eventos 42 son por ejemplo representativos de la detección por el dron correspondiente de un objetivo en su campo de observación, el tiempo de conmutación entre los modos operativos bajo la acción del
15 operador 10, etc.
[0071] Una funcionalidad asociada a un evento 42 es por ejemplo la visualización en el flujo de vídeo 12, por ejemplo en incrustación o en medallón de las imágenes del flujo de vídeo 12 en el momento correspondiente, o el desplazamiento en la barra temporal 40 de un evento 42.
20
[0072] Además, los elementos gráficos activos 14A comprenden barras horarias 44 que proporcionan una escala de lectura de barras temporales 40 sobre las cuales aparecen los eventos 42.
[0073] Por ejemplo, una funcionalidad asociada con las barras horarias 44 es la modificación de la escala 25 temporal correspondiente.
[0074] En algunas realizaciones, los medios de tratamiento 9 están configurados para accionar un tercer modo operativo del puesto 2 en respuesta a la detección simultánea:
30 - de la mirada del operador en la dirección del dispositivo 4, y - del hecho de que ningún primer modo operativo está activo.
[0075] En el tercer modo operativo del puesto 2, ninguna de las funcionalidades de los primeros modos operativos y del segundo modo operativo se activa, en particular, por la interfaz de control 8.
35
[0076] En la práctica, el tercer modo operativo corresponde a un modo operativo transitorio entre los dos primeros modos operativos del puesto 2 o entre un primer modo operativo y el segundo modo operativo del puesto 2.

Claims (8)

  1. REIVINDICACIONES
    1. Puesto de control de una pluralidad de drones, que comprende:
    5 - un dispositivo de visualización (4) configurado para la visualización de elementos gráficos que incluye elementos gráficos activos (14A) configurados para la interacción de un operador (10) con el puesto de control (2) y/o uno o más drones,
    - una interfaz de control (8) para la entrada al puesto de control (2) por las órdenes del operador, y
    - un oculómetro (6) configurado para detectar la dirección de la mirada del operador (10),
    10
    caracterizado porque el puesto de control (2) está configurado para activar selectivamente uno de una pluralidad de primeros modos operativos del puesto de control (2) asociados respectivamente con uno de los elementos gráficos activos (14A) en respuesta a la detección de la mirada del operador (10) en el elemento gráfico activo (14) correspondiente, cada primer modo operativo se configura para permitir al operador interactuar con uno o más 15 elementos gráficos (14) y/o uno o más drones a través de la interfaz de control (8) según un conjunto de funcionalidades dado.
  2. 2. Puesto de control según la reivindicación 1, caracterizado porque los elementos gráficos activos (14A) comprenden una pluralidad de flujo de vídeo (12) proporcionados respectivamente por uno de los drones y al
    20 mismo tiempo visualizados a través del dispositivo de visualización (4), cada dron controlado por el puesto de control proporciona al menos un flujo de vídeo (12), los primeros modos operativos correspondientes al flujo de vídeo (12) permiten al operador interactuar con los flujos de vídeo (12) y al menos el dron proporciona el flujo de vídeo correspondiente según un primer conjunto de funcionalidades.
    25 3. Puesto de control según la reivindicación 2, caracterizado porque se utiliza la disposición relativa de
    los flujos de vídeo (12) en el dispositivo de visualización (4), además de la posición de la mirada del operador detectada por el oculómetro (6), como datos de entrada de una o más funcionalidades de al menos un conjunto de funcionalidades asociado con un elemento gráfico activo (14A).
    30 4. Puesto de control según la reivindicación 2 o 3, caracterizado porque el primer conjunto de
    funcionalidades comprende uno o más elementos del grupo formado por: una función de modificación de la disposición relativa de los flujos de vídeo (12) en el dispositivo de visualización (4), una función de modificación de la orientación y/o nivel de aumento de una cámara de adquisición instalada a bordo de un dron, una función de conmutación entre dos modos operativos de un dron.
    35
  3. 5. Puesto de control según una cualquiera de las reivindicaciones anteriores, caracterizado porque la interfaz de control (8) comprende una superficie táctil (22).
  4. 6. Puesto de control según la reivindicación 5, caracterizado porque la interfaz de control (8) 40 comprende una tableta de visualización (24) táctil configurada para la visualización de informaciones relacionadas
    con drones.
  5. 7. Puesto de control según la reivindicación 5 o 6, caracterizado porque la totalidad o parte de las funcionalidades de los primeros modos operativos del puesto de control (2) son accionadas por la realización a
    45 través de la superficie táctil (22) de un gesto o de una secuencia de gestos del grupo formado por: la puesta en contacto de uno o más dedos con la superficie táctil (22), el desplazamiento de un dedo sustancialmente según una dirección en la superficie táctil (22), el desplazamiento conjunto de varios dedos sustancialmente según una dirección en la superficie táctil (22), el desplazamiento de dos o más de los dedos entre sí en la superficie táctil (22), el golpeteo sucesivo de uno o más dedos en la superficie táctil (22).
    50
  6. 8. Puesto de control según una cualquiera de las reivindicaciones anteriores, caracterizado porque el puesto de control (2) está configurado para activar un segundo modo operativo en respuesta a la detección de la mirada del operador (10) en una dirección distinta a la del dispositivo (4) y en el que el operador interactúa con uno o más drones a través de la interfaz de control (8).
    55
  7. 9. Puesto de control según la reivindicación 8, caracterizado porque el segundo modo operativo está configurado para la interacción del operador (10) con uno o más drones según un segundo conjunto de funcionalidades, el segundo conjunto de funcionalidades comprende al menos una funcionalidad diferente de las funcionales de los conjuntos de funcionalidades de los primeros modos operativos del puesto de control (2).
  8. 10. Puesto de control según una cualquiera de las reivindicaciones anteriores, caracterizado porque está
    configurado para modificar la apariencia de uno o más elementos gráficos (14) en respuesta a la detección de la mirada del operador en la dirección correspondiente, y para modificar la apariencia de la interfaz de control (8) en respuesta a la detección de la mirada del operador (10) en una dirección distinta a la de un elemento gráfico activo 5 (14A).
ES14805305.1T 2013-11-29 2014-12-01 Puesto de control de drones Active ES2661087T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1302789A FR3014219B1 (fr) 2013-11-29 2013-11-29 Poste de controle de drones
FR1302789 2013-11-29
PCT/EP2014/076123 WO2015079065A1 (fr) 2013-11-29 2014-12-01 Poste de contrôle de drones

Publications (1)

Publication Number Publication Date
ES2661087T3 true ES2661087T3 (es) 2018-03-27

Family

ID=50624616

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14805305.1T Active ES2661087T3 (es) 2013-11-29 2014-12-01 Puesto de control de drones

Country Status (4)

Country Link
EP (1) EP3074842B1 (es)
ES (1) ES2661087T3 (es)
FR (1) FR3014219B1 (es)
WO (1) WO2015079065A1 (es)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170090740A1 (en) * 2015-09-30 2017-03-30 Agco Corporation User Interface for Mobile Machines

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
PT1607840E (pt) * 2004-06-18 2015-05-20 Tobii Ab Controlo ocular de um computador
US8775975B2 (en) * 2005-09-21 2014-07-08 Buckyball Mobile, Inc. Expectation assisted text messaging
US8229163B2 (en) * 2007-08-22 2012-07-24 American Gnc Corporation 4D GIS based virtual reality for moving target prediction
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds

Also Published As

Publication number Publication date
WO2015079065A1 (fr) 2015-06-04
EP3074842A1 (fr) 2016-10-05
FR3014219A1 (fr) 2015-06-05
EP3074842B1 (fr) 2018-01-10
FR3014219B1 (fr) 2016-01-15

Similar Documents

Publication Publication Date Title
US10884525B1 (en) Interactive mixed masking system, method and computer program product for a simulator
US10082940B2 (en) Text functions in augmented reality
EP3039507B1 (en) Portable device displaying augmented reality image and method of controlling therefor
US10216356B2 (en) Information processing device, information processing method, and program
ES2568506T3 (es) Control ocular de aparato computador
CN105432071B (zh) 用于提供增强现实视图的技术
CN109313470A (zh) 利用重新投影的锐利文本绘制
US9632314B2 (en) Head mounted display device displaying thumbnail image and method of controlling the same
CN108700957B (zh) 用于虚拟环境中文本输入的电子系统和方法
US20170010766A1 (en) Vehicle-mounted information device
US8499239B2 (en) Globe container
US9477315B2 (en) Information query by pointing
US8922587B2 (en) Crew shared video display system and method
US20150138184A1 (en) Spatially interactive computing device
ES2840453T3 (es) Método y dispositivo para introducir una contraseña en una escena de realidad virtual
KR20160126077A (ko) 제스처 감지 중에 입력 수단의 3d 위치를 시그널링하기 위한 사용자 인터페이스 및 방법
KR102561274B1 (ko) 디스플레이 장치 및 디스플레이 장치의 제어 방법
ES2661087T3 (es) Puesto de control de drones
CN103625648A (zh) 特别用于航空器的具有透明屏幕和周边符号的可视化系统
US20180074607A1 (en) Portable virtual-reality interactive system
JP6033465B2 (ja) 表示制御装置
ES2957292T3 (es) Aparato y método para definir e interactuar con regiones de un área operativa
US20170010692A1 (en) Augmented reality system and method
US11222612B2 (en) Augmented reality based virtual dashboard implementations
ES2586714T3 (es) Sistema de videovigilancia