ES2704725T3 - Terminal de operador con visualización de zonas de calidad de toma de imágenes - Google Patents

Terminal de operador con visualización de zonas de calidad de toma de imágenes Download PDF

Info

Publication number
ES2704725T3
ES2704725T3 ES14793504T ES14793504T ES2704725T3 ES 2704725 T3 ES2704725 T3 ES 2704725T3 ES 14793504 T ES14793504 T ES 14793504T ES 14793504 T ES14793504 T ES 14793504T ES 2704725 T3 ES2704725 T3 ES 2704725T3
Authority
ES
Spain
Prior art keywords
image
carrier vehicle
interest
taking
quality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14793504T
Other languages
English (en)
Inventor
Pierre Laborde
Pors Eric Le
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Application granted granted Critical
Publication of ES2704725T3 publication Critical patent/ES2704725T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/24Cathode-ray tube displays or other two dimensional or three-dimensional displays the display being orientated or displaced in accordance with movement of object carrying the transmitting and receiving apparatus, e.g. true-motion radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Eye Examination Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Telephone Function (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Radiation Pyrometers (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Terminal de operador de un sistema de misión que consta al menos de una pantalla de visualización ( de datos medioambientales(14) de un vehículo portador móvil P de un sistema de análisis de situación, constando dicho sistema de análisis de al menos un sensor (2, 4) de imágenes y de medios de suministro en 5 tiempo real de una posición espacial (6) de al menos un objeto de interés (C), que consta de: - un módulo de obtención de al menos una información de posición representativa (22) de la posición del vehículo portador (P) y de al menos un susodicho objeto de interés (C), - para al menos un modo de captura de imágenes de un sensor de imágenes seleccionado, un módulo de cálculo (24) apto para suministrar al menos dos zonas de calidad de toma de imágenes distintas (50, 52, 62, 64, 66, 68, 70, 72, 74, 82, 84, 86, 88, 90, 92, 94, 96), dentro de un perímetro espacial predeterminado (46, 61, 81), centrado en la posición del vehículo portador (P), teniendo cada zona de calidad de toma de imágenes un nivel de calidad asociado, y - un módulo de visualización (26) de una cartografía de dichas zonas de calidad de toma de vistas (40, 60, 80, 104) relativamente a la posición del vehículo portador (P), dentro del perímetro espacial predeterminado (46, 61, 81). estando dichos módulos de obtención (22), de cálculo (24) y de visualización (26) en marcha para obtener una actualización casi en tiempo real de dicha cartografía (40, 60, 80, 104) mostrada, caracterizado porque el o los sensores de imágenes son aptos para adquirir imágenes según una pluralidad de modos de toma de imágenes, porque el módulo de cálculo de zonas de calidad de toma de imágenes está activado para cada uno de los modos de toma de imágenes, y porque el módulo de visualización es apto para mostrar, en la misma pantalla de visualización, el conjunto de las zonas de calidad de toma de imágenes relativas a cada uno de dichos modos de toma de imágenes.

Description

DESCRIPCIÓN
Terminal de operador con visualización de zonas de calidad de toma de imágenes
[0001] La presente invención se refiere a un terminal de operador de un sistema de misión que consta de al menos una pantalla de visualización de datos medioambientales de un vehículo portador móvil de un sistema de análisis de situación, constando dicho sistema de análisis de al menos un sensor de imágenes y de medios de suministro en tiempo real de una posición espacial de al menos un objeto de interés.
[0002] La invención se sitúa en el campo de los métodos de interacción hombre-máquina, adaptados a la configuración de sistemas de misión.
[0003] Un sistema de misión permite a uno o varios operadores realizar correctamente una misión dada, por ejemplo, una misión de vigilancia ambiental, de reconocimiento o de combate, con ayuda de un sistema de análisis de situación que consta de diversos sensores (p. ej. radares, cámaras, detectores) y/o de efectores (p. ej. dispositivos de interferencia, señuelos). El sistema de misión añade información suministrada por los diversos sensores, para proporcionar una visión sintética al operador, vía interfaz hombre-máquina (IHM). Además, el operador está obligado a regular un conjunto de parámetros relativos a los sensores y/o efectores, y a controlar el funcionamiento de los sensores vía interfaz hombre-máquina.
[0004] Tales sistemas de misión se destinan principalmente a embarcarse en un vehículo portador móvil (p. ej. aeronave, vehículo terrestre, navío). Durante misiones de reconocimiento o de intervención, es útil adquirir imágenes de los objetos de interés observados, por ejemplo barcos, camiones, aviones, utilizando los sensores embarcados del sistema de análisis de situación. En general, un sistema de análisis de situación consta de varios sensores de toma de imágenes, o de sensores aptos para funcionar según diferentes modos de toma de imágenes.
[0005] Por ejemplo, un tipo de sensor utilizado es una cámara electroóptica infrarroja, conocida con el nombre de FLIR por “forward looking infrared”. Es posible igualmente generar imágenes de objetos de interés utilizando un sensor de radar, según varios modos, por ejemplo, el modo SAR por “synthetic aperture radar” o el modo ISAR por “inverse synthetic aperture radar”.
[0006] Un operador de un sistema de misión está obligado a seleccionar el sensor de toma de imágenes adaptado o el modo de toma de imágenes adaptado para obtener una imagen satisfactoria de un objeto de interés, en condiciones difíciles, estando el vehículo portador y el objeto de interés potencialmente en movimiento. Además, el operador debe tener en cuenta las condiciones medioambientales (visibilidad, movimientos del vehículo portador) para seleccionar un momento de toma de imágenes adecuado para obtener una imagen aprovechable del objeto de interés.
[0007] El documento “Advanced Integrated Multi-Sensor Surveillance (AIMS. Operator Machine Interface (OMI) Definition Study" DRDC Atlantic Contract Scientific Authority: Sharon Mc Fadden, del 1 de febrero de 2007, páginas 635-2189, describe un sistema de vigilancia multisensor, embarcado en una aeronave.
[0008] De manera clásica, está previsto visualizar en forma de imagen de pantalla, las indicaciones relativas al conjunto de los sensores y de los modos de toma de imágenes disponibles a bordo del vehículo portador, eventualmente acompañados de una indicación de estado “activo” o “no disponible”. Aunque tales indicaciones ayudan al operador, son insuficientes, en la medida en que el vehículo portador y el objeto de interés están en movimiento. Así, un operador puede activar una toma de imagen mediante un sensor seleccionado justo antes de que esta toma de imagen ya no sea posible, por ejemplo, porque el objeto de interés se encuentre fuera del campo de captura del sensor seleccionado.
[0009] A este efecto, la invención ofrece, según un primer aspecto, un terminal de operador de un sistema de misión que consta de al menos una pantalla de visualización de datos medioambientales de una vehículo portador móvil de un sistema de análisis de situación, constando dicho sistema de análisis de al menos un sensor de imágenes y de medios de suministro en tiempo real de una posición espacial de al menos un objeto de interés. El terminal de operador consta de:
- un módulo de obtención de al menos una información de posición representativa de la posición de la vehículo portador y de al menos del susodicho objeto de interés,
- para al menos un modo de captura de imágenes de un sensor de imágenes seleccionado, un módulo de cálculo apto para suministrar al menos dos zonas de calidad de toma de imágenes distintas, dentro de un perímetro espacial predeterminado centrado en la posición del vehículo portador, teniendo cada zona de calidad de toma de imágenes un nivel de calidad asociado, y
- un módulo de visualización de una cartografía de dichas zonas de calidad de toma de imágenes con respecto a la posición del vehículo portador, dentro del perímetro espacial predeterminado,
siendo puestos en marcha dichos módulos de obtención, de cálculo y de visualización para obtener una actualización de datos casi en tiempo real de dicha cartografía visualizada.
[0010] Además, el o los sensores de imagen son aptos para adquirir imágenes según una pluralidad de modos de toma de vistas, poniéndose en marcha el módulo de cálculo de zonas de calidad de toma de vistas para cada uno de los modos de toma de vistas, y el módulo de visualización es apto para mostrar, en la misma pantalla de visualización, el conjunto de las zonas de calidad de toma de vistas relativas a cada uno de dichos modos de toma de vistas.
[0011] Ventajosamente, la visualización actualizada sensiblemente en tiempo real de una cartografía de las zonas de calidad de toma de imágenes, para uno o varios sensores, facilita ampliamente la captura de imágenes aprovechables, incluso en condiciones de uso en entornos bajo presión.
[0012] El terminal de operador según la invención puede igualmente presentar una o varias de las características de más abajo, tomadas independientemente o en combinación.
[0013] El terminal de operador consta de, para cada modo de toma de imágenes, zonas de control de toma de imágenes mediante el operador y de zonas de control automático de toma de imágenes, seleccionables mediante operador y mostradas en la misma pantalla de visualización que dicha cartografía.
[0014] El módulo de visualización es apto para visualizar además una indicación visual relativa a la posición del vehículo portador con respecto a la posición relativa del objeto de interés.
[0015] El módulo de cálculo es apto para determinar al menos una zona de calidad de toma de imágenes que tenga un nivel de calidad nominal y al menos una zona de calidad de toma de imágenes que tenga un nivel de calidad degradada.
[0016] La cartografía representa dicho objeto de interés a distancia constante del vehículo portador, y el módulo de visualización es apto para mostrar información de la distancia real entre el vehículo portador y el objeto de interés.
[0017] El módulo de visualización es apto para mostrar una distancia que le quede por recorrer a el vehículo portador para alcanzar una zona de calidad de toma de imágenes nominal según un modo de adquisición predeterminado.
[0018] Las zonas de calidad de toma de imágenes mostradas son reposicionadas dentro del perímetro espacial predeterminado sensiblemente en tiempo real según la distancia real y las orientaciones relativas entre el vehículo portador y el objeto de interés.
[0019] Las zonas de calidad de toma de imágenes se muestran en forma de porciones de anillos concéntricos, inscritos dentro de un perímetro circular centrado en el objeto de interés y limitado por un círculo externo, indicando la situación de los anillos concéntricos con respecto al círculo externo si el vehículo portador está situada a distancia suficiente del objeto de interés como para alcanzar una zona de calidad correspondiente.
[0020] El módulo de obtención de al menos una información de posición permite obtener una distancia entre el vehículo portador y el objeto de interés y un ángulo de rotación relativo entre el objeto de interés y el vehículo portador.
[0021] El módulo de cálculo tiene en cuenta, para la determinación de las zonas de calidad de toma de imágenes, las condiciones externas medioambientales del vehículo portador y/o del objeto de interés.
[0022] Según un segundo aspecto, la invención se refiere a un sistema de misión que consta de al menos una pantalla de visualización de datos medioambientales de un vehículo portador móvil de un sistema de análisis de situación, constando dicho sistema de análisis de al menos un sensor de imágenes y de medios de suministro en tiempo real de una posición espacial de al menos un objeto de interés. Este sistema de misión consta de un terminal de operador tal como se ha descrito brevemente más arriba.
[0023] Otras características y ventajas de la invención saldrán de la descripción que se da más abajo, a título indicativo y en absoluto limitativo, en referencia a las figuras anexas, entre las que:
- la figura 1 es una representación esquemática de los módulos de un sistema de misión según un modo de realización de la invención;
- la figura 2 es una ilustración de una imagen de pantalla relativa a un modo de captura de imágenes según un primer modo de realización de la invención;
- la figura 3 es una ilustración de una imagen de pantalla relativa a una pluralidad de modos de captura de imágenes según un segundo modo de realización de la invención;
- las figuras 4 y 5 son ilustraciones de imágenes de pantalla relativas a una pluralidad de modos de captura de imágenes según una variante del segundo modo de realización de la invención;
- la figura 6 ilustra un ejemplo de interfaz hombre-máquina completa según un modo de realización de la invención.
[0024] La invención se describirá después en un modo de realización en el que el terminal de operador está embarcado en una vehículo portador móvil del tipo aeronave, vehículo terrestre o plataforma naval, equipado con un sistema de análisis de situación que consta de una pluralidad de sensores de toma de imágenes, llamados también sensores de toma de vistas.
[0025] Un ejemplo de sistema de misión 1 según la invención se ilustra esquemáticamente en la figura 1.
[0026] Este sistema de misión 1 consta de un primer sensor de toma de imágenes 2 y de un segundo sensor de toma de imágenes 4, y de un detector de posición de objetos u objetivos para vigilar (no representados en la figura) 6.
[0027] Por ejemplo, el primer sensor 2 es un sensor infrarrojo de tipo FLIR y el segundo sensor 4 es un sensor radar apto para funcionar en modo SAR y/o en modo ISAR.
[0028] Los sensores 2, 4 y el detector 6 forman parte de un sistema de análisis de situación 10 embarcado en un vehículo portador del tipo aeronave (no representada en la figura).
[0029] En un escenario de utilización típico, el vehículo portador y el o los objetos de interés están en movimiento.
[0030] El sistema de misión 1 consta igualmente de un terminal de operador 12, que puede estar embarcado a bordo del vehículo portador, o estar situado en un centro de control en tierra.
[0031] El terminal de operador 12 consta de una o varias pantallas de visualización 14, de preferencia táctiles, de un módulo de registro de los controles de un operador 16, que es por ejemplo un módulo de registro de controles táctiles, que permite seleccionar los elementos gráficos mostrados en la pantalla 14, de una unidad central de tratamiento 18, o CPU, apta para ejecutar las instrucciones de programa informático cuando el terminal 12 está encendido.
[0032] Una interfaz de comunicación 20 permite recoger información del sistema de análisis de situación 10 y suministrar controles al sistema de análisis de situación 10.
[0033] La unidad central de tratamiento 18 pone en marcha un módulo de obtención 22 de al menos una información de posición representativa de la posición del vehículo portador con respecto a un objeto de interés, un módulo de cálculo de zonas de calidad de toma de imágenes distintas respecto a los modos de toma de imágenes de los sensores de imagen 2, 4. Cada zona de calidad de toma de imágenes tiene un nivel de calidad asociado.
[0034] Tal información de posición comprende típicamente la distancia entre el vehículo portador y el objeto de interés, el yacimiento, el azimut de cada uno, un ángulo de rotación relativo entre el vehículo portador y el objeto de interés.
[0035] Además, la unidad central de tratamiento 18 pone en marcha un módulo de visualización de una cartografía de las zonas de calidad de toma de imágenes 26 con respecto a la posición del vehículo portador, dentro de un perímetro espacial predeterminado, como se explica con más detalle después en referencia a las figuras de la 2 a la 6.
[0036] El terminal 12 consta igualmente de medios de almacenamiento de información 30, por ejemplo, de registros, aptos para almacenar instrucciones de código ejecutable y valores de parámetros para la puesta en marcha de programas que constan de instrucciones de código aptas para poner en marcha la visualización de cartografía de zonas de calidad de toma de imágenes según la invención.
[0037] Los diversos bloques funcionales del terminal 12 descritos más arriba están conectados vía bus de comunicación.
[0038] La figura 2 ilustra una cartografía representativa de la calidad de toma de imágenes 40 asociada a un sensor de imágenes dado y a un modo de captura de imágenes dado, previamente seleccionado por el usuario, y para un objeto de interés previamente seleccionado, mostrado en una interfaz hombre-máquina de la pantalla de visualización 14. Por ejemplo, el sensor de imágenes 4 que funciona en modo de toma de imágenes SAR está seleccionado.
[0039] Como variante, la cartografía representativa de la calidad de toma de imágenes 40 se muestra en una porción de una de las pantallas de visualización del terminal de operador 12.
[0040] La cartografía 40 se actualiza en tiempo real, según la posición del vehículo portador P y del objeto de interés C. Como se ilustra en la figura 2, la representación seleccionada es una representación circular centrada en el vehículo portador P. De preferencia, la representación se realiza dentro de un perímetro circular 46 que tiene una dimensión fija en la pantalla de visualización, y el objeto de interés C se representa a distancia constante del vehículo portador P dentro de este perímetro 46. La distancia real D entre el vehículo portador P y el objeto de interés C está indicada para el operador y se actualiza en tiempo real.
[0041] La interfaz hombre-máquina consta igualmente de una indicación relativa a la trayectoria del vehículo portador 48, por ejemplo, su azimut (anotado como AZ) que es de 85° en el ejemplo de la figura 2.
[0042] El perímetro 46 se divide por zonas de calidad de toma de imágenes 50, 52, teniendo cada una asociado un nivel de calidad de toma de imágenes. El nivel de calidad se indica visualmente según un indicador visual predeterminado, fácilmente inteligible por el operador, siéndolo este indicador visual por ejemplo por un color o una textura de llenado asociada. Así, las zonas anotadas 50 corresponden a un primer nivel de calidad nominal, que es un nivel de calidad satisfactorio, de medio a bueno, y las zonas anotadas 52 corresponden a una toma de imágenes degradada, de segundo nivel de calidad muy inferior al primer nivel de calidad.
[0043] Así, en el ejemplo de la figura 2, el objeto de interés C está en la zona 52 en la que la toma de imágenes por el sensor 2 está degradada, por lo tanto, no se recomienda.
[0044] Ventajosamente, el operador puede decidir fácilmente si el sensor seleccionado es utilizable o no, gracias a la cartografía por zonas de calidad de toma de imágenes 40. Además, gracias al conjunto de informaciones mostradas y gracias a la actualización en tiempo real de las informaciones mostradas, puede modificar eficazmente la trayectoria del vehículo portador P para realizar la toma de imágenes con el sensor seleccionado.
[0045] Además, la interfaz hombre-máquina consta de objetos gráficos 54. 56 seleccionables, por ejemplo, mediante un clic o una presión con el dedo del operador sobre la pantalla táctil, seleccionando uno de los sensores o uno de los modos de toma de imágenes disponibles. Por ejemplo, el objeto gráfico 54 permite seleccionar el sensor 2 y el objeto gráfico 56 permite seleccionar el sensor 4.
[0046] Así, en el modo de realización de la figura 2, la evaluación de toma de imágenes para cada sensor/modo de toma de imágenes puede realizarse sucesivamente.
[0047] Según un segundo modo de realización ilustrado en la figura 3, las zonas espaciales de toma de imágenes de cada uno de los sensores disponibles se muestran en superposición sobre una misma cartografía 60, dentro de un mismo perímetro 61 de representación.
[0048] El perímetro 61 contiene pues la cartografía 60, actualizada en tiempo real, de las zonas de calidad de toma de imágenes asociadas a varios sensores.
[0049] El vehículo portador P está en el centro del perímetro 61, y el objeto de interés C está situado a una distancia D del vehículo portador P, D=67,7 millas marinas (NM) en este ejemplo. En la representación gráfica, el perímetro 61 y la distancia entre vehículo portador P y objeto de interés C están normalizadas. Ventajosamente, tal representación normalizada facilita la comprensión del operador.
[0050] El vehículo portador P y el objeto de interés C están unidos por una línea visual L.
[0051] En el ejemplo de la figura 3, los puntos cardinales Norte (N), Sur (S), Este (E), Oeste (O) están indicados, así como los azimuts de las trayectorias respectivas del vehículo portador P y del objeto de interés C.
[0052] Además, se muestran las orientaciones respectivas del vehículo portador P y del objeto de interés C. Como variante, el valor del ángulo de rotación relativo entre el vehículo portador P y el objeto de interés C, formado entre el eje longitudinal del vehículo portador P y el eje longitudinal de objeto de interés C, se muestra igualmente.
[0053] En el ejemplo de la figura 3, la cartografía 60 indica en superposición las zonas de calidad de toma de imágenes asociadas a los sensores presentes según cuatro modos de captura de imágenes diferentes, a saber: SPOT-SAR, SAR, DRP (por “Dynamic Range Profile”) y FLIR.
[0054] Hay que observar que un mismo sensor embarcado puede realizar varios modos de toma de imágenes, por ejemplo, los modos SAR y d Rp .
[0055] La cartografía 60 mostrada comprende una indicación de las zonas 62, 64 asociadas a un primer sensor, según un primer modo de toma de imágenes, que en este ejemplo es el modo SPOT-SAR. Las zonas 62, 64 están determinadas por el módulo de cálculo 24, de manera conocida en sí, según la orientación del vehículo portador P, independientemente de la orientación del objeto de interés C.
[0056] Por otra parte, para otros modos de adquisición de imágenes, la evaluación de calidad de toma de imágenes, y por tanto el cálculo de las zonas espaciales de calidad asociadas, tiene en cuenta igualmente la posición relativa del vehículo portador con respecto al objeto de interés.
[0057] Ventajosamente, estas zonas espaciales de calidad están representadas en forma de porciones de anillos concéntricos cuyo centro es el objeto de interés C, contenidos en un perímetro definido por un círculo externo 65 de radio igual a la distancia de representación en la cartografía 60 entre el vehículo portador P y el objeto de interés C, de manera que se facilite la representación cartográfica para varios modos de adquisición considerados.
[0058] El perímetro circular definido por el círculo 65 comprende todas las zonas de calidad de toma de imágenes asociadas a los modos de adquisición para las que la calidad de toma de imágenes depende igualmente de la posición relativa del vehículo portador con respecto al objeto de interés.
[0059] Gracias a esta representación, el operador puede analizar fácilmente la situación de los diferentes modos de adquisición de imágenes y las calidades de toma de imágenes asociadas.
[0060] De preferencia, la distancia de posicionamiento de los anillos o porciones de anillos concéntricos con respecto al centro C del círculo externo 65 se define en función del alcance del sensor que efectúa la toma de imágenes del modo de adquisición correspondiente. Así, de preferencia, los anillos/porciones de anillos más próximos al círculo exterior 65 corresponden al modo de adquisición de imágenes de mayor alcance.
[0061] En el ejemplo de la figura 3, las zonas 66 corresponden a una calidad nominal de toma de imágenes mediante un segundo sensor del tipo radar según un segundo modo de captura de imágenes SAR.
[0062] Para este segundo modo de toma de imágenes, la orientación del objeto de interés, la orientación del vehículo portador y la distancia entre el vehículo portador y el objeto de interés permiten determinar si la adquisición de imágenes es factible.
[0063] En el ejemplo de la figura 3, la línea de visión L entrecruza las zonas de toma de imágenes nominal 66 con el segundo sensor según el segundo modo de toma de imágenes, lo que significa que la orientación del vehículo portador P con respecto al objeto de interés C es buena para este segundo modo de captura de imágenes.
[0064] Si la distancia entre el vehículo portador P y el objeto de interés C es insuficiente, se muestra una indicación visual para avisar al operador.
[0065] Por ejemplo, se indica un valor de distancia d, relacionado con la zona 66, cuando la distancia d es la distancia máxima a la que debe encontrarse el vehículo portador P con respecto al objeto de interés C para realizar la toma de imágenes. Como variante, se indica la distancia que le queda por recorrer al vehículo portador para acercarse al objeto de interés para la toma de imágenes.
[0066] Además, para facilitar más la comprensión de la situación global por parte del operador, en este modo de realización, la validez de las condiciones para la toma de imágenes según un modo de adquisición se representa igualmente mediante la situación de las zonas espaciales de toma de imágenes con respecto al círculo externo 65.
[0067] Si los anillos o porciones de anillos que corresponden a las zonas espaciales de toma de imágenes están situados al nivel del círculo externo 65, o pegados a anillos/porciones de anillos situados ellos mismos al nivel del círculo externo 65, la distancia entre vehículo portador y objeto de interés es suficiente.
[0068] En consecuencia, la representación de la figura 3 le indica a un operador que las zonas 66 no son aún alcanzables, y que es necesario acercar el vehículo portador P al objeto de interés C para realizar una adquisición de imágenes según el segundo modo de toma de imágenes dentro de las condiciones nominales.
[0069] Así, la cartografía P aporta una información útil y fácil de captar para ayudar al operador a pilotar el vehículo portador P de manera que alcance una zona de calidad de toma de imágenes suficiente que permita adquirir imágenes según un modo de toma de imágenes dado.
[0070] Cuando el vehículo portador P se acerca al objeto de destino C, con la cartografía actualizada en tiempo real, la posición de las zonas de toma de imágenes con respecto al círculo externo 65 o con respecto a las zonas ya pegadas al nivel del círculo externo 65 se modifica, para indicar, llegado el caso, una distancia suficiente para la toma de imágenes.
[0071] La indicación visual de distancia que queda por recorrer por parte del vehículo portador se modifica igualmente, y desaparece cuando el vehículo portador está a distancia suficiente del objeto de interés.
[0072] Las zonas 68 corresponden a una calidad nominal de toma de imágenes por parte de un tercer sensor del tipo radar según un tercer modo de captura de imágenes DRP.
[0073] Como en el caso del segundo modo de captura de imágenes, la distancia entre el vehículo portador P y el objeto de interés C y la orientación relativa del objeto de interés C respecto a el vehículo portador P, se tienen en cuenta para la evaluación del nivel de calidad de toma de imágenes y el cálculo de las zonas 68.
[0074] Así, en el ejemplo ilustrado en la figura 3, para este tercer modo de toma de imágenes, la distancia entre el vehículo portador P y el objeto de interés C es suficiente, ya que las zonas 68 se representan al nivel del círculo 65. Por el contrario, la orientación del vehículo portador no es satisfactoria, al no interceptar la línea de visión L ninguna de las regiones 68. En consecuencia, la cartografía 60 indica al operador que debe efectuar una maniobra de cambio de trayectoria para adquirir imágenes según el tercer modo de toma de imágenes.
[0075] Finalmente, se ilustra igualmente en la figura 3 un conjunto de zonas 70, 72, 74 que corresponde a la adquisición de imágenes según un cuarto modo de toma de imágenes, que es el modo FLIR.
[0076] En este modo, la toma de imágenes es posible técnicamente sea cual sea la orientación del objeto de interés C respecto al vehículo portador P pero, sin embargo, es posible calcular zonas que proporcionen una mejor calidad en términos de contenido de información teniendo en cuenta esta orientación. Así, se distinguen zonas de calidad de toma de imagen superior 70, zonas de calidad nominal 72 y zonas de calidad degradada 74. En el ejemplo de la figura, si el objeto de interés C es un barco, las zonas 74 corresponden a una toma de imágenes frontal o de espaldas, que aportan menos información que una toma de imágenes lateral.
[0077] Además, para este cuarto modo de captura de imágenes, la distancia entre vehículo portador P y objeto de interés C se tiene en cuenta igualmente para determinar la viabilidad de la toma de imágenes. En el ejemplo representado en la figura 3, según la convención de representación, la distancia entre el vehículo portador P y el objeto de interés C es insuficiente, estando el anillo correspondiente a distancia del anillo que comprende las zonas 66.
[0078] Como variante, la indicación de distancia suficiente entre el vehículo portador P y el objeto de interés C se muestra de forma diferente, por ejemplo mediante una variedad de colores de representación de las zonas de toma de imágenes según la suficiencia o no de la distancia.
[0079] Las figuras 4 y 5 representan variantes de representación de la cartografía de las zonas espaciales de toma de imágenes, teniendo en cuenta además las condiciones externas medioambientales del vehículo portador, además de la información de posición relativa y absoluta del vehículo portador P y del objeto de interés C, por ejemplo, las condiciones meteorológicas.
[0080] Así, según el modo de realización ilustrado en referencia a las figuras 4 y 5, el módulo de cálculo 24 implementa un cálculo de cartografía que representa la calidad de toma de imágenes de los diferentes sensores en un momento dado y teniendo en cuenta las condiciones meteorológicas.
[0081] Por ejemplo, cuando el objeto de interés C es un barco en navegación, las condiciones marítimas “mar gruesa” o “mar calma” son igualmente tenidas en cuenta.
[0082] En un caso análogo al caso descrito en referencia a la figura 3, cuando se consideran cuatro modos de toma de imágenes, la figura 4 ilustra la cartografía 80 de las zonas de toma de imágenes en caso de “mar gruesa”.
[0083] La cartografía 80 representada en el perímetro 81, actualizada en tiempo real, representa las zonas de calidad de toma de imágenes asociadas a los cuatro modos de toma de imágenes, según las condiciones medioambientales.
[0084] El vehículo portador P está en el centro del perímetro 81, y el objeto de interés C está situado a una distancia D del vehículo portador P. El vehículo portador P y el objeto de interés C están unidos por una línea de visión L. Como en el ejemplo de la figura 3, se indican los puntos cardinales y los valores de azimut de las trayectorias respectivas del vehículo portador y del objeto de interés.
[0085] Las zonas 82, 84 corresponden al primer modo de toma de imágenes. Las zonas 86 son las zonas espaciales de nivel de calidad nominal del segundo modo de toma de imágenes, las zonas 88 son las zonas espaciales de nivel de calidad nominal del tercer modo de toma de imágenes.
[0086] Como se ilustra en la figura, hay zonas 90 que corresponden a un posicionamiento del vehículo portador P con respecto al objeto de interés C en las que ni el segundo modo de toma de imágenes, ni el tercer modo de toma de imágenes son aplicables.
[0087] En lo que se refiere al cuarto modo de toma de imágenes, las zonas 92 y 94 que corresponden respectivamente a un nivel de calidad superior y a un nivel de calidad nominal están presentes.
[0088] La figura 5 ilustra la cartografía de las zonas de toma de imágenes que corresponden a un mismo posicionamiento del vehículo portador P y del objeto de interés C que en el ejemplo de la figura 4, pero en el caso de mar calma.
[0089] Como se puede ver en la figura 5, en este caso, las zonas 86 y 88 se juntan, habiendo desaparecido las zonas 90 en las que la toma de imágenes es imposible o fuertemente degradada.
[0090] Por otra parte, para el cuarto modo de toma de imágenes, se distinguen tres tipos de zonas espaciales 92, 94 y 96, de niveles de calidad respectivamente superior, nominal y degradado.
[0091] La figura 6 ilustra un modo de realización de una interfaz gráfica 100 completa, que comprende, en su porción de izquierda 102, una cartografía de las zonas de calidad de toma de imágenes104 que corresponden a cuatro modos de toma de imágenes, análoga a las representaciones ilustradas en las figuras de la 2 a la 5.
[0092] En la porción de derecha 106 de la interfaz gráfica 100, se muestra un panel gráfico de información y de control.
[0093] Un objeto gráfico de control 110 permite modificar la orientación de representación de la cartografía 104, entre una orientación “norte” seleccionable vía botón de control 112 y una “orientación de vehículo portador” seleccionable vía botón de control 114.
[0094] Una leyenda 116 indica las relaciones entre los sensores/modos de toma de imágenes considerados y los indicadores visuales de zonas espaciales de calidad de 116a a 116d visibles en la porción de izquierda 102.
[0095] Se presentan igualmente una serie 118 de botones de control operador de toma de imágenes y una serie 120 de botones de control de toma de imágenes automática. Así, la interfaz gráfica 100 ofrece la posibilidad de controlar la toma de imágenes, para cada modo de toma de imágenes considerado, manualmente vía botones de 118a a 118d o automáticamente vía botones de 120a a 120d.
[0096] En el modo de realización ilustrado en la figura 6, el control automático es opcional y la selección de la opción se efectúa a través de la activación de uno de los botones de 122a a 122d, mediante un medio de verificación apropiado.
[0097] Así, en la ilustración de la figura 6, los modos de toma de imágenes 1 y 2 se han seleccionado para una toma de imágenes automática. En este caso, cuando una zona espacial de calidad nominal es alcanzable para uno de entre estos dos modos de toma de imágenes, se selecciona este modo automáticamente para una toma de imágenes. Cuando los dos modos de toma de imágenes son utilizables en calidad nominal, el módulo de cálculo 24 pone en marcha una comparación de los niveles de calidad respectivos asociados y selecciona el modo entre estos dos modos de toma de imágenes que ofrezca la mejor calidad.
[0098] Hay que anotar igualmente que el botón de control 118c es no activable, lo que se representa por una ausencia de marco en la figura 6, ya que según la cartografía104, el vehículo portador P está en una posición en la que el tercer modo de toma de imágenes no es utilizable con una calidad de toma de imágenes nominal.
[0099] Así, ventajosamente, el operador se aprovecha de una visión global y clara de la calidad de toma de imágenes asociada a los diversos sensores y modos de toma de imágenes disponibles, así como de herramientas de control ergonómico asociadas. Al actualizarse en tiempo real la visión de la cartografía, y al suministrarse indicaciones de distancia y de orientación, es más cómodo para el operador orientar en caso necesario el vehículo portador para obtener una adquisición de imágenes del objeto de interés que tenga un nivel de calidad satisfactorio.
[0100] La invención se ha descrito más arriba para sensores de toma de imágenes dadas. Hay que anotar que la invención se aplica de manera general, para todo tipo de sensores radares u optrónicos embarcados.
[0101] La invención se ha descrito en un ejemplo de aplicación en el que el vehículo portador de sensores es una aeronave y el objeto de interés es un navío. De manera más general, la invención se aplica en todo el campo de la imaginería aire-superficie, para todo tipo de objeto de interés situado sobre la superficie terrestre, por ejemplo vehículos en desplazamiento sobre tierra.

Claims (11)

REIVINDICACIONES
1. Terminal de operador de un sistema de misión que consta al menos de una pantalla de visualización ( de datos medioambientales(14) de un vehículo portador móvil P de un sistema de análisis de situación, constando 5 dicho sistema de análisis de al menos un sensor (2, 4) de imágenes y de medios de suministro en tiempo real de una posición espacial (6) de al menos un objeto de interés (C), que consta de:
- un módulo de obtención de al menos una información de posición representativa (22) de la posición del vehículo portador (P) y de al menos un susodicho objeto de interés (C),
10 - para al menos un modo de captura de imágenes de un sensor de imágenes seleccionado, un módulo de cálculo (24) apto para suministrar al menos dos zonas de calidad de toma de imágenes distintas (50, 52, 62, 64, 66, 68, 70, 72, 74, 82, 84, 86, 88, 90, 92, 94, 96), dentro de un perímetro espacial predeterminado (46, 61,81), centrado en la posición del vehículo portador (P), teniendo cada zona de calidad de toma de imágenes un nivel de calidad asociado, y - un módulo de visualización (26) de una cartografía de dichas zonas de calidad de toma de vistas (40, 60, 80, 104) 15 relativamente a la posición del vehículo portador (P), dentro del perímetro espacial predeterminado (46, 61, 81).
estando dichos módulos de obtención (22), de cálculo (24) y de visualización (26) en marcha para obtener una actualización casi en tiempo real de dicha cartografía (40, 60, 80, 104) mostrada,
20 caracterizado porque el o los sensores de imágenes son aptos para adquirir imágenes según una pluralidad de modos de toma de imágenes, porque el módulo de cálculo de zonas de calidad de toma de imágenes está activado para cada uno de los modos de toma de imágenes, y porque el módulo de visualización es apto para mostrar, en la misma pantalla de visualización, el conjunto de las zonas de calidad de toma de imágenes relativas a cada uno de dichos modos de toma de imágenes.
25
2. Terminal de operador según la reivindicación 1, caracterizado porque consta, para cada modo de toma de imágenes, de las zonas de control de toma de imágenes por operador (118, 118a, 118b, 118c, 118d) y de las zonas de control de toma de imágenes automática (120, 120a, 120b, 120c, 120d), seleccionables por el operador y mostradas en la misma pantalla de visualización que dicha cartografía.
30
3. Terminal de operador según cualquiera de las reivindicaciones anteriores, caracterizado porque el módulo de visualización es apto para mostrar además una indicación visual relativa de la posición del vehículo portador (P) con respecto a la posición relativa del objeto de interés (C).
35 4. Terminal de operador según cualquiera de las reivindicaciones anteriores, caracterizado porque el módulo de cálculo (24) es apto para determinar al menos una zona de calidad de toma de imágenes que tenga un nivel de calidad nominal y al menos una zona de calidad de toma de imágenes que tenga un nivel de calidad degradado.
40 5. Terminal de operador según cualquiera de las reivindicaciones anteriores, caracterizado porque dicha cartografía representa dicho objeto de interés C a distancia constante del vehículo portador (P), y porque el módulo de visualización (26) es apto para mostrar informaciones de distancia real entre el vehículo portador (P) y el objeto de interés (C).
45 6. Terminal de operador según la reivindicación 5, caracterizado porque el módulo de visualización (26) es apto para mostrar la distancia que quede por recorrer por parte del vehículo portador (P) para alcanzar una zona de calidad de toma de imágenes nominal según un modo de adquisición predeterminado.
7. Terminal de operador según cualquiera de las reivindicaciones 5 o 6, caracterizado porque las zonas 50 de calidad de toma de imágenes mostradas son reposicionadas dentro del perímetro espacial predeterminado sensiblemente en tiempo real según la distancia real y las orientaciones relativas entre el vehículo portador (P) y el objeto de interés (C).
8. Terminal de operador según la reivindicación 7, caracterizado porque las zonas de calidad de toma de 55 imágenes se muestran en forma de porciones de anillos concéntricos, inscritos dentro de un perímetro circular centrado sobre el objeto de interés y limitado por un círculo externo (65) y porque la situación de los anillos concéntricos con respecto al círculo externo indica si el vehículo portador (P) está situado a distancia suficiente del objeto de interés (C) para alcanzar una zona de calidad correspondiente.
60 9. Terminal de operador según cualquiera de las reivindicaciones anteriores, caracterizado porque el módulo de obtención (22) de al menos una información de posición permite obtener una distancia entre el vehículo portador (P) y el objeto de interés (C) y un ángulo de rotación relativo entre el objeto de interés (C) y el vehículo portador (P).
65 10. Terminal de operador según cualquiera de las reivindicaciones anteriores, caracterizado porque el módulo de cálculo (24) tiene en cuenta, para la determinación de las zonas de calidad de toma de imágenes, las condiciones externas medioambientales del vehículo portador (P) y/o del objeto de interés (C).
11. Sistema de misión que consta de al menos una pantalla de visualización de datos medioambientales de un vehículo portador móvil (P) de un sistema de análisis de situación, constando dicho sistema de análisis de al menos un sensor de imágenes(2, 4) y de medios de suministro en tiempo real de una posición espacial (6) de al menos un objeto de interés (C), caracterizado porque consta de un terminal de operador según cualquiera de las reivindicaciones de la 1 a la 10.
ES14793504T 2013-10-30 2014-10-30 Terminal de operador con visualización de zonas de calidad de toma de imágenes Active ES2704725T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1302517A FR3012618B1 (fr) 2013-10-30 2013-10-30 Terminal d'operateur a affichage de zones de qualite de prises de vues
PCT/EP2014/073294 WO2015063198A1 (fr) 2013-10-30 2014-10-30 Terminal d'opérateur à affichage de zones de qualité de prises de vues

Publications (1)

Publication Number Publication Date
ES2704725T3 true ES2704725T3 (es) 2019-03-19

Family

ID=50424306

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14793504T Active ES2704725T3 (es) 2013-10-30 2014-10-30 Terminal de operador con visualización de zonas de calidad de toma de imágenes

Country Status (7)

Country Link
US (1) US10094912B2 (es)
EP (1) EP3063550B1 (es)
CA (1) CA2925241C (es)
ES (1) ES2704725T3 (es)
FR (1) FR3012618B1 (es)
TR (1) TR201819127T4 (es)
WO (1) WO2015063198A1 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3050539B1 (fr) 2016-04-22 2020-03-13 Thales Procede d'optimisation de prises de vues realisees par un dispositif aeroporte d'imagerie radar, et systeme de mission mettant en oeuvre un tel procede
CN113645378B (zh) * 2021-06-21 2022-12-27 福建睿思特科技股份有限公司 一种基于边缘计算的安全管控便携式视频布控终端

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8304686D0 (en) * 1983-02-19 1983-03-23 Sperry Ltd Collision avoidance apparatus
US5012251A (en) * 1990-05-31 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Radar capability display apparatus
US5337057A (en) * 1993-07-12 1994-08-09 Alliedsignal Inc. Non-linear radar range scale display arrangement
US6212471B1 (en) * 1999-04-28 2001-04-03 Lockheed Martin Corporation Dynamic optimal sensor employment for searching an area
US20020149599A1 (en) * 2001-04-12 2002-10-17 Honeywell International Inc. Methods and apparatus for displaying multiple data categories
US6549161B1 (en) * 2001-06-21 2003-04-15 Rockwell Collins, Inc. Multiple altitude radar system
US7411196B2 (en) * 2005-08-18 2008-08-12 Itt Manufacturing Enterprises, Inc. Multi-sensors and differential absorption LIDAR data fusion
US9002638B2 (en) * 2005-09-13 2015-04-07 Michael John Safoutin Method and apparatus for geometric search and display for a digital map
FR2897976B1 (fr) * 2006-02-28 2008-10-17 Airbus France Sas Procede et dispositif d'assistance au pilotage d'un aeronef.
FR2912502B1 (fr) * 2007-02-13 2009-03-27 Thales Sa Procede de traitement temps reel de donnees topographiques dans un aeronef,en vue de leur affichage
US7692571B2 (en) * 2007-06-29 2010-04-06 Trex Enterprises Corp. Millimeter wave imager with visible or infrared overlay for brownout assist
US8170789B2 (en) * 2008-06-30 2012-05-01 Honeywell International Inc. Method for providing search area coverage information
DE102009009896B4 (de) * 2009-02-20 2011-02-10 Eads Deutschland Gmbh Verfahren und Vorrichtung zur Erfassung von Zielobjekten
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
JP6150418B2 (ja) * 2012-04-27 2017-06-21 古野電気株式会社 情報表示装置、魚群探知機及び情報表示方法
FR3010516B1 (fr) * 2013-09-06 2015-09-25 Thales Sa Procede de representation synthetique tridimensionnelle conforme d'une cartographie de terrain en fonction de la visibilite
US9297668B2 (en) * 2014-01-27 2016-03-29 Honeywell International Inc. System and method for displaying flight path information in rotocraft
US9921308B2 (en) * 2015-06-30 2018-03-20 Northrop Grumman Systems Corporation Generating a map conveying the probability of detecting terrestrial targets

Also Published As

Publication number Publication date
TR201819127T4 (tr) 2019-01-21
US20160266237A1 (en) 2016-09-15
CA2925241C (fr) 2021-08-10
FR3012618A1 (fr) 2015-05-01
FR3012618B1 (fr) 2018-08-31
WO2015063198A1 (fr) 2015-05-07
US10094912B2 (en) 2018-10-09
CA2925241A1 (fr) 2015-05-07
EP3063550B1 (fr) 2018-09-12
EP3063550A1 (fr) 2016-09-07

Similar Documents

Publication Publication Date Title
US9933515B2 (en) Sensor calibration for autonomous vehicles
US10338800B2 (en) Enhanced pilot display systems and methods
US10431099B2 (en) Collision avoidance systems and methods
US9618344B2 (en) Digital map tracking apparatus and methods
CN103376442B (zh) 信息显示装置以及信息显示方法
US10077983B2 (en) Information display device and method
US9030353B2 (en) Information display device, information display method, and radar apparatus
US20150330804A1 (en) Information display device and method
CN106197377A (zh) 一种无人机对地目标监视及二维三维联动的显示系统
NO20120341A1 (no) Metode og anordning for å kontrollere og overvåke det omliggende område til et ubemannet luftfartøy
WO2013069012A1 (en) Method and system for determining position and/or orientation
ES2542997T3 (es) Interfaz hombre-máquina para asistir a un piloto en el despegue y en el aterrizaje de un aparato de vuelo en caso de visibilidad reducida
WO2020061545A1 (en) Augmented reality display view generation
US8325065B2 (en) Self-orienting sighting reticle for vehicle aiming equipment
KR20180136288A (ko) 통합 선박 정보 시스템
ES2704725T3 (es) Terminal de operador con visualización de zonas de calidad de toma de imágenes
US20180211527A1 (en) Systems and methods for communicating notices within a vehicle using a mobile device
US10275940B2 (en) Image processing device, image processing method, and image processing program
ES2861024T3 (es) Unidad de determinación de posición y un procedimiento de determinación de una posición de un objeto con base en tierra o mar
US20210082199A1 (en) Systems and methods of augmented reality visualization based on sensor data
EP3957954A1 (en) Active gimbal stabilized aerial visual-inertial navigation system
US10896547B1 (en) Systems and methods of augmented reality visualization based on sensor data
Vladimir et al. Development of a hardware-software complex for automatic registration and analysis of vehicle motion parameters
CN114510146A (zh) 基于传感器数据的增强现实可视化的系统和方法
KR20230158499A (ko) 원격 제어기를 사용하여 드론을 비행시키는 인간 조작자를 보조하는 장치, 방법 및 소프트웨어