ES2269641T3 - Un metodo y sistema para mejorar el conocimiento situacional de unidades de mando y control. - Google Patents

Un metodo y sistema para mejorar el conocimiento situacional de unidades de mando y control. Download PDF

Info

Publication number
ES2269641T3
ES2269641T3 ES02405414T ES02405414T ES2269641T3 ES 2269641 T3 ES2269641 T3 ES 2269641T3 ES 02405414 T ES02405414 T ES 02405414T ES 02405414 T ES02405414 T ES 02405414T ES 2269641 T3 ES2269641 T3 ES 2269641T3
Authority
ES
Spain
Prior art keywords
command
digital
control unit
image
virtue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02405414T
Other languages
English (en)
Inventor
Jehoshua Kraus
Igal Sroka
Gilad Adiv
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rafael Advanced Defense Systems Ltd
Original Assignee
Rafael Advanced Defense Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rafael Advanced Defense Systems Ltd filed Critical Rafael Advanced Defense Systems Ltd
Application granted granted Critical
Publication of ES2269641T3 publication Critical patent/ES2269641T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/04Optical benches therefor

Landscapes

  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Regulation And Control Of Combustion (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Selective Calling Equipment (AREA)
  • Liquid Developers In Electrophotography (AREA)

Abstract

Un método para compartir información situacional vi- sual de objetos (15) entre varias unidades de mando y control (11), consistente en las fases de: a) facilitación a cada unidad de mando y control (11) de un mecanismo (22) para al- macenar un mapa de referencias digitales de una zona geográ- fica; b) recepción por al menos una unidad de mando y con- trol (11) de una imagen de un escenario (15'') que incluye al menos un objeto (15) en dicha zona geográfica; c) registro de dicha imagen recibida de dicho escenario en dicho mapa de re- ferencias digitales de al menos dicha unidad de mando y con- trol (11); d) actualización de una información situacional de al menos dicho objeto (15) en dicho mapa de referencias digitales de al menos dicha unidad de mando y control (11) en función de dicha imagen recibida de dicho escenario; e) transmisión, a través de un enlace de datos digitales (19), de dicha actualización de dicha información situacional de al menos dicho objeto (15) a al menos una unidad de mando y con- trol (11) entre dichas unidades de mando y control (11); f) incorporación de dicha información situacional transmi- tida a través del enlace de datos sobre al menos dicho objeto (15) a dicho mapa de referencias digitales de al menos dicha unidad de mando y control (11); y g) interpretación visual de dicha información situacional transmitida a través del enlace de datos de al menos dicho objeto por al menos dicha unidad de mando y control (11); siendo obligatorias dicha incorpora- ción de dicha información situacional transmitida a través del enlace de datos y dicha interpretación visual de dicha información situacional transmitida a través del enlace de datos.

Description

Un método y sistema para mejorar el conocimiento situacional de unidades de mando y control.
Antecedentes del invento
El presente invento hace referencia en general a la comunicación entre unidades de mando y control (MyC), más particularmente al intercambio de datos digitales a través de un enlace de datos entre unidades de MyC, de datos visuales captados por vehículos aéreos, controlados por las unidades de MyC.
El presente invento también hace referencia a la patente israelí Nº 111069 concedida a Sroka et al.
Como se verá al leer la descripción detallada de la presente invención, ésta se basa en cuestiones de cartografía digital, registro de imágenes y presentación visual de la comunicación por enlace de datos, todas los cuales son ya conocidas y se describen parcialmente en las patentes que siguen a continuación:
El sistema de distribución de información táctica conjunta (JTIDS) de la Fuerza Aérea de los EE.UU. se asemeja al presente sistema por cuanto el JTIDS permite que varios participantes en el combate compartan información sobre conocimiento situacional a través de enlaces digitales. Ahora bien, como describe C. Eric Ellington en "Joint Tactical Information Distribution System (JTIDS)", National Telecommunications Conference, Nueva Orleáns, 1-3 diciembre de 1975, artículo XP-000796852 (1975), el JITDS ofrece a cada participante la opción de seleccionar la información de relevancia para sus necesidades.
En consecuencia, las unidades no mantienen la misma información en todo momento. Además, la información transmitida por todas las unidades tiene que estar constantemente disponible en los enlaces digitales para que las unidades de MyC puedan seleccionar en cualquier momento toda la información requerida, y no se facilita información visual.
La patente estadounidense Nº 6.160.497 concedida a Clark describe una pantalla y metodología para la realización de comunicaciones por enlace de datos digitales entre una aeronave y otras aeronaves o unidades terrestres.
La pantalla puede encontrarse en la carlinga de la aeronave, presentando visualmente las comunicaciones por enlace de datos digitales. La pantalla también puede usarse en una ubicación terrestre, por ejemplo en una unidad de control del tráfico aéreo. La presentación visual de las comunicaciones por enlace de datos digitales permite al piloto obtener conocimiento situacional mediante el seguimiento de las comunicaciones digitales entre las aeronaves y puede combinarse con el seguimiento de las comunicaciones acústicas intercambiadas por los canales acústicos, o
sustituirlo.
La patente estadounidense Nº 4.682.160 concedida a Beckwith, Jr. et al. describe un sistema para generar en tiempo real una vista en perspectiva del terreno situado a lo largo de la trayectoria de vuelo de una aeronave, accediendo a datos del terreno almacenados en un generador de mapas digitales y transformando los datos en una representación en perspectiva del terreno en la superficie de una pantalla adecuada, por ejemplo un tubo de rayos catódicos de un tablero de instrumentos.
La patente estadounidense Nº 5.936.553 concedida a Kabel describe un dispositivo de navegación y un método para presentar información de navegación en una vista en perspectiva visual.
La patente estadounidense Nº 6.119.976 concedida a Roger describe un sistema de reconocimiento teledirigido lanzado desde el hombro para la vigilancia visual de objetivos remotos desde el aire. Esa invención incluye un vehículo aéreo de reconocimiento que puede lanzarse desde un lanzador portátil.
La mencionada patente israelí Nº 111.069 concedida a Sroka et al. describe un método y sistema para marcar imágenes de objetos captadas con mucha aproximación por un dispositivo aéreo captador de imágenes, en un mapa de referencias que tiene un amplio campo visual del escenario.
Ninguna de las anteriores referencias técnicas aborda una situación en la que un estado visual de un objeto cuya imagen ha captado una unidad de MyC se actualiza automáticamente y en tiempo real en todas las unidades de MyC conectadas a esta unidad de MyC.
Dicha información actualizada tendrá utilidad para mantener el conocimiento situacional de los operadores de las unidades de MyC informadas y les ayudará a reasignar nuevos objetos para los vehículos aéreos controlados por
ellos.
Como ejemplo, considérese una flota de portaaviones en la que cada buque controla su propia escuadrilla de aeronaves. Por tanto, cada portaaviones es una unidad autónoma de mando y control respecto a sus aeronaves. Además, supóngase que algunos de estos buques supervisen colectivamente el mismo territorio geográfico y que, en consecuencia, utilicen mapas o fotografías aéreas en que puedan aparecer los mismos objetivos.
Supóngase, asimismo, que siempre que una aeronave incluida en el MyC de uno de los buques ataque un objetivo concreto, la aeronave también transmita a su buque (solamente) imágenes de escenas que comprendan el objetivo atacado.
En tal caso, sería ventajoso que los demás portaaviones tuvieran conocimiento del cambio de la situación del objetivo atacado, para no enviar sus aeronaves contra ese objetivo, o para no desviarlas del mismo si las aeronaves ya están en vuelo.
Hasta ahora, los operadores de las diversas unidades de control podían, tras escuchar una comunicación verbal, marcar manual o electrónicamente (por ejemplo, con un ratón de ordenador) objetos en mapas o en fotografías aéreas.
Con la llegada de las comunicaciones "mudas" entre unidades de control por enlace de datos digitales, el operador de una unidad de control ya no recibe la información necesaria que le permita conocer los cambios comunicados por otras unidades de control sobre la situación de los objetos. Además, aunque se le facilitara esta enorme cantidad de información verbal, sería incapaz de utilizarla.
El presente invento llena este vacío y aporta otras ventajas relacionadas.
Descripción del invento
El presente invento comprende un sistema y método para compartir, entre varias unidades de mando y control interconectadas, información situacional facilitada visualmente respecto a objetos vigilados por un vehículo aéreo, de modo que dicha información se transmita en tiempo real a través de una comunicación por enlace de datos
digitales.
Dicho método se define en la reivindicación 1, en tanto que la reivindicación 13 define un sistema correspondiente. Las demás reivindicaciones definen formas preferidas de realización del método y del sistema.
Otros objetos y propósitos del presente invento se advertirán leyendo la descripción que sigue junto con las figuras siguientes.
Breve descripción de los dibujos
El invento se describe aquí, sólo a modo de ejemplo, con referencia a los dibujos que se acompañan, y en consecuencia:
En la figura 1 aparecen los elementos de un sistema de mando y control según el presente invento;
En la figura 2 aparecen las relaciones operativas entre elementos de una unidad de mando y control según el presente invento.
Descripción detallada de las formas de realización
Las formas de realización que aquí se describen no pretenden ser exhaustivas ni limitar de ningún modo las aplicaciones del invento, y sólo se utilizan como ejemplos para explicar el invento y para que otros técnicos puedan utilizar sus enseñanzas.
El propósito del presente invento es actualizar automáticamente y en tiempo real datos digitales relativos a la situación de un objeto y almacenados por diversas unidades de MyC interconectadas, de acuerdo con una información sobre un cambio situacional del objeto percibida mediante una imagen del objeto captada por un sensor remoto regulado por una de las unidades de MyC.
La figura 1, a la cual se pasa a hacer referencia, presenta un ejemplo sin intención limitativa que demuestra las posibilidades del presente invento.
En la figura 1 se presenta un grupo 11 de 5 unidades de MyC, 11a a 11c, conectadas entre sí para permitir enlaces de datos digitales bidireccionales 19 entre cada miembro del grupo y los restantes miembros del grupo. La interconexión puede efectuarse mediante cualquier reticulación conocida por los técnicos (por ejemplo, utilizando conexiones físicas como los conductores eléctricos y las fibras ópticas, o por comunicación inalámbrica).
Cada unidad de MyC del grupo 11 se encarga de vigilar una zona geográfica determinada (que no aparece en la figura), mediante la observación o el ataque contra objetivos de esa zona, preferiblemente por telemando de vehículos aéreos que sobrevuelen esa zona, por ejemplo de un vehículo 12 teledirigido de baja altitud, controlado por la unidad 11a del grupo 11.
El vehículo aéreo 12 lleva a bordo un dispositivo captador de imágenes 13 para captar imágenes del escenario 15', que está ubicada en la zona geográfica vigilada por la unidad de MyC 11a y que comprende los objetos 15.
El vehículo aéreo 12 lleva a bordo un dispositivo transmisor 14, que transmite por medios inalámbricos o a través de una fibra óptica (que no aparece en la figura) una imagen del escenario 15', captada por el dispositivo captador de imágenes 13, a un dispositivo receptor de imágenes 16 ubicado en la unidad de MyC 11a. El dispositivo receptor de imágenes 16 reconstruye una imagen digital del escenario 15' que comprende objetos 15 situados en una ubicación de memoria accesible de un ordenador (aparece en la figura 2, donde se describe más detalladamente la unidad de MyC 11a) de la unidad de MyC 11a. Además, la imagen digital captada del objeto 15 se presenta visualmente en al menos una de las pantallas 17, 18 situadas en la unidad de MyC 11a.
Cada unidad de MyC del grupo 11 almacena en la base de datos de su ordenador una imagen digital de la zona vigilada por esa unidad; dicha imagen digital aérea comprende imágenes de objetos (por ejemplo, los objetos 15) que pueden afectarse por medios que dirige esa unidad de MyC.
De manera más general, pero igualmente incluida entre las posibilidades del presente invento, se tiene una situación en la cual el dispositivo captador de imágenes 13 no se halla a bordo de un vehículo en vuelo, sino que está ubicado "en tierra", aunque de tal manera que le permite vigilar el paisaje circundante. Por ejemplo, el dispositivo captador de imágenes 13 se encuentra en una colina u otro lugar topográficamente elevado que domina el valle subyacente, o está instalado en un mástil alto (fijo o móvil). Por tanto, el presente invento amplía el sentido del vocablo "aéreo", para incluir estas situaciones.
La imagen digital de la zona contenida en la base de datos, que en lo sucesivo se denominará "mapa de referencias digitales", se basa en fotografía aérea (fotografía convencional u ortogonal) cuya salida se ha digitalizado por medio de técnicas conocidas. El mapa de referencias digitales se visualiza constantemente en una pantalla adecuada como pantalla 18 de la unidad de MyC 11a.
Aunque tanto los mapas como las fotos aéreas presentan una "vista aérea" del terreno, las fotografías aéreas no son mapas. Los mapas son representaciones ortogonales de la superficie del terreno; es decir, son direccional y geométricamente exactos (al menos dentro de las limitaciones impuestas por la proyección de objetos tridimensionales sobre medios bidimensionales). Las fotos aéreas, por otro lado, presentan un alto grado de distorsión radial. Es decir, la topografía está distorsionada y, hasta que se corrige esa distorsión, las mediciones efectuadas a partir de una fotografía no son exactas.
Una fotografía ortogonal es producto del tratamiento de dos fotografías aéreas captadas con dos cámaras cuyos ejes, en el momento de la exposición, apuntan hacia abajo en ángulos diferentes a los normales respecto al terreno, y que, como un mapa, es a escala.
En consecuencia, la ubicación geográfica de cada punto en el mapa de referencias digitales se conoce porque es posible determinar exactamente su vector de posición respecto a las características visuales de los rasgos sobresalientes del terreno recogidos en el mapa de referencias digitales, dado que las coordenadas geográficas exactas de dichos rasgos sobresalientes del terreno se han determinado mediante técnicas topográficas conocidas.
Téngase en cuenta que, en relación con el presente invento, aunque los mapas digitales de referencias de las diversas unidades de MyC no tienen que ser idénticos, ni coincidir completamente, en cambio sí que deben incluir una región común como, por ejemplo, la zona 15' que contiene los objetos 15.
Las coordenadas (los píxeles) de un objeto 15 pueden asignarse en el mapa de referencias digitales de la unidad de MyC 11a (y, por consiguiente, también puede determinarse su posición geográfica exacta) según el aspecto del objeto en una imagen de la escena 15', captada por el dispositivo captador de imágenes 13 situado a bordo del vehículo en vuelo 12.
El vehículo en vuelo 12 transmite en tiempo real dicha imagen, incluida en al menos un fotograma o al menos una fotografía fija, a la unidad de MyC 11a, que dirige dicho vehículo en vuelo 12.
Mientras que el mapa digital de referencias, en formato de mapa o de fotografía ortogonal, es una proyección bidimensional de un paisaje, el aspecto del objeto 15 del paisaje 15' captado por el dispositivo captador de imágenes 13 a bordo del vehículo en vuelo 12 suele corresponder a una vista en perspectiva del escenario.
La navegación automática de vehículos en vuelo, utilizando su capacidad para orientarse de acuerdo con la vista en perspectiva de objetos reconocibles en su trayectoria, es una técnica ya conocida. Esta orientación se basa en el establecimiento de correspondencia entre dos o más imágenes, técnica conocida como registro de las imágenes; véase, por ejemplo, "Automatic Geo-Spatial Images and Data Exploitation", Proceedings of SPIE, Vol. 4054, 24 de abril de 2000.
Un resultado deseado del proceso de registro de imágenes es una representación útil de la correspondencia entre conjuntos de imágenes que se superponen; habitualmente una función cartográfica que, en el presente invento, toma el conjunto de coordenadas espaciales de la imagen en vista de perspectiva y lo transforma en el correspondiente conjunto de coordenadas espaciales del mapa digital de referencias.
\newpage
En consecuencia, los píxeles del mapa de referencias digitales, que corresponden a la ubicación del objeto cuya vista en perspectiva se está recibiendo, pueden identificarse y manipularse.
En la mencionada patente israelí Nº IL 111069 también se describió el establecimiento de una relación entre los píxeles de la imagen de un objeto incluido en un campo visual amplio de una imagen de referencia con los píxeles de la imagen del objeto en un campo visual ampliado por aproximación de la lente.
Téngase en cuenta que, según el presente invento, las características físicas de las imágenes aportadas por el dispositivo captador de imágenes aerotransportado pueden ser diferentes de las características físicas subyacentes de la imagen del mapa de referencias digitales.
Por ejemplo, mientras que el mapa de referencias digitales suele basarse en imágenes ópticas visibles de la zona vigilada, las imágenes de objetos captadas por los vehículos en vuelo pueden ser de rayos infrarrojos, térmicas, multiespectrales, de ladar (radar de rayos láser), de radar, y basadas en información facilitada por sensores químicos y biológicos.
Después del registro de la imagen, un operador de la unidad de MyC 11a actualiza electrónicamente el mapa de referencias digitales de su unidad de MyC para tener en cuenta los cambios observados en la información situacional de los objetos.
Un cambio en la información situacional de un objeto es un cambio en su ubicación geográfica o en su estado físico o químico (por ejemplo, se ha retirado un vehículo, ha aparecido o se ha destruido un objetivo, o una zona residencial ha quedado afectada por la guerra química).
La decisión sobre cuáles son los objetos cuya información situacional conviene actualizar en el mapa de referencias digitales suele dejarse a discreción del operador, en función de su conciencia mental de la situación; no obstante, entre las posibilidades del presente invento se incluye un sistema automático de adopción de decisiones, que decide qué objetos merecen actualización.
"Actualización electrónica" significa cualquier indicación respecto al mapa de píxeles del objeto en el mapa de referencias digitales que diferencie la simbolización del objeto en el mapa de referencias digitales después de actualizarlo, en comparación con su simbolización antes de actualizarlo. Por ejemplo, en el mapa de referencias digitales, marcar la imagen del objeto o su ubicación; cambiar la imagen, el tamaño, color o contraste del objeto, e incluso la eliminación total de la imagen del objeto en el mapa digital de referencias.
Dicha actualización electrónica, que se lleva a cabo prácticamente manipulando la imagen del objeto o su ubicación en la pantalla visual del mapa de referencias digitales, puede codificarse y ha de tener un mismo significado para los operadores de todas las unidades de MyC.
Seguidamente, el mapa de referencias digitales actualizado se guarda en la base de datos de la unidad de MyC 11a como un segundo nivel sobre el mapa de referencias digitales original, o bien sustituye al mapa de referencias digitales original en la base de datos de la unidad de MyC 11a.
El presente invento también incluye una actualización visual automática de una representación de un objeto o su ubicación en un mapa de referencias digitales de al menos una unidad de MyC (por ejemplo, la 11b) según datos facilitados a través del enlace de datos por otra unidad de MyC (por ejemplo, la 11a).
Esto significa que, una vez el sistema de una unidad de MyC "maestra" (es decir, la unidad receptora de imágenes de vistas en perspectiva de los objetos) actualiza electrónicamente su mapa de referencias digitales, los mapas de referencias digitales de las otras unidades de MyC, que están interconectadas por una red informática a la unidad de MyC maestra, también se actualizan respecto a la información situacional de los objetos comunes que aparecen en sus mapas de referencias digitales.
Véase la figura 2, que contiene un esquema funcional descriptivo de los componentes y de sus interrelaciones en una unidad de MyC maestra 11a.
En la figura 2, la unidad de MyC maestra 11a comprende un dispositivo receptor 16 que recibe en tiempo real imágenes de objetos 15 ubicados en un escenario reproducido 15' captado por un dispositivo captador de imágenes (que no aparece en la figura) situado a bordo de un vehículo en vuelo (que no aparece en la figura).
Los objetos 15 observados en el paisaje reproducido 15' los selecciona un operador humano (que no aparece en la figura) de la unidad de MyC 11a. El operador decide por adelantado la ubicación del escenario reproducido 15' (y, consecuentemente, el destino del vehículo en vuelo).
Un sistema operativo 23 (un ordenador central con el software apropiado) comunica (flecha 27) a una base de datos 22 información útil para reconocer el escenario reproducido 15' (por ejemplo, sus límites geográficos) y la base de datos 22 extrae de la memoria un mapa apropiado de referencias digitales que incluye el escenario reproducido 15' (y en el cual pueden faltar objetos 15) y envía (flecha 25) una imagen del mapa de referencias digitales apropiado a la unidad de registro de imágenes 21, que también acepta (flecha 29) del dispositivo receptor 16 en tiempo real imágenes digitales de una vista en perspectiva de los objetos 15 en el paisaje reproducido 15'.
Las técnicas de registro de imágenes utilizadas por la unidad de registro de imágenes 21 son las conocidas por los especialistas e incluyen un método de transformación polinómica, un método de transformación de modelos sensoriales (véase, por ejemplo, "Automatic Geo-Spatial Images and Data Exploitation", Proceedings of SPIE, Vol. 4054, 24 de abril de 2000) y especialmente un método de transformación por equiparación de características, que se menciona en la patente israelí Nº IL 111069 y en las referencias contenidas en la misma.
Después de registrarse la imagen, se identifica la ubicación de los píxeles correspondientes a los objetos 15 del mapa de referencias digitales y se comunica (flecha 26) a la base de datos 22.
De este modo, en la base de datos 22 se forma un nuevo mapa de referencias digitales que incluye la simbolización bidimensional actualizada de los objetos 15 (en sus coordenadas correspondientes).
Este nuevo mapa de referencias digitales se transmite (flecha 28) a la unidad operativa 23, que lo visualiza en una pantalla apropiada 18.
Simultáneamente a toda esta actividad automática, mientras observa en tiempo real la vista en perspectiva del escenario reproducido 15' que aparece en el monitor 17 o en la pantalla 18 (junto con el mapa de referencias digitales), el operador de la unidad de MyC 11a percibe constantemente la información situacional relacionada con los objetos 15 y puede, siempre que lo desee, marcar electrónicamente la ubicación o la imagen de los objetos 15 en el mapa de referencias digitales que aparece en la pantalla 18, utilizando para ello un dispositivo de control por cursor 18'.
La cuadrícula digital de los objetos marcados se guarda en la base de datos 22 como segundo nivel sobre el mapa de referencias digitales. Simultáneamente, la cuadrícula digital relativa a los objetos marcados se transfiere mediante un enlace de datos 19 a las demás unidades interconectadas de la red (que no aparecen en la figura) del sistema de MyC 11 en las que se ha incorporado esta información situacional (por unidades análogas al sistema operativo 23) y al mapa de referencias digitales de la zona reproducida 15' que está almacenado en las bases de datos respectivas de estas unidades.
Al mismo tiempo, las unidades de MyC receptoras de la información transmitida por el enlace de datos 19 la interpretan visualmente y la presentan en las pantallas de sus respectivas visualizaciones.
El resultado final del presente invento es que los operadores de todas las unidades de MyC interconectadas de la red ven en sus pantallas y al mismo tiempo imágenes del mapa de referencias digitales con simbolizaciones actualizadas (por ejemplo, marcas) de los mismos objetos.
Aunque este invento se haya descrito en relación con un número limitado de formas de realización, es evidente que pueden efectuarse muchas variaciones, modificaciones y otras aplicaciones del invento sin rebasar las posibilidades del mismo.

Claims (25)

1. Un método para compartir información situacional visual de objetos (15) entre varias unidades de mando y control (11), consistente en las fases de: a) facilitación a cada unidad de mando y control (11) de un mecanismo (22) para almacenar un mapa de referencias digitales de una zona geográfica; b) recepción por al menos una unidad de mando y control (11) de una imagen de un escenario (15') que incluye al menos un objeto (15) en dicha zona geográfica; c) registro de dicha imagen recibida de dicho escenario en dicho mapa de referencias digitales de al menos dicha unidad de mando y control (11); d) actualización de una información situacional de al menos dicho objeto (15) en dicho mapa de referencias digitales de al menos dicha unidad de mando y control (11) en función de dicha imagen recibida de dicho escenario; e) transmisión, a través de un enlace de datos digitales (19), de dicha actualización de dicha información situacional de al menos dicho objeto (15) a al menos una unidad de mando y control (11) entre dichas unidades de mando y control (11); f) incorporación de dicha información situacional transmitida a través del enlace de datos sobre al menos dicho objeto (15) a dicho mapa de referencias digitales de al menos dicha unidad de mando y control (11); y g) interpretación visual de dicha información situacional transmitida a través del enlace de datos de al menos dicho objeto por al menos dicha unidad de mando y control (11); siendo obligatorias dicha incorporación de dicha información situacional transmitida a través del enlace de datos y dicha interpretación visual de dicha información situacional transmitida a través del enlace de datos.
2. El método de la reivindicación 1, en virtud del cual dicho mapa de referencias digitales comprende una fotografía ortogonal digitalizada de dicha zona geográfica.
3. El método de la reivindicación 1, en virtud del cual dicha imagen de dicho escenario (15') comprende una vista en perspectiva de al menos dicho objeto (15).
4. El método de la reivindicación 1, en virtud del cual dicha información situacional de al menos dicho objeto (15) comprende información relativa a un daño ocasionado a al menos dicho objeto (15).
5. El método de la reivindicación 3, que además comprende las fases de: h) captación de dicha imagen de dicho escenario (15').
6. El método de la reivindicación 5, en virtud del cual dicha captación se efectúa con un dispositivo captador de imágenes (13) cuya ubicación se selecciona en el grupo consistente en: a bordo de un vehículo en vuelo, en un punto de vigilancia topográficamente elevado y en lo alto de un mástil.
7. El método de la reivindicación 1, en virtud del cual dicha imagen se selecciona en el grupo consistente en: imágenes ópticas del espectro visible, de infrarrojos, térmicas, de radar de rayos láser, imágenes de una salida de un sensor químico e imágenes de una salida de un sensor biológico.
8. El método de la reivindicación 1, en virtud del cual dicho registro se efectúa utilizando al menos una técnica seleccionada en el grupo consistente en: un método de transformación polinómica, un método de transformación de modelos sensoriales y un método de transformación por equiparación de características.
9. El método de la reivindicación 1, que además comprende la fase de: f) presentación visual de dicho mapa de referencias digitales.
10. El método de la reivindicación 3, que además comprende la fase de: f) presentación visual de dicha vista en perspectiva de al menos dicho objeto (15).
11. El método de la reivindicación 9, en virtud del cual dicha actualización de dicha información situacional de al menos dicho objeto en dicho mapa de referencias digitales presentado visualmente incluye el marcado electrónico de una imagen registrada de al menos dicho objeto en dicho mapa de referencias digitales presentado visualmente.
12. El método de la reivindicación 1, en virtud del cual dicha transmisión de dicha actualización de dicha información situacional se efectúa a todas las otras unidades de mando y control (11) y en virtud del cual todas las otras unidades de mando y control (11) incorporan dicha información situacional transmitida a través del enlace de datos a dicho mapa de referencias digitales de dichas otras unidades de mando y control (11) e interpretan visualmente dicha información situacional transmitida a través de dicho enlace de datos.
13. Un sistema para mejorar el conocimiento situacional de varias unidades de mando y control (11), que comprende:
a) varias unidades de mando y control (11); cada unidad de mando y control (11) incluye: i) una base de datos (22) situada en una memoria accesible de cada una de dicha unidades de mando y control (11), almacenando cada una de dicha bases de datos (22) un mapa de referencias digitales de una zona geográfica que incluye una ubicación de al menos un objeto (15) vigilado por cada una de dichas unidades de mando y control (11); ii) un mecanismo (21, 23) para actualizar una información situacional de al menos dicho objeto (15) en dicho mapa de referencias digitales en función de una imagen recibida de un escenario (15') que incluye al menos dicho objeto (15) y que se registra en dicho mapa de referencias; iii) un mecanismo de comunicación (19) entre cada una de dichas unidades de mando y control (11) y cada una de las otras unidades de mando y control (11), para transmitir dicha actualización de dicha información situacional, incluyendo dicho mecanismo de comunicación (19) un enlace de datos digitales; iv) un mecanismo (17, 18) para la interpretación visual de información situacional recibida a través de dicho enlace de datos digitales; y v) un mecanismo (21, 23) para incorporar dicha interpretación visual a dicho mapa de referencias digitales de dicha unidad de mando y control; en virtud del cual dicha incorporación de dicha interpretación visual a dichos mapas de referencias digitales es obligatoria.
14. El sistema de la reivindicación 13, en virtud del cual una unidad de mando y control (11) entre dichas unidades de mando y control (11) es un puesto terrestre.
15. El sistema de la reivindicación 13, en virtud del cual una unidad de mando y control (11) entre dichas unidades de mando y control (11) está a bordo de una aeronave.
16. El sistema de la reivindicación 13, en virtud del cual una unidad de mando y control (11) entre dichas unidades de mando y control (11) está a bordo de una nave.
17. El sistema de la reivindicación 13, en virtud del cual dicho mapa de referencias digitales comprende una fotografía ortogonal digitalizada de dicha zona geográfica.
18. El sistema de la reivindicación 13, en virtud del cual dicha información situacional de al menos dicho objeto comprende información relativa a un daño ocasionado a al menos dicho objeto.
19. El sistema de la reivindicación 13, en virtud del cual dicho mecanismo (21, 23) de actualización comprende un mecanismo (21) para el registro de imágenes de dicho escenario (15) en dicho mapa de referencias digitales.
20. El sistema de la reivindicación 13, que también comprende: b) un dispositivo captador de imágenes (13) para formar una imagen de un escenario (15') que incluye al menos dicho objeto (15); c) un dispositivo transmisor de imágenes (14) comunicativamente acoplado a dicho dispositivo captador de imágenes (13); y d) un dispositivo receptor de imágenes (16) en al menos dicha unidad de mando y control (11) comunicativamente conectado a dicho dispositivo transmisor de imágenes (14).
21. El sistema de la reivindicación 20, en virtud del cual dicha imagen de dicho escenario (15') comprende una vista en perspectiva de al menos dicho objeto (15).
22. El sistema de la reivindicación 20, en virtud del cual una ubicación de dicho dispositivo captador de imágenes (13) se selecciona en el grupo consistente en: a bordo de un vehículo en vuelo (12), en un punto de vigilancia topográficamente elevado, o en lo alto de un mástil.
23. El sistema de la reivindicación 20, en virtud del cual dicho dispositivo captador de imágenes (13) se dirige a distancia por medio de al menos dicha unidad de mando y control (11).
24. El sistema de la reivindicación 20, en virtud del cual dicho dispositivo captador de imágenes se selecciona en el grupo consistente en: generadores de imágenes ópticas en el espectro visible, generadores de imágenes de infrarrojos, generadores de imágenes térmicas, generadores de imágenes de radar por rayos láser, generadores de imágenes de radar, generadores de imágenes químicas y generadores de imágenes biológicas.
25. El sistema de la reivindicación 21, que también comprende, en al menos dicha unidad de mando y control: i) una pantalla para presentar visualmente dicho mapa de referencias digitales almacenado en al menos dicha unidad de mando y control; ii) una pantalla para presentar visualmente dicha imagen de dicho escenario y; iii) un mecanismo para marcar un objeto seleccionado en al menos dicho objeto en dicho mapa de referencias digitales almacenado en al menos una unidad de mando y control en función de dicha información situacional de dicho objeto seleccionado.
ES02405414T 2001-05-23 2002-05-22 Un metodo y sistema para mejorar el conocimiento situacional de unidades de mando y control. Expired - Lifetime ES2269641T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IL14341401A IL143414A0 (en) 2001-05-23 2001-05-23 A method and system for improving situational awareness of command and control units
IL143414 2001-05-25

Publications (1)

Publication Number Publication Date
ES2269641T3 true ES2269641T3 (es) 2007-04-01

Family

ID=11075446

Family Applications (1)

Application Number Title Priority Date Filing Date
ES02405414T Expired - Lifetime ES2269641T3 (es) 2001-05-23 2002-05-22 Un metodo y sistema para mejorar el conocimiento situacional de unidades de mando y control.

Country Status (7)

Country Link
US (1) US7136059B2 (es)
EP (1) EP1288888B1 (es)
AT (1) ATE335257T1 (es)
DE (1) DE60213526T2 (es)
ES (1) ES2269641T3 (es)
IL (1) IL143414A0 (es)
SG (1) SG99393A1 (es)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8203486B1 (en) 1999-03-05 2012-06-19 Omnipol A.S. Transmitter independent techniques to extend the performance of passive coherent location
US7777675B2 (en) 1999-03-05 2010-08-17 Era Systems Corporation Deployable passive broadband aircraft tracking
US7889133B2 (en) * 1999-03-05 2011-02-15 Itt Manufacturing Enterprises, Inc. Multilateration enhancements for noise and operations management
US7570214B2 (en) * 1999-03-05 2009-08-04 Era Systems, Inc. Method and apparatus for ADS-B validation, active and passive multilateration, and elliptical surviellance
US7908077B2 (en) 2003-06-10 2011-03-15 Itt Manufacturing Enterprises, Inc. Land use compatibility planning software
US7739167B2 (en) 1999-03-05 2010-06-15 Era Systems Corporation Automated management of airport revenues
US8446321B2 (en) 1999-03-05 2013-05-21 Omnipol A.S. Deployable intelligence and tracking system for homeland security and search and rescue
US7667647B2 (en) 1999-03-05 2010-02-23 Era Systems Corporation Extension of aircraft tracking and positive identification from movement areas into non-movement areas
US7782256B2 (en) 1999-03-05 2010-08-24 Era Systems Corporation Enhanced passive coherent location techniques to track and identify UAVs, UCAVs, MAVs, and other objects
US20050060299A1 (en) * 2003-09-17 2005-03-17 George Filley Location-referenced photograph repository
DE602005021267D1 (de) * 2004-03-07 2010-07-01 Rafael Armament Dev Authority Verfahren und System zur pseudo-automatischen Bildregistrierung
US7123169B2 (en) * 2004-11-16 2006-10-17 Northrop Grumman Corporation Method and apparatus for collaborative aggregate situation awareness
IL169934A (en) * 2005-07-27 2013-02-28 Rafael Advanced Defense Sys Real-time geographic information system and method
CN100459762C (zh) * 2005-09-13 2009-02-04 集嘉通讯股份有限公司 动态更新景点数据的移动通信装置、系统及方法
US7965227B2 (en) 2006-05-08 2011-06-21 Era Systems, Inc. Aircraft tracking using low cost tagging as a discriminator
IL175835A0 (en) * 2006-05-22 2007-07-04 Rafael Armament Dev Authority Methods and systems for communicating and displaying points-of-interest
US20090138521A1 (en) * 2007-09-17 2009-05-28 Honeywell International Inc. Method and system for sharing information between disparate data sources in a network
US9811893B2 (en) 2008-11-04 2017-11-07 The United States Of America, As Represented By The Secretary Of The Navy Composable situational awareness visualization system
US9465129B1 (en) * 2009-03-06 2016-10-11 See Scan, Inc. Image-based mapping locating system
JP2011247860A (ja) * 2010-05-31 2011-12-08 Denso Corp ナビゲーション装置
EP2393050A1 (en) * 2010-06-04 2011-12-07 BAE Systems Bofors AB Central service platform and services for fleet maintenance and management
WO2012078983A2 (en) 2010-12-10 2012-06-14 Blueforce Development Corporation Decision support
US9344486B2 (en) * 2012-01-18 2016-05-17 Rafael Julio de Ameller Remote geobrowser control for collaborative decision making
US9557415B2 (en) 2014-01-20 2017-01-31 Northrop Grumman Systems Corporation Enhanced imaging system
CN106027980A (zh) * 2016-06-22 2016-10-12 沈阳天择智能交通工程有限公司 交通事故航勘飞行操控系统
CN107990877B (zh) * 2017-12-06 2020-07-10 华中师范大学 一种基于互联网的无人机遥感解译外业调查系统及方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4682160A (en) 1983-07-25 1987-07-21 Harris Corporation Real time perspective display employing digital map generator
IL111069A (en) * 1994-09-28 2000-08-13 Israel State System and method of visual orientation
US6119976A (en) 1997-01-31 2000-09-19 Rogers; Michael E. Shoulder launched unmanned reconnaissance system
US5936553A (en) 1997-02-28 1999-08-10 Garmin Corporation Navigation device and method for displaying navigation information in a visual perspective view
US6208933B1 (en) * 1998-12-04 2001-03-27 Northrop Grumman Corporation Cartographic overlay on sensor video
US6160497A (en) * 1998-12-29 2000-12-12 Honeywell International Inc. Visual display of aircraft data link information
US6633259B1 (en) 1999-03-05 2003-10-14 Rannuch Corporation Method and apparatus for improving utility of automatic dependent surveillance
US6262679B1 (en) 1999-04-08 2001-07-17 Honeywell International Inc. Midair collision avoidance system
EP1087210B1 (en) 1999-09-14 2011-10-19 Honeywell Inc. Methods and apparatus for graphical display and editing of flight plans
US6512975B2 (en) * 2000-04-07 2003-01-28 Honeywell International Inc. Traffic information service (TIS) uplink own aircraft heading correction
US6469660B1 (en) 2000-04-13 2002-10-22 United Parcel Service Inc Method and system for displaying target icons correlated to target data integrity

Also Published As

Publication number Publication date
IL143414A0 (en) 2004-06-20
SG99393A1 (en) 2003-10-27
DE60213526D1 (de) 2006-09-14
EP1288888A3 (en) 2003-12-17
ATE335257T1 (de) 2006-08-15
EP1288888A2 (en) 2003-03-05
US20020196248A1 (en) 2002-12-26
US7136059B2 (en) 2006-11-14
DE60213526T2 (de) 2007-04-05
EP1288888B1 (en) 2006-08-02

Similar Documents

Publication Publication Date Title
ES2269641T3 (es) Un metodo y sistema para mejorar el conocimiento situacional de unidades de mando y control.
ES2758558T3 (es) Sistema de gestión de plataforma móvil en tiempo real
AU2007252840B2 (en) Methods and system for communication and displaying points-of-interest
US6222583B1 (en) Device and system for labeling sight images
KR101797006B1 (ko) 드론을 이용한 토지 조사 시스템 및 방법
KR20190051704A (ko) 스테레오 카메라 드론을 활용한 무기준점 3차원 위치좌표 취득 방법 및 시스템
CA2664374A1 (en) Video surveillance system providing tracking of a moving object in a geospatial model and related methods
KR20180060818A (ko) 가상현실 기반의 시설관리 플랫폼 구축 시스템
JPH10267671A (ja) 景観ラベリング装置およびシステム
US11460302B2 (en) Terrestrial observation device having location determination functionality
JP6723744B2 (ja) ナビ情報提供システム及びナビ情報提供装置
JPH1166350A (ja) 検索型景観ラベリング装置およびシステム
JPH1186034A (ja) 景観ラベル付ヒューマンナビゲーション装置およびシステム
JP3053172B2 (ja) 距離参照型景観ラベリング装置およびシステム
JP3156645B2 (ja) 情報発信型景観ラベリング装置およびシステム
ES2743529T3 (es) Procedimiento y sistema de determinación de una relación entre una primera escena y una segunda escena
US11409280B1 (en) Apparatus, method and software for assisting human operator in flying drone using remote controller
JP3114862B2 (ja) 相互利用型景観ラベリングシステム
CN106688018A (zh) 对目标进行成像、监视和/或指示的机载光电设备
JPH10285583A (ja) 火災位置及び映像表示伝送システム
JP3709642B2 (ja) 航空機用地上映像自動撮影装置
Adabala et al. Augmented reality: a review of applications
JP3753306B2 (ja) 移動体ナビゲーションシステム
JP6896670B2 (ja) 放射線量分布表示装置及び放射線量分布表示方法
JPH1166349A (ja) 移動量予測型景観ラベリング装置およびシステム