ES2269641T3 - Un metodo y sistema para mejorar el conocimiento situacional de unidades de mando y control. - Google Patents
Un metodo y sistema para mejorar el conocimiento situacional de unidades de mando y control. Download PDFInfo
- Publication number
- ES2269641T3 ES2269641T3 ES02405414T ES02405414T ES2269641T3 ES 2269641 T3 ES2269641 T3 ES 2269641T3 ES 02405414 T ES02405414 T ES 02405414T ES 02405414 T ES02405414 T ES 02405414T ES 2269641 T3 ES2269641 T3 ES 2269641T3
- Authority
- ES
- Spain
- Prior art keywords
- command
- digital
- control unit
- image
- virtue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
- G01M11/04—Optical benches therefor
Landscapes
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Regulation And Control Of Combustion (AREA)
- Closed-Circuit Television Systems (AREA)
- Selective Calling Equipment (AREA)
- Liquid Developers In Electrophotography (AREA)
Abstract
Un método para compartir información situacional vi- sual de objetos (15) entre varias unidades de mando y control (11), consistente en las fases de: a) facilitación a cada unidad de mando y control (11) de un mecanismo (22) para al- macenar un mapa de referencias digitales de una zona geográ- fica; b) recepción por al menos una unidad de mando y con- trol (11) de una imagen de un escenario (15'') que incluye al menos un objeto (15) en dicha zona geográfica; c) registro de dicha imagen recibida de dicho escenario en dicho mapa de re- ferencias digitales de al menos dicha unidad de mando y con- trol (11); d) actualización de una información situacional de al menos dicho objeto (15) en dicho mapa de referencias digitales de al menos dicha unidad de mando y control (11) en función de dicha imagen recibida de dicho escenario; e) transmisión, a través de un enlace de datos digitales (19), de dicha actualización de dicha información situacional de al menos dicho objeto (15) a al menos una unidad de mando y con- trol (11) entre dichas unidades de mando y control (11); f) incorporación de dicha información situacional transmi- tida a través del enlace de datos sobre al menos dicho objeto (15) a dicho mapa de referencias digitales de al menos dicha unidad de mando y control (11); y g) interpretación visual de dicha información situacional transmitida a través del enlace de datos de al menos dicho objeto por al menos dicha unidad de mando y control (11); siendo obligatorias dicha incorpora- ción de dicha información situacional transmitida a través del enlace de datos y dicha interpretación visual de dicha información situacional transmitida a través del enlace de datos.
Description
Un método y sistema para mejorar el conocimiento
situacional de unidades de mando y control.
El presente invento hace referencia en general a
la comunicación entre unidades de mando y control (MyC), más
particularmente al intercambio de datos digitales a través de un
enlace de datos entre unidades de MyC, de datos visuales captados
por vehículos aéreos, controlados por las unidades de MyC.
El presente invento también hace referencia a la
patente israelí Nº 111069 concedida a Sroka et al.
Como se verá al leer la descripción detallada de
la presente invención, ésta se basa en cuestiones de cartografía
digital, registro de imágenes y presentación visual de la
comunicación por enlace de datos, todas los cuales son ya conocidas
y se describen parcialmente en las patentes que siguen a
continuación:
El sistema de distribución de información
táctica conjunta (JTIDS) de la Fuerza Aérea de los EE.UU. se asemeja
al presente sistema por cuanto el JTIDS permite que varios
participantes en el combate compartan información sobre
conocimiento situacional a través de enlaces digitales. Ahora bien,
como describe C. Eric Ellington en "Joint Tactical Information
Distribution System (JTIDS)", National Telecommunications
Conference, Nueva Orleáns, 1-3 diciembre de
1975, artículo XP-000796852 (1975), el JITDS
ofrece a cada participante la opción de seleccionar la información
de relevancia para sus necesidades.
En consecuencia, las unidades no mantienen la
misma información en todo momento. Además, la información
transmitida por todas las unidades tiene que estar constantemente
disponible en los enlaces digitales para que las unidades de MyC
puedan seleccionar en cualquier momento toda la información
requerida, y no se facilita información visual.
La patente estadounidense Nº 6.160.497 concedida
a Clark describe una pantalla y metodología para la realización de
comunicaciones por enlace de datos digitales entre una aeronave y
otras aeronaves o unidades terrestres.
La pantalla puede encontrarse en la carlinga de
la aeronave, presentando visualmente las comunicaciones por enlace
de datos digitales. La pantalla también puede usarse en una
ubicación terrestre, por ejemplo en una unidad de control del
tráfico aéreo. La presentación visual de las comunicaciones por
enlace de datos digitales permite al piloto obtener conocimiento
situacional mediante el seguimiento de las comunicaciones digitales
entre las aeronaves y puede combinarse con el seguimiento de las
comunicaciones acústicas intercambiadas por los canales acústicos,
o
sustituirlo.
sustituirlo.
La patente estadounidense Nº 4.682.160 concedida
a Beckwith, Jr. et al. describe un sistema para generar en
tiempo real una vista en perspectiva del terreno situado a lo largo
de la trayectoria de vuelo de una aeronave, accediendo a datos del
terreno almacenados en un generador de mapas digitales y
transformando los datos en una representación en perspectiva del
terreno en la superficie de una pantalla adecuada, por ejemplo un
tubo de rayos catódicos de un tablero de instrumentos.
La patente estadounidense Nº 5.936.553 concedida
a Kabel describe un dispositivo de navegación y un método para
presentar información de navegación en una vista en perspectiva
visual.
La patente estadounidense Nº 6.119.976 concedida
a Roger describe un sistema de reconocimiento teledirigido lanzado
desde el hombro para la vigilancia visual de objetivos remotos desde
el aire. Esa invención incluye un vehículo aéreo de reconocimiento
que puede lanzarse desde un lanzador portátil.
La mencionada patente israelí Nº 111.069
concedida a Sroka et al. describe un método y sistema para
marcar imágenes de objetos captadas con mucha aproximación por un
dispositivo aéreo captador de imágenes, en un mapa de referencias
que tiene un amplio campo visual del escenario.
Ninguna de las anteriores referencias técnicas
aborda una situación en la que un estado visual de un objeto cuya
imagen ha captado una unidad de MyC se actualiza automáticamente y
en tiempo real en todas las unidades de MyC conectadas a esta
unidad de MyC.
Dicha información actualizada tendrá utilidad
para mantener el conocimiento situacional de los operadores de las
unidades de MyC informadas y les ayudará a reasignar nuevos objetos
para los vehículos aéreos controlados por
ellos.
ellos.
Como ejemplo, considérese una flota de
portaaviones en la que cada buque controla su propia escuadrilla de
aeronaves. Por tanto, cada portaaviones es una unidad autónoma de
mando y control respecto a sus aeronaves. Además, supóngase que
algunos de estos buques supervisen colectivamente el mismo
territorio geográfico y que, en consecuencia, utilicen mapas o
fotografías aéreas en que puedan aparecer los mismos objetivos.
Supóngase, asimismo, que siempre que una
aeronave incluida en el MyC de uno de los buques ataque un objetivo
concreto, la aeronave también transmita a su buque (solamente)
imágenes de escenas que comprendan el objetivo atacado.
En tal caso, sería ventajoso que los demás
portaaviones tuvieran conocimiento del cambio de la situación del
objetivo atacado, para no enviar sus aeronaves contra ese objetivo,
o para no desviarlas del mismo si las aeronaves ya están en
vuelo.
Hasta ahora, los operadores de las diversas
unidades de control podían, tras escuchar una comunicación verbal,
marcar manual o electrónicamente (por ejemplo, con un ratón de
ordenador) objetos en mapas o en fotografías aéreas.
Con la llegada de las comunicaciones
"mudas" entre unidades de control por enlace de datos
digitales, el operador de una unidad de control ya no recibe la
información necesaria que le permita conocer los cambios comunicados
por otras unidades de control sobre la situación de los objetos.
Además, aunque se le facilitara esta enorme cantidad de información
verbal, sería incapaz de utilizarla.
El presente invento llena este vacío y aporta
otras ventajas relacionadas.
El presente invento comprende un sistema y
método para compartir, entre varias unidades de mando y control
interconectadas, información situacional facilitada visualmente
respecto a objetos vigilados por un vehículo aéreo, de modo que
dicha información se transmita en tiempo real a través de una
comunicación por enlace de datos
digitales.
digitales.
Dicho método se define en la reivindicación 1,
en tanto que la reivindicación 13 define un sistema correspondiente.
Las demás reivindicaciones definen formas preferidas de realización
del método y del sistema.
Otros objetos y propósitos del presente invento
se advertirán leyendo la descripción que sigue junto con las
figuras siguientes.
El invento se describe aquí, sólo a modo de
ejemplo, con referencia a los dibujos que se acompañan, y en
consecuencia:
En la figura 1 aparecen los elementos de un
sistema de mando y control según el presente invento;
En la figura 2 aparecen las relaciones
operativas entre elementos de una unidad de mando y control según el
presente invento.
Las formas de realización que aquí se describen
no pretenden ser exhaustivas ni limitar de ningún modo las
aplicaciones del invento, y sólo se utilizan como ejemplos para
explicar el invento y para que otros técnicos puedan utilizar sus
enseñanzas.
El propósito del presente invento es actualizar
automáticamente y en tiempo real datos digitales relativos a la
situación de un objeto y almacenados por diversas unidades de MyC
interconectadas, de acuerdo con una información sobre un cambio
situacional del objeto percibida mediante una imagen del objeto
captada por un sensor remoto regulado por una de las unidades de
MyC.
La figura 1, a la cual se pasa a hacer
referencia, presenta un ejemplo sin intención limitativa que
demuestra las posibilidades del presente invento.
En la figura 1 se presenta un grupo 11 de 5
unidades de MyC, 11a a 11c, conectadas entre sí para permitir
enlaces de datos digitales bidireccionales 19 entre cada miembro del
grupo y los restantes miembros del grupo. La interconexión puede
efectuarse mediante cualquier reticulación conocida por los técnicos
(por ejemplo, utilizando conexiones físicas como los conductores
eléctricos y las fibras ópticas, o por comunicación
inalámbrica).
Cada unidad de MyC del grupo 11 se encarga de
vigilar una zona geográfica determinada (que no aparece en la
figura), mediante la observación o el ataque contra objetivos de esa
zona, preferiblemente por telemando de vehículos aéreos que
sobrevuelen esa zona, por ejemplo de un vehículo 12 teledirigido de
baja altitud, controlado por la unidad 11a del grupo 11.
El vehículo aéreo 12 lleva a bordo un
dispositivo captador de imágenes 13 para captar imágenes del
escenario 15', que está ubicada en la zona geográfica vigilada por
la unidad de MyC 11a y que comprende los objetos 15.
El vehículo aéreo 12 lleva a bordo un
dispositivo transmisor 14, que transmite por medios inalámbricos o a
través de una fibra óptica (que no aparece en la figura) una imagen
del escenario 15', captada por el dispositivo captador de imágenes
13, a un dispositivo receptor de imágenes 16 ubicado en la unidad de
MyC 11a. El dispositivo receptor de imágenes 16 reconstruye una
imagen digital del escenario 15' que comprende objetos 15 situados
en una ubicación de memoria accesible de un ordenador (aparece en la
figura 2, donde se describe más detalladamente la unidad de MyC
11a) de la unidad de MyC 11a. Además, la imagen digital captada del
objeto 15 se presenta visualmente en al menos una de las pantallas
17, 18 situadas en la unidad de MyC 11a.
Cada unidad de MyC del grupo 11 almacena en la
base de datos de su ordenador una imagen digital de la zona
vigilada por esa unidad; dicha imagen digital aérea comprende
imágenes de objetos (por ejemplo, los objetos 15) que pueden
afectarse por medios que dirige esa unidad de MyC.
De manera más general, pero igualmente incluida
entre las posibilidades del presente invento, se tiene una
situación en la cual el dispositivo captador de imágenes 13 no se
halla a bordo de un vehículo en vuelo, sino que está ubicado "en
tierra", aunque de tal manera que le permite vigilar el paisaje
circundante. Por ejemplo, el dispositivo captador de imágenes 13 se
encuentra en una colina u otro lugar topográficamente elevado que
domina el valle subyacente, o está instalado en un mástil alto (fijo
o móvil). Por tanto, el presente invento amplía el sentido del
vocablo "aéreo", para incluir estas situaciones.
La imagen digital de la zona contenida en la
base de datos, que en lo sucesivo se denominará "mapa de
referencias digitales", se basa en fotografía aérea (fotografía
convencional u ortogonal) cuya salida se ha digitalizado por medio
de técnicas conocidas. El mapa de referencias digitales se visualiza
constantemente en una pantalla adecuada como pantalla 18 de la
unidad de MyC 11a.
Aunque tanto los mapas como las fotos aéreas
presentan una "vista aérea" del terreno, las fotografías aéreas
no son mapas. Los mapas son representaciones ortogonales de la
superficie del terreno; es decir, son direccional y geométricamente
exactos (al menos dentro de las limitaciones impuestas por la
proyección de objetos tridimensionales sobre medios
bidimensionales). Las fotos aéreas, por otro lado, presentan un alto
grado de distorsión radial. Es decir, la topografía está
distorsionada y, hasta que se corrige esa distorsión, las mediciones
efectuadas a partir de una fotografía no son exactas.
Una fotografía ortogonal es producto del
tratamiento de dos fotografías aéreas captadas con dos cámaras cuyos
ejes, en el momento de la exposición, apuntan hacia abajo en
ángulos diferentes a los normales respecto al terreno, y que, como
un mapa, es a escala.
En consecuencia, la ubicación geográfica de cada
punto en el mapa de referencias digitales se conoce porque es
posible determinar exactamente su vector de posición respecto a las
características visuales de los rasgos sobresalientes del terreno
recogidos en el mapa de referencias digitales, dado que las
coordenadas geográficas exactas de dichos rasgos sobresalientes del
terreno se han determinado mediante técnicas topográficas
conocidas.
Téngase en cuenta que, en relación con el
presente invento, aunque los mapas digitales de referencias de las
diversas unidades de MyC no tienen que ser idénticos, ni coincidir
completamente, en cambio sí que deben incluir una región común
como, por ejemplo, la zona 15' que contiene los objetos 15.
Las coordenadas (los píxeles) de un objeto 15
pueden asignarse en el mapa de referencias digitales de la unidad
de MyC 11a (y, por consiguiente, también puede determinarse su
posición geográfica exacta) según el aspecto del objeto en una
imagen de la escena 15', captada por el dispositivo captador de
imágenes 13 situado a bordo del vehículo en vuelo 12.
El vehículo en vuelo 12 transmite en tiempo real
dicha imagen, incluida en al menos un fotograma o al menos una
fotografía fija, a la unidad de MyC 11a, que dirige dicho vehículo
en vuelo 12.
Mientras que el mapa digital de referencias, en
formato de mapa o de fotografía ortogonal, es una proyección
bidimensional de un paisaje, el aspecto del objeto 15 del paisaje
15' captado por el dispositivo captador de imágenes 13 a bordo del
vehículo en vuelo 12 suele corresponder a una vista en perspectiva
del escenario.
La navegación automática de vehículos en vuelo,
utilizando su capacidad para orientarse de acuerdo con la vista en
perspectiva de objetos reconocibles en su trayectoria, es una
técnica ya conocida. Esta orientación se basa en el establecimiento
de correspondencia entre dos o más imágenes, técnica conocida como
registro de las imágenes; véase, por ejemplo, "Automatic
Geo-Spatial Images and Data Exploitation",
Proceedings of SPIE, Vol. 4054, 24 de abril de 2000.
Un resultado deseado del proceso de registro de
imágenes es una representación útil de la correspondencia entre
conjuntos de imágenes que se superponen; habitualmente una función
cartográfica que, en el presente invento, toma el conjunto de
coordenadas espaciales de la imagen en vista de perspectiva y lo
transforma en el correspondiente conjunto de coordenadas espaciales
del mapa digital de referencias.
\newpage
En consecuencia, los píxeles del mapa de
referencias digitales, que corresponden a la ubicación del objeto
cuya vista en perspectiva se está recibiendo, pueden identificarse y
manipularse.
En la mencionada patente israelí Nº IL 111069
también se describió el establecimiento de una relación entre los
píxeles de la imagen de un objeto incluido en un campo visual amplio
de una imagen de referencia con los píxeles de la imagen del objeto
en un campo visual ampliado por aproximación de la lente.
Téngase en cuenta que, según el presente
invento, las características físicas de las imágenes aportadas por
el dispositivo captador de imágenes aerotransportado pueden ser
diferentes de las características físicas subyacentes de la imagen
del mapa de referencias digitales.
Por ejemplo, mientras que el mapa de referencias
digitales suele basarse en imágenes ópticas visibles de la zona
vigilada, las imágenes de objetos captadas por los vehículos en
vuelo pueden ser de rayos infrarrojos, térmicas, multiespectrales,
de ladar (radar de rayos láser), de radar, y basadas en información
facilitada por sensores químicos y biológicos.
Después del registro de la imagen, un operador
de la unidad de MyC 11a actualiza electrónicamente el mapa de
referencias digitales de su unidad de MyC para tener en cuenta los
cambios observados en la información situacional de los
objetos.
Un cambio en la información situacional de un
objeto es un cambio en su ubicación geográfica o en su estado
físico o químico (por ejemplo, se ha retirado un vehículo, ha
aparecido o se ha destruido un objetivo, o una zona residencial ha
quedado afectada por la guerra química).
La decisión sobre cuáles son los objetos cuya
información situacional conviene actualizar en el mapa de
referencias digitales suele dejarse a discreción del operador, en
función de su conciencia mental de la situación; no obstante, entre
las posibilidades del presente invento se incluye un sistema
automático de adopción de decisiones, que decide qué objetos
merecen actualización.
"Actualización electrónica" significa
cualquier indicación respecto al mapa de píxeles del objeto en el
mapa de referencias digitales que diferencie la simbolización del
objeto en el mapa de referencias digitales después de actualizarlo,
en comparación con su simbolización antes de actualizarlo. Por
ejemplo, en el mapa de referencias digitales, marcar la imagen del
objeto o su ubicación; cambiar la imagen, el tamaño, color o
contraste del objeto, e incluso la eliminación total de la imagen
del objeto en el mapa digital de referencias.
Dicha actualización electrónica, que se lleva a
cabo prácticamente manipulando la imagen del objeto o su ubicación
en la pantalla visual del mapa de referencias digitales, puede
codificarse y ha de tener un mismo significado para los operadores
de todas las unidades de MyC.
Seguidamente, el mapa de referencias digitales
actualizado se guarda en la base de datos de la unidad de MyC 11a
como un segundo nivel sobre el mapa de referencias digitales
original, o bien sustituye al mapa de referencias digitales
original en la base de datos de la unidad de MyC 11a.
El presente invento también incluye una
actualización visual automática de una representación de un objeto
o su ubicación en un mapa de referencias digitales de al menos una
unidad de MyC (por ejemplo, la 11b) según datos facilitados a
través del enlace de datos por otra unidad de MyC (por ejemplo, la
11a).
Esto significa que, una vez el sistema de una
unidad de MyC "maestra" (es decir, la unidad receptora de
imágenes de vistas en perspectiva de los objetos) actualiza
electrónicamente su mapa de referencias digitales, los mapas de
referencias digitales de las otras unidades de MyC, que están
interconectadas por una red informática a la unidad de MyC maestra,
también se actualizan respecto a la información situacional de los
objetos comunes que aparecen en sus mapas de referencias
digitales.
Véase la figura 2, que contiene un esquema
funcional descriptivo de los componentes y de sus interrelaciones
en una unidad de MyC maestra 11a.
En la figura 2, la unidad de MyC maestra 11a
comprende un dispositivo receptor 16 que recibe en tiempo real
imágenes de objetos 15 ubicados en un escenario reproducido 15'
captado por un dispositivo captador de imágenes (que no aparece en
la figura) situado a bordo de un vehículo en vuelo (que no aparece
en la figura).
Los objetos 15 observados en el paisaje
reproducido 15' los selecciona un operador humano (que no aparece
en la figura) de la unidad de MyC 11a. El operador decide por
adelantado la ubicación del escenario reproducido 15' (y,
consecuentemente, el destino del vehículo en vuelo).
Un sistema operativo 23 (un ordenador central
con el software apropiado) comunica (flecha 27) a una base de datos
22 información útil para reconocer el escenario reproducido 15' (por
ejemplo, sus límites geográficos) y la base de datos 22 extrae de
la memoria un mapa apropiado de referencias digitales que incluye el
escenario reproducido 15' (y en el cual pueden faltar objetos 15) y
envía (flecha 25) una imagen del mapa de referencias digitales
apropiado a la unidad de registro de imágenes 21, que también acepta
(flecha 29) del dispositivo receptor 16 en tiempo real imágenes
digitales de una vista en perspectiva de los objetos 15 en el
paisaje reproducido 15'.
Las técnicas de registro de imágenes utilizadas
por la unidad de registro de imágenes 21 son las conocidas por los
especialistas e incluyen un método de transformación polinómica, un
método de transformación de modelos sensoriales (véase, por
ejemplo, "Automatic Geo-Spatial Images and Data
Exploitation", Proceedings of SPIE, Vol. 4054, 24 de abril
de 2000) y especialmente un método de transformación por
equiparación de características, que se menciona en la patente
israelí Nº IL 111069 y en las referencias contenidas en la
misma.
Después de registrarse la imagen, se identifica
la ubicación de los píxeles correspondientes a los objetos 15 del
mapa de referencias digitales y se comunica (flecha 26) a la base de
datos 22.
De este modo, en la base de datos 22 se forma un
nuevo mapa de referencias digitales que incluye la simbolización
bidimensional actualizada de los objetos 15 (en sus coordenadas
correspondientes).
Este nuevo mapa de referencias digitales se
transmite (flecha 28) a la unidad operativa 23, que lo visualiza en
una pantalla apropiada 18.
Simultáneamente a toda esta actividad
automática, mientras observa en tiempo real la vista en perspectiva
del escenario reproducido 15' que aparece en el monitor 17 o en la
pantalla 18 (junto con el mapa de referencias digitales), el
operador de la unidad de MyC 11a percibe constantemente la
información situacional relacionada con los objetos 15 y puede,
siempre que lo desee, marcar electrónicamente la ubicación o la
imagen de los objetos 15 en el mapa de referencias digitales que
aparece en la pantalla 18, utilizando para ello un dispositivo de
control por cursor 18'.
La cuadrícula digital de los objetos marcados se
guarda en la base de datos 22 como segundo nivel sobre el mapa de
referencias digitales. Simultáneamente, la cuadrícula digital
relativa a los objetos marcados se transfiere mediante un enlace de
datos 19 a las demás unidades interconectadas de la red (que no
aparecen en la figura) del sistema de MyC 11 en las que se ha
incorporado esta información situacional (por unidades análogas al
sistema operativo 23) y al mapa de referencias digitales de la zona
reproducida 15' que está almacenado en las bases de datos
respectivas de estas unidades.
Al mismo tiempo, las unidades de MyC receptoras
de la información transmitida por el enlace de datos 19 la
interpretan visualmente y la presentan en las pantallas de sus
respectivas visualizaciones.
El resultado final del presente invento es que
los operadores de todas las unidades de MyC interconectadas de la
red ven en sus pantallas y al mismo tiempo imágenes del mapa de
referencias digitales con simbolizaciones actualizadas (por
ejemplo, marcas) de los mismos objetos.
Aunque este invento se haya descrito en relación
con un número limitado de formas de realización, es evidente que
pueden efectuarse muchas variaciones, modificaciones y otras
aplicaciones del invento sin rebasar las posibilidades del
mismo.
Claims (25)
1. Un método para compartir información
situacional visual de objetos (15) entre varias unidades de mando y
control (11), consistente en las fases de: a) facilitación a cada
unidad de mando y control (11) de un mecanismo (22) para almacenar
un mapa de referencias digitales de una zona geográfica; b)
recepción por al menos una unidad de mando y control (11) de una
imagen de un escenario (15') que incluye al menos un objeto (15) en
dicha zona geográfica; c) registro de dicha imagen recibida de
dicho escenario en dicho mapa de referencias digitales de al menos
dicha unidad de mando y control (11); d) actualización de una
información situacional de al menos dicho objeto (15) en dicho mapa
de referencias digitales de al menos dicha unidad de mando y
control (11) en función de dicha imagen recibida de dicho escenario;
e) transmisión, a través de un enlace de datos digitales (19), de
dicha actualización de dicha información situacional de al menos
dicho objeto (15) a al menos una unidad de mando y control (11)
entre dichas unidades de mando y control (11); f) incorporación de
dicha información situacional transmitida a través del enlace de
datos sobre al menos dicho objeto (15) a dicho mapa de referencias
digitales de al menos dicha unidad de mando y control (11); y g)
interpretación visual de dicha información situacional transmitida
a través del enlace de datos de al menos dicho objeto por al menos
dicha unidad de mando y control (11); siendo obligatorias dicha
incorporación de dicha información situacional transmitida a través
del enlace de datos y dicha interpretación visual de dicha
información situacional transmitida a través del enlace de
datos.
2. El método de la reivindicación 1, en virtud
del cual dicho mapa de referencias digitales comprende una
fotografía ortogonal digitalizada de dicha zona geográfica.
3. El método de la reivindicación 1, en virtud
del cual dicha imagen de dicho escenario (15') comprende una vista
en perspectiva de al menos dicho objeto (15).
4. El método de la reivindicación 1, en virtud
del cual dicha información situacional de al menos dicho objeto
(15) comprende información relativa a un daño ocasionado a al menos
dicho objeto (15).
5. El método de la reivindicación 3, que además
comprende las fases de: h) captación de dicha imagen de dicho
escenario (15').
6. El método de la reivindicación 5, en virtud
del cual dicha captación se efectúa con un dispositivo captador de
imágenes (13) cuya ubicación se selecciona en el grupo consistente
en: a bordo de un vehículo en vuelo, en un punto de vigilancia
topográficamente elevado y en lo alto de un mástil.
7. El método de la reivindicación 1, en virtud
del cual dicha imagen se selecciona en el grupo consistente en:
imágenes ópticas del espectro visible, de infrarrojos, térmicas, de
radar de rayos láser, imágenes de una salida de un sensor químico e
imágenes de una salida de un sensor biológico.
8. El método de la reivindicación 1, en virtud
del cual dicho registro se efectúa utilizando al menos una técnica
seleccionada en el grupo consistente en: un método de transformación
polinómica, un método de transformación de modelos sensoriales y un
método de transformación por equiparación de características.
9. El método de la reivindicación 1, que además
comprende la fase de: f) presentación visual de dicho mapa de
referencias digitales.
10. El método de la reivindicación 3, que además
comprende la fase de: f) presentación visual de dicha vista en
perspectiva de al menos dicho objeto (15).
11. El método de la reivindicación 9, en virtud
del cual dicha actualización de dicha información situacional de al
menos dicho objeto en dicho mapa de referencias digitales presentado
visualmente incluye el marcado electrónico de una imagen registrada
de al menos dicho objeto en dicho mapa de referencias digitales
presentado visualmente.
12. El método de la reivindicación 1, en virtud
del cual dicha transmisión de dicha actualización de dicha
información situacional se efectúa a todas las otras unidades de
mando y control (11) y en virtud del cual todas las otras unidades
de mando y control (11) incorporan dicha información situacional
transmitida a través del enlace de datos a dicho mapa de
referencias digitales de dichas otras unidades de mando y control
(11) e interpretan visualmente dicha información situacional
transmitida a través de dicho enlace de datos.
13. Un sistema para mejorar el conocimiento
situacional de varias unidades de mando y control (11), que
comprende:
a) varias unidades de mando y control (11); cada
unidad de mando y control (11) incluye: i) una base de datos (22)
situada en una memoria accesible de cada una de dicha unidades de
mando y control (11), almacenando cada una de dicha bases de datos
(22) un mapa de referencias digitales de una zona geográfica que
incluye una ubicación de al menos un objeto (15) vigilado por cada
una de dichas unidades de mando y control (11); ii) un mecanismo
(21, 23) para actualizar una información situacional de al menos
dicho objeto (15) en dicho mapa de referencias digitales en función
de una imagen recibida de un escenario (15') que incluye al menos
dicho objeto (15) y que se registra en dicho mapa de referencias;
iii) un mecanismo de comunicación (19) entre cada una de dichas
unidades de mando y control (11) y cada una de las otras unidades de
mando y control (11), para transmitir dicha actualización de dicha
información situacional, incluyendo dicho mecanismo de comunicación
(19) un enlace de datos digitales; iv) un mecanismo (17, 18)
para la interpretación visual de información situacional recibida a
través de dicho enlace de datos digitales; y v) un mecanismo (21,
23) para incorporar dicha interpretación visual a dicho mapa de
referencias digitales de dicha unidad de mando y control; en virtud
del cual dicha incorporación de dicha interpretación visual a dichos
mapas de referencias digitales es obligatoria.
14. El sistema de la reivindicación 13, en
virtud del cual una unidad de mando y control (11) entre dichas
unidades de mando y control (11) es un puesto terrestre.
15. El sistema de la reivindicación 13, en
virtud del cual una unidad de mando y control (11) entre dichas
unidades de mando y control (11) está a bordo de una aeronave.
16. El sistema de la reivindicación 13, en
virtud del cual una unidad de mando y control (11) entre dichas
unidades de mando y control (11) está a bordo de una nave.
17. El sistema de la reivindicación 13, en
virtud del cual dicho mapa de referencias digitales comprende una
fotografía ortogonal digitalizada de dicha zona geográfica.
18. El sistema de la reivindicación 13, en
virtud del cual dicha información situacional de al menos dicho
objeto comprende información relativa a un daño ocasionado a al
menos dicho objeto.
19. El sistema de la reivindicación 13, en
virtud del cual dicho mecanismo (21, 23) de actualización comprende
un mecanismo (21) para el registro de imágenes de dicho escenario
(15) en dicho mapa de referencias digitales.
20. El sistema de la reivindicación 13, que
también comprende: b) un dispositivo captador de imágenes (13) para
formar una imagen de un escenario (15') que incluye al menos dicho
objeto (15); c) un dispositivo transmisor de imágenes (14)
comunicativamente acoplado a dicho dispositivo captador de imágenes
(13); y d) un dispositivo receptor de imágenes (16) en al menos
dicha unidad de mando y control (11) comunicativamente conectado a
dicho dispositivo transmisor de imágenes (14).
21. El sistema de la reivindicación 20, en
virtud del cual dicha imagen de dicho escenario (15') comprende una
vista en perspectiva de al menos dicho objeto (15).
22. El sistema de la reivindicación 20, en
virtud del cual una ubicación de dicho dispositivo captador de
imágenes (13) se selecciona en el grupo consistente en: a bordo de
un vehículo en vuelo (12), en un punto de vigilancia
topográficamente elevado, o en lo alto de un mástil.
23. El sistema de la reivindicación 20, en
virtud del cual dicho dispositivo captador de imágenes (13) se
dirige a distancia por medio de al menos dicha unidad de mando y
control (11).
24. El sistema de la reivindicación 20, en
virtud del cual dicho dispositivo captador de imágenes se selecciona
en el grupo consistente en: generadores de imágenes ópticas en el
espectro visible, generadores de imágenes de infrarrojos,
generadores de imágenes térmicas, generadores de imágenes de radar
por rayos láser, generadores de imágenes de radar, generadores de
imágenes químicas y generadores de imágenes biológicas.
25. El sistema de la reivindicación 21, que
también comprende, en al menos dicha unidad de mando y control: i)
una pantalla para presentar visualmente dicho mapa de referencias
digitales almacenado en al menos dicha unidad de mando y control;
ii) una pantalla para presentar visualmente dicha imagen de dicho
escenario y; iii) un mecanismo para marcar un objeto seleccionado
en al menos dicho objeto en dicho mapa de referencias digitales
almacenado en al menos una unidad de mando y control en función de
dicha información situacional de dicho objeto seleccionado.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IL14341401A IL143414A0 (en) | 2001-05-23 | 2001-05-23 | A method and system for improving situational awareness of command and control units |
IL143414 | 2001-05-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2269641T3 true ES2269641T3 (es) | 2007-04-01 |
Family
ID=11075446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02405414T Expired - Lifetime ES2269641T3 (es) | 2001-05-23 | 2002-05-22 | Un metodo y sistema para mejorar el conocimiento situacional de unidades de mando y control. |
Country Status (7)
Country | Link |
---|---|
US (1) | US7136059B2 (es) |
EP (1) | EP1288888B1 (es) |
AT (1) | ATE335257T1 (es) |
DE (1) | DE60213526T2 (es) |
ES (1) | ES2269641T3 (es) |
IL (1) | IL143414A0 (es) |
SG (1) | SG99393A1 (es) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8203486B1 (en) | 1999-03-05 | 2012-06-19 | Omnipol A.S. | Transmitter independent techniques to extend the performance of passive coherent location |
US7777675B2 (en) | 1999-03-05 | 2010-08-17 | Era Systems Corporation | Deployable passive broadband aircraft tracking |
US7889133B2 (en) * | 1999-03-05 | 2011-02-15 | Itt Manufacturing Enterprises, Inc. | Multilateration enhancements for noise and operations management |
US7570214B2 (en) * | 1999-03-05 | 2009-08-04 | Era Systems, Inc. | Method and apparatus for ADS-B validation, active and passive multilateration, and elliptical surviellance |
US7908077B2 (en) | 2003-06-10 | 2011-03-15 | Itt Manufacturing Enterprises, Inc. | Land use compatibility planning software |
US7739167B2 (en) | 1999-03-05 | 2010-06-15 | Era Systems Corporation | Automated management of airport revenues |
US8446321B2 (en) | 1999-03-05 | 2013-05-21 | Omnipol A.S. | Deployable intelligence and tracking system for homeland security and search and rescue |
US7667647B2 (en) | 1999-03-05 | 2010-02-23 | Era Systems Corporation | Extension of aircraft tracking and positive identification from movement areas into non-movement areas |
US7782256B2 (en) | 1999-03-05 | 2010-08-24 | Era Systems Corporation | Enhanced passive coherent location techniques to track and identify UAVs, UCAVs, MAVs, and other objects |
US20050060299A1 (en) * | 2003-09-17 | 2005-03-17 | George Filley | Location-referenced photograph repository |
DE602005021267D1 (de) * | 2004-03-07 | 2010-07-01 | Rafael Armament Dev Authority | Verfahren und System zur pseudo-automatischen Bildregistrierung |
US7123169B2 (en) * | 2004-11-16 | 2006-10-17 | Northrop Grumman Corporation | Method and apparatus for collaborative aggregate situation awareness |
IL169934A (en) * | 2005-07-27 | 2013-02-28 | Rafael Advanced Defense Sys | Real-time geographic information system and method |
CN100459762C (zh) * | 2005-09-13 | 2009-02-04 | 集嘉通讯股份有限公司 | 动态更新景点数据的移动通信装置、系统及方法 |
US7965227B2 (en) | 2006-05-08 | 2011-06-21 | Era Systems, Inc. | Aircraft tracking using low cost tagging as a discriminator |
IL175835A0 (en) * | 2006-05-22 | 2007-07-04 | Rafael Armament Dev Authority | Methods and systems for communicating and displaying points-of-interest |
US20090138521A1 (en) * | 2007-09-17 | 2009-05-28 | Honeywell International Inc. | Method and system for sharing information between disparate data sources in a network |
US9811893B2 (en) | 2008-11-04 | 2017-11-07 | The United States Of America, As Represented By The Secretary Of The Navy | Composable situational awareness visualization system |
US9465129B1 (en) * | 2009-03-06 | 2016-10-11 | See Scan, Inc. | Image-based mapping locating system |
JP2011247860A (ja) * | 2010-05-31 | 2011-12-08 | Denso Corp | ナビゲーション装置 |
EP2393050A1 (en) * | 2010-06-04 | 2011-12-07 | BAE Systems Bofors AB | Central service platform and services for fleet maintenance and management |
WO2012078983A2 (en) | 2010-12-10 | 2012-06-14 | Blueforce Development Corporation | Decision support |
US9344486B2 (en) * | 2012-01-18 | 2016-05-17 | Rafael Julio de Ameller | Remote geobrowser control for collaborative decision making |
US9557415B2 (en) | 2014-01-20 | 2017-01-31 | Northrop Grumman Systems Corporation | Enhanced imaging system |
CN106027980A (zh) * | 2016-06-22 | 2016-10-12 | 沈阳天择智能交通工程有限公司 | 交通事故航勘飞行操控系统 |
CN107990877B (zh) * | 2017-12-06 | 2020-07-10 | 华中师范大学 | 一种基于互联网的无人机遥感解译外业调查系统及方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4682160A (en) | 1983-07-25 | 1987-07-21 | Harris Corporation | Real time perspective display employing digital map generator |
IL111069A (en) * | 1994-09-28 | 2000-08-13 | Israel State | System and method of visual orientation |
US6119976A (en) | 1997-01-31 | 2000-09-19 | Rogers; Michael E. | Shoulder launched unmanned reconnaissance system |
US5936553A (en) | 1997-02-28 | 1999-08-10 | Garmin Corporation | Navigation device and method for displaying navigation information in a visual perspective view |
US6208933B1 (en) * | 1998-12-04 | 2001-03-27 | Northrop Grumman Corporation | Cartographic overlay on sensor video |
US6160497A (en) * | 1998-12-29 | 2000-12-12 | Honeywell International Inc. | Visual display of aircraft data link information |
US6633259B1 (en) | 1999-03-05 | 2003-10-14 | Rannuch Corporation | Method and apparatus for improving utility of automatic dependent surveillance |
US6262679B1 (en) | 1999-04-08 | 2001-07-17 | Honeywell International Inc. | Midair collision avoidance system |
EP1087210B1 (en) | 1999-09-14 | 2011-10-19 | Honeywell Inc. | Methods and apparatus for graphical display and editing of flight plans |
US6512975B2 (en) * | 2000-04-07 | 2003-01-28 | Honeywell International Inc. | Traffic information service (TIS) uplink own aircraft heading correction |
US6469660B1 (en) | 2000-04-13 | 2002-10-22 | United Parcel Service Inc | Method and system for displaying target icons correlated to target data integrity |
-
2001
- 2001-05-23 IL IL14341401A patent/IL143414A0/xx not_active IP Right Cessation
-
2002
- 2002-05-22 EP EP02405414A patent/EP1288888B1/en not_active Expired - Lifetime
- 2002-05-22 DE DE60213526T patent/DE60213526T2/de not_active Expired - Lifetime
- 2002-05-22 ES ES02405414T patent/ES2269641T3/es not_active Expired - Lifetime
- 2002-05-22 AT AT02405414T patent/ATE335257T1/de not_active IP Right Cessation
- 2002-05-23 US US10/152,837 patent/US7136059B2/en not_active Expired - Lifetime
- 2002-05-23 SG SG200203080A patent/SG99393A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
IL143414A0 (en) | 2004-06-20 |
SG99393A1 (en) | 2003-10-27 |
DE60213526D1 (de) | 2006-09-14 |
EP1288888A3 (en) | 2003-12-17 |
ATE335257T1 (de) | 2006-08-15 |
EP1288888A2 (en) | 2003-03-05 |
US20020196248A1 (en) | 2002-12-26 |
US7136059B2 (en) | 2006-11-14 |
DE60213526T2 (de) | 2007-04-05 |
EP1288888B1 (en) | 2006-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2269641T3 (es) | Un metodo y sistema para mejorar el conocimiento situacional de unidades de mando y control. | |
ES2758558T3 (es) | Sistema de gestión de plataforma móvil en tiempo real | |
AU2007252840B2 (en) | Methods and system for communication and displaying points-of-interest | |
US6222583B1 (en) | Device and system for labeling sight images | |
KR101797006B1 (ko) | 드론을 이용한 토지 조사 시스템 및 방법 | |
KR20190051704A (ko) | 스테레오 카메라 드론을 활용한 무기준점 3차원 위치좌표 취득 방법 및 시스템 | |
CA2664374A1 (en) | Video surveillance system providing tracking of a moving object in a geospatial model and related methods | |
KR20180060818A (ko) | 가상현실 기반의 시설관리 플랫폼 구축 시스템 | |
JPH10267671A (ja) | 景観ラベリング装置およびシステム | |
US11460302B2 (en) | Terrestrial observation device having location determination functionality | |
JP6723744B2 (ja) | ナビ情報提供システム及びナビ情報提供装置 | |
JPH1166350A (ja) | 検索型景観ラベリング装置およびシステム | |
JPH1186034A (ja) | 景観ラベル付ヒューマンナビゲーション装置およびシステム | |
JP3053172B2 (ja) | 距離参照型景観ラベリング装置およびシステム | |
JP3156645B2 (ja) | 情報発信型景観ラベリング装置およびシステム | |
ES2743529T3 (es) | Procedimiento y sistema de determinación de una relación entre una primera escena y una segunda escena | |
US11409280B1 (en) | Apparatus, method and software for assisting human operator in flying drone using remote controller | |
JP3114862B2 (ja) | 相互利用型景観ラベリングシステム | |
CN106688018A (zh) | 对目标进行成像、监视和/或指示的机载光电设备 | |
JPH10285583A (ja) | 火災位置及び映像表示伝送システム | |
JP3709642B2 (ja) | 航空機用地上映像自動撮影装置 | |
Adabala et al. | Augmented reality: a review of applications | |
JP3753306B2 (ja) | 移動体ナビゲーションシステム | |
JP6896670B2 (ja) | 放射線量分布表示装置及び放射線量分布表示方法 | |
JPH1166349A (ja) | 移動量予測型景観ラベリング装置およびシステム |