ES2755024T3 - Procedimiento para determinar datos de posición de un objeto objetivo en un sistema de referencia - Google Patents

Procedimiento para determinar datos de posición de un objeto objetivo en un sistema de referencia Download PDF

Info

Publication number
ES2755024T3
ES2755024T3 ES11002853T ES11002853T ES2755024T3 ES 2755024 T3 ES2755024 T3 ES 2755024T3 ES 11002853 T ES11002853 T ES 11002853T ES 11002853 T ES11002853 T ES 11002853T ES 2755024 T3 ES2755024 T3 ES 2755024T3
Authority
ES
Spain
Prior art keywords
target object
reference model
position data
image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11002853T
Other languages
English (en)
Inventor
Michael Holicki
Jürgen Zoz
Nikolaus Schweyer
Johannes Speth
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MBDA Deutschland GmbH
Original Assignee
MBDA Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MBDA Deutschland GmbH filed Critical MBDA Deutschland GmbH
Application granted granted Critical
Publication of ES2755024T3 publication Critical patent/ES2755024T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/02Aiming or laying means using an independent line of sight
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/007Preparatory measures taken before the launching of the guided missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2246Active homing systems, i.e. comprising both a transmitter and a receiver
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Image Processing (AREA)

Abstract

Procedimiento para determinar los datos de posición de un objeto objetivo (Z) en un sistema de referencia desde una posición de observación separada del mismo, que comprende las etapas de: a) proporcionar un modelo de referencia tridimensional del territorio circundante del objeto objetivo (Z) con datos de ubicación geográfica conocidos; b) cotejar una imagen del objeto objetivo (Z) y su territorio circundante resultante de la posición de observación de un observador, donde la imagen es suministrada por un dispositivo de captura de imágenes (10) de un dispositivo de reconocimiento (1) con el modelo de referencia tridimensional; c) determinar los datos de posición del objeto objetivo visado (Z) en el modelo de referencia como datos de posición relativa a los datos de ubicación conocidos del modelo de referencia tridimensional mediante un dispositivo informático del dispositivo de reconocimiento (1); y d) transmitir los datos de posición relativa a un misil para la instrucción del mismo, donde la alineación de la imagen del objeto objetivo (Z) y su territorio circundante con el modelo de referencia en la etapa b) se lleva a cabo en las siguientes subetapas: b1) formar un modelo de línea tridimensional a partir del modelo de referencia tridimensional; b2) proyectar el modelo de línea en la imagen del objeto objetivo (Z) y su territorio circundante tomada por un dispositivo de captura de imágenes basado en una hipótesis sobre la posición y la ubicación aproximadas; b3) cotejar las líneas del modelo de línea tridimensional con los segmentos de línea extraídos de la imagen; y b4) calcular una corrección de la hipótesis de posición y ubicación a partir del ajuste donde la corrección determinada en la etapa b4) se tiene en cuenta en la determinación de los datos de posición del objeto objetivo (Z) en la etapa c).

Description

DESCRIPCIÓN
Procedimiento para determinar datos de posición de un objeto objetivo en un sistema de referencia
[0001] La presente invención se refiere a un procedimiento para determinar datos de posición de un objeto objetivo en un sistema de referencia desde una posición de observación separada del mismo. La invención se refiere además a un procedimiento para guiar un sistema de armamento aéreo a un objeto objetivo y para alinear un arma con el objeto objetivo.
[0002] Cerca de un área objetivo, varias fuerzas de acción diferentes pueden ubicarse en diferentes lugares. Se requiere recopilar la información que estas fuerzas de acción distribuidas reciben sobre el área objetivo para la evaluación de la situación y esto constituye la condición previa para la acción coordinada de dichas fuerzas de acción. Los datos objetivos precisos y claros desempeñan un papel esencial en este caso.
[0003] A menudo sucede que las fuerzas terrestres ya han trabajado cerca de un objetivo y solicitan asistencia desde el aire. La coordinación de un despliegue de fuerzas distribuidas de manera localizada requiere información precisa sobre el lugar de destino. Los datos de posición del objeto objetivo requeridos para este propósito se pueden obtener con mayor precisión por parte de las fuerzas de acción que ya están cerca del objetivo. Sin embargo, los datos de posición del objeto objetivo así obtenidos son inicialmente solo datos de posición relativa entre la posición del objetivo y la posición del observador.
[0004] Una forma conocida de dirigir un arma desplegada, por ejemplo, un misil, hacia un objetivo, consiste en que el observador ilumina el objetivo con un dispositivo adecuado y el misil que se acerca localiza y se dirige hacia el punto luminoso codificado. Una desventaja considerable de este procedimiento radica en el hecho de que el observador puede revelarse a sí mismo mediante la iluminación activa, que inevitablemente debe mantenerse durante un tiempo determinado. Además, este procedimiento es muy difícil en terrenos muy urbanizados debido a muchas ocultaciones y las sombras de los edificios que resultan de las mismas.
[0005] Otra posibilidad conocida de apuntar con misiles es usar dispositivos para determinar datos de posición geográfica, tales como dispositivos de navegación por satélite, brújulas y mapas, para determinar los datos de posición geográfica del objeto objetivo y dirigir el misil a las coordenadas del objetivo así determinadas. Sin embargo, dicha determinación de los datos de posición geográfica no siempre cumple con los requisitos de precisión requeridos para un ataque preciso. En particular, cuando los edificios e instalaciones civiles se encuentran cerca del objeto objetivo, la precisión de los datos de posición geográfica así determinados del objeto objetivo es insuficiente para evitar la ocurrencia de daños colaterales. Especialmente en áreas urbanas u otras áreas densamente urbanizadas, el más mínimo error al determinar los datos de posición del objeto objetivo puede tener consecuencias devastadoras. La determinación clara y exacta de los datos de posición del objeto objetivo requerida para este escenario de despliegue, por ejemplo, el de un edificio desde el cual el enemigo ataca a sus propias fuerzas, requiere la mayor precisión, la cual no se puede lograr con los medios actualmente conocidos desde una distancia segura.
[0006] «Terminal air-to-ground missile guidance by infrared seeker» de Christy S y col., descrito en Proceedings of Spie, núm. 3086 del 23 de abril de 1997, describe un procedimiento para controlar un misil aire-tierra por medio de un sensor infrarrojo.
[0007] Por lo tanto, un objeto de la presente invención es proporcionar un procedimiento para determinar los datos de posición de un objeto objetivo desde una posición de observación separada del mismo,
[0008] mediante lo cual es posible determinar con precisión los datos de posición del objeto objetivo y definir claramente el objetivo, de modo que también pueda identificarse rápida y claramente desde una ubicación diferente de la posición de observación, por ejemplo, desde un misil que se aproxima.
[0009] Este objeto se consigue mediante el procedimiento con las características de la reivindicación 1.
[0010] En este caso, según la invención, se llevan a cabo las siguientes etapas:
a) proporcionar un modelo de referencia tridimensional del territorio circundante del objeto objetivo con datos de ubicación geográfica conocidos;
b) cotejar una imagen del objeto objetivo resultante de la posición de observación del observador y su territorio circundante, donde la imagen es suministrada por un dispositivo de captura de imágenes de un dispositivo de reconocimiento con el modelo de referencia;
c) determinar los datos de posición del objeto objetivo visado en el modelo de referencia como datos de posición relativa a los datos de ubicación conocidos del modelo de referencia mediante un dispositivo informático del dispositivo de reconocimiento; y
d) transmitir los datos de posición relativa a un misil para la instrucción del mismo.
[0011] Por lo tanto, según el procedimiento de la invención, se proporciona al observador un modelo de referencia tridimensional común del territorio circundante del objeto objetivo. Este modelo de referencia tridimensional también está disponible para el arma que se aproxima. Mediante las etapas mencionadas anteriormente del procedimiento según la invención, el observador puede identificar el objeto objetivo en el modelo de referencia tridimensional y definir su posición en este modelo de referencia. Mediante los datos de posición relativa así definidos del objeto objetivo en el modelo de referencia tridimensional, el objeto objetivo puede identificarse claramente desde cualquier otra dirección, y el arma que se aproxima desde cualquier dirección puede localizar y asestar con precisión el objeto objetivo. La precisión de posición absoluta del modelo de referencia tridimensional desempeña en este caso solo un papel secundario, ya que simplemente tiene que ser tan buena como para que sea posible la asociación entre el modelo de referencia tridimensional y la escena modelada por un equipo de captura de imágenes del observador o del arma que se aproxima. El uso de datos de posición relativa del objeto objetivo en un sistema de referencia que tiene el modelo de referencia permite una definición de objetivo y de designación de objetivo seguros basado únicamente en la imagen capturada y el modelo de referencia sin la necesidad de determinar con exactitud los datos de posición geográfica absoluta del objeto objetivo, del observador ni del arma en el caso de un combate objetivo.
[0012] Un desarrollo ventajoso del procedimiento según la invención se caracteriza porque el modelo de referencia proporcionado en la etapa a) se obtiene a partir de tomas aéreas y / o tomas satelitales del objeto objetivo y su territorio circundante. Los modelos de referencia se pueden generar de diferentes maneras. Una posibilidad preferida es la medición fotogramétrica de tomas aéreas de alta precisión, otra posibilidad consiste en hacer una reconstrucción tridimensional del modelo de referencia a partir de, por ejemplo, secuencias de imágenes tomadas por aviones de reconocimiento.
[0013] De manera alternativa o adicional, las mediciones de radar o lidar del objeto objetivo y / o su territorio circundante se pueden utilizar para obtener el modelo de referencia proporcionado en la etapa a).
[0014] Según la invención, la alineación de la imagen del objeto objetivo y su territorio circundante con el modelo de referencia en la etapa b) se lleva a cabo en las siguientes subetapas:
b1) formar un modelo de línea tridimensional a partir del modelo de referencia tridimensional;
b2) proyectar el modelo de línea en la imagen del objeto objetivo y su territorio circundante tomada por un dispositivo de captura de imágenes basado en una hipótesis sobre la posición y la ubicación aproximadas; b3) cotejar las líneas del modelo de línea tridimensional con los segmentos de línea extraídos de la imagen; y b4) calcular una corrección de la hipótesis de posición y ubicación a partir del ajuste,
donde la corrección determinada en la etapa b4) se tiene en cuenta en la determinación de los datos de posición del objeto objetivo en la etapa c). En este algoritmo, la imagen del objeto objetivo y su territorio circundante tomada desde la posición de observación, por ejemplo, con una cámara, se compara con el modelo de referencia tridimensional de la escena grabada. A partir de esta comparación, se calculan los factores de corrección para la hipótesis de posición y ubicación y se puede determinar con precisión la posición y la ubicación de la cámara, es decir, la posición de observación.
[0015] Según el procedimiento según la invención, en primer lugar, se forma un modelo de línea tridimensional para obtener un modelo de referencia tridimensional lineal. Estas líneas forman la base para ubicar y localizar la propia posición de observación tanto para el observador como para la cabeza buscadora de un misil que se aproxima. En este caso, además del modelo de referencia tridimensional y la imagen de la cámara grabada de la posición de observación o la secuencia de imágenes de la cámara, se pueden incorporar datos del territorio circundante adicionales para una hipótesis sobre la posición y ubicación inicial aproximadas. Estos datos del territorio circundante y datos adicionales pueden determinarse, por ejemplo, mediante una brújula y un sistema de navegación por satélite o en el caso de un misil, a través de un sistema integrado de navegación por satélite y / o un sistema de navegación inercial.
[0016] Además, resulta ventajoso si en el procedimiento según la invención para determinar los datos de posición del objeto objetivo a partir de los datos de ubicación del modelo de referencia en la etapa c) se realizan las siguientes subetapas:
c1) determinar los datos de posición geográfica de la posición de observación;
c2) determinar los datos de posición del objeto objetivo en relación con los datos de posición de la posición de observación;
c3) determinar los datos de posición relativa del objeto objetivo con respecto al modelo de referencia.
[0017] Mediante la determinación de los datos de posición relativa del objeto objetivo con respecto al modelo de referencia realizada con estas etapas, es posible definir fácilmente una posición relativa exacta del objeto objetivo en el modelo de referencia por medio de los datos de posición determinados, por ejemplo, a través de un dispositivo de navegación satelital en la posición de observación y en el modelo de referencia, así como a través de los datos de corrección determinados en la etapa b).
[0018] En este caso, resulta ventajoso si la determinación de los datos de posición del objeto objetivo en relación con los datos de posición de la posición de observación en la etapa c2) se lleva a cabo realizando una medición de distancia, preferentemente una medición de distancia por láser, dirigida al objeto objetivo desde la posición de observación, donde la dirección y la distancia determinadas en la medición de distancia entre la posición de observación y el objeto objetivo se utilizan para determinar los datos de posición del objeto objetivo.
[0019] Alternativamente, la determinación de los datos de posición del objeto objetivo a partir de los datos de ubicación del modelo de referencia en la etapa c) también puede llevarse a cabo definiendo un haz de visualización virtual correspondiente al eje óptico del dispositivo de captura de imágenes, por ejemplo, desde el dispositivo de captura de imágenes ubicado en la posición de observación, y determinando las coordenadas del punto objetivo representado por este haz de visualización en el objeto objetivo en el modelo de referencia como datos de posición del objeto objetivo.
[0020] La invención también se refiere a un procedimiento para guiar el misil, donde se determinan primero los datos de posición del objeto objetivo en un sistema de referencia como datos de posición relativa en un modelo de referencia según la presente invención, y donde luego se realizan las siguientes etapas para guiar el misil:
aa) capturar una imagen del objeto objetivo y su territorio circundante con un dispositivo de captura de imágenes provisto a bordo del misil;
bb) cotejar la imagen obtenida en la etapa aa) con el modelo de referencia tridimensional y
cc) determinar los datos de posición del dispositivo de captura de imágenes y, por lo tanto, del misil en relación con los datos de posición del objeto objetivo y
dd) controlar el misil en el objeto objetivo utilizando la ubicación relativa del misil con respecto al objeto objetivo determinada en la etapa cc).
[0021] Este procedimiento de guía de vuelo también utiliza la información sobre la posición relativa del objeto objetivo en el modelo de referencia. El misil que se acerca ve, con su dispositivo de captura de imágenes, el objeto objetivo y su territorio circundante desde un ángulo visual diferente al del observador en la posición de observación. También en este procedimiento de guía de vuelo, la imagen obtenida por el dispositivo de captura de imágenes se compara primero con el modelo de referencia tridimensional. Dado que las coordenadas del objeto objetivo en el modelo de referencia, es decir, en el sistema de referencia, ya han sido determinadas por el observador, la posición relativa del misil con respecto al objeto objetivo puede determinarse rápida y fácilmente y, por lo tanto, el misil puede controlarse de manera confiable y precisa hacia el objeto objetivo.
[0022] En este caso, el sistema de armamento aéreo es preferentemente un misil no tripulado que se controla dentro del objeto objetivo mediante el procedimiento.
[0023] El sistema de armamento aéreo, no según la invención, puede ser una aeronave provista de al menos un arma, por ejemplo, un helicóptero de combate, cuya arma se alinea con el objeto objetivo mediante el procedimiento.
[0024] Realizaciones ejemplares preferidas de la invención con detalles de configuración adicional y otras ventajas se describen y explican detalladamente a continuación con referencia a los dibujos adjuntos.
[0025] En los cuales:
La figura 1 muestra una representación esquemática de la secuencia de las etapas de procedimiento individual del procedimiento para determinar los datos de posición de un objeto objetivo desde una posición de observación separada del mismo, así como del procedimiento para guiar un misil no tripulado hacia el objeto objetivo.
[0026] La figura 1 muestra esquemáticamente en la sección 1A las etapas del procedimiento para determinar los datos de posición de un objeto objetivo Z a partir de una posición de observación separada del mismo por un dispositivo de reconocimiento 1 de un observador. En la sección 1B de la figura 1, se muestran esquemáticamente las etapas de procedimiento del procedimiento para guiar un misil no tripulado al objeto objetivo Z. Primeramente, se describirá el procedimiento para determinar los datos de posición del objeto objetivo a partir de una posición de observación separada del mismo, con referencia a la figura secundaria 1A.
[0027] Un observador, que se encuentra en una posición de observación, que está a una distancia del objeto objetivo Z, pero desde la cual el observador tiene un contacto visual sin obstáculos hacia el objeto objetivo Z, está equipado con un dispositivo de reconocimiento 1 que tiene un dispositivo de captura de imágenes 10, por ejemplo, una cámara electrónica. El observador utiliza el dispositivo de captura de imágenes 10 para visar el objeto objetivo Z y su territorio circundante. El dispositivo de captura de imágenes 10 proporciona posteriormente una imagen que se muestra, por ejemplo, en un monitor y en la que la posición del objeto objetivo Z se define como una posición objetivo en el sistema de observación. Esta imagen se compara después con un modelo de referencia. En este caso, los datos de un modelo de terreno tridimensional obtenida en un momento anterior del territorio circundante del objeto objetivo se incorporan a la imagen
[0028] en forma de modelo de referencia dirigido a la dirección de observación y la imagen grabada por el dispositivo de captura de imágenes se superpone con líneas características de un modelo de línea formado a partir del modelo de referencia. Para este propósito, los datos de posición geográfica de la posición de observación, es decir, la posición del dispositivo de captura de imágenes, así como la dirección y la distancia desde la posición de observación al objeto objetivo Z se determinan primero como los denominados datos colaterales. Estos datos de posición de la posición de observación se utilizan luego en un dispositivo informático del dispositivo de reconocimiento para alinear el modelo de referencia tridimensional R de modo que corresponda aproximadamente a su representación en perspectiva en el monitor de la representación de la imagen real que fue tomada por el dispositivo de captura de imágenes, es decir, la imagen de la región objetivo.
[0029] El dispositivo informático del dispositivo de reconocimiento realiza ahora una comparación de patrones con las líneas del modelo de línea del modelo de referencia sobre la base de líneas características que se obtienen de la imagen capturada por el dispositivo de captura de imágenes. Como resultado de esta comparación de patrones, las desviaciones en la ubicación y la posición de los pares de líneas asociadas respectivamente entre sí a partir de las líneas del modelo de referencia y de las líneas extraídas de la imagen capturada se compensan con el desplazamiento relativo de los dos modelos de línea entre sí, por lo que se pueden determinar finalmente los datos de posición del objeto objetivo visado en el modelo de referencia como datos de posición relativos a datos de ubicación conocidos del modelo de referencia. Por lo tanto, la posición del objeto objetivo en el modelo de referencia se define claramente.
[0030] El observador utiliza su dispositivo de reconocimiento, que además del dispositivo de captura de imágenes también contiene sensores adicionales que proporcionan una hipótesis aproximada sobre la posición y la ubicación de los datos de posición geográfica del dispositivo de captura de imágenes y, por lo tanto, del dispositivo de reconocimiento y de la posición de observación. Dichos sensores adicionales pueden ser, por ejemplo, un dispositivo de navegación por satélite o una brújula.
[0031] Opcionalmente, el dispositivo de reconocimiento también puede estar equipado con un telémetro láser (LEM) para determinar la distancia al objeto objetivo. Por lo tanto, el observador puede determinar a partir de la imagen del objeto objetivo y su territorio circundante, de la medición de distancia y su hipótesis de posición y ubicación, una hipótesis para los datos de posición absoluta del objeto objetivo. Sin embargo, debido a las imprecisiones de los sensores involucrados, esta hipótesis no será lo suficientemente precisa como para instruir a un misil de precisión individualmente. En particular, los errores de medición de una brújula o de un giroscopio buscador de norte utilizados como alternativa conducirían a errores significativos en el posicionamiento del objetivo a largas distancias con respecto al objetivo. Esto, a su vez, daría lugar a daños colaterales a un misil que ataca el objetivo. En cambio, se utiliza el procedimiento según la invención en el que se determina la posición del objeto objetivo con respecto al modelo de referencia.
[0032] Esta determinación de los datos de posición del objeto objetivo en relación con el modelo de referencia se puede hacer de dos maneras diferentes. En el primer caso, el telémetro láser mencionado anteriormente se utiliza para determinar la posición del objetivo con respecto al observador, es decir, con respecto a la posición de observación. Junto con los datos de posición geográfica conocidos de la posición de observación, la distancia al objetivo medida por el telémetro láser y la dirección desde la posición de observación al objeto objetivo, se puede determinar el punto objetivo definido por los datos de posición relativa del objeto objetivo en el modelo de referencia.
[0033] En el segundo caso alternativo, no se necesita un telémetro láser. En este caso, la imagen del objeto objetivo capturada por el dispositivo de captura de imágenes define un haz visual tridimensional que se define, por ejemplo, por el eje óptico del dispositivo de captura de imágenes, siempre que el objeto objetivo se encuentre en el centro de la imagen. Cuando este haz visual se cruza con una superficie o línea del modelo de referencia asignado al objeto objetivo, a su vez, el punto objetivo se encuentra en el modelo de referencia. Esta segunda variante tiene la ventaja de que se maneja sin un telémetro láser y, por lo tanto, es completamente pasiva. El observador no tiene que ser reconocible por un rayo láser.
[0034] Sin embargo, la variante se basa en que el objeto objetivo esté contenido al menos como una superficie o una línea en el modelo de referencia. Por lo tanto, solo se pueden definir objetivos que sean parte de la estructura modelada en el modelo de referencia como, por ejemplo, una ventana o una puerta de una casa modelada en el modelo de referencia. Los objetos objetivo que no forman parte del modelo de referencia, por ejemplo, un vehículo frente a una casa, no pueden ubicarse claramente en el modelo de referencia con esta variante. Para dichos objetos objetivo, se requiere una medición de distancia, por ejemplo, con un telémetro láser, y el procedimiento de acuerdo con la primera variante.
[0035] En principio, también es evidentemente concebible que ambas variantes mencionadas anteriormente estén disponibles y puedan ser utilizadas opcionalmente por el observador en el dispositivo de reconocimiento. Como resultado, cada una de las dos variantes proporciona un punto objetivo en el modelo de referencia tridimensional definido en sus tres coordenadas espaciales en relación con el sistema de coordenadas del modelo de referencia. El observador puede transmitir estas coordenadas relativas del punto objetivo a una evaluación general de la situación en un centro de control o pueden transmitirse directamente al observador para la instrucción de un misil.
[0036] A continuación, se describirá con referencia a la figura secundaria 1B cómo se usan estos datos relativos del punto objetivo para controlar el misil provisto de una cabeza buscadora 2 en el objeto objetivo.
[0037] Después de que el punto objetivo ha sido fijado y definido por el observador como punto de coordenadas del objeto objetivo en el modelo de referencia tridimensional del observador y, por lo tanto, en el modelo de terreno tridimensional del territorio circundante del objeto objetivo de la manera descrita anteriormente, se planifica la misión de vuelo del misil. En este caso, la dirección de aproximación planificada del misil se establece en el objeto objetivo en función de la posición del objetivo y el modelo de terreno tridimensional existente del territorio circundante objetivo de manera adecuada para la implementación de la misión. Dependiendo del punto objetivo y la dirección de aproximación especificada, se calcula y se genera un modelo de referencia de aproximación a partir del modelo de terreno tridimensional.
[0038] En la fase de vuelo de la aproximación del misil al objeto objetivo y al territorio circundante objetivo, la cabeza buscadora 2 provista en el misil se basa primero para la orientación en los datos colaterales de un sistema de navegación por satélite y un sistema de navegación inercial presente en el misil para hacer una determinación aproximada de la posición del misil en relación con el objetivo. Esta información sobre la posición aproximada del misil se usa para proyectar el modelo de referencia de aproximación tridimensional en una imagen capturada actualmente por un dispositivo de captura de imágenes 20 en la cabeza buscadora del misil 2. Mediante la comparación posterior de esta imagen con la proyección del modelo de referencia de aproximación tridimensional, la posición exacta y la ubicación del misil en relación con el punto objetivo se calcula de manera análoga, como ya se ha descrito anteriormente con referencia a la figura secundaria 1A. De esta manera, también para el misil, las imprecisiones en la medición de su posición se compensan mediante el sistema de navegación por satélite y el sistema de navegación inercial, lo que permite asestar de manera más precisa el objeto objetivo.
[0039] Aunque se ha indicado en la descripción anterior para facilitar la comprensión que el modelo de referencia tridimensional correspondiente se proyecta en una imagen capturada actualmente por un dispositivo de captura de imágenes (el dispositivo de reconocimiento o el misil) y opcionalmente se muestra en un monitor, no es obligatorio hacer esta proyección y mostrarla en un monitor. Ya es suficiente si los datos correspondientes del modelo de referencia y la imagen se combinan en un dispositivo informático y la alineación correspondiente entre las diferentes posiciones relativas de la imagen grabada y la escena del modelo de referencia tiene lugar exclusivamente en un dispositivo informático del dispositivo de reconocimiento o el misil.
[0040] Aunque en la descripción anterior, en aras de una comprensión más fácil, siempre se utiliza un misil y una cabeza buscadora, en su lugar, también se puede utilizar otro portador de armas, por ejemplo, un helicóptero o un avión, provisto de un dispositivo adecuado para la captura de imágenes y para cotejar el modelo de referencia con la imagen adquirida.
[0041] Las referencias en las reivindicaciones, la descripción y los dibujos sirven sólo para la mejor compresión de la invención y no deben limitar el alcance de protección.
Lista de referencias
[0042]
1 Dispositivo de reconocimiento
2 Cabeza buscadora
10 Dispositivo de captura de imágenes de 1
20 Dispositivo de captura de imágenes de 2
Z Objeto objetivo

Claims (7)

REIVINDICACIONES
1. Procedimiento para determinar los datos de posición de un objeto objetivo (Z) en un sistema de referencia desde una posición de observación separada del mismo, que comprende las etapas de:
a) proporcionar un modelo de referencia tridimensional del territorio circundante del objeto objetivo (Z) con datos de ubicación geográfica conocidos;
b) cotejar una imagen del objeto objetivo (Z) y su territorio circundante resultante de la posición de observación de un observador, donde la imagen es suministrada por un dispositivo de captura de imágenes (10) de un dispositivo de reconocimiento (1) con el modelo de referencia tridimensional;
c) determinar los datos de posición del objeto objetivo visado (Z) en el modelo de referencia como datos de posición relativa a los datos de ubicación conocidos del modelo de referencia tridimensional mediante un dispositivo informático del dispositivo de reconocimiento (1); y
d) transmitir los datos de posición relativa a un misil para la instrucción del mismo,
donde la alineación de la imagen del objeto objetivo (Z) y su territorio circundante con el modelo de referencia en la etapa b) se lleva a cabo en las siguientes subetapas:
b1) formar un modelo de línea tridimensional a partir del modelo de referencia tridimensional;
b2) proyectar el modelo de línea en la imagen del objeto objetivo (Z) y su territorio circundante tomada por un dispositivo de captura de imágenes basado en una hipótesis sobre la posición y la ubicación aproximadas; b3) cotejar las líneas del modelo de línea tridimensional con los segmentos de línea extraídos de la imagen; y b4) calcular una corrección de la hipótesis de posición y ubicación a partir del ajuste
donde la corrección determinada en la etapa b4) se tiene en cuenta en la determinación de los datos de posición del objeto objetivo (Z) en la etapa c).
2. Procedimiento según la reivindicación 1,
caracterizado porque
el modelo de referencia proporcionado en la etapa a) se obtiene a partir de tomas aéreas y / o tomas satelitales del objeto objetivo (Z) y su territorio circundante.
3. Procedimiento según la reivindicación 1 o 2,
caracterizado porque
el modelo de referencia proporcionado en la etapa a) se obtiene a partir de mediciones de radar o de lidar del objeto objetivo (Z) y / o su territorio circundante.
4. Procedimiento según cualquiera de las reivindicaciones anteriores,
caracterizada porque
para determinar los datos de posición del objeto objetivo (Z) a partir de los datos de ubicación del modelo de referencia en la etapa c) se realizan las siguientes subetapas:
c1) determinar los datos de posición geográfica de la posición de observación;
c2) determinar los datos de posición del objeto objetivo (Z) en relación con los datos de posición de la posición de observación;
c3) determinar los datos de posición relativa del objeto objetivo (Z) con respecto al modelo de referencia.
5. Procedimiento según la reivindicación 4,
caracterizado porque
la determinación de los datos de posición del objeto objetivo (Z) en relación con los datos de posición de la posición de observación en la etapa c2) se lleva a cabo realizando una medición de distancia, preferentemente una medición de distancia por láser, dirigida al objeto objetivo (Z) desde la posición de observación, donde la dirección y la distancia determinadas en la medición de distancia se utilizan para determinar los datos de posición del objeto objetivo (Z).
6. Procedimiento según cualquiera de las reivindicaciones 1 a 3,
caracterizado porque
para determinar los datos de posición del objeto objetivo (Z) a partir de los datos de ubicación del modelo de referencia en la etapa c) se define un haz de visualización virtual mediante el dispositivo de captura de imágenes que se encuentra en la posición de observación, que corresponde, por ejemplo, al eje óptico del dispositivo de captura de imágenes, y porque las coordenadas del punto objetivo (Z) representado por este haz de visualización en el objeto objetivo (Z) se determinan en el modelo de referencia como datos de posición del objeto objetivo (Z).
7. Procedimiento según cualquiera de las reivindicaciones anteriores, donde para la guía adicional del misil hacia el objeto objetivo (Z) se llevan a cabo las siguientes etapas:
aa) capturar una imagen del objeto objetivo (Z) y su territorio circundante con un dispositivo de captura de imágenes provisto a bordo del misil (20);
bb) cotejar la imagen obtenida en la etapa aa) con el modelo de referencia tridimensional;
cc) determinar los datos de posición del dispositivo de captura de imágenes (20) y, por lo tanto, del misil en relación con los datos de posición del objeto objetivo (Z) y
dd) controlar el misil en el objeto objetivo (Z) utilizando la ubicación relativa del misil con respecto al objeto objetivo (Z) determinada en la etapa cc),
donde la alineación de la imagen del objeto objetivo (Z) y su territorio circundante con el modelo de referencia en la etapa bb) se lleva a cabo en las siguientes subetapas:
bb1) formar un modelo de línea tridimensional a partir del modelo de referencia tridimensional;
bb2) proyectar el modelo de línea en la imagen del objeto objetivo (Z) y su territorio circundante tomada por un dispositivo de captura de imágenes (20) basado en una hipótesis sobre la posición y la ubicación aproximadas; bb3) cotejar las líneas del modelo de línea tridimensional con los segmentos de línea extraídos de la imagen; y bb4) calcular una corrección de la hipótesis de posición y ubicación a partir del ajuste
donde la corrección determinada en la etapa bb4) se tiene en cuenta en la determinación de los datos de posición del objeto objetivo (Z) en la etapa cc).
ES11002853T 2010-04-24 2011-04-06 Procedimiento para determinar datos de posición de un objeto objetivo en un sistema de referencia Active ES2755024T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010018143A DE102010018143A1 (de) 2010-04-24 2010-04-24 Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem

Publications (1)

Publication Number Publication Date
ES2755024T3 true ES2755024T3 (es) 2020-04-21

Family

ID=44262648

Family Applications (1)

Application Number Title Priority Date Filing Date
ES11002853T Active ES2755024T3 (es) 2010-04-24 2011-04-06 Procedimiento para determinar datos de posición de un objeto objetivo en un sistema de referencia

Country Status (5)

Country Link
US (1) US9453708B2 (es)
EP (1) EP2381208B1 (es)
DE (1) DE102010018143A1 (es)
ES (1) ES2755024T3 (es)
IL (1) IL212320A0 (es)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013400684B2 (en) 2013-09-20 2018-05-17 Caterpillar Inc. Positioning system using radio frequency signals
JP2016540230A (ja) * 2013-09-20 2016-12-22 キャタピラー インコーポレイテッドCaterpillar Incorporated 測位システム
DE102014000436A1 (de) 2014-01-16 2015-07-16 Mbda Deutschland Gmbh Verfahren zur Bestimmung der Positionsdaten eines Zielobjekts in einem Referenzsystem und Verfahren zur Führung eines vorzugsweise als Flugkörper ausgebildeten Luftfahrzeugs
CN104833342B (zh) * 2015-03-09 2017-04-19 深圳市魔眼科技有限公司 一种多点测距建立立体模型的移动终端及方法
DE102016000810A1 (de) * 2016-01-26 2017-07-27 Diehl Defence Gmbh & Co. Kg Verfahren zum Bestimmen einer Position eines Objekts
CN110672071B (zh) * 2019-10-25 2021-05-04 武昌理工学院 一种探测弧面板逐层分布式探测方法
CN111288968B (zh) * 2020-03-26 2021-02-26 中国科学院长春光学精密机械与物理研究所 一种基于主动搜索策略的空间目标自动化测量系统
DE102022000723A1 (de) * 2022-03-01 2023-09-07 Diehl Defence Gmbh & Co. Kg Vorrichtung zur Zielübergabe

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH675638A5 (en) * 1987-09-11 1990-10-15 Contraves Ag Opto-electronic aircraft identification system - uses comparison of actual two=dimensional image of aircraft with projection of aircraft model
US5881969A (en) * 1996-12-17 1999-03-16 Raytheon Ti Systems, Inc. Lock-on-after launch missile guidance system using three dimensional scene reconstruction
US7397970B2 (en) * 2004-12-07 2008-07-08 Lockheed Martin Corporation Automatic scene correlation and identification
US20060210169A1 (en) * 2005-03-03 2006-09-21 General Dynamics Advanced Information Systems, Inc. Apparatus and method for simulated sensor imagery using fast geometric transformations
DE102007018187B4 (de) * 2007-04-18 2013-03-28 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
US8306273B1 (en) * 2009-12-28 2012-11-06 Ball Aerospace & Technologies Corp. Method and apparatus for LIDAR target identification and pose estimation

Also Published As

Publication number Publication date
DE102010018143A1 (de) 2011-10-27
US9453708B2 (en) 2016-09-27
EP2381208A1 (de) 2011-10-26
EP2381208B1 (de) 2019-09-11
US20110262008A1 (en) 2011-10-27
IL212320A0 (en) 2011-06-30

Similar Documents

Publication Publication Date Title
ES2755024T3 (es) Procedimiento para determinar datos de posición de un objeto objetivo en un sistema de referencia
US11226175B2 (en) Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices
US8868342B2 (en) Orientation device and method
US20070103671A1 (en) Passive-optical locator
US7599789B2 (en) Beacon-augmented pose estimation
USRE40800E1 (en) GPS Airborne target geolocating method
CN103175524B (zh) 一种无标识环境下基于视觉的飞行器位置与姿态确定方法
ES2440252T3 (es) Sistema para localización con precisión de un objetivo en tierra mediante una plataforma de vuelo y método de operación asociado
US7359038B1 (en) Passive determination of ground target location
ES2669544T3 (es) Dispositivo de puntería para arma de fuego, arma de fuego y procedimiento para alinear un arma de fuego
ES2662895T3 (es) Procedimiento para enfocar un haz de alta energía en un punto de referencia en la superficie de un objeto volador en vuelo
US11226176B2 (en) Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
US20120232717A1 (en) Remote coordinate identifier system and method for aircraft
ES2879614T3 (es) Procedimiento de geolocalización precisa de un sensor de imágenes a bordo de una aeronave
JP2008061224A (ja) 受動光ロケータ
KR20210133972A (ko) 타겟을 여러 다른 디바이스에서 동시에 추적할 수 있도록 네트워크로 연결된 스코프가 있는 차량 탑재 장치
CN110388939A (zh) 一种基于航拍图像匹配的车载惯导定位误差修正方法
US20130141540A1 (en) Target locating method and a target locating system
ES2806391T3 (es) Procedimiento para la determinación de los datos de posición de un objeto objetivo en un sistema de referencia y procedimiento para el guiado de una aeronave configurada preferentemente como misil
ES2856206T3 (es) Procedimiento de ayuda a la localización de un objetivo y dispositivo de observación para la aplicación de dicho procedimiento
JP2022028894A (ja) 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム
ES2830383T3 (es) Un sistema para la determinación de la posición de un objetivo observado
ES2310448B1 (es) Metodo y aparato de control de posicion angular relativa mediante girometro de estructura vibrante, con correccion de posicion absoluta mediante baliza de control, para sistemas de mantenimiento, entrenamiento y simulacion de plataformas lanzamisiles de corto alcance.
USRE39620E1 (en) GPS airborne target geolocating method
Krüger et al. Single-Layer Laser Scanner for Detection and Localization of Unmanned Swarm Members