ES2961614T3 - Sistema inteligente para el control de funciones en una torreta de un vehículo de combate - Google Patents

Sistema inteligente para el control de funciones en una torreta de un vehículo de combate Download PDF

Info

Publication number
ES2961614T3
ES2961614T3 ES19216845T ES19216845T ES2961614T3 ES 2961614 T3 ES2961614 T3 ES 2961614T3 ES 19216845 T ES19216845 T ES 19216845T ES 19216845 T ES19216845 T ES 19216845T ES 2961614 T3 ES2961614 T3 ES 2961614T3
Authority
ES
Spain
Prior art keywords
view
control system
operator
turret
helmet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19216845T
Other languages
English (en)
Inventor
Guillaume Verheylewegen
Bernard Clermont
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
John Cockerill Defense SA
Original Assignee
John Cockerill Defense SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by John Cockerill Defense SA filed Critical John Cockerill Defense SA
Application granted granted Critical
Publication of ES2961614T3 publication Critical patent/ES2961614T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/22Aiming or laying means for vehicle-borne armament, e.g. on aircraft
    • F41G3/225Helmet sighting systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G5/00Elevating or traversing control systems for guns
    • F41G5/14Elevating or traversing control systems for guns for vehicle-borne guns
    • F41G5/24Elevating or traversing control systems for guns for vehicle-borne guns for guns on tanks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Control Of Vehicle Engines Or Engines For Specific Uses (AREA)
  • Catching Or Destruction (AREA)
  • Lock And Its Accessories (AREA)
  • Motorcycle And Bicycle Frame (AREA)
  • Forklifts And Lifting Vehicles (AREA)
  • Output Control And Ontrol Of Special Type Engine (AREA)

Abstract

Un sistema de control (2) para funciones de torreta de un vehículo de combate terrestre (4), comprendiendo dicho sistema de control (2) una unidad de control (10) adaptada para calcular una vista aumentada (50) al menos en base a dichas imágenes y casco. (6) datos de posición y orientación, mostrándose dicha vista aumentada (50) al operador (8) a través de dicho casco (6); caracterizado porque: - dicha unidad de control (10) está adaptada para determinar parámetros de un objetivo seleccionado por el operador (8) al menos en base a datos oculares, dicha unidad de control (10) está configurada para calcular al menos un parámetro de disparo y dicha unidad de control (10) está adaptada para transmitir al menos un parámetro de disparo a un controlador de arma de torreta (40); - dicho sistema de control (2) comprende al menos un detector de solicitud de incendio (20) configurado para proporcionar una señal de solicitud de incendio por parte del operador (8). (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema inteligente para el control de funciones en una torreta de un vehículo de combate
Objeto de la invención
La presente invención se refiere al ámbito del armamento, especialmente a un sistema inteligente para controlar las funciones de la torreta de un vehículo terrestre de combate, y al vehículo terrestre de combate equipado con dicho sistema.
Antecedentes tecnológicos y estado de la técnica
Se sabe que una torreta de vehículo terrestre blindado, típicamente, comprende un sistema de mira o visor(Sight System)que pone a disposición del artillero o del comandante una visión diurna y nocturna (o térmica), así como un telémetro láser. En general, tanto el artillero como el comandante tienen cada uno a su disposición una estación individual provista de un mando de control(joystick), que permite pasar un comando de dirección en acimut y en elevación al visor y, por tanto, modificar la línea de mira, así como una pantalla de control. El visor del comandante es muy similar al del artillero, salvo que además proporciona una visión panorámica.
Los comandos de la torreta se transmiten, por tanto, manualmente gracias a un joystick, un manillar o, más generalmente, una palanca que presenta una pluralidad de botones asociados a un soporte visual en una pantalla de visualización que muestra el entorno exterior y los comandos de mira.
No obstante, este sistema conocido no siempre permite un acceso preciso a los diferentes botones de mando, en particular, cuando el vehículo está en marcha, lo que se generan vibraciones que tienen como consecuencia que los botones y las pantallas se muevan constantemente con respecto a los ojos y las manos de los operadores. De este modo, la visión de las pantallas tiembla y es aproximada y las manos deben permanecer pegadas a la palanca de control. Este problema no solo afecta a la selección de unos blancos sino también a la transmisión manual del comando de tiro.
Para resolver este problema, el documento WO 2016/072927 A1 propone un sistema de percepción de situación en un vehículo terrestre de combate que comprende una pluralidad de sensores de captura de imagen configurados para grabar secuencias de imágenes que muestran diferentes vistas parciales del entorno del vehículo terrestre de combate y una pluralidad de dispositivos clientes, tales como cascos que incorporan realidad virtual/aumentada que comprenden, especialmente, medios de visualización y un sensor de dirección, donde cada uno de los mismos está configurado para mostrar una vista del entorno del vehículo de combate, según el deseo del usuario, en un visor. Los sensores de captura de imagen están configurados para conectarse en red y enviar las secuencias de imagen a la red por medio de una técnica según la cual cada secuencia de imagen enviada por un sensor puede ser recibida por una pluralidad de receptores, como la multidifusión. Los dispositivos clientes también están configurados para conectarse a dicha red y recibir, a través de la misma, al menos una secuencia de imágenes grabada por al menos un sensor de captura de imágenes. Además, cada dispositivo cliente está configurado para generar, por sí mismo, la vista deseada, procesando imágenes a partir de la secuencia de imágenes y permitiendo la visualización de la vista deseada.
Especialmente, las vistas del entorno que se presentan para su visualización pueden ser seleccionadas por un operador en función de a la medida de la posición de la cabeza del usuario por medio del sensor de dirección, o incluso en función de los medios sistema de seguimiento ocular (eyetracking)incorporados en los cascos, gracias a los cuales este indica la vista deseada mirando en una dirección determinada. De este modo, al controlar la posición de la cabeza o de los ojos del operador, se pueden seleccionar diferentes imágenes que se visualizarán en el casco, imágenes delanteras, pero también traseras, hemisféricas o de 360°, en función de la cantidad y la distribución de los sensores en el exterior del vehículo.
El documento mencionado anteriormente enseña cómo resolver, en parte, el problema mencionado anteriormente, facilitando una selección manos libres de las vistas deseadas gracias al seguimiento ocular, aunque no dice nada especialmente en cuanto a la selección de los medios de comando de tiro en un vehículo terrestre de combate afectado por las vibraciones de la marcha.
Asimismo, se conoce un uso de la técnica de seguimiento ocular destinada a personas que padecen trastornos físicos o cognitivos que les permite controlar un ordenador sin usar teclado ni ratón. Existen tres modos de “ cliquear” por medio de un comando ocular: el parpadeo de ojo, que presenta la desventaja de perder momentáneamente el blanco de vista; la temporización o fijación de la mirada en una zona específica durante un lapso predeterminado; y el uso de un contactor que interviene después de haber validado el “ blanco” con la mirada.
Esta técnica fue desarrollada para controlar un ordenador. Dado el riesgo de error, es más susceptible de fijar un blanco por medio de un cañón o un lanzamisiles, y, por tanto, esta técnica no puede adaptarse, en su estado actual, a este objetivo.
La empresa ucraniana LimpidArmor desarrolló una interfaz de hardware y software basada en el sistema MS HoloLens que es un casco provisto de lentes transparentes y sensores integrados para una experiencia de realidad mixta (virtual y aumentada), que permite proyectar imágenes 3d en forma de hologramas de alta resolución y que permite que el usuario interactúe físicamente, mediante gestos, con los medios 3D (capa virtual superpuesta a la capa real). Ocho módulos de cámara de estabilización están ubicados en el exterior del vehículo para ofrecer una vista de 360° del entorno a la tripulación del carro en transmisión continua y en tiempo real. El sistema también muestra la telemetría de todos los subsistemas de combate, la situación de las tareas, los blancos, así como otros datos de realidad aumentada, basados especialmente en algoritmos de inteligencia artificial. El sistema no describe explícitamente el emparejamiento de este sistema con el control de las armas del vehículo y, por tanto, no dice nada respecto del problema de mejorar la fluidez de la visión y la precisión del comando de tiro en situación de marcha. Además, los parámetros asociados al seguimiento del movimiento de los brazos y las manos del operador pueden servir de datos de entrada en el sistema MS HoloLens. Teniendo en cuenta el nivel de vibraciones que se producen en un carro, el seguimiento del movimiento de los brazos y las manos parece inadecuado por su imprecisión.
El documento US 7.401.920 B1 divulga un sistema de seguimiento ocular que determina la línea de mira de un usuario en función de la posición relativa entre el centro de la pupila y un punto de referencia, comprendiendo el sistema un detector de imagen que capta una imagen del ojo, una fuente de luz de iluminación de pupila que ilumina la pupila del usuario, una fuente de luz de referencia que ilumina una parte diferente del rostro del usuario como punto de referencia y un procesador de imágenes que analiza la imagen del ojo captada para determinar la línea de mira.
El documento US 2009/0087029 A1 divulga una tecnología del sistema 4D-GIS que despliega un algoritmo basado en el GIS (por sus siglas en inglés de Sistema de Información Geográfica), utilizado para determinar la ubicación de un blanco en movimiento grabando la imagen de terreno obtenida a partir de un sensor de indicación de blanco móvil (MTI) o de una pequeña cámara de vehículo aéreo no tripulado (UAV, por sus siglas en inglés) con el mapa digital del GIS. Para predecir el movimiento, el estado del blanco se estima con ayuda de un filtro de Kalman extendido (EKF, por sus siglas en inglés). A fin de mejorar la predicción de la trayectoria del blanco en movimiento, se utiliza un algoritmo de razonamiento de lógica difusa para estimar el destino de un blanco en movimiento sintetizando datos a partir del GIS, estadísticas del blanco, tácticas y otras informaciones derivadas de la experiencia pasada, tales como la dirección de desplazamiento probable de blancos en correlación con la naturaleza del terreno y la presunta misión.
Objetivo de la invención
La invención tiene como objetivo paliar al menos uno de los inconvenientes del estado de la técnica mencionado anteriormente.
La invención procura reducir el trabajo cognitivo del operador y mejorar la interfaz máquina-operador.
La invención también tiene como finalidad permitir una ejecución de operaciones más rápida y menos perturbada por las condiciones externas.
Más particularmente, la invención tiene como objetivo permitir una visual “ legible” , cómoda y fluida de los comandos y del entorno exterior e interior en el vehículo blindado combinada con un uso optimizado del ojo del operador suministrando una reacción instantánea en beneficio de las secuencias propiamente dichas de fijación y activación de tiro.
Principales elementos característicos de la invención
La presente invención se refiere a un sistema de control de funciones en una torreta de vehículo blindado, utilizando un casco inteligente que permite una visión remota del entorno y de los accesos a los comandos de funcionamiento y de disparo.
Un primer aspecto de la invención tiene por objeto un sistema de control de funciones de torreta de vehículo terrestre de combate, comprendiendo dicho sistema de control:
- una pluralidad de sensores de captura de imagen configurados para grabar secuencias de imágenes que presentan una vista al menos parcial del entorno de 360° del vehículo terrestre de combate;
- al menos un casco de realidad virtual, aumentada o mixta, adaptado para que lo lleve puesto un operador, estando dicho casco configurado para presentar dicha vista al menos parcial del entorno del vehículo terrestre de combate en una visualización, incluyendo dicho casco un sensor de dirección adaptado para seguir la orientación de dicho casco que se imparte durante un movimiento de cabeza del operador, así como medios de seguimiento ocular adaptados para seguir monitorizarlos movimientos oculares de dicho operador;
- una unidad de control que comprende al menos una unidad de cálculo y está adaptada para recibir como entrada y procesar:
° imágenes suministradas por los sensores de captura de imagen;
° datos de posición y de orientación de casco suministrados por dicho sensor de dirección;
° datos de posición oculares suministrados por los medios de seguimiento ocular;
estando la unidad de control adaptada para calcular una vista aumentada al menos en función de dichas imágenes y de los datos de posición y de orientación del casco,
mostrándose dicha vista aumentada para el operador por medio de dicho casco;
estando, además, dicha unidad de control adaptada para determinar parámetros de un blanco seleccionado por el operador al menos en función de los datos oculares, estando dicha unidad de control configurada para calcular al menos un parámetro de tiro y adaptada para transmitir el al menos un parámetro de tiro a un controlador de armas de torreta;
incluyendo dicho sistema de control al menos un detector de petición de tiro configurado para que el operador suministre una señal de petición de tiro.
El sistema de control está caracterizado por que al menos un casco de realidad virtual comprende al menos un sensor adicional de captura de imágenes para grabar secuencias de imágenes del entorno dentro del vehículo terrestre de combate, estando dicho sistema de control adaptado para recibir datos asociados a dichas imágenes y mostrarlas en la vista aumentada a petición de un operador.
Según unos modos ventajosos de la invención, el sistema de control de funciones de torreta de vehículo terrestre de combate comprende una o varias de las siguientes características técnicas, según cualquier combinación posible: - dicho detector de petición de tiro comprende al menos un joystick o una palanca manos libres configurado(a) como sensor táctil;
- dicho detector de petición de tiro comprende al menos un módulo de reconocimiento vocal adaptado para suministrar la señal de petición de tiro;
- las coordenadas de un punto de mira de un operador en la o en cada vista aumentada se determinan en función de unos medios de seguimiento ocular y el sistema está configurado de tal manera que un objeto virtual asociado a dicho punto está incorporado en dicha vista y posicionado según dichas coordenadas;
- el sistema comprende medios de determinación de los parámetros de al menos un blanco potencial en función de imágenes suministradas por los sensores de captura de imágenes, estando el sistema de control configurado para hacer coincidir en la o en cada vista aumentada un objeto gráfico asociado al o a cada blanco potencial con las coordenadas del o de cada blanco potencial;
- el blanco seleccionado por un operador se identifica o valida cuando el objeto gráfico asociado respectivamente a un blanco potencial coincide con el objeto virtual asociado al punto de mira del operador, determinándose los parámetros del blanco seleccionado en función de los parámetros del blanco potencial identificado; - los parámetros del blanco seleccionado se determinan en función de las coordenadas del punto de mira del operador, por temporización, es decir, cuando el punto de mira de dicho operador se queda inmóvil durante un lapso predeterminado;
- la o cada vista aumentada se calcula en función de un procesamiento tal como una fusión de imágenes suministradas por los sensores de captura de imágenes y/o por el sensor adicional de captura de imágenes, y de al menos un parámetro de control de la configuración de dicha vista aumentada, incluyendo, preferiblemente, el al menos un parámetro coordenadas del centro de dicha vista y/o del ancho del campo de dicha vista;
- la o cada vista aumentada es una vista seleccionada al menos de una lista de vistas constituida por una vista panorámica exterior del entorno del vehículo terrestre de combate diurno o infrarrojo, de una porción de dicha vista panorámica, de una región correspondiente a un zoom o ampliación de la porción de dicha vista panorámica, de una vista parcial del entorno dentro del vehículo terrestre de combate y de cualquier combinación de estas últimas; - la o cada vista aumentada se selecciona de la lista de vistas en función de al menos un parámetro de control de la configuración de la vista aumentada, incluyendo, preferiblemente, dicha vista un objeto virtual de selección de dicho parámetro, preferiblemente, un menú integrado en la vista aumentada;
- el al menos un parámetro de control de la configuración de la vista aumentada se determina en función de las coordenadas de un punto du mira de un operador en la vista aumentada;
- el parámetro de tiro comprende al menos uno de los siguientes elementos:
° un dato que corresponde al acimut y un dato que corresponde a la elevación de dicho cañón de la torreta;
° datos que corresponden a las coordenadas GPS del blanco seleccionado;
- los sensores de captura de imagen tienen al menos una cámara con una visibilidad 360° y/o al menos una cámara optrónica rotativa y/o pivotante, de alta definición con zoom;
- la vista al menos parcial del entorno del vehículo terrestre de combate corresponde a la vista despejada que tendría un operador sin el obstáculo de al menos una porción de pared de la carrocería y/o de la torreta a partir de una posición vinculada a la carrocería o a la torreta del vehículo terrestre de combate, estando, preferiblemente, dicha posición dentro de la carrocería.a
Otro aspecto de la invención se refiere a un vehículo terrestre de combate que incluye:
- un sistema según la invención, como se ha descrito anteriormente;
- una carrocería automóvil blindada y una torreta motorizada que pueden tanto la una como la otra soportar los sensores de captura de imagen;
- un cañón y/o un lanzamisiles dispuesto en dicha torreta;
- un controlador de armas de torreta dispuesto en el vehículo terrestre de combate configurado para recibir el al menos un parámetro de tiro a dicho sistema.
Las medidas de la invención resultan ventajosas porque permiten mejorar la interfaz máquina-operador. También permiten operaciones más rápidas. La utilización de un casco de realidad virtual o aumentada o mixta se puede adaptar para permitir, además, una mayor protección de los ojos, el sistema auditivo y el rostro del operador, disminuyendo así el riesgo de heridas graves, lo que puede aumentar su implicación. La utilización de un casco de realidad virtual o aumentada o mixta también permite una mejor gestión de la superposición de las vistas internas y externas.
De manera general, los modos ventajosos de cada objeto de la invención también se aplican a otros objetos de la invención. En la medida de lo posible, cada objeto de la invención se puede combinar con otros objetos. Los objetos de la invención también pueden combinarse con los modos de realización de la descripción que, además, pueden combinarse entre sí.
Breve descripción de las figuras
Otras características y ventajas de la presente invención se comprenderán mejor con la ayuda de los dibujos y de la siguiente descripción.
La figura 1 representa esquemáticamente el sistema según la invención combinado con un controlador de armas de torreta.
La figura 2 ilustra ejemplos de medios de captura de imágenes según la invención.
La figura 3 muestra un ejemplo esquemático de vista aumentada según la invención.
Descripción detallada de la invención
La figura 1 representa una vista esquemática del sistema 2 de control de las funciones de torreta del vehículo terrestre 4 de combate según la invención. El sistema 2 de control incluye un casco 6 de realidad virtual, aumentada o mixta adaptado para que lo lleve puesto un operador 8, tal como un artillero o un comandante, y una unidad 10 de control. El casco 6 puede comprender una pantalla de visualización o una lente transparente (no representada) o una guía de ondas (no representada) distinta para cada ojo. En general, la distancia interpupilar puede regularse manualmente con la ayuda de una palanca, al igual que la distancia entre los ojos y las ópticas.
El casco 6 de realidad virtual está configurado para presentar una vista al menos parcial del entorno externo del vehículo terrestre 4 de combate, en una visualización estéreo. De este modo, el casco 6 incluye, además, una unidad 12 de sensor de movimiento o de dirección, provista de uno o varios sensores de tipo giróscopo, acelerómetro o sensor de posición láser, adaptada para seguir, por medio de sensores, cómo el operador 8 orienta el casco 6 mediante el movimiento de su cabeza. Asimismo, el casco 6 de realidad virtual comprende medios 14 de seguimiento ocular adaptados para seguir los movimientos oculares del operador 8. Por último, el casco 6 también comprende al menos un sensor adicional de captación de imágenes, especialmente una o dos cámaras integradas en la cara delantera del casco 6, que permite que el operador 8 visualice o controle el entorno dentro del carro de combate sin quitarse el casco 6.
En general, la unidad 10 de control comprende medios informáticos materiales y desoftware(para la implementación de algoritmos matemáticos, de procesamiento de imagen o de aprendizaje automático), en particular una unidad 16 de cálculo tal como un controlador o un ordenador portátil(laptop)como se ha representado en la figura 1, que comprende una unidad central de cálculo específico y una memoria de almacenamiento tal como un disco duro y/o un servidor sobre el terreno o a distancia. La unidad 10 de control recibe datos de entrada que provienen de diferentes sensores tales como:
- el detector 20 de petición de tiro, especialmente un sensor táctil montado sobre una palanca 22 manos libres y/o un módulo 24 de reconocimiento vocal configurado para grabar una orden de tiro por medio de la palabra;
- la pluralidad de sensores 30 de imágenes, por ejemplo, una cámara 32 con una visibilidad 360°, una cámara 34optrónica rotativa y/o giratoria de alta definición con zoom 34, etc.;
- los medios/sensores 14 de seguimiento ocular, que comprenden uno o varios diodos infrarrojos cercanos y cámaras de alta resolución y algoritmos;
- la unidad 12 de sensor de dirección del casco 6 de realidad virtual, que comprende un acelerómetro, un giróscopo y/o un sensor de posición láser.
Estos datos son entonces procesados por la unidad 10 de control que proporciona como salida los parámetros de un blanco seleccionado tales como los datos de mira que corresponden al acimut y la elevación que se comunicarán al cañón de la torreta para el blanco seleccionado. La utilización de una palanca 22 manos libres (es decir, sin conexión mecánica) o un módulo 24 de reconocimiento vocal, presenta la ventaja de que el operador no está obligado a mantener una mano en contacto con el puesto de control cuando el vehículo terrestre de combate está sometido a las vibraciones de la marcha.
La palanca 22 manos libres (o sin cable) puede comprender al menos un giróscopo, un acelerómetro y/o un sensor de posición láser.
Se entiende por sensor táctil cualquier medio capaz de suministrar una señal (eléctrica) en respuesta a una intervención del operador 8 en forma de una presión de la mano o del dedo, preferiblemente, una interfaz hombre/máquina a través de un comando del o de los dedos del operador 8. Este sensor puede ser, a modo de ejemplo, un botón, un sensor capacitivo o una pantalla táctil.
El sistema 2 según la invención presenta la ventaja de ser modular. En efecto, la unidad 10 de control puede adaptarse a diferentes tipos de vehículos terrestres de combate. Para tal fin, la unidad 10 de control se puede parametrizar con los datos del vehículo. Este enfoque favorece la racionalización de los costes y facilita el mantenimiento.
El controlador 40 de armas de torreta puede controlar un cañón y/o un lanzamisiles montado en la torreta. Los accionadores del controlador 40 de armas no se limitan a comandos eléctricos, como se ha ilustrado a modo de ejemplo en la figura 1, sino que pueden comprender accionadores hidráulicos. Además, un controlador 40 de armas de torreta típicamente comanda no solo los medios de orientación de tiro de la torreta sino también la carga del cañón (no representado).
Los parámetros de un blanco seleccionado también pueden ser las coordenadas GPS, ya sea como complemento de las coordenadas de acimut y de elevación, o como alternativa.
Los sensores 30 de captura de imagen incluyen al menos una cámara 32 con una visibilidad 360° y/o al menos una cámara 34 optrónica rotativa y/o pivotante de alta definición con zoom. Preferiblemente, los sensores 30 de captura de imagen están dispuestos en la torreta del vehículo terrestre 4 de combate. Los modos de realización no se limitan a una sola cámara 32360° y/o a una sola cámara 34 rotativa y/o pivotante de alta definición con zoom, sino que, por supuesto, pueden comprender varias cámaras 32360° y/o varias cámaras 34 rotativas y/o pivotantes de alta definición con zoom, para cubrir todo el entorno 360° con suficiente resolución. La desmultiplicación de los medios de captura de imágenes también permite un mejor seguimiento de los blancos por parte del o de los operadores 8. En una configuración particular, se puede prever una cámara 34 rotativa y/o pivotante de alta definición con zoom para cada operador 8, lo que permitiría seleccionar blancos de manera independiente.
La figura 2 presenta un modo de realización particular de la invención en donde el vehículo terrestre 4 de combate comprende una cámara 32360° y una cámara 34 rotativa y/o pivotante de alta definición con zoom. Según una forma de ejecución, la rotación y el giro de la cámara de alta definición pueden estar ventajosamente servocontroladas por el sensor de dirección 12 del casco 6.
La figura 3 ilustra un ejemplo de vista aumentada 50 del entorno exterior del vehículo terrestre 4 de combate que un operador 8 percibe en el casco 6. El operador 8 también puede elegir la vista 50 que se proyectará de entre varias vistas como, por ejemplo, una vista panorámica exterior del entorno del vehículo terrestre de combate diurna o infrarroja (nocturna), una porción de dicha vista panorámica, un zoom de la porción de dicha vista panorámica, una vista parcial del entorno dentro del vehículo terrestre 4 de combate, o cualquier combinación de estas últimas.
Preferiblemente, una vista aumentada 50, estereoscópica o no, se muestra en el casco 6. Esta vista aumentada 50 puede comprender varias capas, como por ejemplo la vista real u óptica (F1), una vista optrónica con espectro invisible, por ejemplo, IR con procesamiento de imagen (F2), una vista de datos aumentados (F3) y una vista gráfica de los parámetros de control de torreta (F4). De manera general, el casco 6 presenta una vista calculada para cada ojo del operador 8. Esta vista 50 también puede comprender uno o varios objetos virtuales 52 asociados al punto 54 de mira de al menos uno de los operadores 8, así como uno o varios objetos gráficos 56 asociados al o a cada blanco potencial 58. Además, pueden incorporarse uno o varios menús 60 a la o a cada vista aumentada 50. Gracias a los menús 60, el operador puede, a demanda, visualizar diferentes modos relativos a las vistas exteriores, los comandos de torreta, la selección de blancos, los comandos de tiro. Estos modos “ pueden apilarse” sobre la visión.
Los blancos potenciales 58 se pueden determinar o seleccionar mediante un procesamiento informático en función del análisis de las imágenes según algoritmos de reconocimiento de objetos. La determinación de estos blancos potenciales 58 puede realizarla la unidad 10 de control según la invención a partir de una base de datos que comprende los parámetros de una serie de blancos usuales, por ejemplo, formas modelizadas o estilizadas de vehículos de combate enemigos, en particular, mediante aprendizaje automático(machine learning).Esta base de datos se puede descargar, lo que permite adaptar los medios de inteligencia artificial al terreno. La unidad 10 de control también puede interactuar y obtener datos que provengan de otros medios de información externos o remotos, tales como drones, aviones o satélites.
Si el operador 8 detecta un blanco potencial 58 que aún no ha sido identificado por los medios de reconocimiento de objetos, tiene la posibilidad de fijarlo, por ejemplo, cuando su punto de mira se estabiliza sobre este último y se realiza una petición de fijación predeterminada.
En una configuración con dos operadores 8, un blanco potencial 58 puede ser identificado por uno de los operadores 8 y el otro operador 8 puede realizar la petición de tiro.
El vehículo terrestre 4 de combate es, por ejemplo, un carro o un vehículo blindado de combate de infantería todo terreno, con ruedas.
Ventajosamente, el casco 8 puede comprender medios de refuerzo sobre la cara anterior y/o las caras laterales como una o más placas (de kevlar o equivalente) para proteger los ojos y/o el sistema auditivo del operador, según las normas militares vigentes. Este aspecto de robustez y seguridad no se ha abordado en absoluto en los cascos de realidad virtual que hay actualmente en el mercado, que están principalmente destinados a aplicaciones de juego y, de este modo, constituye otro aspecto innovador de la presente invención.
Lista de referencias:
2 sistema de control de funciones de torreta
4 vehículo terrestre de combate
6 casco de realidad virtual
8 operador
10 unidad de control
12 sensor de dirección
14 medios de seguimiento ocular
16 unidad de cálculo
20 detector de petición de tiro
22 palanca manos libres
24 módulo de reconocimiento vocal
30 sensor de captura de imagen
32 cámara con visibilidad 360°
34 cámara optrónica rotativa y/o pivotante, de alta definición, con zoom 40 controlador de armas de torreta
50 vista aumentada
objeto(s) virtual(es)
54 punto de mira
objeto(s) gráfico(s)
58 blanco(s) potencial(es)
60 menú

Claims (15)

  1. REIVINDICACIONES
    i.Un sistema (2) de control de funciones de torreta de vehículo terrestre (4) de combate, comprendiendo dicho sistema (2) de control:
    -una pluralidad de sensores (30) de captura de imagen configurados para grabar secuencias de imágenes que presenten una vista al menos parcial del entorno 360° del vehículo terrestre (4) de combate;
    -al menos un casco (6) de realidad virtual, aumentada o mixta, adaptado para que lo lleve puesto un operador (8), estando dicho casco (6) configurado para presentar dicha vista al menos parcial del entorno del vehículo terrestre (4) de combate en una visualización, incluyendo dicho casco (6) un sensor (12) de dirección adaptado para seguir la orientación de dicho casco (6) impartida durante un movimiento de cabeza del operador (8), así como medios (14) de seguimiento ocular adaptados para seguir los movimientos oculares de dicho operador (8);
    -una unidad de control (10) que comprende al menos una unidad de cálculo (16) y está adaptada para recibir como entrada y procesar:
    “imágenes suministradas por los sensores (30) de captura de imagen;
    “datos de posición y de orientación del casco (6) suministrados por dicho sensor de dirección (12);
    “datos de posición oculares suministrados por los medios de seguimiento ocular (14);
    estando la unidad de control (10) adaptada para calcular una vista aumentada (50) al menos en función de dichas imágenes y de los datos de posición y de orientación del casco (6), mostrándose dicha vista aumentada (50) para el operador (8) por medio de dicho casco (6);
    estando, además, dicha unidad de control (10) adaptada para determinar parámetros de un blanco seleccionado por el operador (8) al menos en función de los datos oculares, estando dicha unidad de control (10) configurada para calcular al menos un parámetro de tiro y estando dicha unidad de control (10) adaptada para transmitir el al menos un parámetro de tiro a un controlador (40) de armas de torreta;
    incluyendo dicho sistema (2) de control al menos un detector (20) de petición de tiro configurado para para que el operador (8) suministre una señal de petición de tiro;caracterizado por queel al menos un casco (6) de realidad virtual comprende al menos un sensor adicional de captura de imágenes para grabar secuencias de imágenes del entorno dentro del vehículo terrestre (4) de combate, estando dicho sistema (2) de control adaptado para recibir los datos asociados a dichas imágenes y mostrarlas en la vista aumentada (50) a petición de un operador (8).
  2. 2. El sistema (2) de control según la reivindicación 1,caracterizado por quedicho detector (20) de petición de tiro comprende al menos unjoysticko una palanca manos libres configurado(a) como sensor táctil.
  3. 3. El sistema (2) de control según la reivindicación 1 o 2,caracterizado por quedicho detector (20) de petición de tiro comprende al menos un módulo (24) de reconocimiento vocal adaptado para suministrar la señal de petición de tiro.
  4. 4. El sistema (2) de control según una cualquiera de las reivindicaciones anteriores,caracterizado por quelas coordenadas de un punto de mira de un operador (8) en la o en cada vista aumentada (50) se determinan en función de unos medios de seguimiento ocular (14) ypor queel sistema (2) de control está configurado de tal manera que un objeto virtual (52) asociado a dicho punto está integrado en dicha vista (50) y posicionado según dichas coordenadas.
  5. 5. El sistema (2) de control según una cualquiera de las reivindicaciones anteriores, que comprende medios de determinación de los parámetros de al menos un blanco potencial (58) en función de las imágenes suministradas por los sensores (30) de captura de imágenes, estando el sistema (2) de control configurado para hacer coincidir en la o en cada vista aumentada (50) un objeto gráfico (56) asociado al o a cada blanco potencial (58) con las coordenadas del o de cada blanco potencial (58).
  6. 6. El sistema (2) de control según la reivindicación 5,caracterizado por queel blanco seleccionado por un operador (8) se identifica o valida cuando el objeto gráfico (56) asociado respectivamente a un blanco potencial (58) coincide con el objeto virtual (52) asociado al punto (54) de mira del operador (8), determinándose los parámetros del blanco seleccionado en función de los parámetros del blanco potencial (58) identificado.
  7. 7. El sistema (2) de control según la reivindicación 6,caracterizado por quelos parámetros del blanco seleccionado se determinan en función de las coordenadas del punto de mira del operador (8), mediante temporización, es decir, cuando el punto de mira de dicho operador (8) se queda inmóvil durante un lapso determinado.
  8. 8. El sistema (2) de control según una cualquiera de las reivindicaciones anteriores,caracterizado por quela o cada vista aumentada (50) se calcula en función de un procesamiento tal como una fusión de imágenes suministradas por los sensores (30) de captura de imágenes y/o por el sensor adicional de captura de imágenes, y de al menos un parámetro de control de la configuración de dicha vista aumentada (50), incluyendo, preferiblemente, el al menos un parámetro coordenadas del centro de dicha vista y/o del ancho del campo de dicha vista.
  9. 9. El sistema (2) de control según una cualquiera de las reivindicaciones anteriores,caracterizado por quela o cada vista aumentada (50) es una vista seleccionada al menos de una lista de vistas constituida por una vista panorámica exterior del entorno del vehículo terrestre (4) de combate diurna o infrarroja, por una porción de dicha vista panorámica, por una región correspondiente a un zoom o ampliación de la porción de dicha vista panorámica, por una vista parcial del entorno dentro del vehículo terrestre (4) de combate y por cualquier combinación de estas últimas.
  10. 10. El sistema (2) de control según la reivindicación 9,caracterizado por quela o cada vista aumentada (50) se selecciona de la lista de vistas en función de al menos un parámetro de control de la configuración de la vista aumentada (50), incluyendo, preferiblemente, dicha vista (50) un objeto virtual (52) de selección de dicho parámetro, preferiblemente, un menú (60) incorporado en la vista aumentada (50).
  11. 11. El sistema (2) de control según la reivindicación 10 en combinación con la reivindicación 6,caracterizado por queel al menos un parámetro de control de la configuración de la vista aumentada (50) se determina en función de coordenadas del punto de mira de un operador (8) en la vista aumentada (50).
  12. 12. El sistema (2) de control según una cualquiera de las reivindicaciones anteriores,caracterizado por queel parámetro de tiro comprende al menos uno de los siguientes elementos:
    -un dato que corresponde al acimut y un dato que corresponde a la elevación de dicho cañón de la torreta;
    -datos que corresponden a las coordenadas GPS del blanco seleccionado.
  13. 13. El sistema (2) de control según una cualquiera de las reivindicaciones anteriores,caracterizado por quelos sensores (30) de captura de imagen incluyen al menos una cámara (32) con una visibilidad de 360° y/o al menos una cámara (34) optrónica rotativa y/o pivotante, de alta definición, con zoom.
  14. 14. El sistema (2) de control según una cualquiera de las reivindicaciones anteriores,caracterizado por quela vista al menos parcial del entorno del vehículo terrestre (4) de combate corresponde a la vista despejada que tendría un operador (8) sin el obstáculo de al menos una porción de pared de la carrocería y/o de la torreta del vehículo (4) a partir de una posición vinculada a la carrocería o a la torreta, estando, preferiblemente, dicha posición dentro de la carrocería.
  15. 15. Un vehículo terrestre (4) de combate que incluye:
    -un sistema (2) de control según una cualquiera de las reivindicaciones 1 a 14;
    -una carrocería automóvil blindada y una torreta motorizada que pueden tanto la una como la otra soportar los sensores (30) de captura de imagen;
    -un cañón y/o un lanzamisiles dispuesto(s) en dicha torreta;
    -un controlador (40) de armas de torreta dispuesto en el vehículo terrestre (4) de combate configurado para recibir el al menos un parámetro de tiro desde dicho sistema (2) de control.
ES19216845T 2019-12-17 2019-12-17 Sistema inteligente para el control de funciones en una torreta de un vehículo de combate Active ES2961614T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP19216845.8A EP3839411B1 (fr) 2019-12-17 2019-12-17 Système intelligent pour le contrôle de fonctions dans une tourelle de véhicule de combat

Publications (1)

Publication Number Publication Date
ES2961614T3 true ES2961614T3 (es) 2024-03-12

Family

ID=69061048

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19216845T Active ES2961614T3 (es) 2019-12-17 2019-12-17 Sistema inteligente para el control de funciones en una torreta de un vehículo de combate

Country Status (11)

Country Link
US (1) US12000675B2 (es)
EP (1) EP3839411B1 (es)
KR (1) KR20220123516A (es)
CN (1) CN114930112B (es)
AU (1) AU2020406404A1 (es)
BR (1) BR112022011574A2 (es)
CA (1) CA3163906A1 (es)
ES (1) ES2961614T3 (es)
IL (1) IL294006A (es)
PL (1) PL3839411T3 (es)
WO (1) WO2021121909A1 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11767320B2 (en) 2020-10-02 2023-09-26 Incyte Corporation Bicyclic dione compounds as inhibitors of KRAS
FR3124608A1 (fr) * 2021-06-28 2022-12-30 Safran Electronics & Defense Dispositif d'observation a voies optronique et optique independantes et vehicule equipe d'un tel dispositif

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1520154A (en) * 1976-02-24 1978-08-02 Elliott Brothers London Ltd Apparatus for measuring the angular displacement of a bod
US4146196A (en) * 1976-07-20 1979-03-27 The United States Of America As Represented By The Secretary Of The Air Force Simplified high accuracy guidance system
US4091273A (en) * 1976-12-17 1978-05-23 United Technologies Corporation Electro-optical switching system
US4884137A (en) * 1986-07-10 1989-11-28 Varo, Inc. Head mounted video display and remote camera system
US5838262A (en) * 1996-12-19 1998-11-17 Sikorsky Aircraft Corporation Aircraft virtual image display system and method for providing a real-time perspective threat coverage display
US7180476B1 (en) * 1999-06-30 2007-02-20 The Boeing Company Exterior aircraft vision system using a helmet-mounted display
IL138831A (en) * 2000-10-03 2007-07-24 Rafael Advanced Defense Sys An information system is operated by Mabat
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
NO327577B1 (no) * 2007-07-31 2009-08-24 Kongsberg Defence & Aerospace Naerobservasjonssensor med folgestyring og malbestemmelse for vapenstasjon
US8229163B2 (en) * 2007-08-22 2012-07-24 American Gnc Corporation 4D GIS based virtual reality for moving target prediction
WO2009089342A1 (en) * 2008-01-08 2009-07-16 Lockheed Martin Corporation Method and apparatus for displaying
US9217866B2 (en) * 2008-07-14 2015-12-22 Science Applications International Corporation Computer control with heads-up display
US8678282B1 (en) * 2010-11-29 2014-03-25 Lockheed Martin Corporation Aim assist head-mounted display apparatus
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
EP2893388B1 (en) * 2012-09-03 2016-08-03 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Head mounted system and method to compute and render a stream of digital images using a head mounted system
EP2709060B1 (en) * 2012-09-17 2020-02-26 Apple Inc. Method and an apparatus for determining a gaze point on a three-dimensional object
SE537279C2 (sv) * 2013-07-12 2015-03-24 BAE Systems Hägglunds AB System och förfarande för behandling av taktisk informationhos stridsfordon
CN103958004B (zh) * 2013-07-16 2016-01-13 北京机械设备研究所 适用于高层和超高层建筑火灾扑救的消防车
SE538494C2 (sv) 2014-11-07 2016-08-02 BAE Systems Hägglunds AB Omvärldsuppfattningssystem och förfarande för omvärldsuppfattning i stridsfordon
US20170115742A1 (en) * 2015-08-01 2017-04-27 Zhou Tian Xing Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
KR102196975B1 (ko) * 2015-08-15 2020-12-30 구글 엘엘씨 실제 객체 및 가상 객체와 상호작용하기 위한 생체기계적 기반의 안구 신호를 위한 시스템 및 방법
US10186086B2 (en) * 2015-09-02 2019-01-22 Microsoft Technology Licensing, Llc Augmented reality control of computing device
BE1023736B1 (fr) * 2015-12-30 2017-07-05 Cockerill Maintenance & Ingenierie S.A. Procédé et dispositif de simulation de tourelle
JP6806097B2 (ja) * 2016-02-08 2021-01-06 株式会社リコー 画像表示装置及び画像表示方法
WO2017181429A1 (en) * 2016-04-22 2017-10-26 SZ DJI Technology Co., Ltd. Systems and methods for processing image data based on region-of-interest (roi) of a user
BE1023708B1 (fr) * 2016-05-31 2017-06-22 Cockerill Maintenance & Ingenierie Sa Dispositif et méthode de simbleautage
CN106730523A (zh) * 2016-12-14 2017-05-31 长沙中联消防机械有限公司 消防水炮运动控制系统及消防车
EP3343499A1 (en) * 2016-12-27 2018-07-04 Atos IT Solutions and Services Iberia, S.L. Security process and security tower controlling coming vehicles at checkpoint
WO2018127782A1 (en) * 2017-01-03 2018-07-12 Xing Zhou Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US10642038B1 (en) * 2017-01-30 2020-05-05 Rockwell Collins, Inc. Waveguide based fused vision system for a helmet mounted or head worn application
US10409363B1 (en) * 2017-03-07 2019-09-10 vGolf, LLC Mixed-reality golf tracking and simulation
JP2018160735A (ja) * 2017-03-22 2018-10-11 セイコーエプソン株式会社 透過型表示装置、表示制御方法、およびコンピュータープログラム
CN206741109U (zh) * 2017-05-05 2017-12-12 西安枭龙科技有限公司 一种光学显示模组图像生成单元旋转调整系统
US11200735B2 (en) * 2017-09-11 2021-12-14 Bae Systems Plc Apparatus and method for defining and interacting with regions of an operational area
FR3074307B1 (fr) * 2017-11-30 2019-12-20 Safran Electronics & Defense Dispositif de vision pour pilote d aeronef
US10557683B1 (en) * 2018-02-08 2020-02-11 Joseph Staffetti Controllable firing pattern firearm system
SE545226C2 (en) * 2020-02-17 2023-05-30 Bae Systems Haegglunds Ab A military vehicle comprising an aiming device and an aiming operation arrangement for a vehicle operator to operate the aiming device

Also Published As

Publication number Publication date
KR20220123516A (ko) 2022-09-07
CN114930112A (zh) 2022-08-19
US20230045581A1 (en) 2023-02-09
IL294006A (en) 2022-08-01
EP3839411A1 (fr) 2021-06-23
WO2021121909A1 (fr) 2021-06-24
CN114930112B (zh) 2024-05-28
AU2020406404A1 (en) 2022-06-30
CA3163906A1 (en) 2021-06-24
US12000675B2 (en) 2024-06-04
BR112022011574A2 (pt) 2022-08-30
PL3839411T3 (pl) 2023-12-27
EP3839411B1 (fr) 2023-08-23
EP3839411C0 (fr) 2023-08-23

Similar Documents

Publication Publication Date Title
US8678282B1 (en) Aim assist head-mounted display apparatus
US11994364B2 (en) Display system for a viewing optic
US20210257084A1 (en) Ar/xr headset for military medical telemedicine and target acquisition
US10510137B1 (en) Head mounted display (HMD) apparatus with a synthetic targeting system and method of use
JP2008504597A (ja) 周辺界の画像を表示するための装置及び方法
US8063849B2 (en) Method of navigating in a surrounding world captured by one or more image sensors and a device for carrying out the method
US20100196859A1 (en) Combat Information System
US20060181483A1 (en) System and method for improving nighttime visual awareness of a pilot flying an aircraft carrying at least one air-to-air missile
ES2961614T3 (es) Sistema inteligente para el control de funciones en una torreta de un vehículo de combate
JP2021534368A (ja) ダイレクト拡張ビュー光学
US20230097676A1 (en) Tactical advanced robotic engagement system
EP3417338A1 (en) Modular add-on augmented reality head-up display, interfaces and controls
KR101662032B1 (ko) 조종사의 시선 방향과 동기화 된 uav 항공 영상 촬영 시스템
KR20170096682A (ko) 항공기용 통합 헬멧 시현 장치
US20190272649A1 (en) Method for assisting the location of a target and observeration device enabling the implementation of this method
CN102735105B (zh) 实现两乘员移动战斗平台运转的火炮观瞄方法
US11922586B1 (en) Firearm sight improvements using OLED or LCoS arrays
KR102495641B1 (ko) 증강현실 hmd를 이용한 전차용 전방위 외부 관측 시스템
WO2023170697A1 (en) System and method for engaging targets under all weather conditions using head mounted device
WO2011075061A1 (en) Device for measuring distance to real and virtual objects
WO2022243603A1 (en) Target acquisition system for an unmanned air vehicle
KR20230119304A (ko) 착용형 증강현실 장치를 이용한 불-가시 영역에 대한 조준 시스템 및 방법
JP2021091276A (ja) 移動体用操縦支援方法及び移動体用操縦支援システム
GB2530612A (en) Aiming and control device, and method for assisting a gunner of a weapon system
Redden et al. Night Vision Goggle Design: Overcoming the Obstacle of Darkness on the Ground