ES2411307T3 - Entorno de formación conducido por instructor e interfaces con el mismo - Google Patents

Entorno de formación conducido por instructor e interfaces con el mismo Download PDF

Info

Publication number
ES2411307T3
ES2411307T3 ES05858497T ES05858497T ES2411307T3 ES 2411307 T3 ES2411307 T3 ES 2411307T3 ES 05858497 T ES05858497 T ES 05858497T ES 05858497 T ES05858497 T ES 05858497T ES 2411307 T3 ES2411307 T3 ES 2411307T3
Authority
ES
Spain
Prior art keywords
simulated
weapon
instructor
training
training environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05858497T
Other languages
English (en)
Inventor
David A Slayton
Dale E. Newcomb, Jr
Eric A Preisz
Carl Douglas Walker
Charles W. Lutz, Jr.
Robert J. Kobes
Christopher M Ledwith
Delbert Cope
Robert E. Young
Syrus Mesdaghi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dynamic Animation Systems Inc
Original Assignee
Dynamic Animation Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dynamic Animation Systems Inc filed Critical Dynamic Animation Systems Inc
Application granted granted Critical
Publication of ES2411307T3 publication Critical patent/ES2411307T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • A63F13/245Constructional details thereof, e.g. game controllers with detachable joystick handles specially adapted to a particular type of game, e.g. steering wheels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • F41A33/02Light- or radiation-emitting guns ; Light- or radiation-sensitive guns; Cartridges carrying light emitting sources, e.g. laser
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • F41G3/2616Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
    • F41G3/2622Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile
    • F41G3/2627Cooperating with a motion picture projector
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • F41G3/2616Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
    • F41G3/2622Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile
    • F41G3/2655Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile in which the light beam is sent from the weapon to the target
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/003Simulators for teaching or training purposes for military purposes and tactics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • A63F2300/1031Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection using a wireless connection, e.g. Bluetooth, infrared connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1043Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1062Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to a type of game, e.g. steering wheel
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)
  • Position Input By Displaying (AREA)

Abstract

Un sistema de simulación de formación conducido por instructor para equipos de formación, que comprende: un entorno de formación de simulada generado por ordenador que comprende un entorno virtual colaborativo multisensorial en donde los movimientos y las interacciones simulados de cada uno de entre uno o más miembros de un equipo son representados dentro del entorno de formación simulada; por lo menos una estación (300, 310) de alumno, que comprende: una zona de disparo para alojar a un miembro del equipo, la zona de disparo comprende un primer extremo, un segundo extremo, y por lo menos un display (200) dispuesto substancialmente cerca del segundo extremo para exponer el entorno de formación simulada, por lo menos un arma (100), el arma es sustancialmente similar a un arma de infantería, y por lo menos un controlador (115, 120), el por lo menos un controlador está montado en la por lo menos un arma, para simular el movimiento dentro e interaccionar con el entorno de formación simulada; por lo menos un ordenador para generar el entorno de formación simulada, y por lo menos un ordenador acoplado de manera comunicativa al por lo menos un display acoplado de manera comunicativa al por lo menos un controlador, y por lo menos un ordenador que supervisa aportes desde el por lo menos un controlador y que modifica el entorno de formación simulada expuesto en el display sobre la base de los aportes; una pluralidad de canales de comunicación para permitir la comunicación entre el instructor y el uno o más miembros del equipo; una estación (320) de instructor para alojar al instructor, que sirve como un anfitrión de red y servidor de entorno de formación simulada para el por lo menos un ordenador y la por lo menos una estación (300, 310) de alumno, y que sirve como una estación de control de entorno de formación simulada, la estación de instructor recibe y trasmite aportes desde la por lo menos una estación de alumno y permite al instructor controlar, modificar y registrar la ejecución del entorno de formación simulada, para controlar y registrar los canales de comunicación y crear escenarios personalizados de simulación para el entorno de formación simulada; y un editor de escenarios para editar el entorno de formación colaborativo multisensorial durante la simulación de formación, en donde el editor de escenarios permite al instructor tomar el control de una entidad representada dentro del entorno de formación colaborativo multisensorial durante la simulación de formación, en donde por lo menos un display (200) en cada estación (300, 310) de alumno expone un punto de vista del entorno virtual colaborativo multisensorial correspondiente a los movimientos y las interacciones del por lo menos un controlador (115, 120).

Description

Entorno de formación conducido por instructor e interfaces con el mismo
Campo de la invención
La presente invención está relacionada con el campo de entornos de formación simulada basada en instructor y, más específicamente, proporciona nuevas interfaces para este tipo de entornos.
Antecedentes de la invención
Las fuerzas armadas de todo el mundo confían en hombres y mujeres bien formados para proteger a sus países de posibles daños. Este tipo de formación varía ampliamente entre las diferentes ramas militares, pero hasta hace muy poco, este tipo de formación implicaba fundamentalmente uno de dos extremos, o simulaciones muy avanzadas o formación práctica en el mundo real.
Esta división de la formación existe por varias razones. Una de esas razones es que el coste de desarrollar entornos de formación simulada es típicamente mucho más alto que la formación en el mundo real. Por ejemplo, según las estadísticas recopiladas en el año 2001, al Ejército de los Estados Unidos le cuesta aproximadamente 35.000 dólares formar a un nuevo recluta de infantería utilizando métodos tradicionales de formación. Cuando se compara con el coste de desarrollar e implementar un simulador de infantería, que fácilmente podría costar decenas de millones de dólares, típicamente se suele ver como más rentable el proporcionar la formación tradicional práctica. La excepción a esto es en el ámbito de la aviación y la marina, donde cada embarcación o aeronave del mundo real puede costar fácilmente decenas de millones de dólares, y la formación de un piloto puede costar cientos de miles de dólares. En tales casos, el desarrollo de simuladores que permitía a pilotos de nivel bajo adquirir experiencia sin necesidad de entrar en la cabina o puente de una aeronave o embarcación reales ha demostrado ser una estrategia de formación mucho más rentable que arriesgar la vida y la seguridad de valiosos instructores, alumnos y equipamientos.
Otra razón para dividir la formación es que la mayoría de las tareas relacionadas con la infantería requieren maniobras. A diferencia de los pilotos, que se sientan en una cabina o puente relativamente estáticos de dimensiones fijas, la infantería y otros miembros de servicio están obligados a moverse por una zona mucho más amplia. Por ejemplo, un ejercicio de formación de infantería puede implicar el asegurar un edificio en una ciudad. Cuando la simulación comienza en las afueras de la ciudad, el recluta debe ser capaz de desplazarse por la ciudad y encontrar el edificio apropiado, entrar en él y garantizar su seguridad. Hasta ahora, estas interacciones han necesitado interfaces complicadas que tendían a ser una distracción, y no han permitido a los reclutas sumergirse totalmente en la simulación. De este modo, tradicionalmente para los reclutas de infantería se ha preferido la formación práctica tradicional.
Si bien tradicionalmente se prefiere la formación práctica tradicional en el mundo real para formar reclutas de infantería, la formación de este tipo tiene sus desventajas. Por ejemplo, a menudo es difícil simular las diversas diferencias medioambientales, estructurales y lingüísticas que se experimentan en diferentes escenarios. Por el contrario, un entorno de formación simulado puede fácilmente permitir a un recluta experimentar estas diferencias. El documento FR 2 840 064 describe un simulador de caza que proporciona imágenes tridimensionales sintetizadas en tiempo real en una pantalla de proyección. Un usuario utiliza una pistola para disparar a los objetivos de la pantalla y una interfaz para moverse en el entorno simulado. El documento US 6.379.249 describe un sistema de juego en el que a los usuarios se les presenta un escenario en una pantalla de exposición y se utilizan armas electrónicas para disparar a las imágenes en la pantalla. Se proporciona una interfaz para controlar el punto de vista expuesto. El documento W094/25816 describe un sistema para calcular el punto de incidencia de una pistola electrónica de la pantalla de exposición. El documento US 6.287.198 describe una pistola electrónica para interaccionar con un sistema informático.
Compendio de la invención
Lo que se necesita es un sistema y unos métodos a través de los cuales puede formarse a la infantería y otros reclutas utilizando entornos simulados que superan una o más de las limitaciones de la técnica anterior.
Un objetivo de la presente invención es proporcionar un entorno de formación simulada, controlable por instructores, basado en carriles.
Otro objetivo de la presente invención es proporcionar un dispositivo de interfaz de usuario a través del cual un recluta de infantería u otro alumno de este tipo pueden desplazarse fácilmente por grandes zonas geográficas simuladas.
Características y ventajas adicionales de la invención se establecerán en parte en la descripción que sigue y en parte serán evidentes a partir de la descripción o pueden aprenderse al poner en práctica la invención. Los objetivos y otras ventajas de la invención se realizarán y conseguirán mediante la estructura indicada particularmente en la descripción escrita y en las reivindicaciones de la misma así como en los dibujos adjuntos.
Se han desarrollado tecnologías para apoyar las necesidades de las fuerzas de seguridad civiles y de defensa.Áreas específicas de formación abordadas por esta tecnología pueden incluir, pero no se limitan a, formación de puntería de armas pequeñas de fuego no vivo, habilidades de toma de decisiones para la aplicación de la fuerza mortal basada en situaciones, formación de conductores y formación de habilidades de protección de convoyes. A pesar de que los ejemplos de realizaciones descritos a continuación abordan tecnologías de software y hardware que existen en la actualidad en el contexto de aplicaciones de demostración para militares y sistemas de formación para aplicación de la ley, debe ser evidente para un experto en la técnica que este tipo de sistemas puede adaptarse fácilmente para contextos de usos alternativos, como por ejemplo, sin limitación, videojuegos, formación de armas de uso civil, formación paramilitar y similares. Los bloques de construcción de la tecnología que se explican en los ejemplos de realizaciones se pueden mejorar y configurar de varias formas como una solución a un conjunto diverso de necesidades de formación.
El sistema preferiblemente se puede ampliar y permite que varios carriles funcionen mutuamente de manera simultánea con la simulación, permitiendo de ese modo que varios miembros del equipo practiquen tácticas, técnicas y procedimientos, tanto individualmente como en equipo. Este tipo de configuración también permite que múltiples equipos se formen juntos al mismo tiempo, permite la formación de una escuadra contra una escuadra o de múltiples escuadras contra múltiples escuadras, y la formación de cualquier combinación de escuadras contra escuadras. Utilizando los controles de simulación integrados, un solo líder de escuadrón o escuadra por carril puede comandar a otros alumnos, durante el ejercicio o la práctica, tal como mediante una interfaz gráfica de usuario (GUI) interactiva u orden de voz.
Una realización de la invención incluye un sistema de simulación de formación de infantería que comprende por lo menos un carril de disparo, con por lo menos una pantalla dispuesta sustancialmente cerca del final del carril de disparo. El alumno que utiliza la simulación puede llevar por lo menos un arma, que típicamente es similar al arma de infantería. Para facilitar el desplazamiento y otras interacciones con la simulación, el arma está equipada preferiblemente con por lo menos un controlador. Por lo menos un equipo se acopla de manera comunicativa con el display y el arma, supervisa el aporte desde el por lo menos un controlador, y modifica la simulación de formación expuesta en el display basándose en el aporte.
Otra realización de la invención incluye un sistema de simulación de formación de infantería que comprende una pluralidad de carriles de disparo, en donde cada carril de disparo tiene asociado con el mismo por lo menos un display. Por lo menos un ordenador se acopla de manera comunicativa a por lo menos uno de la pluralidad de displays y genera una simulación de formación por display mediante el por lo menos un display al que se conecta. La realización incluye preferiblemente además por lo menos una estación de instructor, en donde el instructor se acopla de manera comunicativa con el por lo menos un ordenador que permite al instructor tomar el control de por lo menos una entidad en la simulación. El alumno y/o el instructor pueden interaccionar con la simulación a través de diversos medios, incluyendo a través de por lo menos un arma. Cada arma se asocia preferiblemente con un carril de disparo, y cada una de las armas se acopla preferiblemente de manera comunicativa a por lo menos un ordenador, de tal manera que el por lo menos un ordenador puede supervisar al alumno y/o al instructor cuando interacciona con el arma.
Otra realización de la invención incluye un método para interaccionar con un escenario simulado de infantería, que comprende equipar un arma física con por lo menos un controlador, desplazarse por la simulación con el por lo menos un controlador, supervisar la simulación para por lo menos un objetivo hostil; y enfrentarse al objetivo hostil utilizando el arma física.
Se ha de entender que tanto la descripción general precedente como la descripción detallada siguiente son ejemplos y explicaciones y pretenden proporcionar una explicación adicional de la invención, tal como se reivindica.
Breve descripción de los dibujos
La Figura 1 es una vista en alzado del lado izquierdo de un arma equipada con dos controladores.
La Figura 2 es una vista en alzado del lado izquierdo de un arma equipada con dos controladores.
La Figura 3 es una vista en planta superior de un arma equipada con dos controladores.
La Figura 4 es una vista de perfil de unos medios de montaje de controlador para el uso en el cañón de un arma.
La Figura 5 es una vista de perfil de unos medios de montaje de controlador para el uso cerca del gatillo de un arma.
La Figura 6 es una vista en planta del lado izquierdo de un arma equipada con dos controladores.
La Figura 7 es una vista en planta del lado derecho de un arma equipada con un transmisor inalámbrico.
La Figura 8 es una vista detallada en perspectiva de un controlador alternativo y unos medios de montaje.
La Figura 9 es una vista detallada en perspectiva de un controlador alternativo y unos medios de montaje.
La Figura 10 es una vista en perspectiva de una pluralidad de carriles de formación en uso como parte de una simulación.
La Figura 11 es una vista en perspectiva de un solo carril de formación.
La Figura 12 es una vista en perspectiva de una realización de centro de formación.
La Figura 13 es una vista en perspectiva alternativa de una realización de centro de formación.
La Figura 14 es una vista superior de una realización de centro de formación.
La Figura 15 es una captura de pantalla de una interfaz de usuario a través de la cual los aportes del controlador se pueden personalizar según las preferencias de cada alumno.
La Figura 16 es una captura de pantalla de una lista de entidades para su uso por parte de una estación de instructor.
Las Figuras 17 y 18 son capturas de pantalla de un escenario de formación simulada de infantería.
La Figura 19 es una captura de pantalla de un display de estación de instructor que ilustra ejemplos de interfaces de control de escenario.
La Figura 20 es una captura de pantalla de un display de estación de instructor que ilustra ejemplos de interfaces de control de escenario anfitrión.
La Figura 21 es una captura de pantalla alternativa de un display de estación de instructor que ilustra ejemplos de interfaces de control de escenario, y que ilustra además ejemplos de interfaces de control de agentes.
La Figura 22 es una captura de pantalla alternativa de un display de estación de instructor que ilustra ejemplos de interfaces de control de escenario, y que ilustra además ejemplos de interfaces de supervisión de alumnos.
La Figura 23 es un diagrama de flujo que ilustra un ejemplo de proceso de posesión de agente controlado por instructor.
La Figura 24 es un diagrama de flujo que ilustra un ejemplo de proceso de simulación de atasco de arma.
La Figura 25 es un diagrama de flujo que ilustra un ejemplo de proceso de eliminación de atasco de arma.
Descripción detallada de una realización preferida
Ahora se hará referencia con detalle a realizaciones preferidas de la presente invención, cuyos ejemplos se ilustran en los dibujos acompañantes.
Un aspecto de la presente invención proporciona un simulador de formación de infantería, basado en carriles, conducido por instructor. En las realizaciones ilustradas en las Figuras 12-14, cada sistema 300 y 310 de alumno se
ha diseñado para proporcionar un único “canal” de simulación visual y puede soportar un único carril de disparo. La
imagen generada por un único canal visual con relación de aspecto estándar 4:3 proporciona un campo de visión (FOV: field of view) en el entorno virtual de aproximadamente 45 grados en horizontal por 34 grados en vertical. Se pueden combinar múltiples canales de una manera que estén lado con lado, como en el sistema de formación 310, para crear un FOV compuesto más grande, tal como 120 grados en horizontal por 34 grados en vertical. Cada sistema también se puede configurar con una relación de aspecto rotada de 4:3 si se desea un FOV vertical mayor, y se pueden utilizar otras relaciones de aspecto.
En su forma más básica, una realización de la presente invención puede implementarse utilizando un sistema informático, un arma simulada o modificada, y un carril de formación. Todos los elementos de la actual realización del software de sistema se ejecutan en PC con Windows, aunque debería ser evidente para un experto en la técnica que sistemas operativos alternativos pueden ser sustitutos del mismo sin apartarse del espíritu y el alcance de la invención. Cada uno de los componentes de software se configura y controla de forma sencilla utilizando dispositivos estándar de aporte, tal como un teclado y un ratón. Según se desee, con los componentes de software también se pueden utilizar dispositivos adicionales de aporte, tales como, sin limitación, mandos de juegos, palancas de control, volantes de dirección, pedales, almohadillas de pies, guantes ligeros, cualquier dispositivo USB compatible con Microsoft Directlnput o similares. Si bien Directlnput es una API preferida para la interacción con tales dispositivos, debe ser evidente para un experto en la técnica que interfaces alternativas pueden sustituir a la misma sin apartarse del espíritu o el alcance de la invención.
Los PC son preferiblemente PC estándar comerciales con un rendimiento de nivel de juegos, aunque a medida que avanza la tecnología las máquinas pueden no ser necesarias máquinas de gama alta. Una configuración típica de ordenador preferida en la actualidad es la siguiente:
Pentium-4 2,5 GHz o superior
1 GB de RAM
Tarjeta de vídeo ATI Radeon 9800 XT 128 MB o mejor
Unidad de disco duro de 40 GB
El software que se ejecuta en estos PC es preferiblemente capaz de funcionar de modo independiente o en un modo colaborativo en red. En un modo autónomo, el alumno es la única entidad controlada por el usuario en el entorno con todas las demás entidades controladas por IA según la definición del escenario. En el modo colaborativo en red, cada instancia del software de aplicación, tal como, sin limitación, cada PC de alumno controlado por separado en la red, representa una entidad controlada por alumno. La entidad controlada por alumno puede ser amistosa u hostil, con su función y su posición inicial establecida por el escenario. Con esta capacidad, se puede realizar formación en los siguientes escenarios de enfrentamientos:
Individual frente a IA programable
Equipo frente a IA programable
Individual frente a individual
Equipo frente a equipo
Como se ilustra en las Figuras 10 y 11, un sistema de formación preferido puede consistir en por lo menos un sistema de display 200, tal como un proyector compacto de muchos lúmenes colocado en un soporte robusto 205. Si se utiliza, el soporte 205 también puede sostener un sistema asociado 208 de detección de impactos basado en Ethernet, o el sistema 208 de detección de impactos puede montarse por separado. Una combinación de sistema de montaje de detección de impactos/proyector se puede conectar a un trípode de calidad industrial para facilitar el ajuste y la alineación. El sistema de display 200 puede configurarse preferiblemente como una proyección hacia delante o hacia atrás para acomodarse a cualquier situación de despliegue. Si la habitación en las instalaciones lo permite, la colocación de los proyectores y los sistemas de detección de impactos por detrás de la pantalla de proyección permite a los alumnos moverse libremente por delante de la pantalla sin la limitación física de los proyectores, cables y similares.
El sistema de detección de impactos permite al PC 230 de alumno u otro dispositivo informático determinar cuándo se hace un disparo desde el arma 100. Con la activación de un mecanismo de disparo, tal como el gatillo 110, asociado con el arma, un láser “dispara” un impulso por tiro, con el que el sistema 208 de detección de impactos indica al software donde entra el tiro en el entorno virtual. Unas firmas láser específicas para cada arma pueden identificar los tiros individuales disparados desde múltiples armas en el mismo carril, permitiendo la formación de múltiples alumnos en un solo carril, como se ilustra en la Figura 10.
Volviendo a hacer referencia a las Figuras 12-14, la formación en misiones típicamente consiste en una reunión previa a la misión, ejecución de la misión y una revisión posterior a la acción. El plano en planta de ubicación de formación ilustrado en las Figuras 12-14 facilita este tipo de formación. La ubicación de la formación es preferiblemente en tres estaciones independientes, una para cada fase respectiva de la formación, para maximizar el rendimiento. La realización ilustrada consiste en una estación 320 de instructor, una estación 330 de observador y una o más estaciones de alumnos, o carriles 300 de formación, por fase. Aunque la realización ilustrada es actualmente la preferida, debería ser evidente para un experto en la técnica que números alternativos de estaciones y disposiciones de estaciones pueden ser sustitutos de los mismos sin apartarse del espíritu y el alcance de la invención. A modo de ejemplo, unas estaciones alternativas de alumnos pueden ser sustitutas de las estaciones 300 de alumnos, tal como el carril 310 de 120 grados que consiste en una pluralidad de pantallas que se sincronizan en el tiempo, imagen, detección de tiros y similares.
Además de las tres estaciones, preferiblemente se implementan cuatro aplicaciones independientes de software en los distintos componentes del sistema. Aunque las cuatro aplicaciones de software se describen en esta memoria como entidades independientes, debe ser evidente para un experto en la técnica que la funcionalidad de una o más aplicaciones se pueden combinar entre sí, y que una o más aplicaciones se pueden dividir en una pluralidad de aplicaciones, sin apartarse del espíritu y el alcance de la invención. A continuación hay unos compendios de cada aplicación. Unas descripciones más detalladas de cada uno aparecen más adelante.
La primera aplicación es la aplicación de alumno que se utiliza para presentar una imagen en tiempo real a los alumnos en el carril a través de sistema de display 200. Esta aplicación también se encarga del aporte para el sistema 208 de detección de impactos, aportes desde armas 100 (incluidos los aportes desde los controladores 115, 120 y 140, como se describe más adelante), y aportes de soporte de cargadores (que se describe más adelante), y transmite estos aportes a un servidor de simulación. En una realización, los aportes se trasmiten al servidor de simulación a través de la estación de alumno. En esta realización, la estación de alumno procesa preferiblemente todos los aportes para la simulación desde cualquier dispositivo de control de alumno. Tal como se describe a continuación, mediante el uso de estos dispositivos de control, el alumno tiene la capacidad de interaccionar plenamente con el entorno 3D, disparar armas, lanzar granadas, subirse en sillas, subir escaleras, subir por cuerdas y similares. En una realización, la estación de instructor controla la estación de observador, que puede ejecutar la aplicación de alumno en modo secundario.
La segunda aplicación es la estación de instructor. La estación de instructor actúa preferiblemente como el servidor de simulación, anfitrión de red y estación de control de simulación para la ejecución de la misión.
La tercera aplicación es el editor de escenario. Esta aplicación permite a los diseñadores de recorridos personalizar la situación táctica utilizando una simple interfaz de apuntar y hacer clic y un lenguaje estándar de secuencia de comandos.
La aplicación final es el editor de niveles. Esta aplicación se utiliza para construir el entorno, que consiste en geometría visible e invisible, geometría de colisión, información de iluminación, información especial del plan de representación y otras características del entorno, los objetos, y los actores en la simulación.
La estación de alumno incluye preferiblemente por lo menos un arma física o virtual. Haciendo referencia a la Figura 10, aunque el arma 100 se ilustra como una ametralladora, debe ser evidente para un experto en la técnica que armas alternativas, incluidas otras armas de proyectiles y armas no letales tal como pistolas aturdidoras y pistolas taser, pueden ser sustitutos de las mismas sin apartarse del espíritu o el alcance de la invención. Según se ilustra en las Figuras 1-9, cada arma está equipada preferiblemente con uno o más controladores 115 y 120 de interfaz humana, así como el controlador 150 de láser y el láser 155. Este tipo de armas puede ser el arma real asignada del alumno a la que se conectan los controladores 115 y 120 de interfaz humana y el controlador 150 de láser y el láser 155, o armas activas simuladas a las que se han conectado o en las que se han integrado tales componentes. Tanto si el arma es el arma real o un arma simulada, preferiblemente no se conecta físicamente a ningún componente del sistema, sino que hace uso de un láser 155 de firma integrado montado en el arma para identificar tiros al sistema, como se ha descrito anteriormente.
Una realización preferida de la invención permite que los controladores 115, 120 estén situados en un lugar que resulte conveniente y cómodo para el alumno. El alumno puede ajustar las posiciones de control basándose en la longitud de brazo, tamaño de mano y similares utilizando una pluralidad de tornillos de fijación 117 y soportes 116, y/o simplemente retirando y girando los mecanismos de palanca de control/palanca dactilar y botón para una configuración de zurdo. Aunque la realización ilustrada utiliza tornillos 117 para montar los controladores en el arma, debe ser evidente para un experto en la técnica que unos medios de montaje alternativos, incluidos, sin limitación, cinta doble adhesiva u otros adhesivos, y bandas de caucho u otros dispositivos mecánicos, pueden ser sustitutos de los mismos sin apartarse del espíritu y el alcance de la invención.
En una realización preferida, los controladores 115 y 120 se implementan como palancas de control y palancas dactilares tradicionales, con la funcionalidad añadida de que si se presiona directamente en la palanca de control actúa como un aporte adicional. Si bien actualmente se prefiere una palanca de control, debe ser evidente para un experto en la técnica que disposiciones alternativas de controlador, incluidas, sin limitación, una pluralidad de botones o una rueda de desplazamiento, pueden ser sustitutos de los mismos sin apartarse del espíritu y el alcance de la invención.
Actualmente se prefiere una pluralidad de controladores ya que permiten al alumno desplazarse simultáneamente por el entorno simulado y ajustar el ángulo de visión. A modo de ejemplo, sin la intención de limitar la presente invención, el controlador 115 puede configurarse como un controlador de ángulo de visión. En una configuración de este tipo, la activación del controlador 115 puede hacer que el display cambie como si el alumno se girara o inclinara su cabeza. Por el contrario, cuando el controlador 120 se configura como un controlador de movimiento o de desplazamiento, la activación del controlador 120 puede hacer que la posición del alumno dentro de la simulación cambie según sea apropiado. La combinación de estos controles permite, por ejemplo, a un alumno mirar a su izquierda, mientras da pasos hacia atrás.
Los controladores 115 y 120 se encuentran preferiblemente en o cerca del lugar donde el alumno sostiene tradicionalmente el arma. En la realización ilustrada en las Figuras 1-9, el controlador 120 está situado cerca del gatillo 110, mientras que el controlador 115 se encuentra a lo largo del cañón 125. En la realización ilustrada, unos cables 130 acoplan de manera comunicativa los controladores al controlador inalámbrico 105. Sin embargo, debe ser evidente para un experto en la técnica que medios alternativos de acoplamiento comunicativo, incluidos, sin limitación, comunicaciones de radiofrecuencia o de ultrasonidos de corto alcance, pueden ser sustitutos de los mismos sin apartarse del espíritu y el alcance de la invención.
Esta metodología proporciona una formación de enfrentamiento con armas simuladas de gran realismo. La conversión de un arma de alumno en un arma de formación en interiores es un procedimiento simple que sustituye el receptor o cañón por un cañón de simulación o un adaptador estándar de balas de fogueo, y añade láser 155 para indicar la ubicación de los tiros. El arma se carga luego con cartuchos de fogueo de interior o cartuchos de fogueo estándar según sea adecuado. En situaciones en las que los usuarios no desean utilizar cartuchos de fogueo, unas armas simuladas activas que cumplan con la misma forma/ajuste/peso/función que las armas verdaderas pueden ser sustitutos de las mismas por tanto sin apartarse del espíritu o el alcance de la invención.
Además de que el arma se instrumente para el aporte de simulación con los controladores 115 y 120 el presionar en el botón estándar también se puede utilizar para controlar las funciones de control de simulación del alumno, tal como arrojar una granada, saltar, desatascar un arma, cambiar de armas o similares. La distribución y la colocación de estos botones se pueden configurar para que cada alumno tenga en cuenta variaciones ergonómicas y las preferencias personales, como se ilustra mediante el sistema de aportes 140 de las Figuras 8 y 9. Dichos botones se montan preferiblemente en el arma 100, pero como alternativa se pueden proporcionar mediante un teclado tradicional, o a través de unos medios alternativos de aporte, tal como una pluralidad de botones conectados o que son llevados por el alumno.
Mediante el uso de un sistema de aportes de múltiples fases, tal como el sistema de aportes 140, las órdenes individuales se pueden definir en términos de la activación de múltiples controles, bien de forma simultánea y/o en una secuencia definida temporalmente. Esto permite que haya fácilmente disponible un mayor conjunto de órdenes para cada alumno. A modo de ejemplo, sin la intención de limitar la presente invención, una cadena de botones desde el sistema de aportes 140 puede colocar temporalmente la máquina de estado de aportes en un modo de control externo en el que la siguiente orden afectará a todo el grupo al que está asociado el alumno.
En una realización, los alumnos pueden personalizar la funcionalidad de los distintos botones en el sistema de aporte 140 y la funcionalidad asociada a cada uno de los controladores 115 y 120 a través de una pantalla de configuración de controles de arma, tal como la que se ilustra en la Figura 15. Una pantalla de este tipo permite al
alumno configurar el movimiento y los controles de ejes de visión, así como el ajuste de la “dureza” de la
configuración, que se basa en aportes dirigidos recibidos desde el arma instrumentada.
Un objetivo de la presente invención es proporcionar un entorno simulado multisensorial, en el que un alumno puede familiarizarse más con un arma, practicar diferentes técnicas y tácticas, y similares. El entorno multisensorial es un mundo virtual colaborativo que preferiblemente soporta una gran variedad de tipos de terreno exterior, tal como urbanos, rurales y transiciones urbano-rurales, así como diversos tipos de interior y exterior de edificios, e interiores específicos construidos al gusto del usuario. La visión del usuario de este entorno puede ser estática o en movimiento. Un punto de vista en movimiento simula el caminar, correr, conducir u otro movimiento dentro del entorno, y puede ser controlado directamente por el usuario, con secuencia de comandos en el escenario, o ser controlado por un usuario secundario. Mientras se camina o corre por el entorno, el interior de los edificios puede ser explorado moviéndose a través de puertas de habitación en habitación, alrededor de los rincones, subiendo y bajando escaleras, cuerdas, escaleras de cuerda o similares. Las Figuras 17 y 18 muestran un ejemplo de entorno virtual urbano de Bagdad con edificios dañados.
Tanto si el punto de vista es estático o móvil, el software puede colocar entidades 1800 de inteligencia artificial (IA, en inglés AI: artificial intelligence) conducidas por los escenarios por todo el entorno multisensorial para proporcionar oportunidades de enfrentamientos situacionales. La IA puede representar una entidad individual o un grupo de entidades, y puede exhibir inocentes y no combatientes, armados/oposición u otros comportamientos. Estos comportamientos son preferiblemente programables y se pueden agrupar y/o basarse en eventos para componer secuencias complejas de comportamiento. Esta tecnología difiere de la ramificación de escenarios de vídeo al ofrecer una mayor variedad de situaciones para la formación. Además, esta tecnología proporciona la capacidad de añadir variabilidad a las respuestas de comportamiento de la IA por lo que el alumno aprende a manejar la situación y no el dispositivo de formación.
Una meta de la presente invención es permitir que los alumnos se formen en una serie de condiciones, y permitir que los instructores modifiquen un determinado escenario de formación de modo que los alumnos aprendan a responder a los eventos que ocurren en la simulación, en lugar de simplemente anticiparse a un evento basándose en una previa simulación. Con este fin, una realización preferida de la presente invención incluye un editor de escenarios y un editor de niveles. El editor de escenarios permite al instructor, desarrollador del currículo u otro usuario crear nuevos escenarios y modificar los escenarios existentes. Preferiblemente proporciona al usuario por lo menos dos diferentes modos de visualización, modo de cámara de vuelo libre y vista de cámara trabada, proporcionando de manera eficaz una vista ortográfica 2D. El editor de niveles permite a un desarrollador de currículo crear nuevos ambientes.
El usuario del editor de niveles puede importar nuevos terrenos o geometría de una gran variedad de software
externo, tal como, pero sin limitarse a, los capaces de generar archivos OpenFlight™. Adicionalmente, también se
puede importar la geometría creada en 3DStudioMax u otras herramientas de CAD tridimensional o de dibujo. La
importación se puede hacer, por ejemplo, mediante el uso de Apex™ Exporte u otra herramienta de este tipo.
Utilizando el ratón y el teclado, o la zona de desplazamiento, el usuario se puede mover, volar o navegar de otro modo alrededor del terreno importado y colocar objetos en el escenario. Se pueden colocar objetos especificando explícitamente una ubicación (por ejemplo haciendo clic con el ratón), utilizando una función de pintura para rellenar rápidamente con objetos (tal como un bosque o arbustos, basura y otros restos urbanos), o utilizando una función de colocación aleatoria con una densidad de objetos especificada por el usuario. Dependiendo de la metodología utilizada para representar el terreno, el usuario también puede especificar las texturas del terreno, factores de mosaico y el detalle de textura que se va a utilizar. El terreno también puede tener detalles visuales, tales como agua, carreteras, marcas de quemaduras superficiales, y otros tipos de detalles visuales colocados en el mismo. Los objetos añadidos al entorno utilizando el editor de niveles se pueden mover, girar, escalar y editar sus atributos específicos de objeto. El editor de niveles también se utiliza para generar o especificar mallas de colisión de terreno y objetos.
El editor de escenarios incluye preferiblemente un menú de IA que permite al usuario rellenar el entorno con entidades y especificar sus comportamientos predeterminados. A las entidades de fuerza opuesta se les puede dar una misión u objetivo, un nivel de habilidad, nivel de sigilo y un conjunto de características humanas similares a las que se dan a los participantes vivos. A las entidades no combatientes se les puede dar, por ejemplo, un punto de partida, número, recorrido y destino (es decir, una zona en la que maniobran), o un lugar en el que permanecen pero realizan una acción especificada. Otras funciones incluyen un sistema de eventos/activación para especificar complejos comportamientos de escenario.
El editor de escenarios preferiblemente también contiene otros elementos de menú que permiten al usuario especificar atributos de objetos especiales tales como las armas (p. ej., tipo de arma, alcance útil, pendiente, letalidad, daño/interacción con objetos), y dispositivos explosivos (p. ej., tamaño de bola, alcance letal, alcance de lesiones y daños/interacción con objetos). El editor de escenarios también soporta la posibilidad de asignar "salud" a los objetos en el entorno. Cualquier cosa que interaccione con un objeto en particular tiene la capacidad de hacer daño (que reduce la "salud") al objeto, en virtud de su velocidad, dureza y otros factores.
El sistema de objetos destructibles está estrechamente ligado al sistema de materiales. Si el usuario especifica que una submalla de un objeto es "madera", las propiedades de la madera se aplicarán a esa submalla. Las propiedades básicas de materiales de "madera" incluirían efectos de partículas, sonidos de interacción de colisión, marcas de balas y de quemaduras superficiales, pero también propiedades físicas más avanzadas, tal como la fragilidad - que es donde el sistema de objetos destructibles entra en juego.
La fragilidad de un material, tal como la madera o vidrio, determina la cantidad de impulso o fuerza necesarios para romper el objeto con el que se asigna el material. Los puntos de ruptura y los recorridos de fractura se determinan sobre la marcha sobre la base de la posición y la dirección de la fuerza de contacto aplicada. A modo de aclaración, sin la intención de limitar la presente invención, en dos dimensiones, un recorrido de fractura se puede considerar como una serie de segmentos lineales conectados con orientaciones perturbadas al azar. La implementación de simulación de fragilidad preferiblemente implica la separación del volumen que compone el objeto original, y la aplicación de una textura pre-asignada a los polígonos creados recientemente. Esta textura representa el interior recientemente expuesto del objeto.
Las representaciones visuales de entidades dentro de la simulación comprenden preferiblemente diversas representaciones de tipo de cuerpo (hombre, mujer, niño, etc.) combinadas con las apariencias que se pueden personalizar que permiten emplear cara, piel, cabello y estilos de ropa diferentes. Con esta estrategia de múltiples variables en implementaciones de entidades, el software proporciona un conjunto virtualmente ilimitado de representaciones humanas. La Figura 18 ilustra cuatro entidades diferentes que disparan sobre el alumno.
Las entidades se enfrentan durante una simulación utilizando armas físicas o virtuales. Cuando se registra un tiro en el entorno simulado, la respuesta apropiada es despertada a través de la imposición de daños en la escena u otras entidades. Los efectos visuales especiales así como las reacciones físicas proporcionan indicaciones visuales de daños. Algunos de los efectos visuales especiales incluyen explosiones, salpicadura de sangre, explosiones de polvo, explosiones de suciedad, chispas, virutas de madera (de los árboles), explosiones de cemento, agujeros de bala y marcas de quemaduras superficiales. Las indicaciones físicas incluyen reacciones al movimiento del cuerpo, grandes escombros que vuelan e impactos físicos de vehículos. Además, los tiros registrados en el entorno también pueden provocar un comportamiento de reacción de las entidades en la escena según sus patrones de comportamiento programados en un escenario dado.
La presente invención utiliza preferiblemente una puntuación base de moral con diferentes factores para calcular una puntuación de moral para cada entidad o grupo de entidades en la simulación. La puntuación de moral afectará al comportamiento de las entidades amigas y enemigas de IA. La puntuación también se puede utilizar para determinar si la entidad debe ser suprimida. Los siguientes son ejemplos de factores que contribuyen a la puntuación de moral. La siguiente lista se destina a ser un ejemplo y no es una lista completa de los únicos factores que contribuyen a la puntuación de moral.
Tiro a un enemigo + 1
Enemigo impactado + 3
Enemigo muerto + 5
Tiro a un amigo - 1
Amigo impactado - 3 Amigo muerto - 5
Cuando la moral está más baja, las entidades de IA prefieren cubrirse, en la línea de visión de amigos, más cerca de amigos, reducir costes de atajar, reducir la precisión, utilice un perfil más bajo (como ataque en cuclillas), si se escapa entra en pánico y no dispara de nuevo y tratar de aumentar la distancia con la amenaza. Sobre la base de la puntuación de moral y la cantidad de balas "disparadas" a una entidad o grupo de entidades de IA, la simulación puede determinar si la entidad queda suprimida (es decir exhibe intervalos más largos de cobertura), fijada (suprimida + no se mueve), acobardada (fijada + no dispara de nuevo) o similares.
Para detectar la proximidad de tiros, se crea una esfera alrededor de cada entidad y se calcula una intersección de rayos que pasan desde la entrada, la salida y el punto medio de la bala (en el medio de la línea que une los puntos de entrada y salida de la esfera) a la entidad. Si el rayo pasa a través de la esfera, entonces significa que la bala pasó muy cerca, y la entidad fue capaz de percibirla, lo que a su vez altera la puntuación de moral de la entidad como se ha descrito anteriormente.
Aunque los escenarios se pueden diseñar para funcionar de forma independiente, la formación es controlada preferiblemente a través de una estación de instructor. Durante una simulación, el instructor se presenta con una interfaz de usuario similar a las que se ilustran en las Figuras 19-22. La estación de instructor proporciona la selección del escenario principal y el control de ejecución global de la simulación. Las órdenes de control de ejecución del escenario pueden incluir, pero no se limitan a, iniciar, detener, pausar y reanudar. El instructor se presenta preferiblemente con su propia vista de cámara del entorno de vuelo libre, que le permite ver el escenario desde cualquier perspectiva que desee.
El instructor también puede seleccionar un papel que desempeñar en primera persona para mejorar la realidad de la formación. Utilizando un sistema de órdenes y gestión de actor orientado a objetos, en las Figuras 16 y 22 se ilustran unos ejemplos de interfaces del mismo, la aplicación de formación distribuida puede utilizar un enrutador de órdenes multiplexadas para enviar aportes desde la estación de instructor a un actor distribuido seleccionado apropiadamente cuando el artefacto de entorno 3D tiene el foco en la aplicación. Estos actores distribuidos pueden
incluir una entidad de IA o un alumno, y pueden ser “poseídos” (es decir controlados), curados y/o regenerados (es
decir volver a representar o resucitar) por el instructor, como se ilustra en las Figuras 16 y 19. La Figura 23 ilustra un método mediante el cual un instructor puede poseer una entidad.
En la Figura 23, el instructor puede seleccionar la entidad que va a ser poseída (bloque 2315), y hace clic en el botón de poseer (bloque 2320). Las órdenes de teclado u otros aportes (bloque 2310) se multiplexan luego para un control apropiado de entidad (bloque 2330), control de vehículo terrestre (bloque 2335) o control de vehículo aéreo (bloque 2340).
La Figura 19 ilustra además la interfaz de escenario anfitrión, a través de la cual el instructor puede moverse instantáneamente a la ubicación de una entidad dada, y a través de la cual el instructor puede seleccionar varios alumnos y/u opciones de simulación. La Figura 22 ilustra una vista de tercera persona de un instructor de un alumno después de hacer clic en el nombre del alumno en la lista de alumnos de la Figura 19.
Tal como se ilustra en la Figura 21, cuando el instructor posee o controla una entidad, el HUD 1905 y tronco de un instructor se cambian para ser consistentes con la simulación de perspectiva en primera persona. También se pueden presentar controles adicionales al instructor, incluidos brújula, localizador de IA amistosa, localizador de objetivos, indicador de posición y de salud. El instructor también puede controlar una entidad desde una perspectiva en tercera persona y ordenar a la entidad que se comporte de una determinada manera a través del control 2100 de entidad. Similarmente, cuando el instructor está controlando una entidad que está realizando una tarea simulada más tradicionalmente desde una perspectiva en tercera persona, tal como por ejemplo, sin limitación, conducir un vehículo, el tronco de vista de un instructor se puede convertir de manera similar. Una vez que se completa la necesidad de participación de un instructor a este nivel, el instructor puede devolver el control de la entidad a la IA que originalmente controlaba o al participante de la formación
Durante el escenario, se compila un registro de revisión después de la acción (AAR) en la estación de instructor. La información AAR incluye preferiblemente, pero no se limita a, el número de tiros disparados por cada alumno, donde cayeron esos tiros, la línea de fuego del sitio, tiempo de reacción y otros datos pertinentes considerados importantes por los instructores. Con el registro de AAR, el instructor puede reproducir el escenario en su display local y/o en el sistema de display de los alumnos para preparar un parte de desempeño. El sistema de reproducción emplea preferiblemente una metodología de “reproducir desde aquí” desde un momento dado del archivo de registro AAR.
En una realización, el instructor puede utilizar una simple interfaz de usuario, tal como el control 1900 de escenario de la Figura 19, para indicar qué canales de comunicación están disponibles, dando de ese modo al instructor un control completo sobre la matriz de comunicación. El instructor puede crear, activar o desactivar canales individuales, canales de equipo o canales de difusión mundial. El instructor puede especificar qué canales grabar para AAR y marcar el AAR con marcadores. El instructor también puede grabar individuos, grupos o subgrupos seleccionados. También se grabarán las comunicaciones externas, tales como las que se envíen para una llamada simulada para disparar y similares.
Aunque un instructor puede insertar marcadores a través del botón de añadir marca de la interfaz 1900 de control de escenario o cualquier otro elemento de la interfaz de usuario, ciertos eventos deben desencadenar un marcador automáticamente. Estos eventos incluyen, pero no se limitan a, un enemigo que entra en el campo de visión del alumno por primera vez, la muerte del alumno, la muerte de un enemigo, todas las explosiones, activación de gatillo y a partir de secuencias de comandos. Unos desencadenantes específicos de evaluación registrarán automáticamente el evento en las estadísticas AAR individuales del alumno.
La detección de impactos multi-canal se logra mediante el envío de un paquete de red cada vez que se recibe un aporte de clic de ratón en un canal secundario. El paquete de red contiene la posición y la dirección del rayo proyectado creado por el clic de ratón en dos dimensiones. Ese paquete de red es procesado por el canal principal, y se registra un impacto utilizando la información del rayo. Para evitar que se registren múltiples impactos en los casos en los que el área de pantalla se solapa entre los canales, se realiza una comparación en el momento de cada impacto frente a la máxima tasa de fuego de un arma. Si un impacto ocurre demasiado rápido, el impacto se descarta.
Una realización de la presente invención puede simular un atasco de sistema de arma sobre la base del cargador real 135, los efectos acumulativos de las rondas de disparos, y similares, como se ilustra en la Figura 24. En una realización, un arma 100 está equipada con un sensor de cargador que determina qué cargador 135 se encuentra actualmente en el arma. En una realización alternativa, los cargadores 135 se almacenan en un recipiente o se colocan sobre un soporte, y la mesa o recipiente son capaces de inventariar los cargadores contenidos en el mismo. Cuando se retira cada cargador, se hace un registro del cargador actualmente en uso. Sobre la base de aportes 2410 de sensor de cargador, se determina el cargador y proyectil (bloque 2420) cada vez que el arma se dispara (bloque 2415). Esta información se procesa (bloque 2425) y se almacena en una base de datos (bloque 2430) de
manera que el alumno no puede “reutilizar” un cargador agotado anteriormente. También se accede a las
mediciones de desempeño, tales como, sin limitación, la frecuencia de atascos, la acumulación de partículas, o similares, asociados a cada proyectil, y estas mediciones de desempeño se utilizan para determinar la probabilidad de atasco. Puede utilizarse un generador de números aleatorios 2445 para determinar si, sobre la base de la probabilidad de un atasco, un atasco se produce realmente.
Mediante el seguimiento de los cargadores, proyectiles dentro de los cargadores y los tipos de estos proyectiles (estándar, trazador, personalizado, otros) en una base de datos, utilizando RFID u otra tecnología inalámbrica o por cable que incluya un soporte especial de cargador que está instrumentado para identificar qué cargadores 135 permanecen sin utilizar (y con ello puede derivar qué cargadores se han utilizado), la simulación puede derivar estadísticamente las probabilidades utilizadas para simular un atasco realista y razonable de arma durante el ciclo de disparo que se está ejecutando actualmente. La probabilidad de atasco durante un ciclo de disparo está relacionada con el tipo de proyectil que se está disparando, el total de proyectiles disparados en esa sesión, la total de proyectiles disparados desde el último atasco, el número de proyectiles disparados de cada tipo de munición en esta sesión, el número de proyectiles disparados de cada tipo de munición desde el último atasco, y otros elementos que se pueden seguir en la simulación; o se puede simular un atasco a la orden del instructor, o como una orden predefinida en una secuencia de comandos de control.
Una vez que se ha producido el atasco de un arma, se bloquea la señal de disparo al arma instrumentada y el alumno debe realizar un procedimiento para eliminar el atasco para reactivar el arma. Este procedimiento puede variar en complejidad, desde apretar un solo botón en el arma instrumentada, a una compleja serie de pasos que son detectados por la simulación desde un arma completamente instrumentada, tal como el que se ilustra en la Figura 25. En el ejemplo de procedimiento ilustrado en la Figura 25, cuando se produce un atasco (2500), se sondea un sensor 2510 de cargador para determinar si el alumno ha retirado el cargador y lo ha examinado (bloque 2515). El momento en que el cargador se ha retirado del arma se puede supervisar para forzar al alumno a realizar la simulación más realista. Dependiendo del tipo de atasco, la comprobación de cargador puede ser suficiente para desatascar el arma y la simulación sigue siendo normal. Si el arma sigue atascada, la tapa de cámara se puede supervisar a través de un sensor de tapa de cámara (bloque 2520) para determinar si el alumno ha comprobado la cámara (bloque 2525). Como con el sensor de cargador, dependiendo del tipo de atasco, la comprobación de cámara puede ser suficiente para desatascar el arma y la simulación sigue siendo normal. Si el arma sigue atascada, el sistema puede supervisar el sensor 2530 de cargador y recarga. Si el alumno ha realizado los pasos apropiados, el arma se desatasca. Aunque anteriormente se ha descrito en términos de comprobaciones físicas, tales pasos pueden incluir comprobar virtualmente la cámara, acoplar un nuevo proyectil en la cámara con el cerrojo, cargar el arma con el brazo de carga, o similares. Una vez que se ha realizado el procedimiento adecuado, como lo supervisado por la simulación utilizando una máquina de estado, el sistema conecta de nuevo la señal de disparo, permitiendo de ese modo que el arma se active normalmente.
Si bien la invención se ha descrito en detalle y con referencia a realizaciones específicas de la misma, será evidente para un experto en la técnica que se pueden hacer diversos cambios y modificaciones en la misma sin apartarse del alcance de la misma. De este modo, se pretende que la presente invención abarque las modificaciones y variaciones de esta invención, siempre que entren dentro del alcance de las reivindicaciones adjuntas.

Claims (20)

  1. REIVINDICACIONES
    1. Un sistema de simulación de formación conducido por instructor para equipos de formación, que comprende:
    un entorno de formación de simulada generado por ordenador que comprende un entorno virtual colaborativo multisensorial en donde los movimientos y las interacciones simulados de cada uno de entre uno o más miembros de un equipo son representados dentro del entorno de formación simulada;
    por lo menos una estación (300, 310) de alumno, que comprende:
    una zona de disparo para alojar a un miembro del equipo, la zona de disparo comprende un primer extremo, un segundo extremo, y por lo menos un display (200) dispuesto substancialmente cerca del segundo extremo para exponer el entorno de formación simulada,
    por lo menos un arma (100), el arma es sustancialmente similar a un arma de infantería, y
    por lo menos un controlador (115, 120), el por lo menos un controlador está montado en la por lo menos un arma, para simular el movimiento dentro e interaccionar con el entorno de formación simulada;
    por lo menos un ordenador para generar el entorno de formación simulada, y por lo menos un ordenador acoplado de manera comunicativa al por lo menos un display acoplado de manera comunicativa al por lo menos un controlador, y por lo menos un ordenador que supervisa aportes desde el por lo menos un controlador y que modifica el entorno de formación simulada expuesto en el display sobre la base de los aportes;
    una pluralidad de canales de comunicación para permitir la comunicación entre el instructor y el uno o más miembros del equipo;
    una estación (320) de instructor para alojar al instructor, que sirve como un anfitrión de red y servidor de entorno de formación simulada para el por lo menos un ordenador y la por lo menos una estación (300, 310) de alumno, y que sirve como una estación de control de entorno de formación simulada, la estación de instructor recibe y trasmite aportes desde la por lo menos una estación de alumno y permite al instructor controlar, modificar y registrar la ejecución del entorno de formación simulada, para controlar y registrar los canales de comunicación y crear escenarios personalizados de simulación para el entorno de formación simulada; y
    un editor de escenarios para editar el entorno de formación colaborativo multisensorial durante la simulación de formación, en donde el editor de escenarios permite al instructor tomar el control de una entidad representada dentro del entorno de formación colaborativo multisensorial durante la simulación de formación,
    en donde por lo menos un display (200) en cada estación (300, 310) de alumno expone un punto de vista del entorno virtual colaborativo multisensorial correspondiente a los movimientos y las interacciones del por lo menos un controlador (115, 120).
  2. 2.
    El sistema de la reivindicación 1, el por lo menos un controlador (115, 120) que comprende una pluralidad de controladores, por lo menos uno de la pluralidad de los controladores está situado sustancialmente cerca de entre por lo menos un gatillo del arma y a lo largo de un cañón del arma.
  3. 3.
    El sistema de la reivindicación 1, en donde el por lo menos un ordenador está acoplado de manera comunicativa con el por lo menos un controlador (115, 120) a través de un enlace de comunicación inalámbrica.
  4. 4.
    El sistema de la reivindicación 1, en donde la estación (320) de instructor supervisa y registra las acciones de los miembros del equipo en el entorno de formación simulada y comprende además un editor de escenarios para editar el entorno de formación simulada durante la simulación de formación, y en donde la estación de instructor registra y/o inhabilita canales particulares de comunicación.
  5. 5.
    El sistema de la reivindicación 4, que comprende además una estación (330) de observador para ver la simulación de formación.
  6. 6.
    El sistema de la reivindicación 1, en donde la entidad, de la que se ha tomado el control, representa por lo menos una de entre una entidad controlada por ordenador en el entorno de formación simulada y uno o más miembros de un equipo dentro del entorno de formación simulada.
  7. 7.
    El sistema de la reivindicación 1, en donde los canales de comunicación permiten que por lo menos uno de entre los instructores y el uno o más de entre los miembros de un equipo, en una primera zona de disparo se comuniquen con uno o más miembros de un equipo en una segunda zona de disparo para coordinar movimientos simulados simultáneos dentro del entorno de formación simulada.
  8. 8.
    El sistema de la reivindicación 1, el arma está configurada para disparar por lo menos un proyectil simulado, el por lo menos un proyectil simulado está almacenado en por lo menos un cargador (135).
  9. 9.
    El sistema de la reivindicación 8, en donde cada uno del por lo menos un cargador (135) comprende un identificador, el sistema determina el tipo de proyectil simulado almacenado en el cargador actualmente en el arma sobre la base del identificador y un número de proyectiles disparados, de tal manera que el arma no puede volver a usar un cargador gastado anteriormente.
  10. 10.
    El sistema de la reivindicación 9, el sistema determina el tipo de proyectil almacenado en el cargador actualmente en el arma mediante el inventario de los cargadores asociados con el miembro del equipo y la identificación del cargador ausente del inventario.
  11. 11.
    El sistema de la reivindicación 10, el sistema determina si un cargador se ha utilizado sobre la base del identificador.
  12. 12.
    El sistema de la reivindicación 1, el sistema simula un atasco de arma según por lo menos uno de los tipos de proyectiles disparados y el número de proyectiles disparados.
  13. 13.
    El sistema de la reivindicación 12, el sistema supervisa las interacciones con el arma para determinar cuándo se han realizado los pasos prescritos para eliminar el atasco simulado de arma.
  14. 14.
    Un método para interaccionar con un entorno de formación colaborativa multisensorial generado por un sistema de simulación de formación que tiene por lo menos una estación (300, 310) de alumno que comprende una zona de disparo para alojar a un alumno, por lo menos un controlador (115, 120), una pluralidad de canales de comunicación, y por lo menos un display (200) correspondiente a la zona de disparo, que comprende:
    exponer una simulación generada por ordenador en el por lo menos un display (200), la simulación comprende el entorno de formación colaborativo multisensorial en donde los movimientos e interacciones simulados del alumno son controlados por el por lo menos un controlador (115, 120) y se representan dentro de un entorno de formación colaborativa multisensorial como una entidad, en donde por lo menos un display expone un punto de vista del entorno de formación colaborativa multisensorial correspondiente a los movimientos e interacciones simulados del alumno en cada estación (300, 310) de alumno;
    equipar un arma física (100) con por lo menos un controlador (115, 120);
    comunicarse a través de los canales de comunicación para coordinar el movimiento simultáneo simulado de los alumnos en el entorno de formación colaborativa multisensorial;
    desplazarse por el entorno de formación colaborativa multisensorial expuesto en el display a través de por lo menos un controlador (115, 120);
    supervisar el entorno de formación colaborativa multisensorial para por lo menos un objetivo hostil;
    enfrentarse al objetivo hostil usando el arma física (100); y
    permitir que un instructor observe el entorno de formación colaborativa multisensorial a través de un terminal (320) de instructor del sistema de simulación de formación, el terminal de instructor permite al instructor supervisar y registrar las acciones de los miembros de un equipo en el entorno de formación colaborativo multisensorial y modificar las condiciones del entorno de formación colaborativa multisensorial durante la simulación de formación,
    en donde el sistema de simulación de formación comprende dos o más estaciones (300, 310) de alumno, y en donde los movimientos e interacciones del por lo menos un controlador en cada estación de alumno es representada en el mismo entorno de formación colaborativa multisensorial, y el por lo menos un display
    (200) en cada estación de alumno también expone una representación de los movimientos y las interacciones del por lo menos un controlador en las otras estaciones de alumno, y
    en donde el sistema de simulación de formación comprende además un editor de escenarios para editar el entorno de formación colaborativa multisensorial durante la simulación de formación, el editor de escenarios permite al instructor tomar el control de una entidad representada dentro del entorno de formación colaborativo multisensorial durante la simulación de formación.
  15. 15.
    El método de la reivindicación 14, que comprende además editar el entorno de formación colaborativo multisensorial durante la simulación de formación.
  16. 16.
    El método de la reivindicación 14, que comprende además supervisar por lo menos uno de entre el número y tipo de los proyectiles disparados por el arma y simular un atasco de arma según por lo menos uno de entre el número y tipo de proyectiles disparados.
  17. 17.
    El método de la reivindicación 14, el atasco de arma es simulado con una frecuencia substancialmente similar a la asociada con el uso del arma física en el mundo real.
  18. 18.
    El método de la reivindicación 14, que comprende además simular el agotamiento de los proyectiles de un cargador asociado con el arma para cada disparo de arma, de tal manera que el arma no puede volver a usar un cargador agotado anteriormente.
  19. 19.
    El método de la reivindicación 14, que comprende además permitir que el instructor interaccione con el entorno de formación colaborativo multisensorial.
  20. 20.
    El método de la reivindicación 14, en donde la interacción comprende que el instructor tome el control de por lo menos una entidad controlada por ordenador dentro del entorno de formación colaborativo multisensorial.
ES05858497T 2004-11-24 2005-11-23 Entorno de formación conducido por instructor e interfaces con el mismo Active ES2411307T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US63030404P 2004-11-24 2004-11-24
US630304P 2004-11-24
US73427605P 2005-11-08 2005-11-08
US734276P 2005-11-08
PCT/US2005/042659 WO2007011418A2 (en) 2004-11-24 2005-11-23 Instructor-lead training environment and interfaces therewith

Publications (1)

Publication Number Publication Date
ES2411307T3 true ES2411307T3 (es) 2013-07-05

Family

ID=37669291

Family Applications (1)

Application Number Title Priority Date Filing Date
ES05858497T Active ES2411307T3 (es) 2004-11-24 2005-11-23 Entorno de formación conducido por instructor e interfaces con el mismo

Country Status (14)

Country Link
US (4) US8770977B2 (es)
EP (1) EP1825209B1 (es)
JP (2) JP2008524542A (es)
CN (1) CN101438121B (es)
AU (1) AU2005334472B2 (es)
CA (1) CA2589213C (es)
DK (1) DK1825209T3 (es)
EG (1) EG25541A (es)
ES (1) ES2411307T3 (es)
HK (1) HK1132034A1 (es)
IL (1) IL183316A0 (es)
MX (1) MX2007006147A (es)
NZ (1) NZ556012A (es)
WO (1) WO2007011418A2 (es)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8485085B2 (en) * 2004-10-12 2013-07-16 Telerobotics Corporation Network weapon system and method
US20160059136A1 (en) * 2004-12-03 2016-03-03 Bob Ferris Simulated firearms entertainment system
US20170176127A1 (en) * 2004-12-03 2017-06-22 Bob Ferris Simulated firearms entertainment system
US9052161B2 (en) * 2005-12-19 2015-06-09 Raydon Corporation Perspective tracking system
US9224303B2 (en) * 2006-01-13 2015-12-29 Silvertree Media, Llc Computer based system for training workers
US20070250411A1 (en) * 2006-03-29 2007-10-25 Williams Albert L System and method for inventory tracking and control of mission-critical military equipment and supplies
CN101796369A (zh) * 2007-07-05 2010-08-04 美吉特培训系统公司 从仿真弹药无线读写数据的方法
WO2010014126A2 (en) * 2008-03-25 2010-02-04 Rusty Hogan Devices, systems and methods for firearms training, simulation and operations
US8584026B2 (en) * 2008-12-29 2013-11-12 Avaya Inc. User interface for orienting new users to a three dimensional computer-generated virtual environment
US8403672B2 (en) 2009-10-21 2013-03-26 Tim Odorisio Training target for an electronically controlled weapon
US20110256515A1 (en) * 2009-10-22 2011-10-20 The Washington Security Group, Inc. Sensitive Site Exploitation (SSE) & Forensic Collection (FC) Training Facility, System and Method
US9823043B2 (en) 2010-01-15 2017-11-21 Colt Canada Ip Holding Partnership Rail for inductively powering firearm accessories
US10477619B2 (en) 2010-01-15 2019-11-12 Colt Canada Ip Holding Partnership Networked battle system or firearm
US10470010B2 (en) 2010-01-15 2019-11-05 Colt Canada Ip Holding Partnership Networked battle system or firearm
US10477618B2 (en) 2010-01-15 2019-11-12 Colt Canada Ip Holding Partnership Networked battle system or firearm
US10337834B2 (en) 2010-01-15 2019-07-02 Colt Canada Ip Holding Partnership Networked battle system or firearm
US9921028B2 (en) 2010-01-15 2018-03-20 Colt Canada Ip Holding Partnership Apparatus and method for powering and networking a rail of a firearm
DK3165868T3 (en) 2011-02-15 2018-11-26 Colt Canada Ip Holding Partnership Apparatus and method for inductive power supply and network connection of a firearm's rail
US9563723B1 (en) * 2011-10-30 2017-02-07 Lockheed Martin Corporation Generation of an observer view in a virtual environment
US9885545B2 (en) * 2012-08-10 2018-02-06 Ti Training Corp. Disruptor device simulation system
SG11201501094XA (en) 2012-08-16 2015-03-30 Colt Canada Corp Apparatus and method for powering and networking a rail of a firearm
WO2014085815A2 (en) * 2012-12-02 2014-06-05 Dynamic Animation Systems, Inc. Proper grip controllers
IL223807A (en) * 2012-12-23 2016-11-30 Bagira Systems Ltd Means of shooting image
US10584940B2 (en) 2013-05-09 2020-03-10 Shooting Simulator, Llc System and method for marksmanship training
US10274287B2 (en) 2013-05-09 2019-04-30 Shooting Simulator, Llc System and method for marksmanship training
US10030937B2 (en) * 2013-05-09 2018-07-24 Shooting Simulator, Llc System and method for marksmanship training
US10234240B2 (en) 2013-05-09 2019-03-19 Shooting Simulator, Llc System and method for marksmanship training
SG11201601739YA (en) * 2013-09-09 2016-04-28 Colt Canada Ip Holding Partnership A network of intercommunicating battlefield devices
US20150221230A1 (en) * 2014-02-03 2015-08-06 Immersive Technologies, Pty. Ltd. Simulation Training System
US20160117945A1 (en) * 2014-10-24 2016-04-28 Ti Training Corp. Use of force training system implementing eye movement tracking
US10672289B2 (en) 2015-09-24 2020-06-02 Circadence Corporation System for dynamically provisioning cyber training environments
BR112018006011A2 (pt) * 2015-09-24 2018-10-30 Circadence Corporation sistema e método de treinamento cibernético implementado por jogo com base em missões
US10238948B2 (en) 2015-09-24 2019-03-26 Circadence Corporation Mission-based, game-implemented cyber training system and method
CN105187802A (zh) * 2015-09-25 2015-12-23 长沙中联消防机械有限公司 多个消防设备联合救援的虚拟训练方法、装置和系统
US20160018174A1 (en) * 2015-09-27 2016-01-21 Thomas Danaher Harvey Methods and devices for supervision of firearm chamber loading
US9964382B2 (en) * 2015-11-15 2018-05-08 George Stantchev Target acquisition device and system thereof
CN105466282B (zh) * 2015-12-30 2017-06-27 南京理工大学 一种用于人机工效评价的抵肩射击武器模拟装置
US10679513B2 (en) 2016-02-17 2020-06-09 Cae Inc. Simulation server capable of creating events of a lesson plan based on simulation data statistics
CA2920914C (en) 2016-02-17 2017-07-18 Cae Inc Portable computing device and method for transmitting instructor operating station (ios) filtered information
US10235965B2 (en) * 2017-03-15 2019-03-19 Kuato Games (UK) Limited Virtual reality system using an actor and director model
US20180372440A1 (en) * 2017-06-22 2018-12-27 Cubic Corporation Weapon barrel attachment for triggering instrumentation laser
US10551148B1 (en) * 2018-12-06 2020-02-04 Modular High-End Ltd. Joint firearm training systems and methods
CN112286076B (zh) * 2020-10-30 2023-12-15 中国兵器科学研究院 一种实车火控触发数据采集仿真系统
WO2022216357A1 (en) * 2021-04-07 2022-10-13 Avrio Analytics LLC Personalized learning via task load optimization
US20220412696A1 (en) * 2021-06-24 2022-12-29 Wilcox Industries Corp. Pressure pad accessory controller for weapon
US20220412695A1 (en) * 2021-06-24 2022-12-29 Wilcox Industries Corp. Accessory control handgrip apparatus for weapon

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4336018A (en) * 1979-12-19 1982-06-22 The United States Of America As Represented By The Secretary Of The Navy Electro-optic infantry weapons trainer
US4290757A (en) * 1980-06-09 1981-09-22 The United States Of America As Represented By The Secretary Of The Navy Burst on target simulation device for training with rockets
EP0118604A2 (en) * 1982-11-16 1984-09-19 Brunswick Corporation Visual target simulator for outdoor field training
JPH0410297U (es) * 1990-05-07 1992-01-29
JPH04267284A (ja) * 1991-02-22 1992-09-22 Mitsubishi Precision Co Ltd 模擬視界装置
GB9226389D0 (en) * 1992-12-18 1993-02-10 Short Brothers Plc Target acquisition training apparatus
GB9308663D0 (en) * 1993-04-27 1993-06-16 Link Miles Ltd Point of incidence detection
US5642932A (en) * 1994-12-22 1997-07-01 Laser Products Corporation Combat-oriented flashlight
JPH08254945A (ja) * 1995-03-15 1996-10-01 Honda Motor Co Ltd 走行シミュレーション装置の運転環境編集装置
US5593074A (en) * 1995-05-26 1997-01-14 Laser Products Ltd. Bidirectional holsters
US5823779A (en) * 1996-05-02 1998-10-20 Advanced Interactive Systems, Inc. Electronically controlled weapons range with return fire
US6016038A (en) * 1997-08-26 2000-01-18 Color Kinetics, Inc. Multicolored LED lighting method and apparatus
JP3269797B2 (ja) * 1997-12-12 2002-04-02 株式会社ナムコ 画像生成装置及び情報記憶媒体
FR2772908B1 (fr) * 1997-12-24 2000-02-18 Aerospatiale Simulateur de tir de missiles avec immersion du tireur dans un espace virtuel
DE69928751T2 (de) * 1998-05-13 2006-09-14 Sega Corp. Pistolenförmiger Regler
JP3824788B2 (ja) * 1998-09-28 2006-09-20 株式会社コナミデジタルエンタテインメント ビデオゲーム装置、ビデオゲームにおけるゲーム画面の視点切替方法及びビデオゲームにおけるゲーム画面の視点切替プログラムが記録されたコンピュータ読み取り可能な記録媒体
CN1253276A (zh) * 1998-11-04 2000-05-17 珠海双辰科技开发有限公司 一种轻武器射击训练模拟系统
JP2001041688A (ja) * 1999-07-28 2001-02-16 Babcock Hitachi Kk 閃光発射模擬弾と該模擬弾を装填可能な銃
US6287198B1 (en) 1999-08-03 2001-09-11 Mccauley Jack J. Optical gun for use with computer games
JP2001087551A (ja) * 1999-09-24 2001-04-03 Konami Co Ltd 射的ビデオゲーム装置および射的ビデオゲームにおける画像表示方法
US20020012898A1 (en) * 2000-01-13 2002-01-31 Motti Shechter Firearm simulation and gaming system and method for operatively interconnecting a firearm peripheral to a computer system
US20020010734A1 (en) * 2000-02-03 2002-01-24 Ebersole John Franklin Internetworked augmented reality system and method
US6899539B1 (en) * 2000-02-17 2005-05-31 Exponent, Inc. Infantry wearable information and weapon system
US6575753B2 (en) * 2000-05-19 2003-06-10 Beamhit, Llc Firearm laser training system and method employing an actuable target assembly
JP2002090092A (ja) * 2000-09-12 2002-03-27 Mitsubishi Heavy Ind Ltd 映像型訓練装置、及び、映像型訓練方法
JP2002318098A (ja) * 2001-04-18 2002-10-31 Namco Ltd 射撃システム、ビームガン、及び標的装置
JP3762884B2 (ja) * 2001-07-12 2006-04-05 本田技研工業株式会社 走行シミュレーション装置の障害物設定装置
US6999083B2 (en) * 2001-08-22 2006-02-14 Microsoft Corporation System and method to provide a spectator experience for networked gaming
JP2003240494A (ja) * 2002-02-14 2003-08-27 Mitsubishi Heavy Ind Ltd 訓練システム
US6902483B2 (en) * 2002-04-01 2005-06-07 Xiao Lin Handheld electronic game device having the shape of a gun
US6886287B1 (en) * 2002-05-18 2005-05-03 John Curtis Bell Scope adjustment method and apparatus
FR2840064B1 (fr) * 2002-05-22 2004-07-16 Christian Georges Gera Saunier Procede de simulation interactif comportemental de formation a la chasse au gibier
JP2004024584A (ja) * 2002-06-26 2004-01-29 Tomy Co Ltd 光線銃型玩具および銃弾ユニット
US7291014B2 (en) * 2002-08-08 2007-11-06 Fats, Inc. Wireless data communication link embedded in simulated weapon systems
US20050197178A1 (en) * 2004-03-03 2005-09-08 Villegas Ariel P. Gun-shaped game controller
US20060025217A1 (en) * 2004-03-29 2006-02-02 Saied Hussaini Ergonomically cofigurable video game controller
CA2631412A1 (en) * 2005-11-28 2007-05-31 L-3 Communications Corporation Distributed physics based training system and methods
EP2026030A1 (en) * 2007-08-16 2009-02-18 Saab Ab Method and device for detecting a fire shot event in a weapon
US9335912B2 (en) * 2007-09-07 2016-05-10 Apple Inc. GUI applications for use with 3D remote controller
US8425078B2 (en) * 2010-09-21 2013-04-23 Surefire, Llc Lighting device with multi-position joystick

Also Published As

Publication number Publication date
CN101438121B (zh) 2012-07-04
JP2013015313A (ja) 2013-01-24
IL183316A0 (en) 2007-09-20
EG25541A (en) 2012-02-12
MX2007006147A (es) 2008-01-14
AU2005334472A1 (en) 2007-01-25
US20150153130A1 (en) 2015-06-04
DK1825209T3 (da) 2013-06-10
EP1825209A2 (en) 2007-08-29
HK1132034A1 (en) 2010-02-12
US20140186801A1 (en) 2014-07-03
EP1825209A4 (en) 2011-11-09
EP1825209B1 (en) 2013-03-06
US8770977B2 (en) 2014-07-08
WO2007011418A3 (en) 2008-12-11
US20080108021A1 (en) 2008-05-08
JP2008524542A (ja) 2008-07-10
CA2589213C (en) 2013-01-15
NZ556012A (en) 2011-01-28
US20130022944A1 (en) 2013-01-24
CN101438121A (zh) 2009-05-20
CA2589213A1 (en) 2007-01-25
AU2005334472B2 (en) 2012-07-05
WO2007011418A2 (en) 2007-01-25
WO2007011418A4 (en) 2009-01-29

Similar Documents

Publication Publication Date Title
ES2411307T3 (es) Entorno de formación conducido por instructor e interfaces con el mismo
KR101498610B1 (ko) 가상환경 내 캐릭터와 훈련자 동작연동을 통한 전술 모의훈련 장치, 모의훈련 연동방법 및 모의훈련 모니터링 방법
Sharma et al. Megacity: a collaborative virtual reality environment for emergency response, training, and decision making
KR101653735B1 (ko) 모의수류탄, 모의크레모어 및 이벤트 컨트롤용 키패드부를 이용한 모의전투훈련 시스템
Karr et al. Synthetic soldiers [military training simulators]
Ter Haar Virtual reality in the military: present and future
KR101470805B1 (ko) 실내 훈련용 곡사화기 사격술 모의 훈련 시스템 및 이의 제어방법
Knerr et al. Virtual environments for dismounted soldier simulation, training, and mission rehearsal: Results of the FY 2002 culminating event
Dutta Simulation in military training: Recent developments
Pleban Functional capabilities of four virtual individual combatant (VIC) simulator technologies: An independent assessment
Rashid Use of VR technology and passive haptics for MANPADS training system
Goldberg et al. Training dismounted combatants in virtual environments
Pleban Using virtual environments for conducting small unit dismounted mission rehearsals
Rogers et al. How can the center for navy security forces leverage immersive technologies to enhance its current training delivery?
Bennett et al. Improving situational awareness training for Patriot radar operators
Irwin The problem of realism and reality in military training exercises
Prachyabrued et al. Development of Attack Helicopter Simulator
Hamilton et al. Training in virtual and augmented realities: An interview with Bruce Knerr
Banta et al. The Virtual Observer/Controller (VOC): Automated Intelligent Coaching in Dismounted Warrior Simulations
Newsome et al. Rewarding the cowboy, punishing the sniper: The training efficacy of computer‐based urban combat training environments
Banta et al. ARI Research Note 2005-01
Iyengar et al. Military development and applications of simulation systems
Durlach et al. Developing collective training for small unmanned aerial systems employment
Beal Instructor-facilitated vs. stand-alone tactical game training
Downes et al. Proving situational awareness impact in the land warrior project