DE112017003558T5 - Intelligenter trainer für taktische einsätze - Google Patents

Intelligenter trainer für taktische einsätze Download PDF

Info

Publication number
DE112017003558T5
DE112017003558T5 DE112017003558.9T DE112017003558T DE112017003558T5 DE 112017003558 T5 DE112017003558 T5 DE 112017003558T5 DE 112017003558 T DE112017003558 T DE 112017003558T DE 112017003558 T5 DE112017003558 T5 DE 112017003558T5
Authority
DE
Germany
Prior art keywords
cgf
behavior
robots
training field
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112017003558.9T
Other languages
English (en)
Inventor
Chuan Huat Tan
Chee Kwang Quah
Tik Bin Oon
Wui Siong Koh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ST Engineering Training and Simulation Systems Pte Ltd
Original Assignee
ST Electronics Training and Simulation Systems Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ST Electronics Training and Simulation Systems Pte Ltd filed Critical ST Electronics Training and Simulation Systems Pte Ltd
Publication of DE112017003558T5 publication Critical patent/DE112017003558T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/003Simulators for teaching or training purposes for military purposes and tactics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/002Manipulators for defensive or military tasks
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • F41A33/02Light- or radiation-emitting guns ; Light- or radiation-sensitive guns; Cartridges carrying light emitting sources, e.g. laser
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • F41G3/2616Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
    • F41G3/2622Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile
    • F41G3/2655Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile in which the light beam is sent from the weapon to the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J5/00Target indicating systems; Target-hit or score detecting systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J5/00Target indicating systems; Target-hit or score detecting systems
    • F41J5/08Infrared hit-indicating systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J9/00Moving targets, i.e. moving when fired at
    • F41J9/02Land-based targets, e.g. inflatable targets supported by fluid pressure

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

Es ist ein simulationsbasiertes Computer-Generated-Force-(CGF)-System für taktisches Training in einem Trainingsfeld vorgesehen, das einen Empfänger zum Empfangen von Informationen auf dem Trainingsfeld, eine Datenbank zum Speichern einer Bibliothek von CGF-Verhalten für einen oder mehrere Roboter in dem Trainingsfeld, ein CGF-Modul, das mit dem Empfänger und der Datenbank verbunden ist, zum Verarbeiten der Informationen auf dem Trainingsfeld und Auswählen eines Verhaltens für jeden des einen oder der mehreren Roboter in dem Trainingsfeld aus der Bibliothek von CGF-Verhalten, die in der Datenbank gespeichert sind, eine Steuerung, die mit dem CGF-Modul gekoppelt ist, zum Senden von Befehlen basierend auf den ausgewählten Verhalten an den einen oder die mehreren Roboter in dem Trainingsfeld aufweist. Die Informationen auf dem Trainingsfeld weisen den Ort eines oder mehrerer Übungsteilnehmer auf, und die Befehle weisen Schießen auf den einen oder die mehreren Übungsteilnehmer auf.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft das Gebiet autonomer Roboter. Insbesondere betrifft sie einen intelligenten Trainer für taktische Einsätze.
  • HINTERGRUND
  • Kampftruppen untergehen Training, bei dem menschliche Spieler gegen Trainer oder einen Gegenspieler (OPFOR) antreten, um eine gewünschte taktische Reaktion (zum Beispiel In-Deckung-Gehen und Zurückfeuern) zu üben. Bei den taktischen und Schießübungen könnte ein Trainer oder OPFOR von einem autonomen Roboter ersetzt werden. Der Roboter hat den Vorteil, dass er nicht ermüdet und emotionale Faktoren keinen Einfluss haben; er muss jedoch intelligente Bewegung und Reaktionen, wie Zurückfeuern in einer unkontrollierten Umgebung, aufweisen, das heißt, er könnte ein Roboter-Trainer sein, der als ein intelligentes Ziel agiert, das auf die Übungsteilnehmer reagiert.
  • Normalerweise weisen Systeme menschlich aussehende Ziele auf, die auf festen Schienen montiert sind und sich darauf bewegen, was zu einem fixen Bewegungseffekt führt. Bei anderen Beispielen agieren mobile Roboter als Ziele, die in einer Scharfschießsituation eingesetzt werden. Jedoch sind in solchen Systemen keine Zurückfeuerfähigkeiten definiert. Bei einem weiteren Beispiel ist ein einfaches Zurückfeuersystem vorgesehen. Dem System fehlen jedoch Mobilität, Intelligenz, und es zeigt kein menschliches Verhalten in seiner Reaktion. Normalerweise wird eine Trommelfeueranordnung verwendet, die nicht zielt.
  • KURZFASSUNG DER ERFINDUNG
  • Gemäß einem ersten Aspekt einer Ausführungsform ist ein simulationsbasiertes Computer-Generated-Force(CGF)-System für taktisches Training in einem Trainingsfeld vorgesehen, das einen Empfänger zum Empfangen von Informationen auf dem Trainingsfeld, eine Datenbank zum Speichern einer Bibliothek von CGF-Verhalten für einen oder mehrere Roboter in dem Trainingsfeld, ein CGF-Modul, das mit dem Empfänger und der Datenbank verbunden ist, zum Verarbeiten der Informationen auf dem Trainingsfeld und Auswählen eines Verhaltens für jeden des einen oder der mehreren Roboter in dem Trainingsfeld aus der Bibliothek von CGF-Verhalten, die in der Datenbank gespeichert sind, eine Steuerung, die mit dem CGF-Modul gekoppelt ist, zum Senden von Befehlen basierend auf den ausgewählten Verhalten an den einen oder die mehreren Roboter in dem Trainingsfeld aufweist. Die Informationen auf dem Trainingsfeld weisen den Ort eines oder mehrerer Übungsteilnehmer auf, und die Befehle weisen Schießen auf den einen oder die mehreren Übungsteilnehmer auf.
  • Gemäß einem zweiten Aspekt einer Ausführungsform ist ein Verfahren zum Durchführen taktischen Trainings in einem Trainingsfeld vorgesehen, das Empfangen von Informationen auf dem Trainingsfeld, Verarbeiten der Informationen auf dem Trainingsfeld, Auswählen eines Verhaltens für jeden des einen oder der mehreren Roboter in dem Trainingsfeld aus einer Bibliothek von CGF-Verhalten, die in einer Datenbank gespeichert sind, und Senden von Befehlen basierend auf den ausgewählten Verhalten an den einen oder die mehreren Roboter in dem Trainingsfeld aufweist. Die Informationen auf dem Trainingsfeld weisen den Ort eines oder mehrerer Übungsteilnehmer auf, und die Befehle weisen Schießen auf den einen oder die mehreren Übungsteilnehmer auf.
  • Figurenliste
  • Die beigefügten Figuren dienen zur Veranschaulichung verschiedener Ausführungsformen und Ausführungsformen und zur Erläuterung verschiedener Prinzipien und Vorteile gemäß einer vorliegenden Ausführungsform.
    • 1 stellt ein beispielhaftes System der vorliegenden Ausführungsform dar.
    • 2 stellt eine beispielhafte Zurückfeuerarchitektur eines Roboters der vorliegenden Ausführungsform dar.
    • 3 stellt eine Übersicht eines Roboterzurückfeuer-CGF-Systems der vorliegenden Ausführungsform dar.
    • 4 stellt ein beispielhaftes Zielbekämpfungsszenario der vorliegenden Ausführungsform dar.
    • 5 stellt einen beispielhaften Funktionsaktivitätsfluss eines automatischen Zielbekämpfungssystems aus Sicht des Schießers gemäß der vorliegenden Ausführungsform dar.
    • 6 stellt ein beispielhaftes Verfahren zur Fokuseinstellung zum Verfolgen des Begrenzungsrahmens des menschlichen Ziels gemäß der vorliegenden Ausführungsform dar.
    • 7 stellt ein beispielhaftes Systemroboterzurückfeuern gemäß der vorliegenden Ausführungsform dar.
    • 8 stellt ein Flussdiagramm eines Verfahrens zum Durchführen taktischen Trainings in einem Trainingsfeld gemäß der vorliegenden Ausführungsform dar.
    • 9 stellt ein Flussdiagramm der Bekämpfung eines Ziels unter Verwendung von Computervision gemäß der vorliegenden Ausführungsform dar.
  • Für Fachleute ist ersichtlich, dass die Elemente in den Figuren zur Vereinfachung und Klarheit dargestellt sind und nicht notwendigerweise maßstabsgetreu dargestellt sind. Zum Beispiel können die Abmessungen einiger Elemente in den Blockdiagrammen oder Flussdiagrammen hinsichtlich anderer Elemente übertrieben sein, um das Verständnis der vorliegenden Ausführungsformen zu erleichtern.
  • DETAILLIERTE BESCHREIBUNG
  • Gemäß einer Ausführungsform ist eine Roboterlösung vorgesehen, die als ein Trainer/OPFOR agieren würde, mit dem die Spieler taktische Manöver und Zielbekämpfungen üben können.
  • Gemäß einer Ausführungsform ist ein Simulationssystem-Backend vorgesehen, das das Szenario und die Verhalten für die Roboterplattform und die Nutzdaten bereitstellt. Die Roboterplattform trägt ein Computervision-basiertes Zurückfeuersystem für taktische Einsätze und Zielbekämpfung unter Verwendung einer Laseranvisierung (zum Beispiel MILES2000).
  • Diese Ausführungsformen ermöglichen mindestens Folgendes:
    1. (i) Lösen der Probleme bezüglich des Einsatzes in einer unkontrollierten Umgebung, wobei die Struktur des Szenarios nicht immer im Voraus bekannt ist, und
    2. (ii) Bereitstellen einer besseren repräsentativen Zielbekämpfungserfahrung für die Übungsteilnehmer mit unterschiedlichen Kompetenzlevels, das heißt das Zurückfeuersystem kann für unterschiedliche Reaktionslevels (zum Beispiel von Anfänger- bis Experten-Level) programmiert werden.
  • Diese Lösungen sind derart flexibel, dass sie einfach für unterschiedliche Roboterbasen, wie Räder, Beine oder fliegend, neu konfiguriert werden können. Insbesondere ist eine gemeinsame Realisierung der folgenden Eigenschaften vorteilhafterweise vorgesehen:
    1. (1) Simulationsbasierte Computer-Generated-Force(CGF)-Verhalten und Aktionen als eine Steuerung für die Roboterzurückfeuerplattform.
    2. (2) Ein Computervision-basiertes intelligentes Laseranvisierungs-Zurückfeuersystem.
    3. (3) Ein Sprachverfahrenverarbeitungs- und Übersetzungssystem für wechselseitige Sprachinteraktion zwischen Ausbilder/Übungsteilnehmer und der Roboterzurückfeuerplattform.
  • Robotersystem (autonome Plattform)
  • 1 zeigt eine Übersicht des Systems der vorliegenden Ausführungsform. Das System 100 weist eine entfernte Station und eine oder mehrere autonome Plattformen 104 auf. Auf der anderen Seite zeigt 2 eine beispielhafte Architektur des Systems 200 der vorliegenden Ausführungsform. Das System 200 weist eine Roboterbenutzerschnittstelle 202, einen Einsatzleitungsabschnitt 104, einen Zielerfassungs- und einen Zurückfeuerabschnitt 206, einen Robotersteuerabschnitt 208 und ein Kommunikations-, Netzwerk- und Motorsystem 210 auf. Das System 200 weist einen Satz Hardwarevorrichtungen auf, die ihre jeweiligen Algorithmen ausführen und die Systemdaten hosten.
  • Der Zielerfassungs- und Zurückfeuerabschnitt 206 in jeder der einen oder mehreren autonomen Plattformen 104 weist optischbasierte elektromagnetische Sender und Empfänger, eine Kamera/Kameras im Infrarot- bis Farbspektrumbereich, Sensoren für Entfernungen, Abbildungstiefensensoren und Schalldetektoren auf. Der optisch basierte elektromagnetische Sender und Empfänger kann als ein Laseranvisiersender und Detektor funktionieren, was ferner mit Bezug auf 4 besprochen wird. Die Kamera mit Infrarot- bis Farbspektrumbereich, der Sensor für Entfernungen und der Abbildungstiefensensor können eine Tagkamera, IR-Kamera oder Wärmebildkameras, LIDAR oder RADAR aufweisen. Diese Kameras und Sensoren können als die Computervision-Eingaben fungieren. Der Zielerfassungs- und Zurückfeuerabschnitt 206 weist ferner ein Mikrofon zum Detektieren von Schall auf. Zusätzlich zu hörbarem Ton können auch Ultraschall oder Schall mit einem anderen Frequenzbereich von dem Mikrofon detektiert werden. Um die Position der Vorrichtung zu stabilisieren, können motorisierte Kardan- und/oder Schwenk-Neige-Plattformen in dem Zielerfassungs- und Zurückfeuerabschnitt 206 vorgesehen sein.
  • Die eine oder die mehreren autonomen Plattformen 104 weisen ferner Rechenprozessoren, die mit dem optisch basierten elektromagnetischen Sender und Empfänger gekoppelt sind, Kameras und Sensoren zum Ausführen ihrer jeweiligen Algorithmen und Hosten der Systemdaten auf. Bei den Prozessoren kann es sich um eingebettete Prozessoren, CPUs, GPUs usw. handeln.
    Die eine oder die mehreren autonomen Plattformen 104 weisen ferner Kommunikations- und Netzwerkvorrichtungen 210 auf, wie zum Beispiel WiFi, 4G/LTE, HF-Radios usw. Diese Kommunikations- und Netzwerkvorrichtungen 210 sind derart angeordnet, mit den Rechenprozessoren zu arbeiten.
  • Die eine oder die mehreren autonomen Plattformen 104 können Beine aufweisen, Rollen aufweisen, Unterwasser-, Überwasserfahrzeuge oder eine beliebige Transportfahrzeugart aufweisen, derart, dass sich die eine oder die mehreren autonomen Plattformen 104 unabhängig von den Bodenbedingungen bewegen können.
  • Das Aussehen der einen oder mehreren autonomen Plattformen 104 kann als ein Oppositions-Gegenspieler (OPFOR) oder als ein Nicht-Teilnehmer (zum Beispiel eine Zivilperson) konfiguriert sein. Abhängig von dem Szenario, das verwendet werden soll, sind die eine oder die mehreren autonomen Plattformen 104 dazu flexibel ausgelegt, sich jedem Szenario anzupassen.
  • Der Zielerfassungs- und Zurückfeuerabschnitt 206 kann einen Paint-Ball, Platzpatronen oder Laser-Pointer aufweisen, um die Effektivität des Trainings zu erhöhen. Der Zielerfassungs- und Zurückfeuerabschnitt 206 kann auch bei Militär- und Polizeitrainings sowie für Sport und Unterhaltung angewendet werden.
  • Bei einer Ausführungsform kann ein Bildmaschinenlernabschnitt in einer entfernten Station mit dem sichtbasierten Zielanvisiersystem 206 in der autonomen Plattform 104 arbeiten, um die Zielanvisierfunktion, wie bei 106 in 1 gezeigt, zu verbessern.
  • Simulationssystem
  • Ein Simulationssystem 102 aus 1 stellt durch seine Computer-Generated-Force (CGF) dem System 100 die Intelligenz, um zu ermöglichen, dass das Training gemäß geplanten Szenarios ausgeführt werden kann, und intelligente Verhalten der Robotereinheiten (Zurückfeuerroboterplattform) 104 bereit.
  • Die Module eines rational/kognitiven CGF-Standardmodells können nicht direkt einen Roboter mit Erfassen und Steuerfeedback von dem Roboter steuern, da sich diese hochentwickelten Verhaltensmodelle nicht notwendigerweise in Roboteraktionen/- Bewegungen übertragen lassen und umgekehrt. Normalerweise ist diese indirekte Beziehung ein Haupthindernisfaktor, der die direkte Integration von Modulen schwierig gestaltet. Deshalb war es langwierig, die Trainingsszenarios für die autonomen Aktionen eines Roboters als Teil des Trainingsszenarios in einem herkömmlichen System zu entwickeln.
  • Gemäß der vorliegenden Ausführungsform wird der im Voraus aufgezeichnete Pfad des tatsächlichen Roboters unter Fernbedienung verwendet, um ein Trainingsszenario einzustellen. Des Weiteren wird der Computer im Gegensatz zu den langwierigen Einstellungsproblemen, die oben aufgezeigt sind, über eine 3D-Spiel-Engine verwendet, um ein intuitiveres Verfahren zum Designen der Roboterbewegungen bereitzustellen.
  • Gemäß einer Ausführungsform ist eine CGF-Middleware (M-CGF), die in ein Standard-CGF-Verhaltensmodell integriert ist, wie bei 204 in 2 gezeigt, vorgesehen. Die CGF wird als das intelligente Modul für diesen taktischen Bekämpfungsroboter verwendet. 3 zeigt eine Übersicht des Roboter-CGF-Systems. Mittels der M-CFG verarbeitet es die multi-variablen und multi-modalen Eingaben eines hochentwickelten Verhaltens und Roboteraktionen in ein aussagekräftiges Echtzeit-Signal, um den Zurückfeuerroboter anzuweisen.
  • Die Funktionalitäten und Komponenten dieses Simulationssystems weisen CGF-Middleware auf. Die CGF-Middleware 308 gibt 3D-Aktionsparameter von Robotern, geplante Einsatzparameter, CFG-Verhalten und roboterspezifische dynamische Parameter, wie zum Beispiel Maximalgeschwindigkeit, Beschleunigung, Nutzlast usw., ein.
  • Die CGF-Middleware 308 verarbeitet die multi-variablen und multi-modalen Eingaben (sowohl diskrete als auch kontinuierliche Daten in der raumzeitlichen Domäne) in ein aussagekräftiges Echtzeit-Signal, um den Roboter anzuweisen. Winzige Echtzeit-Signale veranlassen den Roboteremulator zu Visualisierung in der Grafikmaschine.
  • In der CGF-Middleware 308 wird ein Roboter für virtuelle Synthese des Zurückfeuerroboters für Visualisierung verwendet. Die CGF-Middleware 308 könnte auch die Form einer Softwareanwendung oder einer dedizierten Hardware, wie zum Beispiel FPGA, aufweisen.
  • Das Simulationssystem weist ferner kognitive Computer-Generated-Force(CGF)-Komponenten auf. In den kognitiven CGF-Komponenten sind die Roboterverhalten wie CGF-Verhalten gestaltet und können sich in dem Roboter, in dem entfernten Server oder in beiden befinden.
  • Die CGF-Verhalten, die auf der Roboterplattform abgebildet sind, können die Roboteraktionen direkt ansteuern und somit zu gewünschten autonomen Verhalten führen, um zu ermöglichen, dass die Trainingsergebnisse wie geplant sind.
  • In den kognitiven CGF-Komponenten wird Maschinenlernen verwendet, um die Verhalten anzupassen und auszufeilen. Die kognitiven CGF-Komponenten verwenden auch Informationen über Simulationseinheiten und Waffenmodelle, um die CGF-Verhalten auszufeilen.
  • Des Weiteren ermöglichen es die kognitiven CGF-Komponenten dem Roboter (der autonomen Plattform), mit anderen Robotern für kollaborative Verhalten, wie zum Beispiel das Training für Militäroperationen, zu interagieren.
  • Die kognitiven CGF-Komponenten ermöglichen es dem Roboter auch, mit Menschen, wie zum Beispiel Trainern und Übungsteilnehmern, zu interagieren. Die Komponenten erzeugen aktionsbasierte Sprachvorgänge und verhaltensbasierte Sprachvorgänge, bevorzugt in mehreren Sprachen, damit den Übungsteilnehmern Anweisungen gegeben werden können. Die Komponenten weisen auch Spracherkennungskomponenten auf, derart, dass der Roboter Anweisungen von den Trainern empfängt und verarbeitet.
  • Das Simulationssystem weist ferner eine Geländedatenbank 304 auf. Die Daten, die von der Geländedatenbank 304 erhalten werden, gestatten 3D-Visualisierung des Feldes, was autonomes Verhalten ausfeilt.
  • Basierend auf Computervisionsalgorithmen erstellt das Simulationssystem Datensätze virtueller Bilddaten für Maschinenlernen. Die Datensätze virtueller Bilddaten werden durch Maschinenlernen ausgefeilt.
  • Das System weist ferner eine Bibliothek an CGF-Verhalten auf. Ein oder mehrere CGF-Verhalten werden in der Bibliothek von CGF-Verhalten basierend auf Trainingszielen ausgewählt.
  • In dem Simulationssystem wählt eine Lernmaschine automatisch Verhalten und Schwierigkeitsgrade basierend auf Aktionen der Übungsteilnehmer, die von der Computervision detektiert werden, aus. Zum Beispiel detektieren die Roboterziele, falls die Übungsteilnehmer nicht in der Lage sind, die Roboterziele gut zu bekämpfen, die schwache Trainingsleistung. In Reaktion darauf bestimmen die Roboterziele, den Schwierigkeitsgrad von „Experte“ auf „Anfänger“ herabzusetzen. Alternativ dazu können die Roboterziele Verhalten ändern, wie zum Beispiel Bewegungen zu verlangsamen, um das Training wirksamer zu gestalten.
  • Gesten von Menschen werden mit Feedbacksteuerung, wie zum Beispiel haptischem Feedback oder taktilem Feedback, auf die Befehle abgebildet. In dem Simulationssystem werden die Gesten von Menschen darauf trainiert, die Genauigkeit zu verbessern. Gestensteuerung für einzelne oder mehrere Robotereinheiten wird in dem Simulationssystem ausgeführt. Wenn die Gestensteuerung in dem Simulationssystem erfolgreich ist, wird sie auf der Einsatzsteuerung des Roboters wiedergegeben.
  • Einsatzsteuerung
  • Die Einsatzsteuerung 204 in dem Zurückfeuerroboter kann computer-implementierte Verfahren ausführen, die alle Funktionalitäten in dem Zurückfeuerroboter leiten und eine Schnittstelle mit dem entfernten System bilden. Zum Beispiel kann die Einsatzsteuerung 204 Szenariopläne von dem entfernten System empfangen. Die Einsatzsteuerung 204 kann auch Verhaltensmodelle verarbeiten.
  • Die Einsatzsteuerung 204 verteilt ferner Aufgaben an andere Module und überwacht die verteilten Aufgaben.
  • Des Weiteren verarbeitet die Einsatzsteuerung 204 Koordinierung zwischen den Zurückfeuerrobotern für kollaborative Verhalten, wie zum Beispiel Training für Militäroperationen.
  • Während des Trainings werden verschiedene Daten, wie zum Beispiel Roboterverhalten, Aktionen und Navigation aufgezeichnet und gemäß einem entsprechenden Format komprimiert.
  • Zielerfassung und -Bekämpfung
  • Bei einem Roboterzurückfeuersystem muss ein Roboter ein Ziel (einen Übungsteilnehmer) in der Visierlinie einer Waffe erfassen und verfolgen, bevor das Ziel (der Übungsteilnehmer) den Roboter trifft. Nachdem ein Roboter auf ein Ziel schießt, muss dieser wissen, wie genau er das Ziel trifft. Ebenfalls müssen in jedem System das Zielerfassungs- und Schießmodul ausgerichtet sein.
  • 4 zeigt eine Übersicht eines beispielhaften Computervision-basierten Zielbekämpfungssystems 400. Das System gestattet es einem Schießer (wie zum Beispiel einer Roboterplattform) 402, ein entferntes Ziel (wie zum Beispiel einen Übungsteilnehmer) 404 zu bekämpfen.
  • Der Schießer 402 weist eine Zielbekämpfungsplattform, einen Prozessor und einen Lasertransmitter auf. Die Zielbekämpfungsplattform erfasst ein Ziel 404 mittels einer Kamera mit Computervisions-Funktionen und verfolgt das Ziel 404. Die Zielbekämpfungsplattform ist mit dem Prozessor gekoppelt, der ein computer-implementiertes Verfahren zum Empfangen von Informationen von der Zielbekämpfungsplattform ausführt. Der Prozessor ist ferner mit dem Lasertransmitter gekoppelt, vorzugsweise zusammen mit einem Ausrichtungssystem. Der Prozessor führt ferner ein computer-implementiertes Verfahren zum Senden von Anweisungen an den Lasertransmitter, einen Laserstrahl 406 mit einer bestimmten Leistungsausgabe in eine bestimmte Richtung, aus.
  • Das Ziel 404 weist einen Laserdetektor 408 und einen Zielgenauigkeitsindikator 410 auf. Der Laserdetektor 408 empfängt den Laserstrahl 406 und identifiziert den Ort, an dem der Laserstrahl auf das Ziel 404 auftrifft. Der Abstand zwischen einem Punkt, den der Laserstrahl 406 erreichen soll, und dem Punkt, den der Laserstrahl 406 tatsächlich erreicht, wird von dem Zielgenauigkeitsindikator 410 gemessen. Der Zielgenauigkeitsindikator 410 sendet eine Zielgenauigkeitsrückmeldung 412, die den gemessenen Abstand aufweist, an den Prozessor in dem Schießer 402. Bei einer Ausführungsform stellt der Zielgenauigkeitsindikator 410 sofort Treffgenauigkeitsrückmeldung 412 in Form von codierten HF-Signalen an den Schießer bereit. Der Zielgenauigkeitsindikator 410 kann Treffgenauigkeitsrückmeldung 412 in Form von Sichtindikatoren bereitstellen. Der Prozessor in dem Schießer 402 kann Befehle von der CGF in Reaktion auf die Treffgenauigkeitsrückmeldung 412 empfangen.
  • 5 zeigt einen Funktionsaktivitätsfluss 500 des automatischen Zielbekämpfungssystems. Der Funktionsaktivitätsfluss 500 in verschiedenen Phasen weist die verschiedenen Aktionen und Events, zum Beispiel Rotation der Plattform 510, wann Feuern eines Lasers 512 gestartet und gestoppt werden soll, wann Zielerfassung gestartet werden soll, und mit anderen gleichzeitigen Funktionen auf.
  • Auf Schießerseite ist mindestens eine Kamera und ein Laserstrahltransmitter auf der rotierenden Zielbekämpfungsplattform angebracht. Die Kamera und der Transmitter können auch unabhängig gedreht werden. Wenn das Ziel bei 502 erfasst wird, geht der Funktionsaktivitätsfluss zu Zielverfolgung 506 über. Die Zielerfassung und -Verfolgung werden von den Computervision-basierten Verfahren, die auf dem Prozessor gehostet sind, ausgeführt.
  • Bei 508 wird der Positionsunterschied zwischen dem Begrenzungsrahmen des verfolgten Ziels und dem Fadenkreuz zum Drehen der Plattform 510, bis die Begrenzungsrahmenmitte und das Fadenkreuz ausgerichtet sind, verwendet. Sobald die Verfolgung als stabil gilt, wird der Laser bei 512 ausgelöst.
  • Auf der Zielseite erzeugt das Ziel bei Erfassung eines Laserstrahls/-Kegels ein Treffgenauigkeitsrückmeldungssignal mittels (i) eines visuellen Mittels (Blinklicht) oder (ii) eines codierten und modulierten Signals oder HF-Mediums, auf das der „Schießer“ eingestellt ist.
  • Der Schießer wartet auf die Treffgenauigkeitsrückmeldung von der Zielseite bei 504. Bei Empfang der Treffgenauigkeitsrückmeldung entscheidet das System, ob mit demselben Ziel fortgefahren werden soll.
  • 6 veranschaulicht Verfolgen des Ziels und das Laserfeuerkriterium 600. Die Bildmitte 608 ist möglicherweise nicht genau mit dem Fadenkreuz 606 ausgerichtet und der Pixelpositionsversatz zwischen dem Fadenkreuz 606 und dem schwarzen Punkt 608 kompensiert die Differenz zwischen Position und Ausrichtung bei Befestigung auf der Plattform (siehe 4). Die Berechnung dieses Pixelversatzes wird von einer ähnlichen Anordnung wie in 4 durchgeführt.
  • Bei 602 ist das Ziel nicht mit dem Fadenkreuz 606 ausgerichtet. Somit wird die Plattform gedreht, bis sich das Fadenkreuz 606 in der Mitte eines Verfolgerbegrenzungsrahmens befindet, bevor der Laser, wie bei 604 gezeigt, gefeuert wird.
  • Bei einem Beispiel ist ein System für automatische Computervision-basierte Erfassung und Verfolgung von Zielen (Menschen, Fahrzeuge usw.) vorgesehen. Unter Verwendung eines adaptiven Kegels von Laserstrahlschießen basierend auf Bildverfolgung richtet das System speziell Visieren des Laser-Zurückfeuertransmitters aus, um die Genauigkeit der Verfolgung der Ziele zu verbessern.
  • Die Verwendung von Computervision löst das Problem unbekannter oder nicht vorhandener Zielortsgenauigkeit und Zielverdeckung in unkontrollierten Szenarien. Ohne die Computervision ist Erfassen und Verfolgen des Ziels möglicherweise nicht erfolgreich.
  • Bei einem Beispiel wird der Computervision-Algorithmus von einem Algorithmus mit Informationen von Geo-Position und Geo-Datenbank unterstützt. Die Computervision kann auch einzelne oder mehrere Kameras, oder mehrere Sichten oder eine 360-Sicht aufweisen.
  • Das System weist einen bzw. mehrere Zielbekämpfungslaser/-Transmitter und Detektoren auf. Das System weist ferner Entfernungs- und Tiefenerfassung, wie zum Beispiel LIDAR, RADAR, Ultraschall usw., auf.
  • Die Zielbekämpfungslaser weisen Selbstkorrektur bei Fehlausrichtung mittels Computervision-Verfahren auf. Zum Beispiel dient die Selbstkorrekturfunktion für Feineinstellung bis grob physische Befestigung. Des Weiteren könnte auch ein adaptiver Kegel von Feuerlaserschießen für Ausrichtung und Fokussierung verwendet werden.
  • Als ein Betriebsmodus werden Livebilddaten gesammelt und an ihre eigene Bilddatenbank für zukünftiges Training eines Erfassungs- und Verfolgungsalgorithmus angehängt.
  • Bei einem Beispiel teilen Roboter gemeinsam Informationen, wie zum Beispiel Bild- und Zieldaten, die zur kollektiven Intelligenz der Roboter beitragen können.
  • Audio- und Sprachsystem
  • Bei einem Beispiel kann ein Kampf-Sprachvorgang automatisch während Zielbekämpfung erstellt werden. Die Zielbekämpfung wird für lokale Kommunikation und Modulationsübertragung in Audio übersetzt.
  • Des Weiteren empfängt das Audio- und Sprachsystem demodulierte Funksignale von menschlichen Mitspielern und interpretiert diese, so dass diese Interaktion mit menschlichen Mitspielern ermöglichen. Zusätzlich kann das System auf zusammenarbeitende Menschen und/oder Roboter mit hörbarer Sprachausgabe durch ein Lautsprechersystem oder durch das Funkkommunikationssystem reagieren. Das System gibt auch die hörbaren Effekte entsprechender Waffen aus.
  • Weiter: Robotersteuerung, Planer, Kommunikation, Netzwerk- und Motorsystem
  • Zusätzlich zu den oben besprochenen Merkmalen kann das System gegnerische einsatzbasierte Abbildung, Lokalisierung und Navigation mit Echtzeit-Teilung und - Aktualisierung von Abbildungsdaten zwischen zusammenarbeitenden Robotern aufweisen. Des Weiteren können verteilte Planungsfunktionalitäten in dem System vorgesehen sein.
  • Es können auch Energieversorgungssysteme in dem System vorgesehen sein. Das System kann von Batteriesystemen oder anderen Arten von Energieversorgungssystemen des Stands der Technik, wie zum Beispiel Hybrid-, Solarsystemen usw., versorgt werden. Das System weist einen Heim-Rückkehr-Modus auf, wenn das Energieversorgungslevel (bezüglich der Heimladestation) niedrig wird.
  • 7 zeigt beispielhafte Profile verschiedener Roboterplattformen 700. Ein beispielhaftes Zielkörperprofil 702 weist Beispielprofil 1, Beispielprofil 2 und Beispielprofil 3 auf. Beispielprofil 1 weist Grundkomponenten für den Zielkörper auf, während Beispielprofil 2 und Beispielprofil 3 Lasererfassungssätze zum Verbessern der Erfassung von Lasern aufweisen. Außerdem weist das Beispielprofil 3 eine modellpuppenförmige Figur auf, um die Trainingserfahrung zu verbessern. Durch Verwendung des modellpuppenförmigen Ziels, das eine ähnliche Größe wie ein Mensch aufweist, kann sich ein Übungsteilnehmer so fühlen, als wäre er/sie in einer realen Situation.
  • Eine beispielhafte Zurückfeuer-Nutzlast wird als 704 gezeigt. Die Zurückfeuer-Nutzlast weist eine Kamera und einen Schwenk-Neige-Aktuator und einen Laseremitter auf. Daten, die von der Kamera erfasst werden, steuern den Schwenk-Neige-Aktuator an, den Laseremitter derart auszurichten, dass der Laserstrahl, der von dem Laseremitter emittiert wird, genau das Ziel trifft.
  • Beispielhafte Antriebsbasen sind als 706 gezeigt. Die beispielhaften Antriebsbasen weisen Zweiradbasen und Vierradbasen auf. Sowohl die Zweiradbasen und die Vierradbasen weisen LIDAR und weitere Sensoren auf. Außerdem sind bordeigen Sensoren eingebettet.
  • 8 stellt ein Flussdiagramm 800 eines Verfahrens zum Durchführen taktischen Trainings in einem Trainingsfeld gemäß der vorliegenden Ausführungsform dar. Das Verfahren weist Schritte des Empfangens von Informationen auf dem Trainingsfeld (802), des Verarbeitens der empfangenen Informationen (804), des Auswählens von Verhalten für Roboter aus einer Bibliothek (806) und des Sendens von Befehlen basierend auf dem ausgewählten Verhalten (808) auf.
  • Informationen, die auf dem Trainingsfeld in Schritt 802 erhalten werden, weisen Ortsinformationen eines oder mehrerer Roboter in dem Trainingsfeld auf. Die Informationen auf dem Trainingsfeld weisen auch Geländeinformationen des Trainingsfelds auf, sodass sich ein oder mehrere Roboter ohne Probleme fortbewegen können. Die Informationen weisen ferner Ortsinformationen von Übungsteilnehmern auf, sodass das Verhalten jedes der einen oder mehreren Roboter hinsichtlich der Ortsinformationen der Übungsteilnehmer bestimmt wird.
  • In Schritt 804 werden die empfangenen Informationen derart verarbeitet, dass das Verhalten für jeden des einen oder der mehreren Roboter basierend auf den Ergebnissen der Verarbeitung ausgewählt wird.
  • In Schritt 806 wird das Verhalten für jeden des einen oder der mehreren Roboter in dem Trainingsfeld aus einer Bibliothek von CGF-Verhalten, die in einer Datenbank gespeichert sind, ausgewählt. Die Auswahl des Verhaltens kann die Auswahl von kollaborativem Verhalten mit anderen Robotern und/oder mit einem oder mehreren Übungsteilnehmern aufweisen, sodass der eine oder die mehreren Roboter organisiertes Verhalten zeigen können. Die Auswahl des Verhaltens kann auch Kommunizieren mit hörbarer Sprachausgabe über ein Lautsprechersystem oder über ein Funkkommunikationssystem aufweisen.
  • Die Auswahl des Verhaltens kann ferner nicht nur Ausgaben von Sprache über den Lautsprecher, sondern auch Eingeben von Sprache über ein Mikrofon für die Kommunikation aufweisen.
  • 9 stellt ein Flussdiagramm 900 des Bekämpfens eines Ziels unter Verwendung von Computervision gemäß der vorliegenden Ausführungsform dar. Das Verfahren weist Schritte des Erfassens eines Ziels (902), des Verfolgens des erfassten Ziels (904), Berechnen einer Positionsdifferenz zwischen dem Ziel und einer Ausrichtung des Laserstrahltransmitters (906), des Einstellens der Ausrichtung, um dem verfolgten Ziel zu entsprechen (908), und des Emittierens eines Laserstrahls zu dem Ziel (910) auf.
  • Gemäß einer Ausführungsform weist das Verfahren 900 ferner Empfangen einer Rückmeldung hinsichtlich der Genauigkeit der Laserstrahlemission von dem Laserstrahltransmitter auf.
  • In Schritt 902 weist das Erfassen Entfernungs- und Tiefenerfassung auf, darunter beliebig LIDAR und RADAR, für genaue Lokalisierung des Ziels.
  • In Schritt 906 weist das Berechnen Berechnen einer Positionsdifferenz von Geo-Positionsinformationen in einer Geo-Datenbank auf.
  • In Schritt 908 weist das Einstellen der Ausrichtung Drehen einer Plattform des Laserstrahltransmitters auf.
  • Zusammenfassend stellt die vorliegende Erfindung eine Roboterlösung bereit, die als ein Trainer/OPFOR agieren würde, mit dem die Spieler taktische Manöver und Zielbekämpfungen üben können.
  • Im Gegensatz zu herkömmlichen Systemen, denen es an Mobilität, Intelligenz und menschlichem Verhalten fehlt, stellt die vorliegende Erfindung simulationsbasierte Computer-Generated-Force-(CGF-)Verhalten und -Aktionen als Steuerung für die Roboterzurückfeuerplattform bereit.
  • Insbesondere stellt die vorliegende Erfindung ein Computervision-basiertes intelligentes Laseranvisierungs-Zurückfeuersystem bereit, das eine robustere repräsentative Zielbekämpfungserfahrung für die Übungsteilnehmer mit unterschiedlichen Kompetenzlevels ermöglicht.
  • Fachleuten werden viele Modifizierungen und weitere Ausführungsformen der Erfindung, die hier vorgestellt wird, offensichtlich, auf die die Erfindung Anspruch über die Lehren, die in der vorhergehenden Beschreibung und den zugehörigen Zeichnungen dargestellt werden, erhebt. Deshalb gilt zu verstehen, dass die Erfindung nicht auf die spezifischen offenbarten Ausführungsformen beschränkt ist, und dass Modifizierungen und weitere Ausführungsformen in dem Schutzumfang der angefügten Ansprüche inbegriffen sein sollen. Auch wenn hierin spezifische Begriffe verwendet werden, sind diese in einem rein generischen und beschreibenden Sinn verwendet und dienen nicht der Beschränkung.

Claims (23)

  1. Simulationsbasiertes Computer-Generated-Force-(CGF)-System für taktisches Training in einem Trainingsfeld, das Folgendes aufweist: einen Empfänger zum Empfangen von Informationen auf dem Trainingsfeld; eine Datenbank zum Speichern einer Bibliothek von CGF-Verhalten für einen oder mehrere Roboter in dem Trainingsfeld; ein CGF-Modul, das mit dem Empfänger und der Datenbank verbunden ist, zum Verarbeiten der Informationen auf dem Trainingsfeld und Auswählen eines Verhaltens für jeden des einen oder der mehreren Roboter in dem Trainingsfeld aus der Bibliothek von CGF-Verhalten, die in der Datenbank gespeichert sind; eine Steuerung, die mit dem CGF-Modul gekoppelt ist, zum Senden von Befehlen basierend auf den ausgewählten Verhalten an den einen oder die mehreren Roboter in dem Trainingsfeld; wobei die Informationen auf dem Trainingsfeld den Ort eines oder mehrerer Übungsteilnehmer aufweisen, und die Befehle Schießen auf den einen oder die mehreren Übungsteilnehmer aufweisen.
  2. Simulationsbasiertes CGF-System nach Anspruch 1, wobei das Verhalten für jeden des einen oder der mehreren Roboter in dem Trainingsfeld kollaboratives Verhalten mit anderen Robotern aufweist, sodass der eine oder die mehreren Roboter organisierte Verhalten zeigen können.
  3. Simulationsbasiertes CGF-System nach Anspruch 1 oder Anspruch 2, wobei das Verhalten für jeden des einen oder der mehreren Roboter in dem Trainingsfeld kollaboratives Verhalten mit dem einen oder den mehreren Übungsteilnehmern aufweist, sodass der eine oder die mehreren Roboter organisiertes Verhalten mit dem einen oder den mehreren Übungsteilnehmern zeigen können.
  4. Simulationsbasiertes CGF-System nach Anspruch 3, wobei die kollaborativen Verhalten Kommunikation durch hörbare Sprachausgabe über ein Lautsprechersystem oder über ein Funkkommunikationssystem aufweisen.
  5. Simulationsbasiertes CGF-System nach einem der vorstehenden Ansprüche, wobei die Informationen, die von dem Empfänger empfangen werden eine oder mehrere der folgenden Eingaben aufweisen: (i) 3D-Aktionsparameter von Robotern, (ii) geplante Einsatzparameter, (iii) CGF-Verhalten und (iv) roboterspezifische dynamische Parameter, die Maximalgeschwindigkeit, Beschleunigung und Nutzlast aufweisen.
  6. Simulationsbasiertes CGF-System nach einem der vorstehenden Ansprüche, wobei die Datenbank in einem oder mehreren Robotern enthalten ist.
  7. Simulationsbasiertes CGF-System nach einem der vorstehenden Ansprüche, wobei die Datenbank in einem entfernten Server enthalten ist.
  8. Simulationsbasiertes CGF-System nach einem der vorhergehenden Ansprüche, das ferner Erstellen von Datensätzen von virtuellen Bilddaten für Maschinenlernen basierend auf einem Computervision-Algorithmus aufweist, um Verhalten anzupassen und auszufeilen.
  9. Simulationsbasiertes CGF-System nach einem der vorstehenden Ansprüche, wobei die Bibliothek von CGF-Verhalten, die in der Datenbank gespeichert ist, Simulationseinheiten und Waffenmodelle aufweist.
  10. Simulationsbasiertes CGF-System nach einem der vorhergehenden Ansprüche, das ferner eine Lernmaschine zum Auswählen von Verhalten und einem Schwierigkeitsgrad basierend auf Computervision-Erfassung von Aktionen eines oder mehrerer Übungsteilnehmer aufweist.
  11. Simulationsbasiertes CGF-System nach einem der vorhergehenden Ansprüche, das ferner ein Computervision-basiertes Zielbekämpfungssystem aufweist, wobei das Computervision-basierte Zielbekämpfungssystem Folgendes aufweist: eine Kamera zum Erfassen und Verfolgen eines Ziels; einen Laserstrahltransmitter zum Emittieren eines Laserstrahls auf das Ziel; und einen Prozessor, der mit der Kamera und dem Laserstrahltransmitter gekoppelt ist, zum Berechnen einer Positionsdifferenz zwischen dem verfolgten Ziel und einer Ausrichtung des Laserstrahltransmitters und zum Anweisen des Laserstrahltransmitters, die Ausrichtung anzupassen, um dem verfolgten Ziel zu entsprechen.
  12. Simulationsbasiertes CGF-System nach Anspruch 11, wobei das Computervision-basierte Zielbekämpfungssystem ferner einen Empfänger aufweist, der mit dem Prozessor gekoppelt ist, um eine Rückmeldung hinsichtlich der Genauigkeit der Laserstrahlemission von dem Laserstrahltransmitter zu empfangen und dem Prozessor Rückmeldung bereitzustellen.
  13. Simulationsbasiertes CGF-System nach Anspruch 11 oder 12, wobei die Ausrichtung des Laserstrahltransmitters durch Drehen einer Plattform des Laserstrahlemitters angepasst wird.
  14. Simulationsbasiertes CGF-System nach einem der Ansprüche 11 bis 13, wobei die Kamera eine oder mehrere der folgenden Kameras aufweist: Einzelkamera, Multi-Kamera, Vielsicht-Kamera und 360-Sicht-Kamera.
  15. Verfahren zum Ausführen taktischen Trainings in einem Trainingsfeld, das Folgendes aufweist: Empfangen von Informationen auf dem Trainingsfeld; Verarbeiten der Informationen auf dem Trainingsfeld; Auswählen eines Verhaltens für jeden des einen oder der mehreren Roboter in dem Trainingsfeld aus einer Bibliothek von CGF-Verhalten, die in einer Datenbank gespeichert sind; und Senden von Befehlen basierend auf den ausgewählten Verhalten an den einen oder die mehreren Roboter in dem Trainingsfeld; wobei die Informationen auf dem Trainingsfeld den Ort eines oder mehrerer Übungsteilnehmer aufweisen, und die Befehle Schießen auf den einen oder die mehreren Übungsteilnehmer aufweisen.
  16. Verhalten nach Anspruch 15, wobei Auswählen des Verhaltens Auswählen von kollaborativem Verhalten mit anderen Robotern aufweist, sodass der eine oder die mehreren Roboter organisiertes Verhalten zeigen können.
  17. Verfahren nach Anspruch 15 oder 16, wobei Auswählen des Verhaltens Auswählen von kollaborativem Verhalten mit einem oder mehreren Übungsteilnehmern aufweist, sodass der eine oder die mehreren Roboter organisiertes Verhalten mit dem einen oder den mehreren Übungsteilnehmern zeigen können.
  18. Verfahren nach Anspruch 15, wobei Auswählen des kollaborativen Verhaltens Kommunikation durch hörbare Sprachausgabe über ein Lautsprechersystem oder über ein Funkkommunikationssystem aufweist.
  19. Verfahren nach einem der Ansprüche 15 bis 18, das ferner Zielbekämpfung unter Verwendung von Computervision aufweist, wobei das Bekämpfen Folgendes aufweist: Erfassen eines Ziels; Verfolgen des erfassten Ziels; Berechnen einer Positionsdifferenz zwischen dem verfolgten Ziel und einer Ausrichtung eines Laserstrahltransmitters; Anpassen der Ausrichtung, um dem verfolgten Ziel zu entsprechen; und Emittieren eines Laserstrahls von dem Laserstrahltransmitter zu dem Ziel.
  20. Verfahren nach Anspruch 19, das ferner Empfangen einer Rückmeldung hinsichtlich der Genauigkeit der Laserstrahlemission von dem Laserstrahltransmitter aufweist.
  21. Verfahren nach Anspruch 19 oder 20, wobei die Anpassung der Ausrichtung Drehen einer Plattform des Laserstrahltransmitters aufweist.
  22. Verfahren nach einem der Ansprüche 19 bis 21, wobei das Berechnen Berechnen einer Positionsdifferenz von Geo-Positionsinformationen in einer Geo-Datenbank aufweist.
  23. Verfahren nach einem der Ansprüche 19 bis 22, wobei das Erfassen Entfernungs- und Tiefenerfassung, darunter beliebig LIDAR und RADAR, aufweist.
DE112017003558.9T 2016-07-12 2017-01-05 Intelligenter trainer für taktische einsätze Ceased DE112017003558T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG10201605705P 2016-07-12
SG10201605705P 2016-07-12
PCT/SG2017/050006 WO2018013051A1 (en) 2016-07-12 2017-01-05 Intelligent tactical engagement trainer

Publications (1)

Publication Number Publication Date
DE112017003558T5 true DE112017003558T5 (de) 2019-05-09

Family

ID=60953210

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017003558.9T Ceased DE112017003558T5 (de) 2016-07-12 2017-01-05 Intelligenter trainer für taktische einsätze

Country Status (4)

Country Link
US (1) US20190244536A1 (de)
AU (1) AU2017295574A1 (de)
DE (1) DE112017003558T5 (de)
WO (1) WO2018013051A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180204108A1 (en) * 2017-01-18 2018-07-19 Microsoft Technology Licensing, Llc Automated activity-time training
WO2020068202A2 (en) * 2018-06-27 2020-04-02 Cubic Corporation Phonic fires trainer
KR20210125067A (ko) 2019-02-08 2021-10-15 야스카와 아메리카 인코포레이티드 관통 빔 자동 티칭
FR3101553A1 (fr) * 2019-10-04 2021-04-09 Jean Frédéric MARTIN Robot mobile autonome pour jeu laser
CN110853480B (zh) * 2019-10-31 2022-04-05 山东大未来人工智能研究院有限公司 一种具有弹射功能的智能教育机器人
US20210199407A1 (en) * 2019-12-30 2021-07-01 Scott Wohlstein System and method for increasing performance of shooter and firearm
KR20210099438A (ko) * 2020-02-04 2021-08-12 한화디펜스 주식회사 타격장치를 원격으로 제어하는 운용장치 및 방법
CN113251869A (zh) * 2021-05-12 2021-08-13 北京天航创联科技发展有限责任公司 一种可自主对抗的机器人靶标训练系统及控制方法
AU2022200355A1 (en) * 2022-01-19 2023-08-03 Baird Technology Pty Ltd Target device for use in firearm training

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR950031146A (ko) * 1994-04-06 1995-12-18 이리마지리 쇼우이찌로 슈팅 게임용 지적 타겟
AUPR080400A0 (en) * 2000-10-17 2001-01-11 Electro Optic Systems Pty Limited Autonomous weapon system
EP1840496A1 (de) * 2006-03-30 2007-10-03 Saab Ab Rückschusseinheit und Verfahren zum Rückschuss gegen einen ein Ziel verfehlenden Schützen
US8398404B2 (en) * 2007-08-30 2013-03-19 Conflict Kinetics LLC System and method for elevated speed firearms training
US20150054826A1 (en) * 2009-03-19 2015-02-26 Real Time Companies Augmented reality system for identifying force capability and occluded terrain
WO2011035363A1 (en) * 2009-09-23 2011-03-31 Marathon Robotics Pty Ltd Methods and systems for use in training armed personnel
KR101211100B1 (ko) * 2010-03-29 2012-12-12 주식회사 코리아일레콤 선도 사격을 모사하는 화기 모사 시스템 및 레이저 발사 장치
WO2012135352A2 (en) * 2011-03-28 2012-10-04 Bruce Hodge Lidar methods and apparatus
US20130192451A1 (en) * 2011-06-20 2013-08-01 Steven Gregory Scott Anti-sniper targeting and detection system
US10101134B2 (en) * 2016-01-14 2018-10-16 Felipe De Jesus Chavez Combat sport robot

Also Published As

Publication number Publication date
WO2018013051A1 (en) 2018-01-18
AU2017295574A1 (en) 2019-02-07
US20190244536A1 (en) 2019-08-08

Similar Documents

Publication Publication Date Title
DE112017003558T5 (de) Intelligenter trainer für taktische einsätze
US7599765B2 (en) Dynamic guidance for close-in maneuvering air combat
CN108398049B (zh) 一种联网互战式投影对抗射击训练系统
DE102010005199B4 (de) Verfahren und Vorrichtung zur Ortsbestimmung eines fliegenden Ziels
CN110988819B (zh) 基于无人机编队的激光诱骗干扰设备诱偏效果评估系统
EP2929519A2 (de) Verfahren und vorrichtung zum kombinierten simulieren und steuern ferngesteuerter fahrzeuge mit einem benutzerfreundlichen projektionssystem
WO2016127192A1 (de) Verfahren zum fernsteuern eines fahrzeugs
CN113251869A (zh) 一种可自主对抗的机器人靶标训练系统及控制方法
DE102016104186A1 (de) Simulator zum Training eines Teams einer Hubschrauberbesatzung
CN105547046A (zh) 一种基于视频的狙击机器人快速精确瞄准方法
US20210031109A1 (en) Augmented reality gaming system
DE102013100569A1 (de) Verfahren und Vorrichtung zur Anzeige einer Fahrzeugumgebung
Sanchez-Lopez et al. A vision based aerial robot solution for the mission 7 of the international aerial robotics competition
EP2302481B1 (de) Verfahren zur Bereitstellung von Steuerbefehlen für ein mittels einer Bedieneinheit lenkbares Fahrzeug und Steuerungssystem für ein derartiges Fahrzeug
DE102018211905A1 (de) Steuereinrichtung für ein unbemanntes Luftfahrzeug
CN105930766A (zh) 无人机
WO2017207427A1 (de) Verfahren und system zum aufzeichnen von videodaten mit mindestens einem auf objekte ausrichtbaren fernsteuerbaren kamerasystem
CN117132128A (zh) 一种可自主交战的智能蓝军系统及运行流程
Chen Effects of operator spatial ability on uav-guided ground navigation
Wang et al. A miniature biological eagle-eye vision system for small target detection
CN107823883A (zh) 基于图像识别和激光定位的瞄准点屏幕坐标获取方法
EP3593081A1 (de) Simulator und verfahren zur simulation eines einsatzes eines flugkörpers
CN117814209A (zh) 一种基于视觉的超声波定向驱鸟无人机装置及其驱鸟方法
Redding CREATING SPECIAL OPERATIONS FORCES'ORGANIC SMALL UNMANNED AIRCRAFT SYSTEM OF THE FUTURE
DE102020003080A1 (de) Verfahren und Steuersystem zum Ansteuern eines Flugkörpers auf ein Zielobjekt

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final