DE102018106731A1 - Militärisches Gerät und Verfahren zum Betreiben eines militärischen Gerätes - Google Patents

Militärisches Gerät und Verfahren zum Betreiben eines militärischen Gerätes Download PDF

Info

Publication number
DE102018106731A1
DE102018106731A1 DE102018106731.3A DE102018106731A DE102018106731A1 DE 102018106731 A1 DE102018106731 A1 DE 102018106731A1 DE 102018106731 A DE102018106731 A DE 102018106731A DE 102018106731 A1 DE102018106731 A1 DE 102018106731A1
Authority
DE
Germany
Prior art keywords
unit
field
military
view
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018106731.3A
Other languages
English (en)
Inventor
Daniel Riggers
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rheinmetall Electronics GmbH
Original Assignee
Rheinmetall Electronics GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rheinmetall Electronics GmbH filed Critical Rheinmetall Electronics GmbH
Priority to DE102018106731.3A priority Critical patent/DE102018106731A1/de
Publication of DE102018106731A1 publication Critical patent/DE102018106731A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/06Aiming or laying means with rangefinder
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird ein militärisches Gerät für eine Einsatzkraft vorgeschlagen. Das militärische Gerät umfasst eine erste Einheit zum Bereitstellen von Eye-Tracking-Daten aus einem Eye-Tracking von Augenbewegungen der Einsatzkraft in einem bestimmten Sichtbereich, eine zweite Einheit zum Erfassen eines von der Einsatzkraft ausgelösten Trigger-Ereignisses einer Anzahl von vorbestimmten Trigger-Ereignissen, eine dritte Einheit zum Ermitteln eines Blickpunktes der Einsatzkraft in dem Sichtbereich zum Zeitpunkt des Erfassens des Trigger-Ereignisses aus den bereitgestellten Eye-Tracking-Daten, und eine vierte Einheit zum Erzeugen einer geräterelativen Position eines Objektes in dem Sichtbereich in Abhängigkeit des ermittelten Blickpunktes.

Description

  • Die vorliegende Erfindung betrifft ein militärisches Gerät, wie beispielsweise ein militärisches Landfahrzeug, und ein Verfahren zum Betreiben eines militärischen Gerätes.
  • Ein wichtiger Aspekt bei militärischen Geräten, wie militärischen Landfahrzeugen, ist vermehrt die teilautomatisierte Wirkungskette „Zielerfassung, Zielverfolgung und WaffeneinlauflNachführung“ (kurz: ZZW). Eine mit der ZZW beauftragte Einsatzkraft, beispielsweise ein Soldat in einem Panzer, der die Waffe zu bedienen hat, ist mit einer Vielzahl von Aufgaben betraut, um insbesondere auch die Zielerfassung, die Zielverfolgung und Waffeneinlauf/Nachführung leisten zu können. Die Systeme, insbesondere die Waffensysteme, werden immer komplexer, umso mehr ist es notwendig, die Einsatzkraft bei deren Bedienung zu unterstützen beziehungsweise Verfahren und Vorrichtungen bereitzustellen, welche der Einsatzkraft die Bedienung erleichtern.
  • Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, ein verbessertes militärisches Gerät zu schaffen.
  • Gemäß einem ersten Aspekt wird ein militärisches Gerät für eine Einsatzkraft vorgeschlagen. Das militärische Gerät umfasst eine erste Einheit zum Bereitstellen von Eye-Tracking-Daten aus einem Eye-Tracking von Augenbewegungen der Einsatzkraft in einem bestimmten Sichtbereich, eine zweite Einheit zum Erfassen eines von der Einsatzkraft ausgelösten Trigger-Ereignisses einer Anzahl von vorbestimmten Trigger-Ereignissen, eine dritte Einheit zum Ermitteln eines Blickpunktes der Einsatzkraft in dem Sichtbereich zum Zeitpunkt des Erfassens des Trigger-Ereignisses aus den bereitgestellten Eye-Tracking-Daten, und eine vierte Einheit zum Erzeugen einer geräterelativen Position eines Objektes in dem Sichtbereich in Abhängigkeit des ermittelten Blickpunktes.
  • Durch die Verknüpfung der Eye-Tracking-Daten und dem von der Einsatzkraft ausgelösten Trigger-Ereignis kann der Blickpunkt der Einsatzkraft auf ein Objekt, das sich im Sichtbereich der Einsatzkraft befindet, ermittelt werden. Insbesondere ist die erste Einheit dazu eingerichtet, die Augenbewegungen mit dem Blickpunkt der Einsatzkraft kontinuierlich zu verfolgen.
  • Durch den ermittelten Blickpunkt kann dann die geräterelative Position des Objektes bestimmt werden. Durch die Verknüpfung des Trigger-Ereignisses mit dem aktuellen Blickpunkt der Einsatzkraft ist es vorteilhafterweise möglich, einen Marker oder eine Positions-Angabe der Blickposition der Einsatzkraft ohne Markierung über eine Maus oder einen Touchscreen zu erstellen.
    Folglich kann die geräterelative Position des Objektes basierend auf den Augenbewegungen der Einsatzkraft und dem Trigger-Ereignis, beispielsweise aus einer Geste, aus einem Sprachbefehl oder aus einem Brain-Computer-Interface, bestimmt werden. Damit ist der Aufwand für den Nutzer zur Bestimmung einer geräterelativen Position eines Objektes, wie eines feindlichen Panzers, in seinem Sichtbereich minimiert. Hierdurch werden die Möglichkeiten hinsichtlich der Bedienbarkeit einer Zielerfassung, Zielverfolgung und Waffeneinlauf/Nachlauf (kurz: ZZW) für die Einsatzkraft verbessert.
  • Die geräterelative Position bezeichnet insbesondere die Position des Objektes relativ zu dem militärischen Gerät. Insbesondere umfasst die geräterelative Position einen Azimut-Winkel und/oder einen Elevations-Winkel von dem militärischen Gerät auf das Objekt.
  • Das Objekt kann beispielsweise ein militärisches Landfahrzeug, ein Soldat, eine Gruppe von Soldaten oder ein Waffensystem sein. Die Einsatzkraft kann auch als Operator oder Nutzer bezeichnet werden.
  • Das Trigger-Ereignis kann beispielsweise durch Betätigung eines Tasters oder eines Knopfes, durch ein Brain-Computer-Interface oder durch ein anderes Eingabegerät durch die Einsatzkraft ausgelöst werden. Beispielsweise kann das Trigger-Ereignis auch durch eine vorbestimmte Geste ausgelöst werden. In einem solchen Fall umfasst das militärische Gerät vorzugsweise eine Gestenerkennung. Des Weiteren kann das vorbestimmte Trigger-Ereignis auch durch einen Sprachbefehl ausgelöst werden. In einem solchen Fall umfasst das militärische Gerät vorzugsweise eine Spracherkennung. Die Anzahl vorbestimmter Trigger-Ereignisse kann auch eine Vielzahl multimodaler Eingaben umfassen, beispielsweise Trigger-Ereignisse aus Gestenerkennung, Trigger-Ereignisse aus Spracherkennung, Trigger-Ereignisse aus Betätigungen von Knöpfen oder Tastern oder/oder Trigger-Ereignisse aus dem Brain-Computer-Interface.
  • Die jeweilige Einheit, beispielsweise die erste Einheit oder die zweite Einheit, kann hardwaretechnisch und/oder auch softwaretechnisch implementiert sein. Bei einer hardwaretechnischen Implementierung kann die Einheit als Vorrichtung oder als Teil einer Vorrichtung, zum Beispiel als Computer oder als Mikroprozessor, ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein.
  • Gemäß einer Ausführungsform ist die vierte Einheit dazu eingerichtet, die geräterelative Position des Objektes in Abhängigkeit des ermittelten Bildpunktes und eines Bildes des Sichtbereichs oder von Bilddaten des Sichtbereichs zu erzeugen.
  • Für den Fall, dass das militärische Gerät ein militärisches Landfahrzeug ist, wie beispielsweise ein Panzer ist, kann das Bild des Sichtbereichs insbesondere über eine Anzahl von Winkelspiegeln an einen Arbeitsplatz der Einsatzkraft in dem militärischen Landfahrzeug geleitet werden. Alternativ oder zusätzlich kann die vierte Einheit neben dem Bild des Sichtbereichs auch Bilddaten nutzen, die beispielsweise über eine Anzahl von an dem militärischen Landfahrzeug angebrachten Videokameras bereitgestellt werden.
  • Gemäß einer weiteren Ausführungsform ist die vierte Einheit dazu eingerichtet, die geräterelative Position des Objektes umfassend einen Elevations-Winkel und/oder einen Azimut-Winkel des Objektes relativ zu dem militärischen Gerät zu ermitteln.
  • Die geräterelative Position des Objektes zu dem militärischen Gerät umfasst insbesondere zumindest den Elevations-Winkel oder den Azimut-Winkel, vorzugsweise beide Winkel.
  • Gemäß einer weiteren Ausführungsform umfasst das militärische Gerät eine Entfernungsmess-Einheit, welche dazu eingerichtet ist, eine Entfernung des Objektes zu dem militärischen Gerät zu bestimmen. Dabei ist die vierte Einheit dazu eingerichtet, den ermittelten Azimut-Winkel und den ermittelten Elevations-Winkel mit der von der Entfernungs-Messeinheit bestimmten Entfernung des Objektes zu der geräterelativen Position des Objekts zu verknüpfen.
  • In dieser Ausführungsform umfasst die geräterelative Position den Azimut-Winkel, den Elevations-Winkel und die Entfernung. Damit kann die geräterelative Position des Objektes auch in einem dreidimensionalen Raum dargestellt werden.
  • Gemäß einer weiteren Ausführungsform umfasst die Entfernungsmess-Einheit einen Laser zur Messung der Entfernung des Objektes.
  • Gemäß einer weiteren Ausführungsform ist die Entfernungsmess-Einheit dazu eingerichtet, die Entfernung des Objektes in Abhängigkeit des ermittelten Bildpunktes und eines in einer Datenbank gespeicherten Geländemodells eines den Sichtbereich umfassenden Geländes zu ermitteln.
  • Gemäß einer weiteren Ausführungsform ist die Entfernungsmess-Einheit dazu eingerichtet, die Entfernung des Objektes mittels einer Bild-Analyse optisch zu ermitteln.
  • Gemäß einer weiteren Ausführungsform ist die Entfernungsmess-Einheit dazu eingerichtet, die Entfernung des Objektes in Abhängigkeit einer manuellen Zuweisung durch die Einsatzkraft zu ermitteln.
  • Die manuelle Zuweisung durch die Einsatzkraft kann beispielsweise durch eine vorbestimmte Geste der Einsatzkraft erfolgen.
  • Gemäß einer weiteren Ausführungsform ist die zweite Einheit dazu eingerichtet, ein zweites von der Einsatzkraft ausgelöstes Trigger-Ereignis der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen. Dabei ist die vierte Einheit dazu eingerichtet, das Objekt mit der erzeugten geräterelativen Position in Abhängigkeit des erfassten zweiten Trigger-Ereignisses in eine Kategorie einer Mehrzahl vorbestimmter Kategorien einzuordnen.
  • In einer Variante können zwei Kategorien, beispielsweise für Freund und Feind, vorgesehen sein. Dann kann die Einsatzkraft über das zweite Trigger-Ereignis, welches beispielsweise ein vorbestimmter Sprachbefehl oder eine vorbestimmte Geste ist, das Objekt hinsichtlich Feind oder Freund kategorisieren. In einer anderen Variante ist eine Vielzahl unterschiedlicher Kategorien vorgesehen, beispielsweise feindliche Landfahrzeuge, feindliche Soldatengruppen, feindliche Soldaten oder dergleichen.
  • Gemäß einer weiteren Ausführungsform umfasst das militärische Gerät eine fünfte Einheit umfassend zumindest eine Video-Kamera zum Erzeugen einer Augmented-Reality-Darstellung des Sichtbereichs. Dabei ist die vierte Einheit dazu eingerichtet, die geräterelative Position in Abhängigkeit des in der Augmented-Reality-Darstellung ermittelten Bildpunktes zu erzeugen.
  • Die geräterelative Position kann zum einen vorteilhafterweise in Abhängigkeit der Augmented-Reality-Darstellung erzeugt werden und zum anderen kann die erzeugte geräterelative Position wiederrum innerhalb der Augmented-Reality-Darstellung für die Einsatzkraft dargestellt und ausgegeben werden.
  • Gemäß einer weiteren Ausführungsform ist die fünfte Einheit ferner dazu eingerichtet, die ermittelte geräterelative Position des Objektes mittels einer Markierung in der Augmented-Reality-Darstellung darzustellen.
  • Die Markierung kann beispielsweise ein Fadenkreuz einer bestimmten Farbe sein. Beispielsweise können Markierungen unterschiedlicher Farben für unterschiedliche Kategorien von detektierten Objekten verwendet werden, beispielsweise blau für Blue-Forces und rot für Red-Forces.
  • Gemäß einer weiteren Ausführungsform umfasst das militärische Gerät einen Bildschirm, welcher einen ersten Bildausgabe-Bereich zur Ausgabe des Sichtbereichs oder einer Augmented-Reality-Darstellung des Sichtbereichs und einen zweiten Bildausgabe-Bereich zur Ausgabe eines ausgewählten, vergrößerten Ausschnitts des Sichtbereichs oder der Augmented-Reality-Darstellung aufweist. Dabei ist die fünfte Einheit dazu eingerichtet, die ermittelte geräterelative Position des Objektes in der Augmented-Reality-Darstellung des ersten Bildausgabe-Bereiches und/oder in der Augmented-Reality-Darstellung des zweien Bildausgabe-Bereiches auszugeben.
  • Gemäß einer weiteren Ausführungsform ist die zweite Einheit dazu eingerichtet, ein drittes von der Einsatzkraft ausgelöstes Trigger-Ereignis der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen, wobei die fünfte Einheit ferner dazu eingerichtet ist, den vergrößerten Ausschnitt des Sichtbereichs für den zweiten Bildausgabe-Bereich in Abhängigkeit des erfassten dritten Trigger-Ereignisses auszuwählen.
  • Insbesondere kann der erste Bildausgabe-Bereich dazu verwendet werden, einen Livestream von Videodaten der Videokameras auszugeben. In dem ersten Bildausgabe-Bereich wird vorzugsweise ein Panoramabild der Umgebung, insbesondere des Sichtbereichs, ausgegeben. Mittels der fünften Einheit kann die Einsatzkraft selbst den vergrößerten Ausschnitt des Sichtbereichs auswählen, welcher dann auf dem zweiten Bildausgabe-Bereich ausgegeben wird. Der vergrößerte Ausschnitt des Sichtbereichs kann auch als Region-of-Interest bezeichnet werden.
  • Gemäß einer weiteren Ausführungsform umfasst der Bildschirm eine Anzahl von Bedienfeldern zur Bedienung des militärischen Gerätes durch die Einsatzkraft, wobei die zweite Einheit dazu eingerichtet ist, ein viertes von der Einsatzkraft ausgelöstes Trigger-Ereignis der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen, wobei die dritte Einheit dazu eingerichtet ist, einen Blickpunkt der Einsatzkraft auf ein bestimmtes Bedienfeld der Anzahl zum Zeitpunkt des Erfassens des vierten Trigger-Ereignisses zu ermitteln, wobei die vierte Einheit dazu eingerichtet ist, den auf dem bestimmten Bedienfeld erfassten Blickpunkt der Einsatzkraft als ein Betätigen des bestimmten Bedienfeldes durch die Einsatzkraft zu interpretieren.
  • Beispielsweise erfasst die dritte Einheit einen Blick oder einen aktuellen Blickpunkt der Einsatzkraft auf ein bestimmtes Bedienfeld zum Zeitpunkt des Erfassens des vierten Trigger-Ereignisses. Die vierte Einheit interpretiert dann den auf dem bestimmten Bedienfeld erfassten Blickpunkt der Einsatzkraft als ein Betätigen oder eine Auswahl des bestimmten Bedienfelds. Folglich betätigt die Einsatzkraft das bestimmte Bedienfeld mittels des Blickpunktes seiner Augen und dem Auslösen des vierten Trigger-Ereignisses ohne die Verwendung einer Maus, eines Touchscreens oder einer sonstigen haptischen Eingabe-Vorrichtung.
  • Gemäß einer weiteren Ausführungsform ist das militärische Gerät ein militärisches Fahrzeug, ein Schiff, ein Helikopter oder ein Soldaten-System.
  • Gemäß einer weiteren Ausführungsform ist das militärische Gerät ein militärisches Fahrzeug, welches eine Anzahl von Arbeitsplätzen für die Einsatzkraft und zumindest einen Winkelspiegel umfasst. Der Winkelspiegel ist dazu eingerichtet, das Bild des Sichtbereichs an einen bestimmten Arbeitsplatz der Anzahl zu leiten. Weiterhin ist die vierte Einheit dazu eingerichtet, die geräterelative Position des Objektes in dem Sichtbereich in Abhängigkeit des in dem durch den zumindest einen Winkelspiegel geleiteten Bildes zu erzeugen.
  • Gemäß einer weiteren Ausführungsform umfasst das militärische Gerät eine Übertragungseinheit zum Übertragen der erzeugten geräterelativen Position des Objektes an zumindest einem weiteren Arbeitsplatz der Anzahl, welcher eine Karte und eine Darstellungs-Einheit zum Darstellen der übertragenen geräterelativen Position auf der Karte umfasst.
  • Gemäß einem zweiten Aspekt wird ein Verfahren zum Betreiben eines militärischen Gerätes für eine Einsatzkraft vorgeschlagen. Das Verfahren umfasst die folgenden Schritte:
    • Bereitstellen von Eye-Tracking-Daten aus einem Eye-Tracking von Augenbewegungen der Einsatzkraft in einem bestimmten Sichtbereich,
    • Erfassen eines von der Einsatzkraft ausgelösten Trigger-Ereignisses einer Anzahl von vorbestimmten Trigger-Ereignissen,
    • Ermitteln eines Blickpunktes der Einsatzkraft in dem Sichtbereich zum Zeitpunkt des Erfassens des Trigger-Ereignisses aus den bereitgestellten Eye-Tracking-Daten, und
    • Erzeugen einer geräterelativen Position eines Objektes in dem Sichtbereich in Abhängigkeit des ermittelten Blickpunktes.
  • Die für das vorgeschlagene militärische Gerät beschriebenen Ausführungsformen und Merkmale gelten für das vorgeschlagene Verfahren entsprechend.
  • Weiterhin wird ein Computerprogrammprodukt vorgeschlagen, welches auf einer programmgesteuerten Einrichtung die Durchführung des wie oben erläuterten Verfahrens veranlasst.
  • Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm-Mittel, kann beispielsweise als Speichermedium, wie z.B. Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikations-Netzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammprodukt oder dem Computerprogramm-Mittel erfolgen.
  • Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufügen.
  • Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Unteransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung.
  • Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungsbeispielen unter Bezugnahme auf die beigelegten Figuren näher erläutert.
    • 1 zeigt ein schematisches Blockschaltbild eines ersten Ausführungsbeispiels eines militärischen Gerätes für eine Einsatzkraft,
    • 2 zeigt ein schematisches Beispiel eines Sichtbereichs der Einsatzkraft mit dargestellter Eye-Tracking-Linie der Augenbewegungen der Einsatzkraft;
    • 3 zeigt das schematische Beispiel des Sichtbereichs der Einsatzkraft nach 2 mit dargestellter geräterelativer Position eines Objektes;
    • 4 zeigt ein schematisches Blockschaltbild eines zweiten Ausführungsbeispiels eines militärischen Gerätes für eine Einsatzkraft;
    • 5 zeigt eine schematische Ansicht eines ersten Ausführungsbeispiels eines Bildschirms für das militärische Gerät;
    • 6 zeigt eine schematische Ansicht eines zweiten Ausführungsbeispiels eines Bildschirms für das militärische Gerät; und
    • 7 zeigt ein schematisches Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Betreiben eines militärischen Gerätes für eine Einsatzkraft.
  • In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.
  • In 1 ist ein schematisches Blockschaltbild eines ersten Ausführungsbeispiels eines militärischen Gerätes 10 für eine Einsatzkraft dargestellt.
  • Das militärische Gerät 10 umfasst eine erste Einheit 11, eine zweite Einheit 12, eine dritte Einheit 13 und eine vierte Einheit 14.
  • Die erste Einheit 11 ist dazu eingerichtet, Eye-Tracking-Daten ED von Augenbewegungen der Einsatzkraft in einem bestimmten Sichtbereich SB bereitzustellen. Hierzu zeigt die 2 ein schematisches Beispiel eines Sichtbereichs SB der Einsatzkraft mit dargestellter Eye-Tracking-Linie ET der Augenbewegungen der Einsatzkraft. Die Augenbewegungen der Einsatzkraft sind nur aus Gründen der Illustrierung in der 2 als Eye-Tracking-Linie ET dargestellt. Die Eye-Tracking-Linie ET wird der Einsatzkraft vorzugsweise nicht dargestellt. Der Sichtbereich SB der 2 wird der Einsatzkraft beispielsweise mittels eines Bildschirmes 20 (wie dargestellt) oder über Winkelspiegel (nicht dargestellt) bereitgestellt. In dem Sichtbereich SB des Beispiels der 2 befindet sich ein Objekt OB, beispielsweise ein LKW oder ein Radpanzer.
  • Weiter mit Bezug zur 1 ist die zweite Einheit 12 dazu eingerichtet, ein von der Einsatzkraft ausgelöstes Trigger-Ereignis TE einer Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen. Das Trigger-Ereignis TE kann beispielsweise durch Betätigung eines Tasters oder eines Knopfes, durch ein Brain-Computer-Interface oder durch ein anderes Eingabegerät ausgelöst werden. Beispielsweise kann das Trigger-Ereignis TE auch durch eine vorbestimmte Geste ausgelöst werden. In einem solchen Fall umfasst das militärische Gerät 10 eine Gestenerkennung. Des Weiteren kann das vorbestimmte Trigger-Ereignis TE auch durch einen Sprachbefehl ausgelöst werden. In einem solchen Fall umfasst das militärische Gerät 10 eine Spracherkennung. Die Anzahl vorbestimmter Trigger-Ereignisse TE kann auch eine Vielzahl multimodaler Eingaben umfassen, beispielsweise Trigger-Ereignisse aus Gestenerkennung, Trigger-Ereignisse aus Spracherkennung, Trigger-Ereignisse aus Betätigungen von Knöpfen oder Tastern oder/oder Trigger-Ereignisse aus dem Brain-Computer-Interface.
  • Die dritte Einheit 13 ist dazu eingerichtet, einen Blickpunkt BP der Einsatzkraft in dem Sichtbereich SB zum Zeitpunkt des Erfassens des Trigger-Ereignisses TE aus den bereitgestellten Eye-Tracking-Daten ED, generiert aus der Eye-Tracking-Linie ET, zu ermitteln. Zum Zeitpunkt des Erfassens des Trigger-Ereignisses TE ist die Eye-Tracking-Linie ET der Einsatzkraft in der 2 in dem mit dem Bezugszeichen x bezeichneten Punkt. Die dritte Einheit 13 verknüpft dann den Blickpunkt BP der Einsatzkraft, repräsentiert durch x in 2, mit dem Zeitpunkt des Erfassens des Trigger-Ereignisses TE, wobei dann die vierte Einheit 14 eine geräterelative Position RP des Objektes OB in dem Sichtbereich SB in Abhängigkeit des ermittelten Bildpunktes BP erzeugt. Mit anderen Worten ordnet die vierte Einheit 14 den Ort von x in der 2 der geräterelativen Position RP des Objektes OB in dem Sichtbereich SB zu. Damit ist die geräterelative Position RP in dem Beispiel der 2 mit dem Bezugszeichen x gezeigt.
  • Mit Bezug zu 1 kann die vierte Einheit 14 dazu eingerichtet sein, die geräterelative Position RP des Objektes OB in Abhängigkeit des ermittelten Bildpunktes BP und eines Bildes BS des Sichtbereichs SB oder alternativ von Bilddaten BD des Sichtbereichs SB erzeugen. Das heißt, die vierte Einheit 14 nutzt zusätzlich zu dem ermittelten Bildpunkt BP das Bild BS des Sichtbereichs SB, beispielsweise bereitgestellt über Winkelspiegel, oder Bilddaten BD des Sichtbereichs SB, beispielsweise bereitgestellt über eine Anzahl von Videokameras.
  • Dabei kann die vierte Einheit 14 vorzugsweise dazu eingerichtet sein, die geräterelative Position RP des Objektes OB umfassend einen Elevations-Winkel und einen Azimut-Winkel des Objektes OB relativ zu dem militärischen Gerät 10 zu ermitteln.
  • Hierzu zeigt die 3 das schematische Beispiel des Sichtbereichs SB nach 2 mit dargestellter geräterelativer Position RP des Objektes OB. Die geräterelative Position RP des Objektes OB in 3 ist für die Einsatzkraft mittels einer Markierung MK gekennzeichnet.
  • 4 zeigt ein schematisches Blockschaltbild eines zweiten Ausführungsbeispiels eines militärischen Gerätes 10 für eine Einsatzkraft. Das zweite Ausführungsbeispiel der 4 umfasst alle Merkmale des ersten Ausführungsbeispiels des militärischen Gerätes 10 der 1. Darüber hinaus umfasst das zweite Ausführungsbeispiel des militärischen Gerätes 10 der 4 eine fünfte Einheit 15, eine Entfernungsmess-Einheit 16 sowie eine Datenbank 17.
  • Die Entfernungsmess-Einheit 16 ist dazu eingerichtet, eine Entfernung EF des Objektes OB zu dem militärischen Gerät 10 zu bestimmen. Dann kann die vierte Einheit 14 vorzugsweise dazu eingerichtet sein, den ermittelten Azimut-Winkeln und den ermitteln Elevations-Winkel mit der von der Entfernungsmess-Einheit 16 bestimmten Entfernung EF des Objektes OB zu der geräterelativen Position RP des Objektes OB zu verknüpfen.
  • Die Entfernungsmess-Einheit 16 umfasst beispielsweise einen Laser zur Messung der Entfernung EF. Zusätzlich oder alternativ kann die Entfernungsmess-Einheit 16 auch dazu eingerichtet sein, die Entfernung EF des Objektes OB in Abhängigkeit des ermittelten Bildpunktes BP und eines in der Datenbank 17 gespeicherten Geländemodells GM eines den Sichtbereich SB umfassenden Geländes und/oder mittels einer Bild-Analyse optisch und/oder in Abhängigkeit einer manuellen Zuweisung durch die Einsatzkraft zu ermitteln.
  • Die in 4 gezeigte fünfte Einheit 15 ist vorzugsweise mit einer Vielzahl von Video-Kameras zum Erzeugen einer Augmented-Reality-Darstellung AR des Sichtbereichs SB gekoppelt. Die vierte Einheit 14 ist dazu eingerichtet, die geräterelative Position RP in Abhängigkeit des in der Augmented-Reality-Darstellung AR ermittelten Bildpunktes BP zu erzeugen. Dabei kann die fünfte Einheit 15 auch dazu eingerichtet sein, die ermittelte geräterelative Position RP des Objektes OB mittels einer Markierung MK (siehe 3) in der Augmented-Reality-Darstellung AR darzustellen. Das strichlierte Oval mit dem Bezugszeichen AR(RP) in 4 illustriert die Ausgabe der Augmented-Reality-Darstellung AR mit der dargestellten geräterelativen Position RP des Objektes.
  • Hierzu zeigt die 5 eine schematische Ansicht eines ersten Ausführungsbeispiels eines Bildschirms 20 für das militärische Gerät 10. Der Bildschirm 20 ist insbesondere Teil des militärisches Gerätes 10 der 4. Der Bildschirm 20 der 5 umfasst einen ersten Bildausgabe-Bereich 21 zur Ausgabe des Sichtbereichs SB oder einer Augmented-Reality-Darstellung AR des Sichtbereichs SB. Insbesondere ist der erste Bildausgabe-Bereich 21 dazu eingerichtet, einen Livestream von Videodaten der Videokameras der fünften Einheit 15 bereitzustellen.
  • Außerdem umfasst der Bildschirm 20 einen zweiten Bildausgabe-Bereich 22. Der zweite Bildausgabe-Bereich 22 ist dazu eingerichtet, einen von der Einsatzkraft ausgewählten, vergrößerten Ausschnitt VA des Sichtbereichs SB auszugeben.
  • Dabei kann die zweite Einheit 12 auch dazu eingerichtet sein, ein drittes von der Einsatzkraft ausgelöstes Trigger-Ereignis TE der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen, wobei dann die fünfte Einheit 15 ferner dazu eingerichtet ist, den vergrößerten Ausschnitt VA des Sichtbereichs SB für den zweiten Bildausgabe-Bereich 22 in Abhängigkeit des erfassten dritten Trigger-Ereignisses TE auszuwählen. Damit kann die Einsatzkraft mittels der fünften Einheit 15 selbst den vergrößerten Ausschnitt VA des Sichtbereichs SB auswählen, welcher dann auf dem zweiten Bildausgabe-Bereich 22 ausgegeben wird. Der vergrößerte Ausschnitt VA des Sichtbereichs SB kann auch als Region-of-Interest bezeichnet werden.
  • Des Weiteren umfasst der Bildschirm 20 der 5 eine Mehrzahl von Bedienfeldern F1-F20 zur Bedienung durch die Einsatzkraft. Ohne Einschränkung der Allgemeinheit umfasst der Bildschirm 20 der 5 zwanzig Bedienfelder F1-F20.
  • Dabei kann die zweite Einheit 12 dazu eingerichtet sein, ein viertes von der Einsatzkraft ausgelöstes Trigger-Ereignis TE der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen, wobei dann die dritte Einheit 13 dazu eingerichtet ist, einen Blickpunkt BP der Einsatzkraft auf ein bestimmtes Bedienfeld der Anzahl zum Zeitpunkt des Erfassens des vierten Trigger-Ereignisses TE zu ermitteln. Hierzu zeigt die 6 die schematische Ansicht des zweiten Ausführungsbeispiels des Bildschirms 20 mit einer dargestellten Eye-Tracking-Linie ET der Augenbewegungen der Einsatzkraft.
  • In dem Beispiel der 6 erfasst die dritte Einheit 13 einen Blickpunkt BP der Einsatzkraft auf das Bedienfeld F7 zum Zeitpunkt des Erfassens des vierten Trigger-Ereignisses TE. Die vierte Einheit 14 interpretiert dann den auf dem Bedienfeld F7 erfassten Blickpunkt BP der Einsatzkraft als ein Betätigen des Bedienfeldes F7 durch die Einsatzkraft. Das heißt, die Einsatzkraft betätigt das Bedienfeld F7 mittels des Blickpunktes BP seiner Augen und dem Auslösen des vierten Trigger-Ereignisses.
  • Des Weiteren zeigt die 7 ein schematisches Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Betreiben eines militärischen Gerätes 10 für eine Einsatzkraft. Das militärische Gerät 10 ist beispielsweise wie in 1 oder 4 ausgebildet. Das Verfahren gemäß 7 umfasst die folgenden Schritte 701-704:
  • In Schritt 701 werden Eye-Tracking-Daten ED aus einem Eye-Tracking ET von Augenbewegungen der Einsatzkraft von einem bestimmten Sichtbereich SB bereitgestellt.
  • In Schritt 702 wird ein von der Einsatzkraft ausgelöstes Trigger-Ereignis TE einer Anzahl von vorbestimmten Trigger-Ereignissen erfasst.
  • In Schritt 703 wird ein Blickpunkt BP der Einsatzkraft in dem Sichtbereich SB zum Zeitpunkt des Erfassens des Trigger-Ereignisses TE aus den bereitgestellten Eye-Tracking-Daten ED ermittelt.
  • In Schritt 704 wird eine geräterelative Position RP eines Objektes OB in dem Sichtbereich SB in Abhängigkeit des ermittelten Blickpunktes BP erzeugt.
  • Obwohl die vorliegende Erfindung anhand von Ausführungsbeispielen beschrieben wurde, ist sie vielfältig modifizierbar.
  • Bezugszeichenliste
  • 10
    militärisches Gerät
    11
    erste Einheit
    12
    zweite Einheit
    13
    dritte Einheit
    14
    vierte Einheit
    15
    fünfte Einheit
    16
    Entfernungsmess-Einheit
    17
    Datenbank
    20
    Bildschirm
    21
    erster Bildausgabe-Bereich
    22
    zweiter Bildausgabe-Bereich
    AR
    Augmented-Reality-Darstellung
    701-704
    Verfahrensschritt
    AR (RP)
    Augmented-Reality-Darstellung mit dargestellter geräterelativer Position des Objektes
    BP
    Bildpunkt
    BS
    Bild des Sichtbereichs
    BS
    Bilddaten
    ED
    Eye-Tracking-Daten
    EF
    Entfernung
    ET
    Eye-Tracking, Eye-Tracking-Linie
    GM
    Geländemodell
    MK
    Markierung
    OB
    Objekt, Objektbild
    RP
    geräterelative Position
    SB
    Sichtbereich
    TE
    Trigger-Ereignis
    VA
    vergrößerter Ausschnitt des Sichtbereichs
    x
    geräterelative Position des Objektes im Bild

Claims (16)

  1. Militärisches Gerät (10) für eine Einsatzkraft, mit: einer ersten Einheit (11) zum Bereitstellen von Eye-Tracking-Daten (ED) aus einem Eye-Tracking (ET) von Augenbewegungen der Einsatzkraft in einem bestimmten Sichtbereich (SB), einer zweiten Einheit (12) zum Erfassen eines von der Einsatzkraft ausgelösten Trigger-Ereignisses (TE) einer Anzahl von vorbestimmten Trigger-Ereignissen, einer dritten Einheit (13) zum Ermitteln eines Blickpunktes (BP) der Einsatzkraft in dem Sichtbereich (SB) zum Zeitpunkt des Erfassens des Trigger-Ereignisses (TE) aus den bereitgestellten Eye-Tracking-Daten (ED), und einer vierten Einheit (14) zum Erzeugen einer geräterelativen Position (RP) eines Objektes (OB) in dem Sichtbereich (SB) in Abhängigkeit des ermittelten Blickpunktes (BP).
  2. Militärisches Gerät nach Anspruch 1, dadurch gekennzeichnet, dass die vierte Einheit (14) dazu eingerichtet ist, die geräterelative Position (RP) des Objektes (OB) in Abhängigkeit des ermittelten Bildpunktes (BP) und eines Bildes (BS) des Sichtbereichs (SB) oder von Bilddaten (BD) des Sichtbereichs (SB) zu erzeugen.
  3. Militärisches Gerät nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die vierte Einheit (14) dazu eingerichtet ist, die geräterelative Position (RP) des Objektes (OB) umfassend einen Elevations-Winkel und/oder einen Azimut-Winkel des Objektes (OB) relativ zu dem militärischen Gerät (10) zu ermitteln.
  4. Militärisches Gerät nach Anspruch 3, gekennzeichnet durch eine Entfernungs-Messeinheit (16), welche dazu eingerichtet ist, eine Entfernung (EF) des Objektes (OB) zu dem militärischen Gerät (10) zu bestimmen, wobei die vierte Einheit (14) dazu eingerichtet ist, den ermittelten Azimut-Winkel und den ermittelten Elevations-Winkel mit der von der Entfernungs-Messeinheit (16) bestimmten Entfernung (EF) des Objektes (OB) zu der geräterelativen Position (RP) des Objekts (OB) zu verknüpfen.
  5. Militärisches Gerät nach Anspruch 4, dadurch gekennzeichnet, dass die Entfernungsmess-Einheit (16) einen Laser zur Messung der Entfernung (EF) des Objektes (OB) umfasst und/oder dass die Entfernungsmess-Einheit (16) dazu eingerichtet ist, die Entfernung (EF) des Objektes (OB) in Abhängigkeit des ermittelten Bildpunktes (BP) und eines in einer Datenbank (17) gespeicherten Geländemodells (GM) eines den Sichtbereich (SB) umfassenden Geländes und/oder mittels einer Bild-Analyse optisch und/oder in Abhängigkeit einer manuellen Zuweisung durch die Einsatzkraft zu ermitteln.
  6. Militärisches Gerät nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die zweite Einheit (12) dazu eingerichtet ist, ein zweites von der Einsatzkraft ausgelöstes Trigger-Ereignis (TE) der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen, wobei die vierte Einheit (14) dazu eingerichtet ist, das Objekt (OB) mit der erzeugten geräterelativen Position (RP) in Abhängigkeit des erfassten zweiten Trigger-Ereignisses in eine Kategorie einer Mehrzahl vorbestimmter Kategorien einzuordnen.
  7. Militärisches Gerät nach einem der Ansprüche 1 bis 6, gekennzeichnet durch eine fünfte Einheit (15) umfassend zumindest eine Video-Kamera zum Erzeugen einer Augmented-Reality-Darstellung (AR) des Sichtbereichs (SB), wobei die vierte Einheit (14) dazu eingerichtet ist, die geräterelative Position (RP) in Abhängigkeit des in der Augmented-Reality-Darstellung (AR) ermittelten Bildpunktes (BP) zu erzeugen.
  8. Militärisches Gerät nach Anspruch 7, dadurch gekennzeichnet, dass die fünfte Einheit (15) ferner dazu eingerichtet ist, die ermittelte geräterelative Position (RP) des Objektes (OB) mittels einer Markierung (MK) in der Augmented-Reality-Darstellung (AR) darzustellen.
  9. Militärisches Gerät nach Anspruch 8, gekennzeichnet durch einen Bildschirm (20), welcher einen ersten Bildausgabe-Bereich (21) zur Ausgabe des Sichtbereichs (SB) oder einer Augmented-Reality-Darstellung (AR) des Sichtbereichs (SB) und einen zweiten Bildausgabe-Bereich (22) zur Ausgabe eines ausgewählten, vergrößerten Ausschnitts (VA) des Sichtbereichs (SB) oder einer Augmented-Reality-Darstellung (AR) des Sichtbereichs (SB) aufweist, wobei die fünfte Einheit (15) dazu eingerichtet ist, die ermittelte geräterelative Position (RP) des Objektes (OB) in der Augmented-Reality-Darstellung (AR) des ersten Bildausgabe-Bereiches (21) und/oder in der Augmented-Reality-Darstellung (AR) des zweien Bildausgabe-Bereiches (22) auszugeben.
  10. Militärisches Gerät nach Anspruch 9, dadurch gekennzeichnet, dass die zweite Einheit (12) dazu eingerichtet ist, ein drittes von der Einsatzkraft ausgelöstes Trigger-Ereignis (TE) der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen, wobei die fünfte Einheit (15) ferner dazu eingerichtet ist, den vergrößerten Ausschnitt (VA) des Sichtbereichs (SB) für den zweiten Bildausgabe-Bereich (22) in Abhängigkeit des erfassten dritten Trigger-Ereignisses (TE) auszuwählen.
  11. Militärisches Gerät nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass der Bildschirm (20) eine Anzahl von Bedienfeldern (F1-F20) zur Bedienung durch die Einsatzkraft umfasst, wobei die zweite Einheit (12) dazu eingerichtet ist, ein viertes von der Einsatzkraft ausgelöstes Trigger-Ereignis (TE) der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen, wobei die dritte Einheit (13) dazu eingerichtet ist, einen Blickpunkt (BP) der Einsatzkraft auf ein bestimmtes Bedienfeld (F7) der Anzahl zum Zeitpunkt des Erfassens des vierten Trigger-Ereignisses (TE) zu ermitteln, wobei die vierte Einheit (14) dazu eingerichtet ist, den auf dem bestimmten Bedienfeld (F7) erfassten Blickpunkt (BP) der Einsatzkraft als ein Betätigen des bestimmten Bedienfeldes (F7) durch die Einsatzkraft zu interpretieren.
  12. Militärisches Gerät nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass das militärische Gerät (10) ein militärisches Fahrzeug, ein Schiff, ein Helikopter oder ein Soldaten-System ist.
  13. Militärisches Gerät nach Anspruch 2, dadurch gekennzeichnet, dass das militärische Gerät (10) ein militärisches Fahrzeug ist, welches eine Anzahl von Arbeitsplätzen für die Einsatzkraft und zumindest einen Winkelspiegel umfasst, welcher dazu eingerichtet ist, das Bild (BS) des Sichtbereichs (SB) an einen bestimmten Arbeitsplatz der Anzahl zu leiten, wobei die vierte Einheit (14) dazu eingerichtet ist, die geräterelative Position (RP) des Objektes (OB) in dem Sichtbereich (SB) in Abhängigkeit des in dem durch den zumindest einen Winkelspiegel geleiteten Bildes zu erzeugen.
  14. Militärisches Gerät nach Anspruch 13, gekennzeichnet durch eine Übertragungseinheit zum Übertragen der erzeugten geräterelativen Position (RP) des Objektes (OB) an zumindest einem weiteren Arbeitsplatz der Anzahl, welcher eine Karte und eine Darstellungs-Einheit zum Darstellen der übertragenen geräterelativen Position auf der Karte umfasst.
  15. Verfahren zum Betreiben eines militärischen Gerätes (10) für eine Einsatzkraft, mit den Schritten: Bereitstellen (701) von Eye-Tracking-Daten (ED) aus einem Eye-Tracking (ET) von Augenbewegungen der Einsatzkraft in einem bestimmten Sichtbereich (SB), Erfassen (702) eines von der Einsatzkraft ausgelösten Trigger-Ereignisses (TE) einer Anzahl von vorbestimmten Trigger-Ereignissen, Ermitteln (703) eines Blickpunktes (BP) der Einsatzkraft in dem Sichtbereich (SB) zum Zeitpunkt des Erfassens des Trigger-Ereignisses (TE) aus den bereitgestellten Eye-Tracking-Daten (ED), und Erzeugen (704) einer geräterelativen Position (RP) eines Objektes (OB) in dem Sichtbereich (SB) in Abhängigkeit des ermittelten Blickpunktes (BP).
  16. Computerprogrammprodukt, welches auf einer programmgesteuerten Einrichtung die Durchführung des Verfahrens nach Anspruch 15 veranlasst.
DE102018106731.3A 2018-03-21 2018-03-21 Militärisches Gerät und Verfahren zum Betreiben eines militärischen Gerätes Pending DE102018106731A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018106731.3A DE102018106731A1 (de) 2018-03-21 2018-03-21 Militärisches Gerät und Verfahren zum Betreiben eines militärischen Gerätes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018106731.3A DE102018106731A1 (de) 2018-03-21 2018-03-21 Militärisches Gerät und Verfahren zum Betreiben eines militärischen Gerätes

Publications (1)

Publication Number Publication Date
DE102018106731A1 true DE102018106731A1 (de) 2019-09-26

Family

ID=67847889

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018106731.3A Pending DE102018106731A1 (de) 2018-03-21 2018-03-21 Militärisches Gerät und Verfahren zum Betreiben eines militärischen Gerätes

Country Status (1)

Country Link
DE (1) DE102018106731A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020260496A1 (de) 2019-06-27 2020-12-30 Rheinmetall Electronics Gmbh Militärisches fahrzeug mit hmi-gerät für eine einsatzkraft

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080136916A1 (en) * 2005-01-26 2008-06-12 Robin Quincey Wolff Eye tracker/head tracker/camera tracker controlled camera/weapon positioner control system
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
KR20150105765A (ko) * 2014-03-10 2015-09-18 국방과학연구소 시선추적을 이용한 표적 지정장치 및 그 지정방법
EP2950035A1 (de) * 2014-05-28 2015-12-02 Patents Factory Ltd. Sp. z o.o. Verfahren und System für eine taktische Visualisierung
US20160227866A1 (en) * 2015-02-05 2016-08-11 Amit TAL Helmet with monocular optical display
WO2017055868A1 (en) * 2015-09-30 2017-04-06 Mbda Uk Limited Target designator

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US20080136916A1 (en) * 2005-01-26 2008-06-12 Robin Quincey Wolff Eye tracker/head tracker/camera tracker controlled camera/weapon positioner control system
KR20150105765A (ko) * 2014-03-10 2015-09-18 국방과학연구소 시선추적을 이용한 표적 지정장치 및 그 지정방법
EP2950035A1 (de) * 2014-05-28 2015-12-02 Patents Factory Ltd. Sp. z o.o. Verfahren und System für eine taktische Visualisierung
US20160227866A1 (en) * 2015-02-05 2016-08-11 Amit TAL Helmet with monocular optical display
WO2017055868A1 (en) * 2015-09-30 2017-04-06 Mbda Uk Limited Target designator

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020260496A1 (de) 2019-06-27 2020-12-30 Rheinmetall Electronics Gmbh Militärisches fahrzeug mit hmi-gerät für eine einsatzkraft
DE102019117325A1 (de) * 2019-06-27 2020-12-31 Rheinmetall Electronics Gmbh Militärisches Fahrzeug mit HMI-Gerät für eine Einsatzkraft

Similar Documents

Publication Publication Date Title
DE102018109463B3 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
EP2157903B1 (de) Verfahren zur wahrnehmungsmessung
DE112006002954B4 (de) Virtuelles Schnittstellensystem
DE102011013760B4 (de) Verfahren, Vorrichtung und Computerprogrammprodukt zur Informationsvermittlung mittels erweiterter Realität im Zusammenhang mit einem Straßenfahrzeug
DE102015103735A1 (de) Verfahren und Vorrichtung zum Testen eines in einem Luftfahrzeug zu bedienenden Geräts
DE102016210288A1 (de) Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
DE102004016331B4 (de) Vorrichtung und Verfahren zur gleichzeitigen Darstellung virtueller und realer Umgebungsinformationen
DE102016104186A1 (de) Simulator zum Training eines Teams einer Hubschrauberbesatzung
DE102010053895A1 (de) Umfeld-Darstellungsvorrichtung sowie ein Fahrzeug mit einer derartigen Umfeld-Darstellungsvorrichtung und Verfahren zur Darstellung eines Panoramabildes
WO2009062775A1 (de) Überwachungssystem mit zustandserfassungsmodul, verfahren zur selbstüberwachung eines beobachters sowie computerprogramm
DE102014214514A1 (de) Vorrichtung und Verfahren zum Austausch von Daten zwischen Fahrzeugen zum Einrichten einer Kolonnenfahrt
DE102016212236A1 (de) Interaktionssystem und -verfahren
DE102014006732A1 (de) Bildüberlagerung von virtuellen Objekten in ein Kamerabild
DE10215885A1 (de) Automatische Prozesskontrolle
DE102013100569A1 (de) Verfahren und Vorrichtung zur Anzeige einer Fahrzeugumgebung
DE102018106731A1 (de) Militärisches Gerät und Verfahren zum Betreiben eines militärischen Gerätes
EP3420539B1 (de) Verfahren zum betrieb einer anzeigevorrichtung und system zur anzeige von realen bildinhalten einer realumgebung überlagerten virtuellen bildinhalten
WO2003078112A2 (de) Automatische prozesskontrolle
DE102020108972A1 (de) System und verfahren zur verfolgung der sich bewegenden objekte
DE102019207454A1 (de) Augmented-Reality-System
DE102019126903B3 (de) Verfahren und Robotersystem zur Eingabe eines Arbeitsbereichs
DE102013211046A1 (de) Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste
DE102011075877A1 (de) Auswertungsverfahren für eine Folge von zeitlich aufeinander folgenden Tiefenbildern
DE102007056835A1 (de) Bildverarbeitunsmodul zur Schätzung einer Objektposition eines Überwachungsobjekts, Verfahren zur Bestimmung einer Objektposition eines Überwachungsobjekts sowie Computerprogramm
EP0144890B1 (de) Verfahren und Vorrichtung zur Treffpunktermittlung

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication