-
Die vorliegende Erfindung betrifft ein militärisches Gerät, wie beispielsweise ein militärisches Landfahrzeug, und ein Verfahren zum Betreiben eines militärischen Gerätes.
-
Ein wichtiger Aspekt bei militärischen Geräten, wie militärischen Landfahrzeugen, ist vermehrt die teilautomatisierte Wirkungskette „Zielerfassung, Zielverfolgung und WaffeneinlauflNachführung“ (kurz: ZZW). Eine mit der ZZW beauftragte Einsatzkraft, beispielsweise ein Soldat in einem Panzer, der die Waffe zu bedienen hat, ist mit einer Vielzahl von Aufgaben betraut, um insbesondere auch die Zielerfassung, die Zielverfolgung und Waffeneinlauf/Nachführung leisten zu können. Die Systeme, insbesondere die Waffensysteme, werden immer komplexer, umso mehr ist es notwendig, die Einsatzkraft bei deren Bedienung zu unterstützen beziehungsweise Verfahren und Vorrichtungen bereitzustellen, welche der Einsatzkraft die Bedienung erleichtern.
-
Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, ein verbessertes militärisches Gerät zu schaffen.
-
Gemäß einem ersten Aspekt wird ein militärisches Gerät für eine Einsatzkraft vorgeschlagen. Das militärische Gerät umfasst eine erste Einheit zum Bereitstellen von Eye-Tracking-Daten aus einem Eye-Tracking von Augenbewegungen der Einsatzkraft in einem bestimmten Sichtbereich, eine zweite Einheit zum Erfassen eines von der Einsatzkraft ausgelösten Trigger-Ereignisses einer Anzahl von vorbestimmten Trigger-Ereignissen, eine dritte Einheit zum Ermitteln eines Blickpunktes der Einsatzkraft in dem Sichtbereich zum Zeitpunkt des Erfassens des Trigger-Ereignisses aus den bereitgestellten Eye-Tracking-Daten, und eine vierte Einheit zum Erzeugen einer geräterelativen Position eines Objektes in dem Sichtbereich in Abhängigkeit des ermittelten Blickpunktes.
-
Durch die Verknüpfung der Eye-Tracking-Daten und dem von der Einsatzkraft ausgelösten Trigger-Ereignis kann der Blickpunkt der Einsatzkraft auf ein Objekt, das sich im Sichtbereich der Einsatzkraft befindet, ermittelt werden. Insbesondere ist die erste Einheit dazu eingerichtet, die Augenbewegungen mit dem Blickpunkt der Einsatzkraft kontinuierlich zu verfolgen.
-
Durch den ermittelten Blickpunkt kann dann die geräterelative Position des Objektes bestimmt werden. Durch die Verknüpfung des Trigger-Ereignisses mit dem aktuellen Blickpunkt der Einsatzkraft ist es vorteilhafterweise möglich, einen Marker oder eine Positions-Angabe der Blickposition der Einsatzkraft ohne Markierung über eine Maus oder einen Touchscreen zu erstellen.
Folglich kann die geräterelative Position des Objektes basierend auf den Augenbewegungen der Einsatzkraft und dem Trigger-Ereignis, beispielsweise aus einer Geste, aus einem Sprachbefehl oder aus einem Brain-Computer-Interface, bestimmt werden. Damit ist der Aufwand für den Nutzer zur Bestimmung einer geräterelativen Position eines Objektes, wie eines feindlichen Panzers, in seinem Sichtbereich minimiert. Hierdurch werden die Möglichkeiten hinsichtlich der Bedienbarkeit einer Zielerfassung, Zielverfolgung und Waffeneinlauf/Nachlauf (kurz: ZZW) für die Einsatzkraft verbessert.
-
Die geräterelative Position bezeichnet insbesondere die Position des Objektes relativ zu dem militärischen Gerät. Insbesondere umfasst die geräterelative Position einen Azimut-Winkel und/oder einen Elevations-Winkel von dem militärischen Gerät auf das Objekt.
-
Das Objekt kann beispielsweise ein militärisches Landfahrzeug, ein Soldat, eine Gruppe von Soldaten oder ein Waffensystem sein. Die Einsatzkraft kann auch als Operator oder Nutzer bezeichnet werden.
-
Das Trigger-Ereignis kann beispielsweise durch Betätigung eines Tasters oder eines Knopfes, durch ein Brain-Computer-Interface oder durch ein anderes Eingabegerät durch die Einsatzkraft ausgelöst werden. Beispielsweise kann das Trigger-Ereignis auch durch eine vorbestimmte Geste ausgelöst werden. In einem solchen Fall umfasst das militärische Gerät vorzugsweise eine Gestenerkennung. Des Weiteren kann das vorbestimmte Trigger-Ereignis auch durch einen Sprachbefehl ausgelöst werden. In einem solchen Fall umfasst das militärische Gerät vorzugsweise eine Spracherkennung. Die Anzahl vorbestimmter Trigger-Ereignisse kann auch eine Vielzahl multimodaler Eingaben umfassen, beispielsweise Trigger-Ereignisse aus Gestenerkennung, Trigger-Ereignisse aus Spracherkennung, Trigger-Ereignisse aus Betätigungen von Knöpfen oder Tastern oder/oder Trigger-Ereignisse aus dem Brain-Computer-Interface.
-
Die jeweilige Einheit, beispielsweise die erste Einheit oder die zweite Einheit, kann hardwaretechnisch und/oder auch softwaretechnisch implementiert sein. Bei einer hardwaretechnischen Implementierung kann die Einheit als Vorrichtung oder als Teil einer Vorrichtung, zum Beispiel als Computer oder als Mikroprozessor, ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein.
-
Gemäß einer Ausführungsform ist die vierte Einheit dazu eingerichtet, die geräterelative Position des Objektes in Abhängigkeit des ermittelten Bildpunktes und eines Bildes des Sichtbereichs oder von Bilddaten des Sichtbereichs zu erzeugen.
-
Für den Fall, dass das militärische Gerät ein militärisches Landfahrzeug ist, wie beispielsweise ein Panzer ist, kann das Bild des Sichtbereichs insbesondere über eine Anzahl von Winkelspiegeln an einen Arbeitsplatz der Einsatzkraft in dem militärischen Landfahrzeug geleitet werden. Alternativ oder zusätzlich kann die vierte Einheit neben dem Bild des Sichtbereichs auch Bilddaten nutzen, die beispielsweise über eine Anzahl von an dem militärischen Landfahrzeug angebrachten Videokameras bereitgestellt werden.
-
Gemäß einer weiteren Ausführungsform ist die vierte Einheit dazu eingerichtet, die geräterelative Position des Objektes umfassend einen Elevations-Winkel und/oder einen Azimut-Winkel des Objektes relativ zu dem militärischen Gerät zu ermitteln.
-
Die geräterelative Position des Objektes zu dem militärischen Gerät umfasst insbesondere zumindest den Elevations-Winkel oder den Azimut-Winkel, vorzugsweise beide Winkel.
-
Gemäß einer weiteren Ausführungsform umfasst das militärische Gerät eine Entfernungsmess-Einheit, welche dazu eingerichtet ist, eine Entfernung des Objektes zu dem militärischen Gerät zu bestimmen. Dabei ist die vierte Einheit dazu eingerichtet, den ermittelten Azimut-Winkel und den ermittelten Elevations-Winkel mit der von der Entfernungs-Messeinheit bestimmten Entfernung des Objektes zu der geräterelativen Position des Objekts zu verknüpfen.
-
In dieser Ausführungsform umfasst die geräterelative Position den Azimut-Winkel, den Elevations-Winkel und die Entfernung. Damit kann die geräterelative Position des Objektes auch in einem dreidimensionalen Raum dargestellt werden.
-
Gemäß einer weiteren Ausführungsform umfasst die Entfernungsmess-Einheit einen Laser zur Messung der Entfernung des Objektes.
-
Gemäß einer weiteren Ausführungsform ist die Entfernungsmess-Einheit dazu eingerichtet, die Entfernung des Objektes in Abhängigkeit des ermittelten Bildpunktes und eines in einer Datenbank gespeicherten Geländemodells eines den Sichtbereich umfassenden Geländes zu ermitteln.
-
Gemäß einer weiteren Ausführungsform ist die Entfernungsmess-Einheit dazu eingerichtet, die Entfernung des Objektes mittels einer Bild-Analyse optisch zu ermitteln.
-
Gemäß einer weiteren Ausführungsform ist die Entfernungsmess-Einheit dazu eingerichtet, die Entfernung des Objektes in Abhängigkeit einer manuellen Zuweisung durch die Einsatzkraft zu ermitteln.
-
Die manuelle Zuweisung durch die Einsatzkraft kann beispielsweise durch eine vorbestimmte Geste der Einsatzkraft erfolgen.
-
Gemäß einer weiteren Ausführungsform ist die zweite Einheit dazu eingerichtet, ein zweites von der Einsatzkraft ausgelöstes Trigger-Ereignis der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen. Dabei ist die vierte Einheit dazu eingerichtet, das Objekt mit der erzeugten geräterelativen Position in Abhängigkeit des erfassten zweiten Trigger-Ereignisses in eine Kategorie einer Mehrzahl vorbestimmter Kategorien einzuordnen.
-
In einer Variante können zwei Kategorien, beispielsweise für Freund und Feind, vorgesehen sein. Dann kann die Einsatzkraft über das zweite Trigger-Ereignis, welches beispielsweise ein vorbestimmter Sprachbefehl oder eine vorbestimmte Geste ist, das Objekt hinsichtlich Feind oder Freund kategorisieren. In einer anderen Variante ist eine Vielzahl unterschiedlicher Kategorien vorgesehen, beispielsweise feindliche Landfahrzeuge, feindliche Soldatengruppen, feindliche Soldaten oder dergleichen.
-
Gemäß einer weiteren Ausführungsform umfasst das militärische Gerät eine fünfte Einheit umfassend zumindest eine Video-Kamera zum Erzeugen einer Augmented-Reality-Darstellung des Sichtbereichs. Dabei ist die vierte Einheit dazu eingerichtet, die geräterelative Position in Abhängigkeit des in der Augmented-Reality-Darstellung ermittelten Bildpunktes zu erzeugen.
-
Die geräterelative Position kann zum einen vorteilhafterweise in Abhängigkeit der Augmented-Reality-Darstellung erzeugt werden und zum anderen kann die erzeugte geräterelative Position wiederrum innerhalb der Augmented-Reality-Darstellung für die Einsatzkraft dargestellt und ausgegeben werden.
-
Gemäß einer weiteren Ausführungsform ist die fünfte Einheit ferner dazu eingerichtet, die ermittelte geräterelative Position des Objektes mittels einer Markierung in der Augmented-Reality-Darstellung darzustellen.
-
Die Markierung kann beispielsweise ein Fadenkreuz einer bestimmten Farbe sein. Beispielsweise können Markierungen unterschiedlicher Farben für unterschiedliche Kategorien von detektierten Objekten verwendet werden, beispielsweise blau für Blue-Forces und rot für Red-Forces.
-
Gemäß einer weiteren Ausführungsform umfasst das militärische Gerät einen Bildschirm, welcher einen ersten Bildausgabe-Bereich zur Ausgabe des Sichtbereichs oder einer Augmented-Reality-Darstellung des Sichtbereichs und einen zweiten Bildausgabe-Bereich zur Ausgabe eines ausgewählten, vergrößerten Ausschnitts des Sichtbereichs oder der Augmented-Reality-Darstellung aufweist. Dabei ist die fünfte Einheit dazu eingerichtet, die ermittelte geräterelative Position des Objektes in der Augmented-Reality-Darstellung des ersten Bildausgabe-Bereiches und/oder in der Augmented-Reality-Darstellung des zweien Bildausgabe-Bereiches auszugeben.
-
Gemäß einer weiteren Ausführungsform ist die zweite Einheit dazu eingerichtet, ein drittes von der Einsatzkraft ausgelöstes Trigger-Ereignis der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen, wobei die fünfte Einheit ferner dazu eingerichtet ist, den vergrößerten Ausschnitt des Sichtbereichs für den zweiten Bildausgabe-Bereich in Abhängigkeit des erfassten dritten Trigger-Ereignisses auszuwählen.
-
Insbesondere kann der erste Bildausgabe-Bereich dazu verwendet werden, einen Livestream von Videodaten der Videokameras auszugeben. In dem ersten Bildausgabe-Bereich wird vorzugsweise ein Panoramabild der Umgebung, insbesondere des Sichtbereichs, ausgegeben. Mittels der fünften Einheit kann die Einsatzkraft selbst den vergrößerten Ausschnitt des Sichtbereichs auswählen, welcher dann auf dem zweiten Bildausgabe-Bereich ausgegeben wird. Der vergrößerte Ausschnitt des Sichtbereichs kann auch als Region-of-Interest bezeichnet werden.
-
Gemäß einer weiteren Ausführungsform umfasst der Bildschirm eine Anzahl von Bedienfeldern zur Bedienung des militärischen Gerätes durch die Einsatzkraft, wobei die zweite Einheit dazu eingerichtet ist, ein viertes von der Einsatzkraft ausgelöstes Trigger-Ereignis der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen, wobei die dritte Einheit dazu eingerichtet ist, einen Blickpunkt der Einsatzkraft auf ein bestimmtes Bedienfeld der Anzahl zum Zeitpunkt des Erfassens des vierten Trigger-Ereignisses zu ermitteln, wobei die vierte Einheit dazu eingerichtet ist, den auf dem bestimmten Bedienfeld erfassten Blickpunkt der Einsatzkraft als ein Betätigen des bestimmten Bedienfeldes durch die Einsatzkraft zu interpretieren.
-
Beispielsweise erfasst die dritte Einheit einen Blick oder einen aktuellen Blickpunkt der Einsatzkraft auf ein bestimmtes Bedienfeld zum Zeitpunkt des Erfassens des vierten Trigger-Ereignisses. Die vierte Einheit interpretiert dann den auf dem bestimmten Bedienfeld erfassten Blickpunkt der Einsatzkraft als ein Betätigen oder eine Auswahl des bestimmten Bedienfelds. Folglich betätigt die Einsatzkraft das bestimmte Bedienfeld mittels des Blickpunktes seiner Augen und dem Auslösen des vierten Trigger-Ereignisses ohne die Verwendung einer Maus, eines Touchscreens oder einer sonstigen haptischen Eingabe-Vorrichtung.
-
Gemäß einer weiteren Ausführungsform ist das militärische Gerät ein militärisches Fahrzeug, ein Schiff, ein Helikopter oder ein Soldaten-System.
-
Gemäß einer weiteren Ausführungsform ist das militärische Gerät ein militärisches Fahrzeug, welches eine Anzahl von Arbeitsplätzen für die Einsatzkraft und zumindest einen Winkelspiegel umfasst. Der Winkelspiegel ist dazu eingerichtet, das Bild des Sichtbereichs an einen bestimmten Arbeitsplatz der Anzahl zu leiten. Weiterhin ist die vierte Einheit dazu eingerichtet, die geräterelative Position des Objektes in dem Sichtbereich in Abhängigkeit des in dem durch den zumindest einen Winkelspiegel geleiteten Bildes zu erzeugen.
-
Gemäß einer weiteren Ausführungsform umfasst das militärische Gerät eine Übertragungseinheit zum Übertragen der erzeugten geräterelativen Position des Objektes an zumindest einem weiteren Arbeitsplatz der Anzahl, welcher eine Karte und eine Darstellungs-Einheit zum Darstellen der übertragenen geräterelativen Position auf der Karte umfasst.
-
Gemäß einem zweiten Aspekt wird ein Verfahren zum Betreiben eines militärischen Gerätes für eine Einsatzkraft vorgeschlagen. Das Verfahren umfasst die folgenden Schritte:
- Bereitstellen von Eye-Tracking-Daten aus einem Eye-Tracking von Augenbewegungen der Einsatzkraft in einem bestimmten Sichtbereich,
- Erfassen eines von der Einsatzkraft ausgelösten Trigger-Ereignisses einer Anzahl von vorbestimmten Trigger-Ereignissen,
- Ermitteln eines Blickpunktes der Einsatzkraft in dem Sichtbereich zum Zeitpunkt des Erfassens des Trigger-Ereignisses aus den bereitgestellten Eye-Tracking-Daten, und
- Erzeugen einer geräterelativen Position eines Objektes in dem Sichtbereich in Abhängigkeit des ermittelten Blickpunktes.
-
Die für das vorgeschlagene militärische Gerät beschriebenen Ausführungsformen und Merkmale gelten für das vorgeschlagene Verfahren entsprechend.
-
Weiterhin wird ein Computerprogrammprodukt vorgeschlagen, welches auf einer programmgesteuerten Einrichtung die Durchführung des wie oben erläuterten Verfahrens veranlasst.
-
Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm-Mittel, kann beispielsweise als Speichermedium, wie z.B. Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikations-Netzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammprodukt oder dem Computerprogramm-Mittel erfolgen.
-
Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufügen.
-
Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Unteransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung.
-
Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungsbeispielen unter Bezugnahme auf die beigelegten Figuren näher erläutert.
- 1 zeigt ein schematisches Blockschaltbild eines ersten Ausführungsbeispiels eines militärischen Gerätes für eine Einsatzkraft,
- 2 zeigt ein schematisches Beispiel eines Sichtbereichs der Einsatzkraft mit dargestellter Eye-Tracking-Linie der Augenbewegungen der Einsatzkraft;
- 3 zeigt das schematische Beispiel des Sichtbereichs der Einsatzkraft nach 2 mit dargestellter geräterelativer Position eines Objektes;
- 4 zeigt ein schematisches Blockschaltbild eines zweiten Ausführungsbeispiels eines militärischen Gerätes für eine Einsatzkraft;
- 5 zeigt eine schematische Ansicht eines ersten Ausführungsbeispiels eines Bildschirms für das militärische Gerät;
- 6 zeigt eine schematische Ansicht eines zweiten Ausführungsbeispiels eines Bildschirms für das militärische Gerät; und
- 7 zeigt ein schematisches Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Betreiben eines militärischen Gerätes für eine Einsatzkraft.
-
In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.
-
In 1 ist ein schematisches Blockschaltbild eines ersten Ausführungsbeispiels eines militärischen Gerätes 10 für eine Einsatzkraft dargestellt.
-
Das militärische Gerät 10 umfasst eine erste Einheit 11, eine zweite Einheit 12, eine dritte Einheit 13 und eine vierte Einheit 14.
-
Die erste Einheit 11 ist dazu eingerichtet, Eye-Tracking-Daten ED von Augenbewegungen der Einsatzkraft in einem bestimmten Sichtbereich SB bereitzustellen. Hierzu zeigt die 2 ein schematisches Beispiel eines Sichtbereichs SB der Einsatzkraft mit dargestellter Eye-Tracking-Linie ET der Augenbewegungen der Einsatzkraft. Die Augenbewegungen der Einsatzkraft sind nur aus Gründen der Illustrierung in der 2 als Eye-Tracking-Linie ET dargestellt. Die Eye-Tracking-Linie ET wird der Einsatzkraft vorzugsweise nicht dargestellt. Der Sichtbereich SB der 2 wird der Einsatzkraft beispielsweise mittels eines Bildschirmes 20 (wie dargestellt) oder über Winkelspiegel (nicht dargestellt) bereitgestellt. In dem Sichtbereich SB des Beispiels der 2 befindet sich ein Objekt OB, beispielsweise ein LKW oder ein Radpanzer.
-
Weiter mit Bezug zur 1 ist die zweite Einheit 12 dazu eingerichtet, ein von der Einsatzkraft ausgelöstes Trigger-Ereignis TE einer Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen. Das Trigger-Ereignis TE kann beispielsweise durch Betätigung eines Tasters oder eines Knopfes, durch ein Brain-Computer-Interface oder durch ein anderes Eingabegerät ausgelöst werden. Beispielsweise kann das Trigger-Ereignis TE auch durch eine vorbestimmte Geste ausgelöst werden. In einem solchen Fall umfasst das militärische Gerät 10 eine Gestenerkennung. Des Weiteren kann das vorbestimmte Trigger-Ereignis TE auch durch einen Sprachbefehl ausgelöst werden. In einem solchen Fall umfasst das militärische Gerät 10 eine Spracherkennung. Die Anzahl vorbestimmter Trigger-Ereignisse TE kann auch eine Vielzahl multimodaler Eingaben umfassen, beispielsweise Trigger-Ereignisse aus Gestenerkennung, Trigger-Ereignisse aus Spracherkennung, Trigger-Ereignisse aus Betätigungen von Knöpfen oder Tastern oder/oder Trigger-Ereignisse aus dem Brain-Computer-Interface.
-
Die dritte Einheit 13 ist dazu eingerichtet, einen Blickpunkt BP der Einsatzkraft in dem Sichtbereich SB zum Zeitpunkt des Erfassens des Trigger-Ereignisses TE aus den bereitgestellten Eye-Tracking-Daten ED, generiert aus der Eye-Tracking-Linie ET, zu ermitteln. Zum Zeitpunkt des Erfassens des Trigger-Ereignisses TE ist die Eye-Tracking-Linie ET der Einsatzkraft in der 2 in dem mit dem Bezugszeichen x bezeichneten Punkt. Die dritte Einheit 13 verknüpft dann den Blickpunkt BP der Einsatzkraft, repräsentiert durch x in 2, mit dem Zeitpunkt des Erfassens des Trigger-Ereignisses TE, wobei dann die vierte Einheit 14 eine geräterelative Position RP des Objektes OB in dem Sichtbereich SB in Abhängigkeit des ermittelten Bildpunktes BP erzeugt. Mit anderen Worten ordnet die vierte Einheit 14 den Ort von x in der 2 der geräterelativen Position RP des Objektes OB in dem Sichtbereich SB zu. Damit ist die geräterelative Position RP in dem Beispiel der 2 mit dem Bezugszeichen x gezeigt.
-
Mit Bezug zu 1 kann die vierte Einheit 14 dazu eingerichtet sein, die geräterelative Position RP des Objektes OB in Abhängigkeit des ermittelten Bildpunktes BP und eines Bildes BS des Sichtbereichs SB oder alternativ von Bilddaten BD des Sichtbereichs SB erzeugen. Das heißt, die vierte Einheit 14 nutzt zusätzlich zu dem ermittelten Bildpunkt BP das Bild BS des Sichtbereichs SB, beispielsweise bereitgestellt über Winkelspiegel, oder Bilddaten BD des Sichtbereichs SB, beispielsweise bereitgestellt über eine Anzahl von Videokameras.
-
Dabei kann die vierte Einheit 14 vorzugsweise dazu eingerichtet sein, die geräterelative Position RP des Objektes OB umfassend einen Elevations-Winkel und einen Azimut-Winkel des Objektes OB relativ zu dem militärischen Gerät 10 zu ermitteln.
-
Hierzu zeigt die 3 das schematische Beispiel des Sichtbereichs SB nach 2 mit dargestellter geräterelativer Position RP des Objektes OB. Die geräterelative Position RP des Objektes OB in 3 ist für die Einsatzkraft mittels einer Markierung MK gekennzeichnet.
-
4 zeigt ein schematisches Blockschaltbild eines zweiten Ausführungsbeispiels eines militärischen Gerätes 10 für eine Einsatzkraft. Das zweite Ausführungsbeispiel der 4 umfasst alle Merkmale des ersten Ausführungsbeispiels des militärischen Gerätes 10 der 1. Darüber hinaus umfasst das zweite Ausführungsbeispiel des militärischen Gerätes 10 der 4 eine fünfte Einheit 15, eine Entfernungsmess-Einheit 16 sowie eine Datenbank 17.
-
Die Entfernungsmess-Einheit 16 ist dazu eingerichtet, eine Entfernung EF des Objektes OB zu dem militärischen Gerät 10 zu bestimmen. Dann kann die vierte Einheit 14 vorzugsweise dazu eingerichtet sein, den ermittelten Azimut-Winkeln und den ermitteln Elevations-Winkel mit der von der Entfernungsmess-Einheit 16 bestimmten Entfernung EF des Objektes OB zu der geräterelativen Position RP des Objektes OB zu verknüpfen.
-
Die Entfernungsmess-Einheit 16 umfasst beispielsweise einen Laser zur Messung der Entfernung EF. Zusätzlich oder alternativ kann die Entfernungsmess-Einheit 16 auch dazu eingerichtet sein, die Entfernung EF des Objektes OB in Abhängigkeit des ermittelten Bildpunktes BP und eines in der Datenbank 17 gespeicherten Geländemodells GM eines den Sichtbereich SB umfassenden Geländes und/oder mittels einer Bild-Analyse optisch und/oder in Abhängigkeit einer manuellen Zuweisung durch die Einsatzkraft zu ermitteln.
-
Die in 4 gezeigte fünfte Einheit 15 ist vorzugsweise mit einer Vielzahl von Video-Kameras zum Erzeugen einer Augmented-Reality-Darstellung AR des Sichtbereichs SB gekoppelt. Die vierte Einheit 14 ist dazu eingerichtet, die geräterelative Position RP in Abhängigkeit des in der Augmented-Reality-Darstellung AR ermittelten Bildpunktes BP zu erzeugen. Dabei kann die fünfte Einheit 15 auch dazu eingerichtet sein, die ermittelte geräterelative Position RP des Objektes OB mittels einer Markierung MK (siehe 3) in der Augmented-Reality-Darstellung AR darzustellen. Das strichlierte Oval mit dem Bezugszeichen AR(RP) in 4 illustriert die Ausgabe der Augmented-Reality-Darstellung AR mit der dargestellten geräterelativen Position RP des Objektes.
-
Hierzu zeigt die 5 eine schematische Ansicht eines ersten Ausführungsbeispiels eines Bildschirms 20 für das militärische Gerät 10. Der Bildschirm 20 ist insbesondere Teil des militärisches Gerätes 10 der 4. Der Bildschirm 20 der 5 umfasst einen ersten Bildausgabe-Bereich 21 zur Ausgabe des Sichtbereichs SB oder einer Augmented-Reality-Darstellung AR des Sichtbereichs SB. Insbesondere ist der erste Bildausgabe-Bereich 21 dazu eingerichtet, einen Livestream von Videodaten der Videokameras der fünften Einheit 15 bereitzustellen.
-
Außerdem umfasst der Bildschirm 20 einen zweiten Bildausgabe-Bereich 22. Der zweite Bildausgabe-Bereich 22 ist dazu eingerichtet, einen von der Einsatzkraft ausgewählten, vergrößerten Ausschnitt VA des Sichtbereichs SB auszugeben.
-
Dabei kann die zweite Einheit 12 auch dazu eingerichtet sein, ein drittes von der Einsatzkraft ausgelöstes Trigger-Ereignis TE der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen, wobei dann die fünfte Einheit 15 ferner dazu eingerichtet ist, den vergrößerten Ausschnitt VA des Sichtbereichs SB für den zweiten Bildausgabe-Bereich 22 in Abhängigkeit des erfassten dritten Trigger-Ereignisses TE auszuwählen. Damit kann die Einsatzkraft mittels der fünften Einheit 15 selbst den vergrößerten Ausschnitt VA des Sichtbereichs SB auswählen, welcher dann auf dem zweiten Bildausgabe-Bereich 22 ausgegeben wird. Der vergrößerte Ausschnitt VA des Sichtbereichs SB kann auch als Region-of-Interest bezeichnet werden.
-
Des Weiteren umfasst der Bildschirm 20 der 5 eine Mehrzahl von Bedienfeldern F1-F20 zur Bedienung durch die Einsatzkraft. Ohne Einschränkung der Allgemeinheit umfasst der Bildschirm 20 der 5 zwanzig Bedienfelder F1-F20.
-
Dabei kann die zweite Einheit 12 dazu eingerichtet sein, ein viertes von der Einsatzkraft ausgelöstes Trigger-Ereignis TE der Anzahl von vorbestimmten Trigger-Ereignissen zu erfassen, wobei dann die dritte Einheit 13 dazu eingerichtet ist, einen Blickpunkt BP der Einsatzkraft auf ein bestimmtes Bedienfeld der Anzahl zum Zeitpunkt des Erfassens des vierten Trigger-Ereignisses TE zu ermitteln. Hierzu zeigt die 6 die schematische Ansicht des zweiten Ausführungsbeispiels des Bildschirms 20 mit einer dargestellten Eye-Tracking-Linie ET der Augenbewegungen der Einsatzkraft.
-
In dem Beispiel der 6 erfasst die dritte Einheit 13 einen Blickpunkt BP der Einsatzkraft auf das Bedienfeld F7 zum Zeitpunkt des Erfassens des vierten Trigger-Ereignisses TE. Die vierte Einheit 14 interpretiert dann den auf dem Bedienfeld F7 erfassten Blickpunkt BP der Einsatzkraft als ein Betätigen des Bedienfeldes F7 durch die Einsatzkraft. Das heißt, die Einsatzkraft betätigt das Bedienfeld F7 mittels des Blickpunktes BP seiner Augen und dem Auslösen des vierten Trigger-Ereignisses.
-
Des Weiteren zeigt die 7 ein schematisches Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Betreiben eines militärischen Gerätes 10 für eine Einsatzkraft. Das militärische Gerät 10 ist beispielsweise wie in 1 oder 4 ausgebildet. Das Verfahren gemäß 7 umfasst die folgenden Schritte 701-704:
-
In Schritt 701 werden Eye-Tracking-Daten ED aus einem Eye-Tracking ET von Augenbewegungen der Einsatzkraft von einem bestimmten Sichtbereich SB bereitgestellt.
-
In Schritt 702 wird ein von der Einsatzkraft ausgelöstes Trigger-Ereignis TE einer Anzahl von vorbestimmten Trigger-Ereignissen erfasst.
-
In Schritt 703 wird ein Blickpunkt BP der Einsatzkraft in dem Sichtbereich SB zum Zeitpunkt des Erfassens des Trigger-Ereignisses TE aus den bereitgestellten Eye-Tracking-Daten ED ermittelt.
-
In Schritt 704 wird eine geräterelative Position RP eines Objektes OB in dem Sichtbereich SB in Abhängigkeit des ermittelten Blickpunktes BP erzeugt.
-
Obwohl die vorliegende Erfindung anhand von Ausführungsbeispielen beschrieben wurde, ist sie vielfältig modifizierbar.
-
Bezugszeichenliste
-
- 10
- militärisches Gerät
- 11
- erste Einheit
- 12
- zweite Einheit
- 13
- dritte Einheit
- 14
- vierte Einheit
- 15
- fünfte Einheit
- 16
- Entfernungsmess-Einheit
- 17
- Datenbank
- 20
- Bildschirm
- 21
- erster Bildausgabe-Bereich
- 22
- zweiter Bildausgabe-Bereich
- AR
- Augmented-Reality-Darstellung
- 701-704
- Verfahrensschritt
- AR (RP)
- Augmented-Reality-Darstellung mit dargestellter geräterelativer Position des Objektes
- BP
- Bildpunkt
- BS
- Bild des Sichtbereichs
- BS
- Bilddaten
- ED
- Eye-Tracking-Daten
- EF
- Entfernung
- ET
- Eye-Tracking, Eye-Tracking-Linie
- GM
- Geländemodell
- MK
- Markierung
- OB
- Objekt, Objektbild
- RP
- geräterelative Position
- SB
- Sichtbereich
- TE
- Trigger-Ereignis
- VA
- vergrößerter Ausschnitt des Sichtbereichs
- x
- geräterelative Position des Objektes im Bild