DE102020106703B4 - Objekterkennungseinheit mit Sensoreingaben in verschiedenen Spektralbereichen - Google Patents

Objekterkennungseinheit mit Sensoreingaben in verschiedenen Spektralbereichen Download PDF

Info

Publication number
DE102020106703B4
DE102020106703B4 DE102020106703.8A DE102020106703A DE102020106703B4 DE 102020106703 B4 DE102020106703 B4 DE 102020106703B4 DE 102020106703 A DE102020106703 A DE 102020106703A DE 102020106703 B4 DE102020106703 B4 DE 102020106703B4
Authority
DE
Germany
Prior art keywords
object recognition
sensors
sensor
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020106703.8A
Other languages
English (en)
Other versions
DE102020106703A1 (de
Inventor
Manfred Hiebl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
Airbus Defence and Space GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Defence and Space GmbH filed Critical Airbus Defence and Space GmbH
Priority to DE102020106703.8A priority Critical patent/DE102020106703B4/de
Publication of DE102020106703A1 publication Critical patent/DE102020106703A1/de
Application granted granted Critical
Publication of DE102020106703B4 publication Critical patent/DE102020106703B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

Objekterkennungseinheit (1) zum Klassifizieren und Identifizieren von Objekten, aufweisend:ein künstliches neuronales Netzwerk, KNN, (100) mit einer Eingabeschicht (110) und einer Ausgabeschicht (130), wobei das KNN (100) ausgestaltet ist, Objekte basierend auf Eingaben an die Eingabeschicht zu Klassifizieren und zu Identifizieren;wobei die Eingabeschicht (110) eine Mehrzahl von Eingabeneuronen (111 - 116) aufweist;wobei die Eingabeschicht ausgeführt ist, einen Eingabevektor zu erhalten, wobei der Eingabevektor eine Positionsinformation zu einem Objekt und mehrere Objekterkennungsinformationen betreffend dasselbe Objekt von einer Mehrzahl von Sensoren (10 - 50) enthält;wobei mindestens zwei Eingabeneuronen (111 - 115) ausgeführt sind, Objekterkennungsinformationen von der Mehrzahl von Sensoren (10 - 50) in verschiedenen Spektralbereichen zu erhalten und zu verarbeiten;wobei die Objekterkennungsinformationen von der Mehrzahl von Sensoren ein Ergebnis einer von jedem Sensor eigenständig ausgeführten Objekterkennung darstellen;wobei das KNN (100) ausgeführt ist, basierend auf den Objekterkennungsinformationen von der Mehrzahl von Sensoren und der Positionsinformation ein Objekt zu klassifizieren und zu identifizieren;wobei das KNN (100) ausgestaltet ist, mit räumlich getrennten Sensoren (10 - 50) aus der Mehrzahl von Sensoren (10 - 50) über eine Datenverbindung verbunden zu werden;wobei die Mehrzahl von Sensoren (10 - 50) unterschiedlichen mobilen oder stationären Trägereinheiten zugeordnet ist, wobei die mobilen oder stationären Trägereinheiten voneinander räumlich getrennt oder voneinander beabstandet sind.

Description

  • Technisches Gebiet
  • Die vorliegende Beschreibung betrifft eine Objekterkennungseinheit und einen Systemverbund umfassend Sensoren, eine Objekterkennungseinheit und mindestens einen Effektor. Die Objekterkennungseinheit verwendet ein künstliches neuronales Netzwerk, um Objekte in einem beobachteten Gebiet mit einer höheren Zuverlässigkeit zu erkennen.
  • Technischer Hintergrund
  • Systeme der elektronischen Aufklärung (engl. Electronic Intelligence, ELINT) werden häufig im militärischen Umfeld verwendet, um in einem zugewiesenen oder zu überwachenden Gebiet Aufklärung zu betreiben und Objekte zu erkennen, indem die Objekte klassifiziert und identifiziert werden. ELINT kommt oftmals zum Einsatz bei der Aufklärung und Beobachtung von Einheiten von gegnerischen Streitkräften, insbesondere von gegnerischen Waffen- oder Aufklärungsanlagen. Beispielsweise kann ELINT verwendet werden, um die gegnerische Luftverteidigung aufzuklären. Die Luftverteidigung nutzt sowohl eigene aktive Aufklärungssysteme wie Radaranlagen als auch Waffensysteme.
  • Für die Aufklärung von gegnerischen Streitkräfteeinheiten können verschiedene Sensoren verwendet werden. Solche Sensoren sind beispielsweise Bilderfassungssysteme, welche eine Bildaufnahme von einem Gebiet erfassen und diese Bildaufnahme der Auswertung durch eine Maschine oder menschliche Bediener (mit oder ohne maschinelle Unterstützung) zuführen. Ebenfalls ein Aufklärungssensor im allgemeinen Sinne ist eine Radaranlage, welche elektromagnetische Wellen emittiert und die von einem Objekt reflektierten elektromagnetischen Wellen erfasst und daraus Rückschlüsse auf Position und Struktur des Objektes erlaubt.
  • Um der Erkennung durch die Aufklärung des Gegners zu entgehen, werden die Einheiten der eigenen Streitkräfte getarnt. Eine solche Tarnung kann verschiedene Zielsetzungen und Ausgestaltungen haben. Eine mögliche Tarnung gegen die Erkennung auf optischen Bildaufnahmen kann die optische Tarnung sein. Gegen die Aufklärung mit Radaranlagen kann der sog. Radarquerschnitt (auch als Rückstrahlfläche oder effektive Reflexionsfläche bezeichnet) reduziert werden, um eingehende elektromagnetische Wellen im Radar-Spektrum zu streuen und einen möglichst geringen Anteil zurück zu der Quelle zu reflektieren.
  • Asvadi, A., et al, Multimodal vehicle detection: fusing 3D-LIDAR and color camera data. In: Pattern Recognition Letter, 2018, 115. Jg. S. 20-29 beschreibt ein Verfahren für das Zusammenführen von optischen Bilddaten und Lidar-Daten, um damit die optischen Bilddaten mit weiteren Informationen anzureichern.
  • Kokar, M.; Kim, K.H., Review of multisensory data fusion architectures and techniques. In: Proceedings of 8th IEEE International Symposium on Intelligent Control. IEEE, 1993, S. 261-266, enthält einen Überblick über verschiedene Verfahren, wie Daten aus einer Mehrzahl von Sensoren oder Datenquellen zusammengefügt werden können, um einen Gesamtüberblick über ein Lagebild zu erhalten.
  • Farahnakian, F., et al, Object detection based on multi-sensor proposal fusion in maritime environment. In: 2018 17th IEEE International Conference on Machine learning and Applications (ICMLA). IEEE, 2018, S. 971-976, beschreibt ein Verfahren zum Zusammensetzen von Informationen basierend auf unterschiedlichen Quellsensoren, wie beispielsweise Wärmebildkameras, optischen Kameras, Radar und Lidar.
  • Darstellung der Erfindung
  • Es kann als Aufgabe betrachtet werden, die Zuverlässigkeit der Aufklärung von Objekten in einem zu überwachenden Gebiet zu verbessern.
  • Diese Aufgabe wird gelöst durch den Gegenstand des unabhängigen Anspruchs. Weitere Ausführungsformen ergeben sich aus den abhängigen Ansprüchen sowie aus der folgenden Beschreibung.
  • Gemäß einem ersten Aspekt ist eine Objekterkennungseinheit zum Klassifizieren und Identifizieren von Objekten angegeben. Die Objekterkennungseinheit weist ein künstliches neuronales Netzwerk, KNN, mit einer Eingabeschicht und einer Ausgabeschicht auf, wobei das KNN ausgestaltet ist, Objekte basierend auf Eingaben an die Eingabeschicht zu Klassifizieren und zu Identifizieren. Die Eingabeschicht weist eine Mehrzahl von Eingabeneuronen auf. Die Eingabeschicht ist ausgeführt, einen Eingabevektor zu erhalten, wobei der Eingabevektor eine Positionsinformation zu einem Objekt und mehrere Objekterkennungsinformationen betreffend dasselbe Objekt von einer Mehrzahl von Sensoren enthält. Mindestens zwei Eingabeneuronen sind ausgeführt, Objekterkennungsinformationen von der Mehrzahl von Sensoren in verschiedenen Spektralbereichen zu erhalten und zu verarbeiten, wobei die Objekterkennungsinformationen von der Mehrzahl von Sensoren ein Ergebnis einer von jedem Sensor eigenständig ausgeführten Objekterkennung darstellen, und das KNN ist ausgeführt, basierend auf den Objekterkennungsinformationen von der Mehrzahl von Sensoren und der Positionsinformation ein Objekt zu klassifizieren und zu identifizieren. Das KNN ist ausgestaltet, mit räumlich getrennten Sensoren aus der Mehrzahl von Sensoren über eine Datenverbindung verbunden zu werden. Die Mehrzahl von Sensoren ist unterschiedlichen mobilen oder stationären Trägereinheiten zugeordnet. Die mobilen oder stationären Trägereinheiten sind voneinander räumlich getrennt oder voneinander beabstandet.
  • Die Objekterkennungseinheit enthält ein künstliches neuronales Netzwerk, KNN, und das KNN erhält Objekterkennungsinformationen von verschiedenen Sensoren, wobei die Objekterkennungsinformationen in verschiedenen Spektralbereichen erfasst und an das KNN bereitgestellt werden. In anderen Worten erfassen die Sensoren Informationen zu demselben Objekt an derselben Position in verschiedenen Spektralbereichen, z.B. im Infrarotbereich, im optisch sichtbaren Bereich, mittels Radarwellen, einer elektronischen Signatur von (insbesondere aktiven) elektronischen Unterstützungsmaßnahmen (z.B. Signaturen von militärischen Aufklärungs- oder Waffenanlagen im elektromagnetischen Spektrum, dies können Warngeräte sein, die Signaturen im Infrarot-, Laser oder Radarspektrum detektieren und davor warnen), oder einer elektronischen Signatur eines elektromagnetischen Emitters, und geben diese Informationen an das KNN, um sie einer Datenfusion zuzuführen.
  • Die Objekterkennungsinformationen ermöglichen eine Klassifizierung und Identifizierung eines Objekts. Jeder Sensor führt eigenständig eine Objekterkennung (d.h. Klassifizierung und/oder Identifizierung eines Objekts) aus und liefert ein Ergebnis dieses Vorgangs an das KNN, also jeder Sensor liefert eine Ausgabe über ein erkanntes Objekt. Es kann auch sein, dass ein Sensor kein Objekt erkennt, dann ist die Ausgabe dieses Sensors eine leere Menge. Das KNN erhält also die Ausgabe einer Mehrzahl von verschiedenen und verschiedenartigen Sensoren, wobei die Gesamtheit der Ausgaben der Sensoren den Eingabevektor bilden, und fusioniert diese Informationen, um die Zuverlässigkeit der Objekterkennung zu erhöhen.
  • Dahinter verbirgt sich der Gedanke, dass ein Objekt ggf. in einem Spektralbereich getarnt bzw. nicht erkennbar ist, wohingegen dasselbe Objekt in einem anderen Spektralbereich erkannt werden kann. Diese Objektinformationen aus verschiedenen Spektralbereichen werden dem KNN zugeführt und dann von dem KNN genutzt, um das Objekt zu klassifizieren und zu identifizieren.
  • Lebewesen wie Menschen oder Tiere sind von Radaranlagen in der Regel nicht zu erkennen, allerdings sind Lebewesen auf optischen Bildaufnahmen und in Infrarotaufnahmen zu erkennen, weil sie sich sowohl in optischen Bildaufnahmen als auch in Wärmebildaufnahmen von ihrer Umgebung unterscheiden bzw. hervorheben. Trägt eine Person hingegen einen Gegenstand von hinreichender Größe, welcher elektromagnetische Wellen reflektiert (z.B. eine Waffe), erzeugt diese Person auch eine Radarsignatur. Diese beiden Fälle (Mensch mit/ohne Waffe oder allgemein mit einem Gegenstand, welcher eine Radarsignatur hat) sind dann voneinander unterscheidbar. Dieser Gedanke kann für verschiedene Arten von Sensoren fortgesetzt werden: ein Lebewesen emittiert von sich aus keine elektromagnetischen Wellen. Werden hingegen elektromagnetische Wellen erfasst, die an einer bestimmten Position emittiert werden, lässt dies entsprechende Rückschlüsse auf das dort befindliche Objekt zu.
  • Das KNN wird zunächst mit Eingabedaten von verschiedenen Objekten, die das KNN erkennen und voneinander unterscheiden soll, trainiert, wobei zu den Eingabedaten Informationen zu einem Objekt aus verschiedenen Spektralbereichen gehören. Sodann kann das KNN nach der Trainingsphase ein Objekt klassifizieren und identifizieren, selbst wenn einer der Sensoren keine Objektinformation zu dem Objekt liefert, z.B. weil das Objekt im optisch sichtbaren Bereich nicht zu erkennen ist. In dem Fall ist das Objekt möglicherweise anhand seiner Radarsignatur oder im Infrarotbereich erkennbar. Das KNN wird dann gemäß seiner Konfiguration in der Lage sein, das Objekt zu identifizieren und zu klassifizieren, auch wenn ein Sensor keine Objekterkennungsinformation liefert, weil z.B. der Sensor in dem Spektralbereich, in welchem er Informationen erfasst, keine Signale detektiert oder das Objekt gegen ein Erkennen in diesem Spektralbereich getarnt ist.
  • Ein Gedanke, welcher der Objekterkennungseinheit zu Grunde liegt, ist die Datenfusion aus verschiedenartigen Quellen (also verschiedenartigen Sensoren) in einem KNN unter Zuhilfenahme der Position des zu erkennenden Objekts, um die Zuverlässigkeit des Objekterkennungsvorgangs zu erhöhen.
  • Für die Position des zu erkennenden Objekts können Werte in einem Koordinatensystem verwendet werden, z.B. absolute Positionsdaten in einem Positionsangabesystem wie den geografischen Koordinaten auf der Erdoberfläche. Die Positionsinformation kann auch als Orts-Zeit-Angabe übertragen werden. Damit kann auch ein bewegtes Objekt in den Objekterkennungsdaten von mehreren Sensoren eindeutig erkannt und einander zugeordnet werden.
  • Grundsätzlich ist das KNN aus einer Eingabeschicht, einer oder mehreren Zwischenschichten, und einer Ausgabeschicht aufgebaut. Jede Schicht enthält eine Mehrzahl von Neuronen, wobei jedes Neuron einer Schicht mit allen Neuronen der nächsten Schicht verbunden ist. Ein KNN kann mit einer Vielzahl von Eingabedaten trainiert werden und so konfiguriert sein, dass es einmal gelernte Objekte wiedererkennt und einen entsprechenden Ausgabewert liefert. Das KNN kann insbesondere so trainiert werden, dass es Objekte auch dann erkennt, wenn ein Objekt in einem Spektralbereich eines Sensors (oder mehrerer Sensoren) nicht erkennbar ist.
  • Das künstliche neuronale Netzwerk kann auf einem Rechner ausgeführt werden, wobei der Rechner das KNN in verschiedenen Konfigurationen ausführen kann. Beispielsweise kann das KNN auf einem Computer, einem programmierbaren Logikgatter (FPGA) oder einem Prozessor ausgeführt werden. Wenn das KNN in verschiedenen Konfigurationen ausgeführt wird, ändert dies nicht zwingend etwas an der Hardware, auf der das KNN ausgeführt wird. Vielmehr ändert sich beispielsweise die Konfiguration der einzelnen Neuronen und/oder die Gewichtung der Informationsübertragung zwischen Neuronen verschiedener Schichten.
  • Gemäß einer Ausführungsform ist das KNN ausgestaltet, eine Mehrzahl verschiedener Konfigurationen einzunehmen, wobei jede Konfiguration des KNN einem bestimmten Objekttyp entspricht und wobei das KNN einen bestimmten Eingabevektor mehreren Konfigurationen aus der Mehrzahl verschiedener Konfigurationen zuführt.
  • Jede Konfiguration des KNN entspricht einem Objekttyp und ist darauf ausgelegt, dass das KNN diesen Objekttyp wiedererkennt, und zwar unter verschiedenen Eingabevektoren, wenn z.B. das Objekt für einen oder mehrere der Sensoren aus was für Gründen auch immer nicht erkennbar ist. Eine Konfiguration des KNN kann z.B. ausgestaltet sein, elektronische Aufklärungsanlagen (z.B. Radaranlagen), bestimmte Fahrzeuge (Panzer, Personentransportfahrzeuge, etc.), bewaffnete oder unbewaffnete Personen oder Waffenanlagen zu erkennen.
  • Ein Eingabevektor entspricht der Menge der Informationen, die von verschiedenen Sensoren betreffend eine bestimmte Position erfasst werden. Jeder Sensor führt zunächst eine Objekterkennung aus und führt das Ergebnis dem KNN zu. Die Objekterkennung der Mehrzahl von Sensoren betreffend eine bestimmte Position wird als Eingabevektor bezeichnet und dem KNN zugeführt. Das KNN führt eine Datenfusion des Eingabevektors durch, indem der Eingabevektor einem Objekterkennungsvorgang durch das KNN in mehreren oder sogar jeder der Mehrzahl von Konfigurationen zugeführt wird.
  • Beispielsweise wird ein Eingabevektor dem KNN in der Konfiguration zum Erkennen von Kampfflugzeugen, bewaffneten Personen, bewaffneten Kampffahrzeugen, etc. zugeführt. Typischerweise liefert eine Konfiguration des KNN auf Grund des Trainings des KNN einen Ausgabewert, welcher dem erkannten Objekt an der angegebenen Position entspricht.
  • Wenn ein Sensor oder eine Gruppe von mehreren Sensoren an einer Position ein Kampfflugzeug erkennt, dann wird das KNN in der Konfiguration für bewaffnete Personen aus dem Eingabevektor mit dem Kampfflugzeug eine leere Menge ausgeben bzw. ausgeben, dass es sich nicht um eine bewaffnete Person handelt. In der Konfiguration zum Erkennen von Kampfflugzeugen wird das KNN mit demselben Eingabevektor hingegen einen Ausgabewert liefern, welcher besagt, dass ein Kampfflugzeug erkannt wurde, soweit dieses Ergebnis mit den erkannten Objekten der anderen Sensoren vereinbar ist und dem Training des KNN entspricht.
  • Das KNN kann beispielsweise sequenziell bzw. nacheinander verschiedene Konfigurationen einnehmen und der Eingabevektor wird dem KNN in seinen verschiedenen Konfigurationen zugeführt. Erkennt das KNN in einer seiner Konfigurationen ein Objekt in dem Eingabevektor, wird es eine entsprechende Ausgabe erzeugen.
  • Erfindungsgemäß ist das KNN ausgestaltet, mit räumlich getrennten Sensoren aus der Mehrzahl von Sensoren über eine Datenverbindung verbunden zu werden.
  • Das KNN fusioniert Daten von mehreren räumlich getrennten Sensoren. Die Objekterkennung wird zentral durch das KNN ausgeführt und die der Objekterkennung zu Grunde liegenden Daten werden von räumlich getrennten Sensoren geliefert. Dies entspricht einer zentralen Fusion und Auswertung von dezentral erfassten Daten, wobei die Daten durch die Sensoren bevorzugt in unterschiedlichen Spektralbereichen erfasst werden.
  • Die Datenverbindung kann als digitale Datenverbindung ausgestaltet sein und kann in einer Variante eine gesicherte digitale Datenverbindung sein, um eine gesicherte Verbindung zwischen KNN und Sensoren zu ermöglichen.
  • Gemäß einer weiteren Ausführungsform weist die Objekterkennungseinheit eine Auswertungseinheit auf, welche mit dem KNN verbunden ist, wobei das KNN ausgestaltet ist, ein erkanntes Objekt an die Auswertungseinheit zu übermitteln.
  • Die Auswertungseinheit ist typischerweise ausgestaltet, um das erkannte Objekt einer weitergehenden Analyse zuzuführen oder das erkannte Objekt an eine Wirkeinheit (oder Effektor) oder eine andere Datensenke zu übertragen. Die weitergehende Analyse kann sowohl maschinell und automatisiert erfolgen als auch eine Interaktion mit einem menschlichen Benutzer involvieren. Für die Interaktion mit dem menschlichen Benutzer kann die Auswertungseinheit mit einer geeigneten Eingabe- und Ausgabeschnittstelle ausgestattet sein.
  • Gemäß einer weiteren Ausführungsform ist die Auswertungseinheit mit mindestens einem Effektor verbunden und ist ausgestaltet, Informationen über ein erkanntes Objekt an den mindestens einen Effektor zu übertragen.
  • Bei dem Effektor kann es sich beispielsweise um eine Waffenanlage handeln. An den Effektor werden die fusionierten Informationen über ein Objekt übertragen. Hierzu gehört insbesondere die Position des erkannten Objekts. Es wird weiter insbesondere auch eine Information über die Klassifizierung und/oder Identifizierung des Objekts übertragen und der Effektor kann basierend auf diesen Informationen eine geeignete Art für eine Aktion oder Gegenmaßnahme wählen.
  • Die Informationen betreffend ein Objekt können an einen oder mehrere Effektoren übermittelt werden. Die Verbindung zwischen der Auswertungseinheit und den Effektoren kann ebenfalls eine gesicherte digitale Datenverbindung sein.
  • Gemäß einer weiteren Ausführungsform ist die Auswertungseinheit ausgestaltet, mit mindestens einem Sensor von der Mehrzahl von Sensoren verbunden zu werden und eine aktualisierte Position eines Objekts an den mindestens einen Sensor zu übertragen.
  • Wenn ein Sensor die Position eines Objekts vorübergehend verliert, erhält dieser Sensor die Position des Objekts jedenfalls von der Auswertungseinheit und kann einen Erfassungsbereich basierend auf der erhaltenen Position nachführen. Dies ermöglicht es, eine Mehrzahl von Sensoren auf ein zu beobachtendes Gebiet zu richten und in verschiedenen Spektralbereichen zu beobachten.
  • Gemäß einem weiteren Aspekt ist ein Systemverbund angegeben, welcher eine Objekterkennungseinheit wie hierin beschrieben, eine Mehrzahl von räumlich voneinander getrennten oder beabstandeten Sensoreinheiten, eine Mehrzahl von Sensoren, und mindestens einen Effektor umfasst. Die Mehrzahl von Sensoreinheiten sind mit dem KNN der Objekterkennungseinheit über eine Datenverbindung verbunden. Die Mehrzahl von Sensoren ist der Mehrzahl von Sensoreinheiten zugeordnet. Der Effektor ist mit der Objekterkennungseinheit verbunden. Die Mehrzahl von Sensoreinheiten ist ausgeführt, eine Positionsinformation zu einem Objekt und Objekterkennungsinformationen betreffend dasselbe Objekt an die Objekterkennungseinheit zu übertragen. Jede Sensoreinheit der Mehrzahl von Sensoreinheiten ist ausgeführt, eigenständig eine Objekterkennung auszuführen und das Ergebnis der Objekterkennung sowie die Positionsinformation an die Objekterkennungseinheit zu liefern. Die Objekterkennungseinheit ist ausgeführt, die Objekterkennungsinformationen zu fusionieren und Informationen über das erkannte Objekt an den mindestens einen Effektor zu übertragen.
  • In diesem Systemverbund ist die hierin beschriebene Objekterkennungseinheit in einen größeren Zusammenhang eingebunden und agiert beispielsweise als zentrales Verbindungsglied zwischen mehreren verschiedenartigen und räumlich voneinander getrennten Sensoren und einem oder mehreren Effektoren oder Datensenken. Ein Effektor oder eine Datensenke kann eine Waffenanlage oder eine Informationsverarbeitungsanlage sein, welche Informationen über das erkannte Objekt erhält und basierend darauf eine Aktion vornimmt, z.B. die Informationen in einem Speicher hinterlegt, einer weiteren Verarbeitung zuführt, eine Warnung vor dem Objekt an andere Einheiten ausgibt, Gegenmaßnahmen einleitet, um das Objekt zu bekämpfen oder in seiner Funktion zu stören, etc.
  • Gemäß einer Ausführungsform weist eine Sensoreinheit eine Trägereinheit und einen Sensor aus der Mehrzahl von Sensoren auf, wobei jeweils ein Sensor einer Trägereinheit zugeordnet ist und wobei die Sensoreinheiten räumlich voneinander getrennt sind.
  • Die Objekterkennungseinheit ist also als zentrale Einheit ausgestaltet, welche Objekterkennungsinformationen von mehreren räumlich getrennten und voneinander beabstandeten Sensoren über dasselbe Objekt (oder über mehrere Objekte, wobei die mehreren Objekte durch die Positions- und/oder Zeitangaben voneinander unterschieden werden können) erhält.
  • Somit werden der Objekterkennungseinheit Daten über ein zu erkennendes Objekt übermittelt, welche aus verschiedenen Positionen erfasst wurden, nämlich durch die räumlich voneinander getrennten oder beabstandeten Sensoreinheiten.
  • Gemäß einer weiteren Ausführungsform weist eine Sensoreinheit eine mobile oder stationäre Trägereinheit auf.
  • Die Sensoren können beispielsweise an einem Land-, Wasser- oder Luftfahrzeug (diese können als mobile Trägereinheit bezeichnet werden) angeordnet sein. Alternativ können die Sensoren an stationären Trägereinheiten, welche beispielsweise fest mit dem Erdboden oder allgemein der Erde verankert sind, angeordnet sein.
  • In dem Systemverbund können Objekterkennungsinformationen von verschiedenen Quellen verwendet werden, um ein Objekt zu klassifizieren und zu identifizieren. Indem beispielsweise eine Vielzahl sowie verschiedenartige Sensoren, die beispielsweise an mehreren Flugzeugen angeordnet sind, ihre Daten an die Objekterkennungseinheit liefern, kann die Erkennungsrate der Objekte und die Zuverlässigkeit des Vorgangs der Objekterkennung erhöht werden, auch wenn ein einzelner Sensor keine Objektinformation oder ein fehlerhaft erkanntes Objekt liefert. Das KNN der Objekterkennungseinheit ist durch das Training darauf vorbereitet, mit solchen teilweise fehlenden oder falschen Informationen umzugehen.
  • Gemäß einer weiteren Ausführungsform ist der Sensor jeder Sensoreinheit ausgewählt aus der Gruppe umfassend die folgenden Sensoren: Infrarotsensor, Radaranlage, optischer Sensor, Sensor zum Erfassen von elektronischen Unterstützungsmaßnahmen, Sensor zum Lokalisieren von elektromagnetischen Emittern.
  • Bevorzugt sind mindestens zwei Sensoren aus mindestens zwei verschiedenen oder sogar jedem der genannten Sensortypen vorhanden, um in verschiedenen Spektralbereichen eine Objektinformation zu einer bestimmten Position in einem zu überwachenden Gebiet zu liefern. In anderen Worten wird also ein zu überwachendes Gebiet in verschiedenen Spektralbereichen beobachtet und erfasst und diese Informationen werden an die Objekterkennungseinheit und das zugehörige KNN geliefert, so dass das KNN die Informationen aus verschiedenen Spektralbereichen fusioniert und eine Information über das Objekt an der bestimmten erfassten Position liefert.
  • Ein Infrarotsensor (oder auch Wärmebildkamera) erfasst das zu überwachende Gebiet im Infrarotbereich, um eine Wärmesignatur an der überwachten Position zu erfassen.
  • Eine Radaranlage sendet elektromagnetische Wellen aus und erfasst die reflektierten Wellen, was Rückschlüsse auf Position und Struktur eines Objekts an der überwachten Position erlaubt.
  • Ein optischer Sensor kann beispielsweise eine Kamera sein, welche Einzelbilder bzw. Standbilder oder bewegte Bilder erfasst.
  • Ein Sensor zum Erfassen von elektronischen Unterstützungsmaßnahmen (auch: ESM, engl.: Electronic Support Measures) erfasst elektromagnetische Ausstrahlungen von Objekten, wertet diese aus und lokalisiert den Ursprung der elektromagnetischen Ausstrahlungen. Ein Sensor für ESM ist also ein passiver Sensor, welcher solche elektromagnetischen Ausstrahlungen erfasst, die von einem Objekt emittiert werden. Beispielsweise werden hier die charakteristischen elektromagnetischen Signaturen von verschiedenen Objekten erfasst.
  • Ein Sensor zum Lokalisieren von elektromagnetischen Emittern erfasst elektromagnetische Wellen und detektiert deren Ursprung.
  • Zusätzlich oder alternativ zu diesen Sensoren können auch andere Sensoren verwendet werden, welche in der Lage sind, Signale von der Umwelt zu erfassen und mittels dieser Signale Rückschüsse auf ein Objekt erlauben. So können beispielsweise akustische Sensoren (wie Mikrofone) verwendet werden, um ein Geräusch zu erfassen und/oder die Position eines Geräusches zu bestimmen.
  • Für sämtliche hierin beschriebenen Sensoren können diverse bekannte Techniken zum Einsatz kommen.
  • Es ist ein Gedanke des hierin beschriebenen Systemverbunds, eine Position in einem zu überwachenden Gebiet mittels einiger der hierin beschriebenen unterschiedlichen Arten von Sensoren in verschiedenen Spektralbereichen zu beobachten und zu erfassen. Die Ergebnisse der Sensoren werden einem künstlichen neuronalen Netzwerk, KNN, zugeführt und das KNN bestimmt ausgehend von den in einer Lernphase erlernten Objekten, welches Objekt sich an der beobachteten und erfassten Position befindet. Das KNN kann basierend auf der Lernphase ein Objekt auch dann erkennen, wenn dieses Objekt in einem von einem Sensor erfassten Spektralbereich nicht erfasst wird. Das Objekt wird dann nämlich in Zusammenschau der Ergebnisse der anderen Sensoren erkannt. Dieser Ansatz hat den Vorteil, dass die Beobachtung eines Ortes mit mehreren verschiedenen Sensoren in verschiedenen Spektralbereichen und die Auswertung der Beobachtungsergebnisse mittels eines KNN eine hohe Zuverlässigkeit und Erkennungsrate liefert.
  • Figurenliste
  • Nachfolgend wird anhand der beigefügten Zeichnungen näher auf Ausführungsbeispiele eingegangen. Die Darstellungen sind schematisch und nicht maßstabsgetreu. Gleiche Bezugszeichen beziehen sich auf gleiche oder ähnliche Elemente. Es zeigen:
    • 1 eine schematische Darstellung einer Objekterkennungseinheit zum Erkennen von Objekten.
    • 2 eine schematische Darstellung eines künstlichen neuronalen Netzwerks einer Objekterkennungseinheit.
    • 3 eine schematische Darstellung eines Systemverbunds zum Erkennen von Objekten.
  • Detaillierte Beschreibung von Ausführungsbeispielen
  • 1 zeigt eine Objekterkennungseinheit 1, welche ein künstliches neuronales Netzwerk, KNN, 100 enthält. Das KNN 100 ist mit fünf Sensoren 10, 20, 30, 40, 50 verbunden, so dass Objekterkennungsinformationen, die die Sensoren basierend auf Erkennungsdaten bestimmen, an das KNN übertragen werden können. Das KNN 100 erhält von mehreren oder allen Sensoren Objekterkennungsinformationen. Die Daten der Mehrzahl von Sensoren werden von dem KNN 100 fusioniert und das KNN gibt basierend auf einer Trainingsphase einen Ausgabewert aus. Bei dem Ausgabewert handelt es sich um das fusionierte Ergebnis der Objekterkennung basierend auf den Daten von der Mehrzahl von Sensoren.
  • Das KNN 100 liefert den Ausgabewert an eine Auswertungseinheit 200. Bei der Auswertungseinheit 200 kann es sich um eine Datensenke handeln, welche den Ausgabewert von dem KNN 100 weiter verarbeitet und/oder verteilt.
  • Indem die Objekterkennungsinformationen von mehreren Sensoren dem KNN 100 zugeführt werden, wird eine schnellere und bessere Erkennung von Objekten an einer überwachten Position ermöglicht.
  • Bevorzugt handelt es sich bei den Sensoren 10 bis 50 um verschiedenartige (d. h. in verschiedenen Spektralbereichen arbeitende bzw. erfassende) und voneinander räumlich getrennte Sensoren. Dadurch ergibt sich durch die Datenfusion in dem KNN ein besseres Gesamtbild, weil die Sensorinformationen durch das KNN zusammengeführt werden.
  • Die Sensoren 10 bis 50 erfassen jeweils Eigenschaften, welche ein Objekt in einem bestimmten Spektralbereich charakterisieren, z.B. durch optische Bildaufnahmen, Wärmebildaufnahmen (Infrarotsensoren), Radaranlagen, Sensoren zum Erfassen von elektronischen Unterstützungsmaßnahmen, Sensoren zum Lokalisieren von elektromagnetischen Emittern, etc.
  • Die Klassifizierung und Identifizierung von Objekten wird in dem KNN 100 zentralisiert, vereinfacht und beschleunigt sowie die Zuverlässigkeit der Objekterkennung verbessert.
  • Die Sensoren können Teil einer mobilen Sensoreinheit sein, z.B. können die Sensoren an einem Flugzeug angebracht sein. Verschiedene Sensoren können an unterschiedlichen Flugzeugen angebracht sein. Manche Sensoreinheiten können einen oder mehrere Sensoren enthalten, wobei die Sensoren einer Sensoreinheit im gleichen oder in einem unterschiedlichen Spektralbereich arbeiten. Im Gegensatz zu lediglich einer separaten Objekterkennung, die von einem Sensor isoliert und individuell durchgeführt wird, ist vorgesehen, dass eine weitergehende Objekterkennung basierend auf den Erkennungsdaten von mehreren Sensoren zentral in dem KNN 100 durchgeführt wird.
  • Die von dem KNN 100 erkannten Objekte können in einem Systemverbund kommuniziert werden. Somit ist es möglich, dass eine Komponente des Systemverbunds, z.B. ein Flugkörper bzw. ein Luftfahrzeug, Informationen über ein Objekt erhält, wenn sich das Objekt noch gar nicht in der Reichweite der Sensoren dieser Komponente befindet.
  • 2 zeigt eine detaillierte Darstellung des KNN 100. Das KNN 100 weist eine Eingabeschicht 110 mit mehreren Eingabeneuronen 111 bis 116 auf. Beispielsweise enthält die Eingabeschicht 110 eine Anzahl von Eingabeneuronen, die der Anzahl der zu verbindenden Sensoren entspricht. Das KNN enthält mindestens eine Zwischenschicht 120. Die Anzahl der Zwischenschichten kann variieren, gezeigt ist in 2 schematisch lediglich eine Zwischenschicht. Weiterhin enthält das KNN 100 eine Ausgabeschicht 130 mit Ausgabeneuronen 131 bis 136.
  • Es ist ein Kennzeichen des KNN, dass jedes Neuron einer Schicht mit allen Neuronen der nachfolgenden (in der Darstellung der 2 weiter rechts befindlichen) Schichten verbunden ist. In einer Trainingsphase werden der Eingabeschicht des KNN Objekterkennungsdaten von mehreren Sensoren zugeführt und das KNN wird darauf trainiert, um die zugeführten Objekterkennungsdaten zu erkennen. Basierend auf diesem Training werden die Neuronen so vernetzt, dass sie ein einmal gelerntes Objekt auch in anderen Objekterkennungsdaten erkennen und an der Ausgabeschicht 130 einen entsprechenden Ausgabewert liefern.
  • In dem Beispiel der 2 werden an die Eingabeschicht Informationen an das zweite Neuron 112 und an das sechste Neuron 116 geliefert. Das zweite Neuron 112 erhält Objekterkennungsdaten von einem Sensor und das sechste Neuron 116 erhält Positionsdaten, die zu den Objekterkennungsdaten gehören. Mit diesen Daten liefert die Ausgabeschicht basierend auf der Konfiguration des KNN einen Ausgabewert an dem dritten Neuron 133 der Ausgabeschicht. Diese Ausgabe entspricht einem bestimmten Objekttyp an der besagten Position.
  • In anderen Worten erhalten die Neuronen der Eingabeschicht kodierte Sensorinformationen, die nach Durchlaufen des Netzwerks ein fest zugeordnetes neuronales Ausgangsmuster ergeben, womit einer bestimmten Position ein definierter Objekttyp zugeordnet werden kann. Stimmt das erfasste Eingangsmuster mit irgendeinem memorierten neuronalen Trainingsmuster eines künstlichen neuronalen Netzwerks überein, so gilt der Objekttyp als identifiziert. Kann der betreffende Sensor kein Ergebnis liefern, weil das Objekt durch einen Störer verdeckt oder anderweitig nicht zu erkennen ist, ist es immer noch möglich, dass ein anderer Sensor der eigenen oder einer anderen Sensoreinheit, der dieselbe Position beobachtet, eine Klassifizierung des Objektes liefern kann.
  • Das KNN 100 kann Objekterkennungsdaten von einem oder mehreren Sensoren (entsprechend den Eingangsneuronen) erhalten. In 2 ist beispielhaft ein Szenario gezeigt, in welchem Daten lediglich an das zweite Neuron 112 und das sechste Neuron 116 geliefert werden. Diese Daten können als Eingangsvektor bezeichnet werden und betreffen in der Regel Objekterkennungsdaten zu derselben Position in einem beobachteten Gebiet. Jedenfalls kann der Eingangsvektor Daten in verschiedenen Kombinationen enthalten, die vorliegend nicht alle gezeigt sind. Insgesamt kann das hier gezeigte KNN mit fünf Eingangsneuronen 111 bis 115 für die Objekterkennungsdaten und einem Eingangsneuron 116 für die Positionsdaten 31 verschiedene Eingangsmuster erkennen.
  • 3 zeigt einen Systemverbund 300, welcher eine Zentrale 350 (kann z.B. ein Gefechtsstand sein), mehrere Sensoreinheiten 310, 320, 330, und mehrere Effektoren 360 enthält.
  • Die Zentrale 350 weist ein KNN 100 und eine Auswertungseinheit 200 auf. Die Sensoreinheiten sind mit der Zentrale 350 und dem KNN 100 verbunden, um Objekterkennungsdaten an das KNN 100 zu liefern, wie weiter oben beschrieben. Das KNN 100 führt eine Objekterkennung aus und liefert die erhaltenen Informationen an die Auswertungseinheit 200, welche wiederum die Daten an die Effektoren 360 liefert. Die Auswertungseinheit 200 kann aber auch mit den Sensoreinheiten 310, 320, 330 verbunden sein (beispielhaft ist eine Verbindung zwischen der Auswertungseinheit 200 und der dritten Sensoreinheit 330 mit einer gestrichelten Linie gezeigt), um Informationen über ein erkanntes Objekt an die Sensoreinheiten zu kommunizieren.
  • Eine Sensoreinheit 310, 320, 330 weist eine Trägereinheit und einen Sensor auf. Beispielsweise kann die Trägereinheit 311 der Sensoreinheit 310 ein Flugzeug sein, welches mindestens einen Sensor 10 aufweist. Die Trägereinheit 321 der Sensoreinheit 320 kann ein Wasserfahrzeug sein, welches mindestens einen Sensor 20 aufweist. Die Trägereinheit 331 der Sensoreinheit 330 kann ein stationäres Bauwerk sein und mindestens einen Sensor 30 aufweisen. Somit werden Objekterkennungsinformationen von mehreren räumlich getrennten Sensoren an die Zentrale 350 und das KNN 100 geliefert, um das Erstellen eines fusionierten Lagebildes zu ermöglichen.
  • In einem Beispiel kann die Zentrale 350 die Positionsdaten jedes einzelnen identifizierten Objekts an alle Entitäten (Sensoreinheiten, Effektoren) des Systemverbunds 300 verteilen, so dass jene Sensoren, welche die Position des Objekts vorübergehend verloren haben, dennoch Informationen über das besagte Objekt haben. So können alle Sensoren das Objekt im Bedarfsfall rasch wieder erfassen oder zumindest die Position des Objekts beobachten.
  • Gegenmaßnahmen eines beobachteten Objekts sind nun wenig hilfreich, weil Gegenmaßnahmen in der Regel nur in begrenzten Spektralbereichen erfolgen. Für jede beobachtete Position und/oder jedes beobachtete Objekt wird ein eigenes KNN mit einem Eingangsvektor versorgt.
  • Basierend auf den erkannten Objekten können nun von der Auswertungseinheit 200 Vorschläge für Gegenmaßnahmen bestimmt werden. Zu diesen Gegenmaßnahmen können Maßnahmen in Bezug auf Angriff oder Verteidigung, die Priorisierung der Bekämpfung von Bedrohungen, die Wahl einer angemessenen Vorrichtung für eine Gegenmaßnahme, Weitergabe von Informationen, und Verhalten im Anschluss an die Objekterkennung und/oder Bekämpfung gehören. Die Auswertungseinheit kann auch die Erfolgsaussichten gegebenenfalls einzuleitender Maßnahmen sowie eine Risikoabschätzung ermitteln.
  • Der Systemverbund 300 kann ohne menschlichen Eingriff auskommen und die Entitäten des Systemverbunds mit Informationen über den Standort, die Bewegung, den Einsatz und die Aktivitäten der eigenen Entitäten (Sensoren und Effektoren) versorgen und zugleich Informationen über beobachtete Objekte an einige oder alle Entitäten des Systemverbunds teilen.
  • Ergänzend ist darauf hinzuweisen, dass „umfassend“ oder „aufweisend“ keine anderen Elemente oder Schritte ausschließt und „eine“ oder „ein“ keine Vielzahl ausschließt. Ferner sei darauf hingewiesen, dass Merkmale oder Schritte, die mit Verweis auf eines der obigen Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen oder Schritten anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.
  • Bezugszeichenliste
  • 1
    Objekterkennungseinheit
    10
    erster Sensor
    20
    zweiter Sensor
    30
    dritter Sensor
    40
    vierter Sensor
    50
    fünfter Sensor
    100
    künstliches neuronales Netzwerk
    110
    Eingabeschicht
    111
    erstes Neuron
    112
    zweites Neuron
    113
    drittes Neuron
    114
    viertes Neuron
    115
    fünftes Neuron
    116
    sechstes Neuron
    120
    Zwischenschicht
    130
    Ausgabeschicht
    131-136
    Ausgabeneuronen
    200
    Auswertungseinheit
    300
    Systemverbund
    310
    Sensoreinheit
    311
    Trägereinheit
    320
    Sensoreinheit
    321
    Trägereinheit
    330
    Sensoreinheit
    331
    Trägereinheit
    350
    Zentrale, Gefechtsstand
    360
    Effektor

Claims (9)

  1. Objekterkennungseinheit (1) zum Klassifizieren und Identifizieren von Objekten, aufweisend: ein künstliches neuronales Netzwerk, KNN, (100) mit einer Eingabeschicht (110) und einer Ausgabeschicht (130), wobei das KNN (100) ausgestaltet ist, Objekte basierend auf Eingaben an die Eingabeschicht zu Klassifizieren und zu Identifizieren; wobei die Eingabeschicht (110) eine Mehrzahl von Eingabeneuronen (111 - 116) aufweist; wobei die Eingabeschicht ausgeführt ist, einen Eingabevektor zu erhalten, wobei der Eingabevektor eine Positionsinformation zu einem Objekt und mehrere Objekterkennungsinformationen betreffend dasselbe Objekt von einer Mehrzahl von Sensoren (10 - 50) enthält; wobei mindestens zwei Eingabeneuronen (111 - 115) ausgeführt sind, Objekterkennungsinformationen von der Mehrzahl von Sensoren (10 - 50) in verschiedenen Spektralbereichen zu erhalten und zu verarbeiten; wobei die Objekterkennungsinformationen von der Mehrzahl von Sensoren ein Ergebnis einer von jedem Sensor eigenständig ausgeführten Objekterkennung darstellen; wobei das KNN (100) ausgeführt ist, basierend auf den Objekterkennungsinformationen von der Mehrzahl von Sensoren und der Positionsinformation ein Objekt zu klassifizieren und zu identifizieren; wobei das KNN (100) ausgestaltet ist, mit räumlich getrennten Sensoren (10 - 50) aus der Mehrzahl von Sensoren (10 - 50) über eine Datenverbindung verbunden zu werden; wobei die Mehrzahl von Sensoren (10 - 50) unterschiedlichen mobilen oder stationären Trägereinheiten zugeordnet ist, wobei die mobilen oder stationären Trägereinheiten voneinander räumlich getrennt oder voneinander beabstandet sind.
  2. Objekterkennungseinheit (10) nach Anspruch 1, wobei das KNN (100) ausgestaltet ist, eine Mehrzahl verschiedener Konfigurationen einzunehmen; wobei jede Konfiguration des KNN (100) einem bestimmten Objekttyp entspricht; wobei das KNN (100) einen bestimmten Eingabevektor mehreren Konfigurationen aus der Mehrzahl verschiedener Konfigurationen zuführt.
  3. Objekterkennungseinheit (1) nach einem der voranstehenden Ansprüche, weiterhin aufweisend eine Auswertungseinheit (200), welche mit dem KNN (100) verbunden ist; wobei das KNN (100) ausgestaltet ist, ein erkanntes Objekt an die Auswertungseinheit (200) zu übermitteln.
  4. Objekterkennungseinheit (1) nach Anspruch 3, wobei die Auswertungseinheit (200) mit mindestens einem Effektor (360) verbunden ist und ausgestaltet ist, Informationen über ein erkanntes Objekt an den mindestens einen Effektor (360) zu übertragen.
  5. Objekterkennungseinheit (1) nach einem der Ansprüche 3 oder 4, wobei die Auswertungseinheit (200) ausgestaltet ist, mit mindestens einem Sensor von der Mehrzahl von Sensoren verbunden zu werden und eine aktualisierte Position eines Objekts an den mindestens einen Sensor zu übertragen.
  6. Systemverbund (300), aufweisend: eine Objekterkennungseinheit (1) nach einem der voranstehenden Ansprüche; eine Mehrzahl von räumlich voneinander getrennten oder voneinander beabstandeten Sensoreinheiten (310, 320, 330), welche mit dem KNN (100) der Objekterkennungseinheit (1) über eine Datenverbindung verbunden sind; eine Mehrzahl von Sensoren (10 - 50), welche der Mehrzahl von Sensoreinheiten (310, 320, 330) zugeordnet ist; mindestens einen Effektor (360), der mit der Objekterkennungseinheit (1) verbunden ist; wobei die Mehrzahl von Sensoreinheiten (310, 320, 330) ausgeführt ist, eine Positionsinformation zu einem Objekt und Objekterkennungsinformationen betreffend dasselbe Objekt an die Objekterkennungseinheit zu übertragen; wobei jede Sensoreinheit der Mehrzahl von Sensoreinheiten ausgeführt ist, eigenständig eine Objekterkennung auszuführen und das Ergebnis der Objekterkennung sowie die Positionsinformation an die Objekterkennungseinheit zu liefern; wobei die Objekterkennungseinheit ausgeführt ist, die Objekterkennungsinformationen zu fusionieren und Informationen über das erkannte Objekt an den mindestens einen Effektor zu übertragen.
  7. Systemverbund (300) nach Anspruch 6, wobei eine Sensoreinheit (310, 320, 330) eine Trägereinheit (311, 321, 331) und einen Sensor (10 - 50) aus der Mehrzahl von Sensoren (10 - 50) aufweist, wobei jeweils ein Sensor einer Trägereinheit zugeordnet ist.
  8. Systemverbund (300) nach Anspruch 7, wobei eine Sensoreinheit (310, 320, 330) eine mobile oder stationäre Trägereinheit (311, 321, 331) aufweist.
  9. Systemverbund (300) nach einem der Ansprüche 7 oder 8, wobei der Sensor (10 - 50) jeder Sensoreinheit (310, 320, 330) ausgewählt ist aus der Gruppe umfassend die folgenden Sensoren: Infrarotsensor; Radaranlage; optischer Sensor; Sensor zum Erfassen von elektronischen Unterstützungsmaßnahmen; Sensor zum Lokalisieren von elektromagnetischen Emittern.
DE102020106703.8A 2020-03-11 2020-03-11 Objekterkennungseinheit mit Sensoreingaben in verschiedenen Spektralbereichen Active DE102020106703B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020106703.8A DE102020106703B4 (de) 2020-03-11 2020-03-11 Objekterkennungseinheit mit Sensoreingaben in verschiedenen Spektralbereichen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020106703.8A DE102020106703B4 (de) 2020-03-11 2020-03-11 Objekterkennungseinheit mit Sensoreingaben in verschiedenen Spektralbereichen

Publications (2)

Publication Number Publication Date
DE102020106703A1 DE102020106703A1 (de) 2021-09-16
DE102020106703B4 true DE102020106703B4 (de) 2021-12-23

Family

ID=77457246

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020106703.8A Active DE102020106703B4 (de) 2020-03-11 2020-03-11 Objekterkennungseinheit mit Sensoreingaben in verschiedenen Spektralbereichen

Country Status (1)

Country Link
DE (1) DE102020106703B4 (de)

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Asvadi, A., et al, Multimodal vehicle detection: fusing 3D-LIDAR and color camera data. In: Pattern Recognition Letter, 2018, 115. Jg. S. 20-29
ASVADI, A., et al.. Multimodal vehicle detection: fusing 3D-LIDAR and color camera data. In: Pattern Recognition Letters, 2018, 115. Jg., S. 20-29. doi: 10.1016/j.patrec.2017.09.038 (URL: https://www.researchgate.net/profile/Alireza_Asvadi/publication/320089205_Multimodal_vehicle_detection_Fusing_3D-LIDAR_and_color_camera_data/links/5afd4fe4aca272b5d87091c2/Multimodal-vehicle-detection-Fusing-3D-LIDAR-and-color-camera-data.pdf)
Farahnakian, F., et al, Object detection based on multi-sensor proposal fusion in maritime environment. In: 2018 17th IEEE International Conference on Machine learning and Applications (ICMLA). IEEE, 2018, S. 971-976
FARAHNAKIAN, F., et al.. Object detection based on multi-sensor proposal fusion in maritime environment. In: 2018 17th IEEE International Conference on Machine Learning and Applications (ICMLA). IEEE, 2018. S. 971-976. doi: 10.1109/ICMLA.2018.00158 (URL: https://ieeexplore.ieee.org/iel7/8613701/8614025/08614183.pdf)
KOKAR, M.; Kim, K. H.. Review of multisensor data fusion architectures and techniques. In: Proceedings of 8th IEEE International Symposium on Intelligent Control. IEEE, 1993. S. 261-266. doi: 10.1109/ISIC.1993.397703 (URL: https://ieeexplore.ieee.org/iel2/3172/8995/00397703.pdf)
Kokar, M.; Kim, K.H., Review of multisensory data fusion architectures and techniques. In: Proceedings of 8th IEEE International Symposium on Intelligent Control. IEEE, 1993, S. 261-266

Also Published As

Publication number Publication date
DE102020106703A1 (de) 2021-09-16

Similar Documents

Publication Publication Date Title
EP2399096B1 (de) Verfahren und system zur erfassung von zielobjekten
DE202017102381U1 (de) Vorrichtung zum Verbessern der Robustheit gegen "Adversarial Examples"
EP3819659A1 (de) Kommunikationsmodul für komponenten taktischer luftverteidigungssysteme
DE102017219282A1 (de) Verfahren und Vorrichtung zum automatischen Erzeugen eines künstlichen neuronalen Netzes
DE102019215903A1 (de) Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern
DE102018217164A1 (de) Vorrichtung, Verfahren und System zur Datenanalyse
DE102007062603A1 (de) Verfahren und Vorrichtung zur Detektion Daten sendender Fahrzeuge
WO2020048666A1 (de) Überwachungsvorrichtung und verfahren zur mann-über-bord-überwachung
DE102020106703B4 (de) Objekterkennungseinheit mit Sensoreingaben in verschiedenen Spektralbereichen
DE102021207613A1 (de) Verfahren zur Qualitätssicherung eines Systems
EP3105608B1 (de) Überwachungssystem zum überwachen sowie verfahren zum verifizieren eines wasserfahrzeugs oder mehrerer wasserfahrzeuge
DE102017116016A1 (de) Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und einem neuronalen Netz zum Erzeugen einer integrierten Repräsentation einer Umgebung
DE102019200177A1 (de) Verfahren zur Identifizierung eines Lebewesens
DE102019202523A1 (de) Verfahren und Vorrichtung zum Betreiben eines Steuerungssystems
DE102018108204B4 (de) Interventionssystem zur Abwehr eines Schwarms von unbemannten Flugkörpern und Verfahren zur Abwehr eines Schwarms von unbemannten Flugkörpern mittels eines solchen Interventionssystems
DE102022201679A1 (de) Verfahren und Vorrichtung zum Trainieren eines neuronalen Netzes
DE102017223264A1 (de) Verfahren und Vorrichtung zum Ansteuern eines Aktors
EP3701428B1 (de) Verfahren und vorrichtung zum verbessern der robustheit eines maschinellen lernsystems
DE102020203828A1 (de) Verfahren zum Erkennen einer Umgebung eines Fahrzeugs
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug
DE102020215885A1 (de) Verfahren und system zur erkennung und mitigation von störungen
DE102017006877A1 (de) Vorrichtung und Verfahren zum Erfassen von Flugkörpern mit einem Stereokamerasystem und einem Hochfrequenzscanner
DE102016110691A1 (de) Vorrichtung und Verfahren zum Bestimmen einer jeweiligen Position einer Mehrzahl von auf einer Flughafenfläche befindlichen Luftfahrzeugen
DE102019219750B4 (de) Fahrerassistenzsystem und Verfahren zum Detektieren von Objektbarrieren in 3D-Punktewolken
EP4289661A1 (de) Verfahren und system zum erkennen eines sitzbelegungszustands einer sitzanordnung auf basis von radarpunktwolken

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R020 Patent grant now final