DE102017220506A1 - Method and device for estimating a maritime traffic condition - Google Patents

Method and device for estimating a maritime traffic condition Download PDF

Info

Publication number
DE102017220506A1
DE102017220506A1 DE102017220506.7A DE102017220506A DE102017220506A1 DE 102017220506 A1 DE102017220506 A1 DE 102017220506A1 DE 102017220506 A DE102017220506 A DE 102017220506A DE 102017220506 A1 DE102017220506 A1 DE 102017220506A1
Authority
DE
Germany
Prior art keywords
position information
sensor
original position
tracking device
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017220506.7A
Other languages
German (de)
Inventor
Frank Heymann
Gregor Siegert
Rauno Büscher
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102017220506.7A priority Critical patent/DE102017220506A1/en
Publication of DE102017220506A1 publication Critical patent/DE102017220506A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • G01S13/917Radar or analogous systems specially adapted for specific applications for traffic control for marine craft or other waterborne vessels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/295Means for transforming co-ordinates or for evaluating data, e.g. using computers
    • G01S7/2955Means for determining the position of the radar coordinate system for evaluating the position data of the target in another coordinate system

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Ocean & Marine Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Schätzen eines maritimen Verkehrszustandes (20), umfassend die folgenden Schritte: Erfassen mindestens eines Objektes (30) mittels eines Sensors (7), Erfassen des mindestens einen Objektes mittels mindestens eines weiteren Sensors (8), wobei sich die Sensoren (7, 8) an unterschiedlichen Orten befinden, und wobei der Sensor (7) und der mindestens eine weitere Sensor (8) jeweils eine originäre Positionsinformation (10, 11) des mindestens einen Objektes (30) als Sensordaten bereitstellen, Übermitteln der Sensordaten an mindestens eine Fusionseinrichtung (3), Zuordnen der von den Sensoren bereitgestellten originären Positionsinformationen (10, 11) des mindestens einen Objektes (30) zueinander, Durchführen eines Übereinstimmungstests an den einander zugeordneten Positionsinformationen, Fusionieren der einander zugeordneten Positionsinformationen zu einer fusionierten Positionsinformation (12), sofern der Übereinstimmungstest positiv ausfällt, Schätzen eines Objektzustandes des mindestens einen Objektes (30) mittels einer Trackingeinrichtung (4) auf Grundlage der fusionierten Positionsinformation (12), Ausgeben des geschätzten Objektzustandes des mindestens einen Objektes (30) als geschätzten Verkehrszustand (20). Ferner betrifft die Erfindung eine zugehörige Vorrichtung (1).The invention relates to a method for estimating a maritime traffic condition (20), comprising the following steps: detecting at least one object (30) by means of a sensor (7), detecting the at least one object by means of at least one further sensor (8), wherein the Sensors (7, 8) are located at different locations, and wherein the sensor (7) and the at least one further sensor (8) each provide an original position information (10, 11) of the at least one object (30) as sensor data, transmitting the sensor data to at least one fusion device (3), assigning the original position information (10, 11) of the at least one object (30) to one another, performing a correspondence test on the assigned position information, merging the assigned position information to a merged position information (12 ), if the correspondence test is positive, Estimating an object state of the at least one object (30) by means of a tracking device (4) on the basis of the merged position information (12), outputting the estimated object state of the at least one object (30) as estimated traffic state (20). Furthermore, the invention relates to an associated device (1).

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Schätzen eines maritimen Verkehrszustandes.The invention relates to a method and an apparatus for estimating a maritime traffic condition.

Das klassische Verfahren zur Detektion und Abstandsschätzung von Objekten innerhalb eines bestimmten Suchradius ist das Radar. Die Grundidee besteht darin, über eine rotierende Antenne elektromagnetische Impulse auszusenden und pro Winkelsegment die reflektierte elektromagnetische Antwort zu messen. Das Radar arbeitet autark, d.h. ohne Zuhilfenahme eines externen Dienstes, und ist in einer großen Bandbreite an Ausführungsformen auf dem maritimen Markt verfügbar. Seine Leistungsfähigkeit ist beschränkt durch sein Auflösungsvermögen von Objekten und seine Reichweite. Objekte, die durch andere Schiffe oder sonstige Hindernisse (wie z.B. maritime Infrastruktur, Landzungen, etc.) verdeckt sind, können durch das Radar für gewöhnlich nicht detektiert werden.The classic method of detecting and estimating the distance of objects within a particular search radius is radar. The basic idea is to emit electromagnetic pulses via a rotating antenna and to measure the reflected electromagnetic response per angular segment. The radar operates autonomously, i. without the help of an external service, and is available in a wide range of maritime market embodiments. Its performance is limited by its resolving power of objects and its range. Objects obscured by other ships or other obstacles (such as maritime infrastructure, headlands, etc.) usually can not be detected by the radar.

Das Automatische Identifikationssystem (Automatic Identification System, AIS), 2004 durch die IMO eingeführt, dient dem Zweck der kooperativen Verkehrslageerfassung, allerdings liegt diesem ein anderer Ansatz als beim Radar zu Grunde. Über ein Rundfunksystem („broadcast“) senden einzelne Schiffe ihre Position, Dynamik, sowie statische und reisebezogene Daten an andere Verkehrsteilnehmer, die mit einem entsprechenden Empfangssystem ausgestattet sind. Grundlage des Systems ist ein bordseitiger Global Positioning System-(GPS)-Empfänger, aus dem die relevanten dynamischen Daten abgeleitet werden. Das AIS arbeitet demnach nicht autark. Es findet ferner auch keine Plausibilitätsbewertung der übermittelten Daten statt, bevor sie an andere verteilt werden. Zudem sind viele der statischen und/oder reisebezogenen Daten manuell veränderbar, d.h. prinzipiell korrumpierbar. Ein weiterer Nachteil ist, dass das AIS nur für Schiffe größer als 300 BRT verpflichtend ist, das heißt das System deckt also nicht den kompletten Schiffsverkehr ab. Eine weitere potentielle Schwachstelle des Systems ist seine Anfälligkeit gegenüber Störeinflüssen (z.B. absichtliche Einstreuung von Fehlinformationen, Blockierung der Zeitschlitze für die Datenübertragung).The Automatic Identification System (AIS), introduced in 2004 by the IMO, serves the purpose of cooperative traffic monitoring, but this is based on a different approach than radar. Via a broadcast system, individual ships send their position, dynamics, and static and travel-related data to other road users who are equipped with a corresponding receiving system. The system is based on an on-board Global Positioning System (GPS) receiver from which the relevant dynamic data is derived. The AIS is therefore not self-sufficient. Furthermore, there is no plausibility assessment of the transmitted data before it is distributed to others. In addition, many of the static and / or travel-related data are manually alterable, i. in principle corruptible. Another disadvantage is that the AIS is only mandatory for ships larger than 300 GRT, that is, the system does not cover the entire shipping traffic. Another potential vulnerability of the system is its susceptibility to interference (e.g., deliberate misadministration of misinformation, blocking of time slots for data transmission).

Der Erfindung liegt das technische Problem zu Grunde, ein Verfahren und eine Vorrichtung zum Schätzen eines maritimen Verkehrszustandes zu schaffen, bei denen ein maritimer Verkehrszustand verbessert erfasst und geschätzt werden kann.The invention is based on the technical problem of providing a method and an apparatus for estimating a maritime traffic condition in which a maritime traffic condition can be detected and estimated improved.

Die technische Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 10 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.The technical problem is solved by a method with the features of claim 1 and a device having the features of claim 10. Advantageous embodiments of the invention will become apparent from the dependent claims.

Insbesondere wird ein Verfahren zum Schätzen eines maritimen Verkehrszustandes zur Verfügung gestellt, umfassend die folgenden Schritte: Erfassen mindestens eines Objektes mittels eines Sensors, Erfassen des mindestens einen Objektes mittels mindestens eines weiteren Sensors, wobei sich die Sensoren an unterschiedlichen Orten befinden, und wobei der Sensor und der mindestens eine weitere Sensor jeweils eine originäre Positionsinformation des mindestens einen Objektes als Sensordaten bereitstellen, Übermitteln der Sensordaten an mindestens eine Fusionseinrichtung, Zuordnen der von den Sensoren bereitgestellten originären Positionsinformationen des mindestens einen Objektes zueinander, Durchführen eines Übereinstimmungstests an den einander zugeordneten Positionsinformationen, Fusionieren der einander zugeordneten Positionsinformationen zu einer fusionierten Positionsinformation, sofern der Übereinstimmungstest positiv ausfällt, Schätzen eines Objektzustandes des mindestens einen Objektes mittels einer Trackingeinrichtung auf Grundlage der fusionierten Positionsinformationen, Ausgeben des geschätzten Objektzustandes des mindestens einen Objektes als geschätzten Verkehrszustand.In particular, a method for estimating a maritime traffic condition is provided, comprising the following steps: detecting at least one object by means of a sensor, detecting the at least one object by means of at least one further sensor, wherein the sensors are located at different locations, and wherein the sensor and the at least one further sensor respectively providing an original position information of the at least one object as sensor data, transmitting the sensor data to at least one fusion device, associating the original position information of the at least one object provided by the sensors with each other, performing a correspondence test on the mutually associated position information, merging the mutually associated position information to a merged position information, if the correspondence test is positive, estimating an object state of the at least one an object by means of a tracking device based on the merged position information, outputting the estimated object state of the at least one object as an estimated traffic condition.

Ferner wird eine Vorrichtung zum Schätzen eines maritimen Verkehrszustandes geschaffen, umfassend eine Empfangseinrichtung, eine Fusionseinrichtung, und eine Trackingeinrichtung, wobei die Empfangseinrichtung dazu eingerichtet ist, originäre Positionsinformationen mindestens eines Objektes als Sensordaten von einem Sensor und originäre Positionsinformationen des mindestens einen Objektes als Sensordaten von mindestens einem weiteren Sensor zu empfangen, wobei sich der Sensor und der mindestens eine weitere Sensor an unterschiedlichen Orten befinden, und wobei die Fusionseinrichtung dazu eingerichtet ist, die empfangenen originären Positionsinformationen des mindestens einen Objektes einander zuzuordnen, ferner einen Übereinstimmungstest an den einander zugeordneten Positionsinformationen durchzuführen, und sofern der Übereinstimmungstest positiv ausfällt, die einander zugeordneten Positionsinformationen zu einer fusionierten Positionsinformation zu fusionieren, und wobei die Trackingeinrichtung dazu eingerichtet ist, einen Objektzustand des mindestens einen Objektes auf Grundlage der fusionierten Positionsinformation zu schätzen und den geschätzten Objektzustand des mindestens einen Objektes als geschätzten Verkehrszustand auszugeben.Furthermore, a device for estimating a maritime traffic condition is provided, comprising a receiving device, a fusion device, and a tracking device, wherein the receiving device is adapted to original position information of at least one object as sensor data from a sensor and original position information of the at least one object as sensor data of at least receive a further sensor, wherein the sensor and the at least one further sensor are located at different locations, and wherein the fusion device is adapted to assign the received original position information of the at least one object to each other, further perform a match test on the associated position information, and if the correspondence test is positive, to merge the associated position information into a merged position information, and wherein the Tr Ackingeinrichtung is adapted to estimate an object state of the at least one object based on the fused position information and output the estimated object state of the at least one object as an estimated traffic condition.

Die Grundidee der Erfindung ist, ein Objekt mittels mindestens zwei Sensoren zu erfassen, wobei die Sensoren sich an unterschiedlichen Orten befinden. Die Sensoren stellen jeweils originäre Positionsinformationen in Bezug auf das erfasste Objekt bereit. Die originären Positionsinformationen des Objektes werden dann mittels einer Fusionseinrichtung einander zugeordnet. Anschließend wird ein Übereinstimmungstest an den einander zugeordneten Positionsinformationen durchgeführt. Im Rahmen des Übereinstimmungstests wird überprüft, ob die einander zugeordneten Positionsinformationen von dem gleichen Objekt stammen. Fällt der Übereinstimmungstest positiv aus, das heißt ergibt dieser, dass die einander zugeordneten Positionsinformationen von demselben Objekt stammen, so werden die einander zugeordneten Positionsinformationen miteinander zu einer fusionierten Positionsinformation fusioniert. Durch das Fusionieren der einander zugeordneten originären Positionsinformationen ergibt sich eine erhöhte Genauigkeit, welche sich in der fusionierten Positionsinformation niederschlägt. Die fusionierte Positionsinformation wird dann einer Trackingeinrichtung zugeführt. Die Trackingeinrichtung schätzt auf Grundlage der fusionierten Positionsinformation einen Objektzustand des mindestens einen Objektes. Dieser geschätzte Objektzustand des mindestens einen Objektes wird anschließend als geschätzter Verkehrszustand ausgegeben.The basic idea of the invention is to detect an object by means of at least two sensors, the sensors being located at different locations. The sensors respectively original position information related to the detected object. The original position information of the object is then assigned to each other by means of a fusion device. Subsequently, a match test is performed on the associated position information. As part of the consistency test, it is checked whether the assigned position information originates from the same object. If the correspondence test turns out to be positive, that is, if it results that the position information assigned to one another originates from the same object, the position information assigned to one another is fused together to form a fused position information item. By merging the mutually associated original position information results in an increased accuracy, which is reflected in the merged position information. The merged position information is then fed to a tracking device. The tracking device estimates an object state of the at least one object based on the merged position information. This estimated object state of the at least one object is subsequently output as an estimated traffic state.

Objekte im Sinne der vorliegenden Erfindung sind insbesondere Schiffe, Teile einer Vessel Traffic Service-(VTS)-Infrastruktur sowie Hindernisse.Objects within the meaning of the present invention are in particular ships, parts of a Vessel Traffic Service (VTS) infrastructure and obstacles.

Eine originäre Positionsinformation bezeichnet eine einzelne von einem Sensor oder einem Sensornetzwerk erfasste, nicht einer anderen originären Positionsinformation zugeordnete oder fusionierte Positionsinformation. Eine solche originäre Positionsinformation umfasst Positionskoordinaten des mindestens einen Objektes in einem Koordinatensystem. Ferner kann eine originäre Positionsinformation auch eine Position des zugehörigen Sensors umfassen. Das Koordinatensystem kann beispielsweise auf Polarkoordinaten oder kartesischen Koordinaten basieren. Eine originäre Positionsinformation kann ferner auch Abmessungen des mindestens einen Objektes und/oder eine von dem Sensor in Bezug auf das mindestens eine Objekt erfasste Intensität umfassen. Ferner kann die originäre Positionsinformation aber auch Eigenschaften des Sensors, mit dem die Positionskoordinaten erfasst wurden, umfassen. Solche Eigenschaften sind insbesondere Eigenschaften zur Messgenauigkeit des Sensors. Es kann insbesondere auch vorgesehen sein, dass eine originäre Positionsinformation bereits vorprozessierte Daten oder Informationen umfasst. Beispielsweise kann ein Sensor bereits eine Vorauswertung durchführen, um hierdurch potentielle Kandidaten für Objekte in seinem Erfassungsbereich zu identifizieren und auszuwählen.An original position information designates a single position information acquired or fused by a sensor or a sensor network, not assigned or fused to another original position information. Such original position information comprises position coordinates of the at least one object in a coordinate system. Furthermore, an original position information may also include a position of the associated sensor. For example, the coordinate system may be based on polar coordinates or Cartesian coordinates. An original position information can furthermore also comprise dimensions of the at least one object and / or an intensity detected by the sensor with respect to the at least one object. Furthermore, the original position information may also include properties of the sensor with which the position coordinates were detected. Such properties are in particular properties for measuring accuracy of the sensor. In particular, it can also be provided that an original position information already includes preprocessed data or information. For example, a sensor may already perform a pre-evaluation to thereby identify and select potential candidates for objects in its coverage area.

Einander zugeordnete Positionsinformationen sollen zwei oder mehr einander zugeordnete originäre Positionsinformationen bezeichnen.Mutually assigned position information shall designate two or more original position information associated with each other.

Eine fusionierte Positionsinformation ist eine einzelne Positionsinformation, welche aus zwei oder mehr originären Positionsinformationen fusioniert wurde. Fusionieren soll in diesem Zusammenhang bedeuten, dass die den originären Positionsinformationen zugrunde liegenden Daten derart miteinander kombiniert werden, dass eine einzelne Positionsinformation daraus abgeleitet wird.A merged position information is a single position information which has been fused from two or more original position information. Fusion in this context means that the data underlying the original position information are combined in such a way that a single position information is derived therefrom.

Die Zuordnung der originären Positionsinformationen zueinander kann beispielsweise mittels der Global Nearest Neighbor (GNN)-Regel durchgeführt werden. Diese Regel liefert bijektive Verknüpfungen zwischen den einzelnen originären Positionsinformationen auf Grundlage eines Abstandmaßes zwischen den einzelnen Messungen, das heißt den Positionen des mindestens einen Objektes in den originären Positionsinformationen der einzelnen Sensoren.The assignment of the original position information to one another can be carried out, for example, by means of the Global Nearest Neighbor (GNN) rule. This rule provides bijective links between the individual original position information based on a distance measure between the individual measurements, that is, the positions of the at least one object in the original position information of the individual sensors.

Ein Objektzustand ist eine Schätzung zumindest einer Position des zugehörigen Objektes. Ferner kann der Objektzustand auch eine Geschwindigkeit des Objektes, einen Kurs, eine Wenderate sowie eine Größe bzw. Form des Objektes etc. umfassen.An object state is an estimate of at least one position of the associated object. Furthermore, the object state may also include a speed of the object, a course, a turning rate and a size or shape of the object, etc.

Eine Objektspur bezeichnet eine Verknüpfung mehrerer Einzelpositionen eines Objektes zu einer Spur. Die Objektspur kann beispielsweise durch eine Menge von Positionskoordinaten beschrieben werden. Zusätzlich kann vorgesehen sein, der Objektspur eine Richtung zuzuordnen, welche eine zeitliche bzw. örtliche Abfolge der Positionskoordinaten im Sinne einer Trajektorie definiert.An object track refers to a combination of several individual positions of an object to a track. The object track may be described by a set of position coordinates, for example. In addition, it can be provided to assign the object track a direction which defines a chronological or local sequence of the position coordinates in the sense of a trajectory.

In einer Ausführungsform ist vorgesehen, dass das Verfahren zyklisch wiederholt wird. Auf diese Weise wird das mindestens eine Objekt wiederholt erfasst und stets ein aktueller Objektzustand geschätzt. Hierdurch kann fortlaufend ein aktueller maritimer Verkehrszustand geschätzt und zur Verfügung gestellt werden.In one embodiment, it is provided that the method is repeated cyclically. In this way, the at least one object is repeatedly detected and always estimated a current object state. As a result, a current maritime traffic condition can be continuously estimated and made available.

Ferner kann vorgesehen sein, dass nicht nur ein Objekt erfasst wird, sondern gleichzeitig eine Vielzahl von Objekten. Das Verfahren wird dann entsprechend an jedem der Objekte durchgeführt. Insbesondere schätzt die Trackingeinrichtung dann für jedes der Objekte jeweils einen Objektzustand, welcher anschließend ebenfalls als Teil des geschätzten Verkehrszustands ausgegeben wird. Auf diese Weise ist es möglich, einen Verkehrszustand zu schätzen, der eine Vielzahl von Objekten umfasst. Ein aktueller maritimer Verkehrszustand kann somit verbessert erfasst und geschätzt werden.Furthermore, it can be provided that not only one object is detected, but at the same time a plurality of objects. The method is then performed on each of the objects accordingly. In particular, the tracking device then estimates for each of the objects in each case an object state, which is subsequently likewise output as part of the estimated traffic state. In this way, it is possible to estimate a traffic condition comprising a plurality of objects. A current maritime traffic condition can thus be better detected and estimated.

Es kann vorgesehen sein, dass der Trackingeinrichtung nicht nur eine fusionierte Positionsinformation des mindestens einen Objektes zugeführt wird, sondern auch nicht fusionierte und/oder nicht zugeordnete originäre Positionsinformationen weiterer Objekte. Die Trackingeinrichtung schätzt dann auch für diese Objekte einen Objektzustand. Der ausgegebene Verkehrszustand bildet dann auch die Objektzustände solcher Objekte ab, welche nur von einem Sensor erfasst wurden bzw. für die keine fusionierten Positionsinformationen vorliegen. It can be provided that not only a fused position information of the at least one object is supplied to the tracking device, but also unfused and / or unassigned original position information of further objects. The tracking device then estimates an object state for these objects as well. The output traffic state then also maps the object states of such objects, which were only detected by a sensor or for which no fused position information is available.

In einer Ausführungsform ist vorgesehen, dass das Schätzen des Objektzustandes mittels eines Prädiktor-Korrektor-Filters der Trackingeinrichtung durchgeführt wird. Ein solcher Filter schätzt einen zukünftigen Objektzustand auf Grundlage eines Modells der Objektdynamik und der vorherigen fusionierten Positionsinformationen. Im nächsten Zeitschritt wird diese Schätzung dann auf Grundlage einer aktuelleren fusionierten Positionsinformation korrigiert.In an embodiment, it is provided that the estimation of the object state is carried out by means of a predictor-corrector filter of the tracking device. Such a filter estimates a future object state based on a model of the object dynamics and the previous merged position information. In the next time step, this estimate is then corrected based on more recent fused position information.

In einer weiterbildenden Ausführungsform ist vorgesehen, dass das Prädiktor-Korrektor-Filter ein Interacting-Multiple-Model-Joint-Probabilistic-Data-Association-(IMM-JPDA)-Filter ist. Ein solches Filter umfasst ein dynamisches Modell für die Objekte, welches seinerseits zwei Teilmodelle umfasst. Im Rahmen des einen Teilmodells wird angenommen, dass die Objekte eine konstante Geschwindigkeit aufweisen und sich auf einer geradlinigen Bahn bewegen (constant velocity, straight-path motion). Das andere Teilmodell berücksichtigt eine konstante Wendegeschwindigkeit (constant turn rate velocity, turn maneuver motion). Durch die Interaktion beider Teilmodelle lassen sich insbesondere die Bewegungen von Schiffen gut schätzen. Ferner werden einzelne Positionsinformationen nicht zwingend einem Objekt eindeutig zugeordnet, sondern können für die Korrektur mehrerer geschätzter Objektzustände in gewichteter Form genutzt werden. Jeder einzelne geschätzte Objektzustand kann wiederum durch mehrere, gewichtete Positionsinformationen korrigiert werden. Dieser probabilistische Ansatz eignet sich insbesondere zum Tracking von Schiffen auf Basis von Radarsensoren, die im Allgemeinen anfällig für Fehldetektionen aufgrund von Wellengang oder bestimmten Wetterphänomenen sind. Eine eindeutige Zuordnung einer oder mehrerer Messungen zu einem oder mehreren Objekten ist dann oft nicht möglich.In a further embodiment, it is provided that the predictor-corrector filter is an Interacting-Multiple-Model-Joint-Probabilistic Data Association (IMM-JPDA) filter. Such a filter comprises a dynamic model for the objects, which in turn comprises two submodels. Within the framework of the one submodel, it is assumed that the objects have a constant velocity and move on a straight path (constant velocity, straight-path motion). The other submodel considers a constant turn rate (constant turn rate velocity, turn maneuver motion). The interaction of both submodels makes it particularly easy to appreciate the movements of ships. Furthermore, individual position information is not necessarily uniquely assigned to an object, but can be used for the correction of a plurality of estimated object states in weighted form. Each individual estimated object state can in turn be corrected by a plurality of weighted position information. This probabilistic approach is particularly useful for tracking ships based on radar sensors, which are generally prone to misdetection due to waves or weather phenomena. A clear assignment of one or more measurements to one or more objects is then often not possible.

In einer Ausführungsform ist ferner vorgesehen, dass für ein Objekt eine Objektspur in der Trackingeinrichtung erzeugt wird, wenn ein Erzeugungskriterium erfüllt ist, und eine Objektspur für ein Objekt in der Trackingeinrichtung gelöscht wird, wenn ein Löschungskriterium erfüllt ist. Hierzu umfasst die Vorrichtung eine Spurverwaltungseinrichtung. Das Erzeugungskriterium ist beispielsweise eine vorgegebene Mindestanzahl von Zyklen, in denen das mindestens eine Objekt erfasst werden muss. Wird das Verfahren beispielsweise acht Mal hintereinander durchgeführt, so kann als Mindestkriterium vorgesehen sein, dass das mindestens eine Objekt in diesen acht Zyklen mindestens sieben Mal detektiert werden muss, damit eine Objektspur erzeugt wird. Entsprechend kann als Löschungskriterium vorgesehen sein, dass eine Objektspur eines Objekts, für das eine Objektspur in der Trackingeinrichtung vorhanden ist, gelöscht wird, wenn das Objekt bei acht oder mehr aufeinanderfolgenden Zyklen nicht mehr erfasst wird. Selbstverständlich können auch andere Erzeugungs- und Löschungskriterien vorgesehen sein. Insbesondere können die Erzeugungs- und Löschungskriterien auch von den Positionsinformationen bzw. den geschätzten Objektzuständen abhängig sein, beispielsweise von der Größe des Unsicherheitsbereichs einer geschätzten Objektposition einer Höhe einer vom Sensor erfassten Intensität etc.In one embodiment, it is further provided that for an object, an object track is generated in the tracking device when a creation criterion is met, and an object track for an object in the tracking device is deleted when an erase criterion is met. For this purpose, the device comprises a track management device. The generation criterion is, for example, a predetermined minimum number of cycles in which the at least one object must be detected. If the method is carried out, for example, eight times in succession, it can be provided as the minimum criterion that the at least one object must be detected at least seven times in these eight cycles, so that an object track is generated. Accordingly, it can be provided as the deletion criterion that an object track of an object for which an object track is present in the tracking device is deleted if the object is no longer detected in eight or more consecutive cycles. Of course, other generation and cancellation criteria may be provided. In particular, the generation and deletion criteria may also be dependent on the position information or the estimated object states, for example on the size of the uncertainty range of an estimated object position of a height of an intensity detected by the sensor, etc.

In einer Ausführungsform ist vorgesehen, dass vor dem Übermitteln der originären Positionsinformationen an die Fusionseinrichtung eine Transformation der originären Positionsinformationen in ein einheitliches Referenzsystem erfolgt. Basiert die originäre Positionsinformation des einen Sensors beispielsweise auf Polarkoordinaten, die originäre Positionsinformation des mindestens einen weiteren Sensors auf kartesischen Koordinaten, so kann die originäre Positionsinformation des einen Sensors von Polarkoordinaten in kartesische Koordinaten umgerechnet werden. Beide originäre Positionsinformationen stehen dann in kartesischen Koordinaten zur Verfügung. Die Vorrichtung umfasst hierzu beispielsweise eine Transformationseinrichtung, welche die Transformation durchführt.In an embodiment, it is provided that, before the transmission of the original position information to the fusion device, the original position information is transformed into a uniform reference system. If the original position information of the one sensor is based, for example, on polar coordinates, the original position information of the at least one further sensor on Cartesian coordinates, then the original position information of the one sensor can be converted from polar coordinates into Cartesian coordinates. Both original position information is then available in Cartesian coordinates. For this purpose, the device comprises, for example, a transformation device which carries out the transformation.

Der Übereinstimmungstest kann insbesondere ein statistischer Test sein, bei dem die originären Positionsinformationen der zwei oder mehr Sensoren miteinander verglichen werden. Umfassen die originären Positionsinformationen, deren Übereinstimmung zu prüfen ist, beispielsweise zwei statistische Verteilungen, welche eine Unsicherheit einer Positionsbestimmung der Sensoren abbildet, so kann mittels des statistischen Tests eine Ähnlichkeit zwischen den beiden Verteilungen ermittelt werden. Überschreitet die Ähnlichkeit einen Schwellwert, wird davon ausgegangen, dass die statistischen Verteilungen von demselben Objekt stammen.In particular, the correspondence test may be a statistical test in which the original position information of the two or more sensors is compared with each other. If the original position information whose correspondence is to be examined includes, for example, two statistical distributions which represent an uncertainty of a position determination of the sensors, a similarity between the two distributions can be determined by means of the statistical test. If the similarity exceeds a threshold, it is assumed that the statistical distributions originate from the same object.

In einer weiteren Ausführungsform ist vorgesehen, dass im Rahmen des Übereinstimmungstests der Bhattacharyya-Koeffizient bestimmt wird und anschließend als Testkriterium überprüft wird, ob der Bhattacharyya-Koeffizient oberhalb eines vorbestimmten Schwellwertes liegt. Der Bhattacharyya-Koeffizient ist hierbei ein Maß für den Überlapp zwischen zwei statistischen Ziehungen oder Populationen. Entsprechend wird im Verfahren ein Überlapp zwischen den statistischen Verteilungen der originären Positionsinformation bestimmt. Wird dann der Schwellwert überschritten, wird angenommen, dass die originären Positionsinformationen von demselben Objekt stammen und die originären Positionsinformationen werden miteinander zu einer fusionierten Positionsinformation fusioniert.In another embodiment, it is provided that the Bhattacharyya coefficient is determined as part of the correspondence test, and then it is checked as a test criterion whether the Bhattacharyya coefficient is above a predetermined threshold value. The Bhattacharyya coefficient is a measure of the overlap between two statistical drawings or populations. Accordingly, an overlap between the statistical distributions of the original position information is determined in the method. If the threshold is then exceeded, it is assumed that the original position information originates from the same object and the original position information is fused together to form a fused position information.

In einer Ausführungsform ist vorgesehen, dass mindestens einer der Sensoren ein Radarsensor ist. Radar ist das klassische Verfahren zum Detektieren und zur Abstandsschätzung von Objekten innerhalb eines bestimmten Suchradius und insbesondere auf Schiffen ab einer bestimmten Größe weit verbreitet, so dass auf eine bereits bestehende Infrastruktur zurückgegriffen werden kann.In one embodiment it is provided that at least one of the sensors is a radar sensor. Radar is the classical method for detecting and estimating the distance of objects within a certain search radius, and in particular on ships of a certain size, so that an existing infrastructure can be used.

In einer weiterbildenden Ausführungsform ist ferner vorgesehen, dass die von dem Radarsensor bereitgestellte originäre Positionsinformation aus einem von dem Radarsensor bereitgestellten Videobild abgeleitet wird. Auf dem Markt erhältliche Radarsensoren kommen üblicherweise mit einer Videokonsole, auf der die Sensordaten graphisch aufbereitet dargestellt werden. Diese Videokonsole liefert ein Videosignal, welches dazu verwendet werden kann, die erfassten Radarechos von Objekten im Erfassungsbereich des Radarsensors zu extrahieren und hieraus eine originäre Positionsinformation abzuleiten. Die abgeleitete originäre Positionsinformation umfasst insbesondere eine Position des mindestens einen Objektes in einem Koordinatensystem. Das Koordinatensystem eines Radarsensors ist üblicherweise in Polarkoordinaten ausgebildet. Zusammen mit einer Referenzposition des Radarsensors kann eine Position des Objektes dann in eine absolute Position in einem kartesischen Koordinatensystem, beispielsweise in Globalkoordinaten, umgerechnet werden und als originäre Positionsinformation bereitgestellt werden. Es kann hierbei vorgesehen sein, dass das Videobild bearbeitet wird und beispielsweise Mustererkennungsverfahren zur Erkennung von Objekten angewendet werden.In a further embodiment, it is further provided that the original position information provided by the radar sensor is derived from a video image provided by the radar sensor. Radar sensors available on the market usually come with a video console on which the sensor data are displayed graphically. This video console provides a video signal which can be used to extract the detected radar echoes from objects within the detection range of the radar sensor and derive therefrom an original position information. The derived original position information comprises in particular a position of the at least one object in a coordinate system. The coordinate system of a radar sensor is usually formed in polar coordinates. Together with a reference position of the radar sensor, a position of the object can then be converted into an absolute position in a Cartesian coordinate system, for example in global coordinates, and provided as original position information. It may be provided here that the video image is processed and, for example, pattern recognition methods are used to detect objects.

In einer Ausführungsform ist vorgesehen, dass beim Schätzen des Objektzustandes des mindestens einen Objektes zusätzlich eine Positionsinformation eines Automatic Identification Systems (AIS) berücksichtigt wird. Hierbei kann insbesondere vorgesehen sein, dass die Positionsinformation des AIS als originäre Positionsinformation zu dem mindestens einen Objekt bereitgestellt wird und anschließend wie eine von einem der Sensoren erfassten originären Positionsinformationen behandelt wird. Der Vorteil ist, dass zusätzlich zu den Sensoren auf weitere bereits etablierte Infrastruktur zurückgegriffen werden kann. Durch das zusätzliche Berücksichtigen der AIS-Daten kann ein Objektzustand bzw. der Verkehrszustand verbessert geschätzt werden.In one embodiment, it is provided that, when estimating the object state of the at least one object, additionally a position information of an automatic identification system (AIS) is taken into account. In this case, provision may be made, in particular, for the position information of the AIS to be provided as original position information about the at least one object and then treated as an original position information acquired by one of the sensors. The advantage is that, in addition to the sensors, other already established infrastructure can be used. By additionally considering the AIS data, an object condition or the traffic condition can be estimated improved.

Insbesondere kann in einer Ausführungsform vorgesehen sein, dass als Sensoren sowohl stationäre als auch nicht-stationäre Sensoren verwendet werden. Dies ermöglicht es, auf sämtliche vorhandene Sensoren zurückzugreifen und beispielsweise auch Sensoren, z.B. Radarsensoren, auf Schiffen beim Schätzen des Verkehrszustandes zu berücksichtigen. Die originäre Positionsinformation solcher nicht-stationärer Sensoren umfasst dann zusätzlich eine aktuelle Position des nicht-stationären Sensors, beispielsweise die aktuelle Position des Schiffes, sodass aus der originären Positionsinformation eine absolute Position eines Objektes in einem Koordinatensystem, insbesondere Globalkoordinatensystem, berechnet werden kann.In particular, it can be provided in one embodiment that both stationary and non-stationary sensors are used as sensors. This makes it possible to use all existing sensors and, for example, sensors, e.g. Radar sensors to consider on ships in estimating the traffic condition. The original position information of such non-stationary sensors then additionally comprises a current position of the non-stationary sensor, for example the current position of the ship, so that an absolute position of an object in a coordinate system, in particular global coordinate system, can be calculated from the original position information.

In einer Ausführungsform ist vorgesehen, dass die einander zugeordneten Positionsinformationen zum Fusionieren als Normalverteilungen angenähert werden und die so genäherten Normalverteilungen zusammengefasst werden. In der Regel lassen sich Messungenauigkeiten von Sensoren als Normalverteilungen annähern. Da es sich bei den Positionen des maritimen Verkehrs üblicherweise um zweidimensionale Positionen auf der Wasseroberfläche handelt, kann eine Position eines Objektes mittels zweier Koordinaten im Globalsystem eindeutig beschrieben werden. Diese Koordinaten sind mit einer Messungenauigkeit des Sensors, der die Messung vornimmt, behaftet. Die Messungenauigkeit wird dann für die beiden Koordinaten durch eine zweidimensionale Normalverteilung beschrieben. Im Rahmen des Fusionierens werden zwei (oder mehr) zweidimensionale Normalverteilungen miteinander kombiniert, indem die Mittelwerte und die Kovarianzen zusammengefasst werden.In one embodiment, it is provided that the mutually assigned position information for merging are approximated as normal distributions and the normal distributions approximated in this way are combined. As a rule, measurement inaccuracies of sensors can be approximated as normal distributions. Since the positions of the maritime traffic are usually two-dimensional positions on the water surface, a position of an object can be unambiguously described by means of two coordinates in the global system. These coordinates are associated with a measurement inaccuracy of the sensor making the measurement. The measurement inaccuracy is then described for the two coordinates by a two-dimensional normal distribution. In the context of merging, two (or more) two-dimensional normal distributions are combined by combining the means and the covariances.

Es kann vorgesehen sein, dass die Empfangseinrichtung zum Empfangen der Sensordaten mindestens eine auf die Sensoren abgestimmte Schnittstelle umfasst. Diese Schnittstelle ist insbesondere dazu eingerichtet, von einem Sensor bereitgestellte Sensordaten in eine originäre Positionsinformation umzuwandeln. Dies kann beispielsweise eine Datenumwandlung umfassen.It can be provided that the receiving device for receiving the sensor data comprises at least one interface matched to the sensors. This interface is in particular configured to convert sensor data provided by a sensor into an original position information. This may include, for example, a data transformation.

Im Übrigen sind die Ausführungsformen der Vorrichtung inhaltsgleich zu den jeweiligen Ausführungsformen des Verfahrens ausgebildet.Incidentally, the embodiments of the device are formed identical in content to the respective embodiments of the method.

Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen:

  • 1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zum Schätzen eines maritimen Verkehrszustandes;
  • 2 ein schematische Ablaufdiagramm einer Ausführungsform des Verfahrens zum Schätzen eines maritimen Verkehrszustandes;
  • 3 eine schematische Darstellung von zwei originären Positionsinformationen, welche von zwei Radarsensoren bereitgestellt wurden, zur Verdeutlichung des Verfahrens;
  • 4 eine schematische Darstellung der originären Positionsinformationen aus 3 und einer daraus fusionierten Positionsinformation;
  • 5a eine Darstellung des Aspektwinkels zwischen zwei Radarsensoren im Zeitverlauf einer Messreihe;
  • 5b eine Darstellung der Norm der Kovarianz der zusammengeführten Normalverteilungen in der fusionierten Positionsinformation für die Messreihe aus 5a;
  • 5c eine Darstellung der aus den 5a und 5b zusammengeführten Daten;
  • 6 einen Vergleich zwischen dem erfindungsgemäßen Verfahren und einem Verfahren, bei dem die originären Positionsinformationen nicht fusioniert werden;
  • 7a eine schematische Darstellung zur Erläuterung der Aufbereitung eines von einer Radarkonsole bereitgestellten Videobildes zum Ableiten einer originären Positionsinformation;
  • 7b eine schematische Darstellung zur Erläuterung der Aufbereitung eines von einer Radarkonsole bereitgestellten Videobildes zum Ableiten einer originären Positionsinformation;
  • 7c eine schematische Darstellung zur Erläuterung der Aufbereitung eines von einer Radarkonsole bereitgestellten Videobildes zum Ableiten einer originären Positionsinformation.
The invention will be explained in more detail with reference to preferred embodiments with reference to the figures. Hereby show:
  • 1 a schematic representation of an embodiment of the device for estimating a maritime traffic condition;
  • 2 a schematic flow diagram of an embodiment of the method for estimating a maritime traffic condition;
  • 3 a schematic representation of two original position information, which were provided by two radar sensors, to illustrate the method;
  • 4 a schematic representation of the original position information 3 and a position information fused therefrom;
  • 5a a representation of the aspect angle between two radar sensors over time of a series of measurements;
  • 5b a representation of the standard of the covariance of the merged normal distributions in the merged position information for the series of measurements 5a ;
  • 5c a representation of the 5a and 5b merged data;
  • 6 a comparison between the inventive method and a method in which the original position information is not merged;
  • 7a a schematic representation for explaining the preparation of a provided by a radar console video image for deriving an original position information;
  • 7b a schematic representation for explaining the preparation of a provided by a radar console video image for deriving an original position information;
  • 7c a schematic representation for explaining the preparation of a provided by a radar console video image for deriving an original position information.

In 1 ist eine schematische Darstellung einer Ausführungsform der Vorrichtung 1 zum Schätzen eines maritimen Verkehrszustandes 20 gezeigt. Die Vorrichtung 1 umfasst eine Empfangseinrichtung 2, eine Fusionseinrichtung 3 und eine Trackingeinrichtung 4. Die Empfangseinrichtung 2 kann ferner zwei Schnittstellen 5, 6 umfassen.In 1 is a schematic representation of an embodiment of the device 1 to appreciate a maritime traffic condition 20 shown. The device 1 comprises a receiving device 2 , a fusion device 3 and a tracking device 4 , The receiving device 2 can also have two interfaces 5 . 6 include.

Die Empfangseinrichtung 2 empfängt originäre Positionsinformationen 10, 11 eines Objektes von einem Sensor 7 und einem weiteren Sensor 8 als Sensordaten. Die Sensoren 7, 8 sind beispielsweise als Radarsensoren ausgebildet, wobei sich die Sensoren 7, 8 an unterschiedlichen Orten befinden, so dass ein Objekt von diesen Sensoren 7,8 aus unterschiedlichen Richtungen erfasst wird. Die Schnittstellen 5, 6 gewährleisten, dass die Empfangseinrichtung 2 die Sensordaten der beiden Sensoren 7, 8 empfangen und verarbeiten kann.The receiving device 2 receives original position information 10 . 11 an object from a sensor 7 and another sensor 8th as sensor data. The sensors 7 . 8th For example, they are designed as radar sensors, wherein the sensors 7 . 8th are located at different locations, so that an object is detected by these sensors 7,8 from different directions. The interfaces 5 . 6 ensure that the receiving device 2 the sensor data of the two sensors 7 . 8th receive and process.

Von der Empfangseinrichtung 2 werden die originären Positionsinformationen 10, 11 der Fusionseinrichtung 3 zugeleitet. Die Fusionseinrichtung 3 ist dazu eingerichtet ist, die empfangenen originären Positionsinformationen 10, 11 des mindestens einen Objektes einander zuzuordnen. Die Zuordnung erfolgt beispielsweise mittels der Global Nearest Neighbor-Regel. An den einander zugeordneten originären Positionsinformationen führt die Fusionseinrichtung 3 anschließend einen Übereinstimmungstest durch. Im Rahmen dieses Übereinstimmungstestes kann beispielsweise der Bhattacharyya-Koeffizient bestimmt werden. Als Hypothese wird nun von der Fusionseinrichtung 3 überprüft, ob der Bhattacharyya-Koeffizient einen vorbestimmten Schwellwert überschreitet. Ist dies der Fall, so werden die einander zugeordneten originären Positionsinformationen miteinander zu einer fusionierten Positionsinformation 12 fusioniert. Beispielsweise werden hierzu als zweidimensionale Normalverteilungen angenäherte Positionen des Objektes, welche von den einzelnen Sensoren 7, 8 bestimmt wurden, zu einer einzigen zweidimensionalen Normalverteilung zusammengeführt. Die zusammengeführte zweidimensionale Normalverteilung ist dann sehr viel genauer als die der Einzelmessungen.From the receiving device 2 become the original position information 10 . 11 the fusion device 3 fed. The fusion device 3 is set up to receive the original position information received 10 . 11 of the at least one object to each other. The assignment takes place, for example, by means of the Global Nearest Neighbor Rule. At the associated original position information, the fusion device performs 3 then a consistency test. In the context of this correspondence test, for example, the Bhattacharyya coefficient can be determined. The hypothesis is now by the fusion device 3 checks if the Bhattacharyya coefficient exceeds a predetermined threshold. If this is the case, then the mutually associated original position information together become a merged position information 12 merged. For example, for this purpose, as two-dimensional normal distributions, approximate positions of the object, which of the individual sensors 7 . 8th were merged into a single two-dimensional normal distribution. The merged two-dimensional normal distribution is then much more accurate than that of the individual measurements.

Die fusionierte Positionsinformation 12 wird anschließend der Trackingeinrichtung 4 zugeführt. Die Trackingeinrichtung 4 ist dazu eingerichtet, einen Objektzustand des mindestens einen Objektes auf Grundlage der fusionierten Positionsinformation 12 zu schätzen und den geschätzten Objektzustand des mindestens einen Objektes als geschätzten Verkehrszustand 20 auszugeben. Es kann vorgesehen sein, dass der Trackingeinrichtung 4 neben der fusionierten Positionsinformation 12 auch die originären Positionsinformationen 10, 11 zugeführt werden.The merged position information 12 then the tracking device 4 fed. The tracking device 4 is adapted to an object state of the at least one object based on the merged position information 12 and estimate the estimated object state of the at least one object as estimated traffic condition 20 issue. It can be provided that the tracking device 4 in addition to the merged position information 12 also the original position information 10 . 11 be supplied.

Die Vorrichtung 1 arbeitet zyklisch, das heißt es werden fortlaufend aktuelle originäre Positionsinformationen 10, 11 von der Empfangseinrichtung 2 empfangen, in der Fusionseinrichtung 3 wie beschrieben verarbeitet und fortlaufend von der Trackingeinrichtung 4 basierend auf den aktuellen fusionierten Positionsinformationen 12 ein aktueller Objektzustand bzw. ein aktueller Verkehrszustand 20 geschätzt. Auf diese Weise steht fortlaufend eine aktuelle Schätzung des Verkehrszustands 20 zur Verfügung.The device 1 works cyclically, that is, it is continuously updated original position information 10 . 11 from the receiving device 2 received, in the fusion device 3 processed as described and continuously from the tracking device 4 based on the current merged position information 12 a current object state or a current traffic state 20 valued. In this way, a current estimate of traffic status is continuously updated 20 to disposal.

Insbesondere ist vorgesehen, dass die Vorrichtung 1 einen Verkehrszustand 20 mit einer Vielzahl von Objekten schätzt. Hierzu wird das Verfahren wie beschrieben für jedes der von den Sensoren 7,8 erfassten Objekte durchgeführt. Die Trackingeinrichtung 4 schätzt dann einen Multi-Objektzustand, der als aktueller Verkehrszustand 20 ausgegeben wird.In particular, it is provided that the device 1 a traffic condition 20 appreciates with a variety of objects. For this purpose, the method is carried out as described for each of the objects detected by the sensors 7, 8. The tracking device 4 then estimates a multi-object state, the current traffic state 20 is issued.

Ferner können auch weitere Sensoren vorgesehen sein, so dass insgesamt ein größerer Erfassungsbereich abgedeckt wird.Further, other sensors may be provided, so that a total of a larger detection range is covered.

In einer Ausführungsform ist vorgesehen, dass die Vorrichtung eine Spurverwaltungseinrichtung 9 umfasst. Die Spurverwaltungseinrichtung 9 ist dazu eingerichtet, für ein Objekt eine Objektspur in der Trackingeinrichtung 4 zu erzeugen, wenn ein Erzeugungskriterium erfüllt ist. Entsprechend löscht die Spurverwaltungseinrichtung 9 eine Objektspur für ein Objekt in der Trackingeinrichtung 4, wenn ein Löschungskriterium erfüllt ist. Das Erzeugungskriterium ist beispielsweise eine vorgegebene Mindestanzahl an Zyklen, in denen das mindestens eine Objekt erfasst werden muss. Wird das Verfahren beispielsweise acht Mal hintereinander durchgeführt, so kann als Mindestkriterium vorgesehen sein, dass das mindestens eine Objekt in diesen acht Zyklen mindestens sieben Mal detektiert werden muss, damit eine Objektspur erzeugt wird. Entsprechend kann als Löschungskriterium vorgesehen sein, dass eine Objektspur eines Objekts, für das eine Objektspur in der Trackingeinrichtung 4 vorhanden ist, gelöscht wird, wenn das Objekt bei acht oder mehr aufeinanderfolgenden Zyklen nicht mehr erfasst wird. Selbstverständlich können auch andere Erzeugungs- und Löschungskriterien vorgesehen sein. Insbesondere können die Erzeugungs- und Löschungskriterien auch von den Positionsinformationen bzw. den geschätzten Objektzuständen abhängig sein, beispielsweise von der Größe des Unsicherheitsbereichs einer geschätzten Objektposition etc.In one embodiment, it is provided that the device has a track management device 9 includes. The track management facility 9 is set up for an object, an object track in the tracking device 4 when a generating criterion is met. Accordingly, the track management facility deletes 9 an object track for an object in the tracking device 4 if a deletion criterion is met. The generation criterion is, for example, a predetermined minimum number of cycles in which the at least one object must be detected. If the method is carried out, for example, eight times in succession, it can be provided as the minimum criterion that the at least one object must be detected at least seven times in these eight cycles, so that an object track is generated. Accordingly, it can be provided as the deletion criterion that an object track of an object for which an object track in the tracking device 4 is extinguished if the object is no longer detected on eight or more consecutive cycles. Of course, other generation and cancellation criteria may be provided. In particular, the generation and deletion criteria may also be dependent on the position information or the estimated object states, for example on the size of the uncertainty region of an estimated object position, etc.

In 2 ist ein schematisches Ablaufdiagramm einer Ausführungsform des Verfahrens zum Schätzen eines maritimen Verkehrszustandes gezeigt. In einem Verfahrensschritt 100 erfasst ein Radarsensor zu einem Zeitpunkt k ein Radarbild im Verfahrensschritt 101. Dieses Radarbild wird anschließend im Verfahrensschritt 102 auf potentielle Objekte untersucht. Wird ein solches Objekt gefunden, wird eine originäre Positionsinformation 10 zu diesem Objekt an eine Fusionseinrichtung übergeben. Werden mehrere Objekte erfasst, wird entsprechend jeweils eine originäre Positionsinformation 10 für jedes der Objekte übergeben. Parallel dazu werden analoge Verfahrensschritte 103, 104, 105 mittels eines weiteren Radarsensors durchgeführt.In 2 FIG. 3 is a schematic flow diagram of one embodiment of the method for estimating a maritime traffic condition. In one process step 100 detects a radar sensor at a time k a radar image in the process step 101 , This radar image is then in the process step 102 examined for potential objects. If such an object is found, an original position information 10 passed to a fusion device for this object. If several objects are detected, each corresponding to an original position information 10 for each of the objects passed. Parallel to this are analogous process steps 103 . 104 . 105 carried out by means of another radar sensor.

Im Verfahrensschritt 106 werden die originäre Positionsinformationen 10, 11 miteinander fusioniert. Hierzu werden die originären Positionsinformationen 10, 11 des Objektes in einem Verfahrensschritt 107 einander zugeordnet, beispielsweise mittels der Global-Nearest-Neighbor-Regel. Derart einander zugeordnete originäre Positionsinformationen 21 werden dann im Verfahrensschritt 108 auf ihre Übereinstimmung hin überprüft. Hierzu wird ein Übereinstimmungstest durchgeführt. Beispielsweise wird der Bhattacharyya-Koeffizient der zweidimensionalen Normalverteilungen der Positionskoordinaten in den beiden originären Positionsinformationen 10, 11 bestimmt. Anschließend wird überprüft, ob der Bhattacharyya-Koeffizient einen bestimmten Schwellwert überschreitet oder nicht. Fällt der Test positiv aus, so werden die originären Positionsinformationen 10, 11 miteinander zu einer fusionierten Positionsinformation 12 fusioniert. Dies erfolgt beispielsweise, indem die zweidimensionalen Normalverteilungen miteinander kombiniert werden, indem die Mittelwerte und die Kovarianzmatrizen zusammengeführt werden.In the process step 106 become the original position information 10 . 11 fused together. For this, the original position information 10 . 11 of the object in a procedural step 107 associated with each other, for example by means of the Global Nearest Neighbor Rule. Such originally associated position information 21 are then in the process step 108 checked for consistency. For this a consistency test is carried out. For example, the Bhattacharyya coefficient of the two-dimensional normal distributions of the position coordinates in the two original position information becomes 10 . 11 certainly. It is then checked whether the Bhattacharyya coefficient exceeds a certain threshold or not. If the test is positive, then the original position information 10 . 11 together to a fused position information 12 merged. This is done, for example, by combining the two-dimensional normal distributions together by merging the mean values and the covariance matrices.

Die fusionierte Positionsinformation 12 wird anschließend im Verfahrensschritt 109 von einer Trackingeinrichtung dazu verwendet, einen Objektzustand des Objektes zu schätzen und diesen als geschätzten Verkehrszustand auszugeben. Die Trackingeinrichtung umfasst hierzu beispielsweise einen IMM-JPDA-Filter. In diesem Filter wird ein Objekt durch ein zweiteiliges Modell modelliert. Im Rahmen des einen Teilmodells wird angenommen, dass die Objekte eine konstante Geschwindigkeit aufweisen und sich auf einer geradlinigen Bahn bewegen (constant velocity, straight-path motion). Das andere Teilmodell berücksichtigt eine konstante Wendegeschwindigkeit (constant turn rate velocity, turn maneuver motion). Mittels dieses Modells lassen sich insbesondere die Bewegungen von Schiffen gut schätzen. Das Filter ordnet im Verfahrensschritt 110 eine aktuelle fusionierte Positionsinformation 12 einem bereits im Filter modellierten Objekt zu. Im Verfahrensschritt 111 werden die beiden Teilmodelle für jedes der Objekte zusammengeführt. Im Verfahrensschritt 112 wird dann der Objektzustand des Objektes und hierüber ein aktueller Verkehrszustand geschätzt. Dieser aktuelle Verkehrszustand wird anschließend ausgegeben (nicht gezeigt).The merged position information 12 is then in the process step 109 used by a tracking device to estimate an object state of the object and to output this as an estimated traffic condition. The tracking device includes, for example, an IMM-JPDA filter. In this filter, an object is modeled by a two-part model. Within the framework of the one submodel, it is assumed that the objects have a constant velocity and move on a straight path (constant velocity, straight-path motion). The other submodel considers a constant turn rate (constant turn rate velocity, turn maneuver motion). By means of this model in particular the movements of ships can be well estimated. The filter orders in the process step 110 a current merged position information 12 to an object already modeled in the filter. In the process step 111 The two submodels are merged for each of the objects. In the process step 112 then the object state of the object and a current traffic status is estimated. This current traffic condition is subsequently output (not shown).

Es kann vorgesehen sein, dass originäre Positionsinformationen 10, 11, die nicht anderen originären Positionsinformation 10, 11 zugeordnet wurden, ebenfalls als einander nicht zugeordnete Positionsinformationen 22 der Trackingeinrichtung zugeführt werden, so dass auch diese dem Filter zum Schätzen des Verkehrszustandes zur Verfügung stehen.It can be provided that original position information 10 . 11 not other original position information 10 . 11 have been assigned, also as position information not assigned to each other 22 be supplied to the tracking device, so that they are the filter for estimating the traffic condition available.

In einigen Ausführungsformen ist vorgesehen, dass in einer Spurverwaltungseinrichtung im Verfahrensschritt 113 eine Verwaltung von Objektspuren auf Grundlage der jeweils fusionierten Positionsinformationen 12 durchgeführt wird. Im Verfahrensschritt 114 wird für ein Objekt eine Objektspur in der Trackingeinrichtung erzeugt, wenn ein Erzeugungskriterium erfüllt ist, und eine Objektspur für ein Objekt in der Trackingeinrichtung gelöscht, wenn ein Löschungskriterium erfüllt ist. Das erzeugte Objekt wird dann ebenfalls von dem internen Zustand des Filters der Trackingeinrichtung abgebildet. Das Erzeugungskriterium ist beispielsweise eine vorgegebene Mindestanzahl an Zyklen, in denen das mindestens eine Objekt erfasst werden muss. Entsprechend kann als Löschungskriterium vorgesehen sein, dass eine Objektspur eines Objekts, für das eine Objektspur in der Trackingeinrichtung vorhanden ist, gelöscht wird, wenn das Objekt für eine vorgegebene Anzahl aufeinanderfolgenden Zyklen nicht mehr erfasst wird. Das zu löschende Objekt wird dann aus dem internen Zustand des Filters der Trackingeinrichtung gelöscht.In some embodiments, it is provided that in a track management device in the method step 113 an administration of object traces based on the respective merged position information 12 is carried out. In the process step 114 For example, for an object, an object track is generated in the tracking device when a creation criterion is met, and an object track for an object in the tracking device is deleted when an erase criterion is satisfied. The generated object is then also mapped by the internal state of the filter of the tracking device. The generation criterion is, for example, a predetermined minimum number of cycles in which the at least one object must be detected. Accordingly, it can be provided as a deletion criterion that an object track of an object for which an object track is present in the tracking device is deleted if the object is no longer detected for a predetermined number of consecutive cycles. The object to be deleted is then deleted from the internal state of the filter of the tracking device.

In 3 ist eine schematische Darstellung von zwei originären Positionsinformationen 10, 11 in einem kartesischen Globalkoordinatensystem 13 gezeigt. Die beiden originären Positionsinformationen wurden von zwei Radarsensoren (Sensoren 7, 8) bereitgestellt. Die Radarsensoren erfassen ein Objekt 30 in ihren jeweiligen Erfassungsbereichen 14, 15. Deutlich zu erkennen ist, dass die Radarechos mit einer Unsicherheit behaftet sind, welche von einem Messfehler der Radarsensoren herrührt. Dies äußert sich darin, dass das Objekt 30 jeweils als bananenförmige Keule erscheint. Die jeweils bereitgestellten originären Positionsinformationen dieser Radarsensoren umfassen beispielsweise jeweils die zu den bananenförmigen Keulen gehörenden zweidimensionalen Intensitätsverteilungen 23, 24.In 3 is a schematic representation of two original position information 10 . 11 in a Cartesian global coordinate system 13 shown. The two original position information was obtained from two radar sensors (sensors 7 . 8th ) provided. The radar sensors detect an object 30 in their respective coverage areas 14 . 15 , It can clearly be seen that the radar echoes are subject to an uncertainty, which results from a measurement error of the radar sensors. This manifests itself in that the object 30 each appears as a banana-shaped club. The respectively provided original position information of these radar sensors comprise, for example, in each case the two-dimensional intensity distributions belonging to the banana-shaped lobes 23 . 24 ,

In 4 ist eine schematische Darstellung der originären Positionsinformationen 10, 11 (Intensitätsverteilungen 23, 24) aus 3 und einer daraus fusionierten Positionsinformation dargestellt. Hierbei wird angenommen, dass die originären Positionsinformationen bereits einander zugeordnet worden sind und der Übereinstimmungstest positiv ausgefallen ist, so dass die beiden einander zugeordneten originären Positionsinformationen 10, 11 fusioniert werden sollen. Die bananenförmigen Keulen der zugehörigen Intensitätsverteilungen 23, 24 werden dann beispielsweise jeweils als zweidimensionale Normalverteilungen 16, 17 angenähert, um den mathematischen Aufwand beim Zusammenführen der beiden originären Positionsinformationen 10, 11 zu verringern. Die zwei zweidimensionalen Normalverteilungen 16, 17 werden dann zusammengeführt, indem die jeweiligen Mittelwerte und Kovarianzmatrizen zusammengeführt werden. Dies resultiert in einer fusionierten Positionsinformation 12, welche beispielhaft in der 4 als eine weitere zweidimensionale Normalverteilung dargestellt ist. Man erkennt deutlich, dass durch das Fusionieren der beiden originären Positionsinformationen 10, 11 eine sehr viel genauere Schätzung der Position des Objektes möglich ist, was sich in einer genaueren Schätzung für den Mittelwert und einer deutlich geringeren Kovarianz der Normalverteilung der fusionierten Positionsinformation 12 ausprägt. Die fusionierte Positionsinformation 12 wird anschließend der Trackingeinrichtung zugeführt.In 4 is a schematic representation of the original position information 10 . 11 (Intensity distributions 23 . 24 ) out 3 and a position information fused therefrom. In this case, it is assumed that the original position information has already been assigned to one another and the correspondence test has been positive, so that the two original position information associated with each other 10 . 11 to be merged. The banana-shaped lobes of the associated intensity distributions 23 . 24 are then each, for example, as two-dimensional normal distributions 16 . 17 Approximated to the mathematical effort in merging the two original position information 10 . 11 to reduce. The two two-dimensional normal distributions 16 . 17 are then merged by merging the respective averages and covariance matrices. This results in a merged position information 12 , which exemplifies in the 4 is represented as a further two-dimensional normal distribution. It can be seen clearly that by merging the two original position information 10 . 11 a much more accurate estimate of the position of the object is possible, resulting in a more accurate estimate for the mean and a significantly lower covariance of the normal distribution of the merged position information 12 expresses. The merged position information 12 is then fed to the tracking device.

Der Grad der Verbesserung der Schätzung ist prinzipiell abhängig von einem resultierenden Betrachtungswinkel zwischen den beiden Radarsystemen auf das entsprechende Objekt (Aspektwinkel). Eine zu den in den 3 und 4 gehörende Messreihe ist in den 5a, 5b und 5c abgebildet. 5a zeigt hierbei den Aspektwinkel zwischen den beiden Radarsensoren im Zeitverlauf der Messreihe. Zugehörig hierzu zeigt die 5b die Norm der Kovarianz der zusammengeführten Normalverteilungen (fusionierte Positionsinformationen) im Zeitverlauf. In 5c werden die Daten aus der 5a und der 5b dann zusammengeführt. Bei einem Aspektwinkel zwischen den Radarsensoren von 90° hat der Wert für die Norm der Kovarianz der zusammengeführten Normalverteilungen ein Minimum, sodass bei diesem Aspektwinkel eine Messunsicherheit der Radarmessungen minimiert ist. Bei einem Aspektwinkel von 90° zwischen den zwei Radarsensoren ist das Erfassen eines Objektes somit optimal.The degree of improvement of the estimation depends in principle on a resulting viewing angle between the two radar systems on the corresponding object (aspect angle). One to the in the 3 and 4 belonging measurement series is in the 5a . 5b and 5c displayed. 5a shows the aspect angle between the two radar sensors over the course of the measurement series. Related to this shows the 5b the norm of the covariance of the merged normal distributions (merged position information) over time. In 5c will the data from the 5a and the 5b then merged. With an aspect angle between the radar sensors of 90 °, the value for the norm of the covariance of the merged normal distributions has a minimum, so that with this aspect angle a measurement uncertainty of the radar measurements is minimized. With an aspect angle of 90 ° between the two radar sensors, the detection of an object is thus optimal.

6 zeigt ein Vergleich zwischen dem erfindungsgemäßen Verfahren zum Schätzen eines mehrere Objekte umfassenden Verkehrszustands (Multi-Objektzustand) und einem entsprechenden Verfahren, bei dem nicht die fusionierten Positionsinformationen, sondern nur die einzelnen originären Positionsinformationen der Trackingeinrichtung (als sequentielles Update) zugeführt werden. Als Metrik zum Vergleich wird die OSPA-Metrik mit c = 250 m und p = 2 verwendet. In dieser Metrik ist das Ergebnis umso besser, je geringer der resultierende Wert ist. In der 6 ist deutlich zu erkennen, dass das erfindungsgemäße Verfahren 18 („measurement-to-measurement“) besser abschneidet als das Vergleichsverfahren 19 („measurement-to-track“). 6 shows a comparison between the inventive method for estimating a multi-object traffic state (multi-object state) and a corresponding method in which not the fused position information, but only the individual original position information of the tracking device (as a sequential update) are supplied. As a metric for comparison, the OSPA metric with c = 250 m and p = 2 is used. In this metric, the lower the resulting value, the better the result. In the 6 can be clearly seen that the inventive method 18 ("Measurement-to-measurement") performs better than the comparison method 19 ( "Measurement-to-track").

In einer Ausführungsform des Verfahrens ist vorgesehen, dass die von dem Radarsensor bereitgestellte originäre Positionsinformation aus einem von dem Radarsensor bereitgestellten Videobild 40 abgeleitet wird. Die 7a, 7b und 7c erläutern eine in diesem Zusammenhang erfolgende Aufbereitung des Videobildes 40. Die 7a zeigt schematisch ein Videobild 40, wie es beispielsweise von einer Radarkonsole geliefert wird. Dieses Videobild 40 umfasst neben einer Darstellung der eigentlichen Messdaten des Radarsensors eine graphische Benutzeroberfläche 41, in der weitere Daten des Radarsensors bzw. einer Benutzeroberfläche angezeigt werden. Mittels einer Bildbearbeitung wird diese graphische Benutzeroberfläche 41 entfernt, so dass lediglich die daraus isolierten Messdaten übrigbleiben (7b). Die als graphisches Bild vorliegenden Messdaten können dann beispielsweise mittels Bildbearbeitungswerkzeugen bearbeitet werden und es können Mustererkennungsverfahren zum Identifizieren von Objekten verwendet werden. Die zu einem mittels Mustererkennungsverfahren erkannten Objekt 30 gehörende Position wird dann zusammen mit einer Position des Radarsensors als originäre Positionsinformation an die erfindungsgemäße Vorrichtung übermittelt bzw. im Rahmen des Verfahrens der Fusionseinrichtung zugeführt. Die Position kann beispielsweise über die entsprechende Position des identifizierten Objektes 30 in dem Bild und der bekannten Position 31 des Radarsensors in der ursprünglichen Bildmitte berechnet werden. Der Vorteil der Verwendung von Videobildern 40 ist, dass eine Vielzahl von Radarsensoren verwendet werden kann, da auf dem Markt erhältliche Radarkonsolen in der Regel alle ein solches Videobild 40 bereitstellen.In one embodiment of the method, it is provided that the original position information provided by the radar sensor can be obtained from a video image provided by the radar sensor 40 is derived. The 7a . 7b and 7c explain a preparation of the video image in this context 40 , The 7a schematically shows a video image 40 as supplied by a radar console, for example. This video image 40 In addition to a representation of the actual measurement data of the radar sensor includes a graphical user interface 41 , in which further data of the radar sensor or a user interface are displayed. By means of an image processing this graphical user interface becomes 41 removed so that only the measurement data isolated from it remains ( 7b) , The measurement data present as a graphic image can then be processed, for example, by means of image processing tools, and pattern recognition methods can be used to identify objects. The object detected by a pattern recognition method 30 associated position is then transmitted together with a position of the radar sensor as original position information to the device according to the invention or supplied to the fusion device in the context of the method. The position may be, for example, via the corresponding position of the identified object 30 in the picture and the known position 31 of the radar sensor in the original center of the image. The advantage of using video images 40 is that a variety of radar sensors can be used, since available on the market radar consoles usually all such a video image 40 provide.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Vorrichtungdevice
22
Empfangseinrichtungreceiver
33
Fusionseinrichtungfusion device
44
Trackingeinrichtungtracking device
55
Schnittstelleinterface
66
Schnittstelleinterface
77
Sensorsensor
88th
weiterer Sensoranother sensor
99
SpurverwaltungseinrichtungTrack manager
1010
originäre Positionsinformationoriginal position information
1111
originäre Positionsinformationoriginal position information
1212
fusionierte Positionsinformationfused position information
1313
GlobalkoordinatensystemGlobal coordinate system
1414
Erfassungsbereichdetection range
1515
Erfassungsbereichdetection range
1616
zweidimensionale Normalverteilungtwo-dimensional normal distribution
1717
zweidimensionale Normalverteilungtwo-dimensional normal distribution
1818
erfindungsgemäßes Verfahreninventive method
1919
Vergleichsverfahrencomparison method
2020
Verkehrszustandtraffic condition
2121
zugeordnete originäre Positionsinformationenassigned original position information
2222
nicht zugeordnete originäre Positionsinformationenunassigned original position information
2323
Intensitätsverteilungintensity distribution
2424
Intensitätsverteilungintensity distribution
3030
Objektobject
3131
Position des RadarsensorsPosition of the radar sensor
4040
Videobildvideo image
4141
graphische Benutzeroberflächegraphical user interface
100-115100-115
Verfahrensschrittesteps

Claims (10)

Verfahren zum Schätzen eines maritimen Verkehrszustandes (20), umfassend die folgenden Schritte: Erfassen mindestens eines Objektes (30) mittels eines Sensors (7), Erfassen des mindestens einen Objektes (30) mittels mindestens eines weiteren Sensors (8), wobei sich die Sensoren (7, 8) an unterschiedlichen Orten befinden, und wobei der Sensor (7) und der mindestens eine weitere Sensor (8) jeweils eine originäre Positionsinformation (10, 11) des mindestens einen Objektes (30) als Sensordaten bereitstellen, Übermitteln der Sensordaten an mindestens eine Fusionseinrichtung (3), Zuordnen der von den Sensoren bereitgestellten originären Positionsinformationen (10, 11) des mindestens einen Objektes (30) zueinander, Durchführen eines Übereinstimmungstests an den einander zugeordneten Positionsinformationen, Fusionieren der einander zugeordneten Positionsinformationen zu einer fusionierten Positionsinformation (12), sofern der Übereinstimmungstest positiv ausfällt, Schätzen eines Objektzustandes des mindestens einen Objektes (30) mittels einer Trackingeinrichtung (4) auf Grundlage der fusionierten Positionsinformation (12), Ausgeben des geschätzten Objektzustandes des mindestens einen Objektes (30) als geschätzten Verkehrszustand (20).Method for estimating a maritime traffic condition (20), comprising the following steps: Detecting at least one object (30) by means of a sensor (7), Detecting the at least one object (30) by means of at least one further sensor (8), wherein the sensors (7, 8) are located at different locations, and wherein the sensor (7) and the at least one further sensor (8) each provide an original position information (10, 11) of the at least one object (30) as sensor data, Transmitting the sensor data to at least one fusion device (3), Assigning the original position information (10, 11) of the at least one object (30) provided by the sensors to one another, Performing a match test on the associated position information, Fusing the associated position information to a merged position information (12), if the correspondence test is positive, Estimating an object state of the at least one object (30) by means of a tracking device (4) on the basis of the merged position information (12), Outputting the estimated object state of the at least one object (30) as estimated traffic state (20). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Schätzen des Objektzustandes mittels eines Prädiktor-Korrektor-Filters der Trackingeinrichtung (4) durchgeführt wird.Method according to Claim 1 , characterized in that the estimation of the object state by means of a predictor-corrector filter of the tracking device (4) is performed. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Prädiktor-Korrektor-Filter ein IMM-JPDA-Filter ist.Method according to Claim 2 , characterized in that the predictor-corrector filter is an IMM-JPDA filter. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass für ein Objekt (30) eine Objektspur in der Trackingeinrichtung (4) erzeugt wird, wenn ein Erzeugungskriterium erfüllt ist, und wobei eine Objektspur für ein Objekt (30) in der Trackingeinrichtung (4) gelöscht wird, wenn ein Löschungskriterium erfüllt ist.Method according to one of the preceding claims, characterized in that for an object (30) an object track in the tracking device (4) is generated when a creation criterion is met, and wherein an object track for an object (30) in the tracking device (4). is deleted if a deletion criterion is met. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass vor dem Übermitteln der originären Positionsinformationen (10, 11) an die Fusionseinrichtung (3) eine Transformation der originären Positionsinformationen (10, 11) in ein einheitliches Referenzsystem erfolgt.Method according to one of the preceding claims, characterized in that before the transmission of the original position information (10, 11) to the fusion device (3) a Transformation of the original position information (10, 11) takes place in a single reference system. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Rahmen des Übereinstimmungstests der Bhattacharyya-Koeffizient bestimmt wird und anschließend als Testkriterium überprüft wird, ob der Bhattacharyya-Koeffizient oberhalb eines vorbestimmten Schwellwertes liegt.Method according to one of the preceding claims, characterized in that the Bhattacharyya coefficient is determined as part of the correspondence test and it is then checked as a test criterion whether the Bhattacharyya coefficient is above a predetermined threshold value. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass mindestens einer der Sensoren (7, 8) ein Radarsensor ist.Method according to one of the preceding claims, characterized in that at least one of the sensors (7, 8) is a radar sensor. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die von dem Radarsensor bereitgestellte originäre Positionsinformation (10, 11) aus einem von dem Radarsensor bereitgestellten Videobild (40) abgeleitet wird.Method according to Claim 7 , characterized in that the original position information (10, 11) provided by the radar sensor is derived from a video image (40) provided by the radar sensor. Verfahren nach einem der vorangegangen Ansprüche, dadurch gekennzeichnet, dass beim Schätzen des Objektzustandes des mindestens einen Objektes (30) zusätzlich eine Positionsinformation eines Automatic Identification Systems berücksichtigt wird.Method according to one of the preceding claims, characterized in that when estimating the object state of the at least one object (30) additionally a position information of an automatic identification system is taken into account. Vorrichtung (1) zum Schätzen eines maritimen Verkehrszustandes (20), umfassend: eine Empfangseinrichtung (2), eine Fusionseinrichtung (3), und eine Trackingeinrichtung (4), wobei die Empfangseinrichtung (2) dazu eingerichtet ist, originäre Positionsinformationen (10, 11) mindestens eines Objektes (30) als Sensordaten von einem Sensor (7) und originäre Positionsinformationen (10, 11) des mindestens einen Objektes (30) als Sensordaten von mindestens einem weiteren Sensor (8) zu empfangen, wobei sich der Sensor (7) und der mindestens eine weitere Sensor (8) an unterschiedlichen Orten befinden, und wobei die Fusionseinrichtung (3) dazu eingerichtet ist, die empfangenen originären Positionsinformationen (10, 11) des mindestens einen Objektes (30) einander zuzuordnen, einen Übereinstimmungstest an den einander zugeordneten Positionsinformationen durchzuführen, und sofern der Übereinstimmungstest positiv ausfällt, die einander zugeordneten Positionsinformationen zu einer fusionierten Positionsinformation (12) zu fusionieren, und wobei die Trackingeinrichtung (4) dazu eingerichtet ist, einen Objektzustand des mindestens einen Objektes (30) auf Grundlage der fusionierten Positionsinformation (12) zu schätzen und den geschätzten Objektzustand des mindestens einen Objektes (30) als geschätzten Verkehrszustand (20) auszugeben.Apparatus (1) for estimating a maritime traffic condition (20), comprising: a receiving device (2), a fusion device (3), and a tracking device (4), wherein the receiving device (2) is adapted to original position information (10, 11) of at least one object (30) as sensor data from a sensor (7) and original position information (10, 11) of the at least one object (30) as sensor data of at least a further sensor (8) to receive, wherein the sensor (7) and the at least one further sensor (8) are located at different locations, and wherein the fusion device (3) is set up to associate the received original position information (10, 11) of the at least one object (30) with each other, to carry out a matching test on the position information assigned to one another, and, if the coincidence test is positive, to assign the position information associated therewith fused position information (12), and wherein the tracking device (4) is adapted to estimate an object state of the at least one object (30) based on the fused position information (12) and the estimated object state of the at least one object (30) as the estimated traffic condition (20).
DE102017220506.7A 2017-11-16 2017-11-16 Method and device for estimating a maritime traffic condition Pending DE102017220506A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017220506.7A DE102017220506A1 (en) 2017-11-16 2017-11-16 Method and device for estimating a maritime traffic condition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017220506.7A DE102017220506A1 (en) 2017-11-16 2017-11-16 Method and device for estimating a maritime traffic condition

Publications (1)

Publication Number Publication Date
DE102017220506A1 true DE102017220506A1 (en) 2019-05-16

Family

ID=66335243

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017220506.7A Pending DE102017220506A1 (en) 2017-11-16 2017-11-16 Method and device for estimating a maritime traffic condition

Country Status (1)

Country Link
DE (1) DE102017220506A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022058399A1 (en) * 2020-09-17 2022-03-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Clustering detections

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7817079B1 (en) * 2008-04-17 2010-10-19 The United States Of America As Represented By The Secretary Of The Navy System and method for collection of global AIS and radar track information
WO2012017470A1 (en) * 2010-08-03 2012-02-09 Selex Sistemi Integrati S.P.A. Anti-piracy system for the maritime navigation in critical areas, and device for data extraction from on board sensors

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7817079B1 (en) * 2008-04-17 2010-10-19 The United States Of America As Represented By The Secretary Of The Navy System and method for collection of global AIS and radar track information
WO2012017470A1 (en) * 2010-08-03 2012-02-09 Selex Sistemi Integrati S.P.A. Anti-piracy system for the maritime navigation in critical areas, and device for data extraction from on board sensors

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022058399A1 (en) * 2020-09-17 2022-03-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Clustering detections

Similar Documents

Publication Publication Date Title
DE102013014106B4 (en) Vehicle identification device based on V2V communication and identification method therefor
DE102011117585B4 (en) Systems and methods for tracking objects
DE102017102506B4 (en) METHOD FOR DETECTING OTHER VEHICLES RELATIVE TO A CARRIER VEHICLE USING WHEEL DETECTION
DE102013104443A1 (en) Traffic monitoring system for speed measurement and assignment of moving vehicles in a multi-target recording module
EP2676240A1 (en) Method for detecting target objects in a surveillance region
DE102004032118B4 (en) Object recognition method for vehicles
DE102017217972A1 (en) Method and device for generating an inverse sensor model and method for detecting obstacles
EP3380810A1 (en) Method, device, map management apparatus, and system for precision-locating a motor vehicle in an environment
EP2381207B1 (en) 3D targeting and target designation from IR data
DE102019215903A1 (en) Method and device for generating training data for a recognition model for recognizing objects in sensor data of a sensor, in particular of a vehicle, method for training and method for actuation
DE102015003666A1 (en) Method for processing acquired measured data of a sensor
WO2017182041A1 (en) Apparatus and method for ascertaining object kinematics of a movable object
DE102009013768A1 (en) Method and device for determining aspect angles
DE102017220506A1 (en) Method and device for estimating a maritime traffic condition
DE102007037178A1 (en) Method for quantifying environmental sensor of vehicle to recognize object, involves allocating radio positioning system, where measuring field is defined by three transmitting or receiving computer units
WO2013091626A1 (en) Method for calibrating a traffic monitoring camera with respect to a position sensor
EP3663881A1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
DE102021204372A1 (en) Orientation-based position determination of rail vehicles
DE102022103324A1 (en) System and method for detecting inconsistencies in automated vehicle perception systems.
WO2017089136A1 (en) Method, device, map management apparatus, and system for precision-locating a motor vehicle in an environment
DE102011018278B4 (en) Method and device for determining target parameters
DE102019101127A1 (en) Process for processing data obtained by ultrasound
DE19818426C2 (en) Remote reconnaissance and targeting procedures
DE102019212021B4 (en) Method and device for detecting a parallax problem in sensor data from two sensors
EP2251849B1 (en) Method for improved recognition of conduit-type objects

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication