-
Die Erfindung betrifft eine Kontrolleinrichtung für eine Ein- und Ausfahrt insbesondere für Kfz-Parkanlagen. Sie geht aus von der
EP 2 916 142 A1 .
-
In der
EP 2 916 142 A1 ist eine 3D-Kamera beschrieben, die an Ein- und Ausfahrten von Parkhäusern zur Erkennung von Fahrzeugen und deren Abmessungen einsetzbar ist. Bei normalen Sichtverhältnissen funktioniert die bekannte Einrichtung zuverlässig, nicht jedoch bei gestörter Sicht, beispielsweise durch Nebel, Staub oder Rauch.
-
Aufgabe der Erfindung ist es daher, eine Ein- und Ausfahrtkontrolleinrichtung vorzuschlagen, die auch bei gestörter Sicht einwandfrei funktioniert.
-
Die Aufgabe wird durch die Merkmale des Anspruchs 1 gelöst.
-
Die erfindungsgemäße Kontrolleinrichtung für eine Ein- und Ausfahrt zur Zählung und Erkennung von Fahrzeugen und deren Abmessungen mit einer optischen 3D-Kamera ist dadurch gekennzeichnet, dass wenigstens eine zweite Fahrzeugerfassungseinrichtung vorgesehen ist, die nach einem anderen als optischen Erfassungsprinzip arbeitet und bei im Wesentlichen übereinstimmenden Erfassungsergebnissen der 3D-Kamera und der zweiten Fahrzeugerfassungseinrichtung eine Weiterverarbeitung der erkannten Daten freigegeben wird.
-
Mit einer optischen 3D-Kamera, z.B. einer ToF-Kamera, lassen sich zuverlässig Fahrzeuge und deren Bewegungsrichtung erfassen. Damit ist es leicht möglich, die Zufahrt zu und die Ausfahrt aus KFZ-Parkanlagen zu überwachen und aus diesen Daten deren Belegungszustand zu errechnen. Bei normalen Sichtverhältnissen funktioniert die bekannte Einrichtung zuverlässig, nicht jedoch bei gestörter Sicht, beispielsweise durch Nebel, Staub oder Rauch.
-
Die Erfindung geht von der Überlegung aus, dass sich die Zuverlässigkeit beträchtlich steigern lässt, wenn ein zweiter Sensor eingesetzt wird, dessen Messstrahl die genannten Störungen zu durchdringen vermag. Dies ist insbesondere bei einem Radarsensor der Fall. Von besonderem Vorteil ist, dass das Erfassungsergebnis besonders zuverlässig ist, wenn darauf abgestellt wird, dass das Erfassungsergebnis beider Systeme im Wesentlichen überein stimmt.
-
Erfindungsgemäß sind die 3D-Kamera und der Radarsensor in einer Baugruppe zusammengefasst, wobei deren Messstrahlen auf denselben Durchfahrtbereich ausgerichtet sind.
-
Ein Problem besteht jedoch darin, dass die von der 3D-Kamera erfassten Informationen mit denen der zweiten Fahrzeugerfassungseinrichtung inkompatibel sind, also nicht logisch zusammengeführt werden können. Dieses Problem wird erfindungsgemäß dadurch gelöst, dass aus den von der 3D-Kamera erfassten Informationen und aus den durch die zweite Fahrzeugerfassungseinrichtung erfassten Informationen Metadaten gebildet werden und diese mit einem Zeitstempel versehen werden. Die Metadaten umfassen erfindungsgemäß wenigsten Angaben über die Größe und die Bewegungsrichtung des Gegenstandes, aber auch charakteristische Formenmerkmale, wie z.B. die Anordnung oder den Abstand der Räder.
-
Die Metadaten der 3D-Kamera und der zweiten Fahrzeugerfassungseinrichtung, welche einen identischen oder nahezu identischen Zeitstempel tragen, werden mit einander verglichen. Bei deren wesentlicher Übereinstimmung werden die Metadaten zur Weiterverarbeitung freigegeben. Bei Nichtübereinstimmung wird ein Fehlersignal erzeugt.
-
Zur Weiterverarbeitung der Metadaten gehört auch eine Plausibilitätsprüfung, u. A. die Überprüfung auf Minimal- und Maximalabmessungen. Bei fehlender Plausibilität wird ebenfalls ein Fehlersignal erzeugt.
-
Die Verarbeitung der Metadaten erfolgt mit einer Software, die es erlaubt, auch toleranzbehaftete Daten zusammenzuführen.
-
Weitere Merkmale und Vorteile der Erfindung ergeben sich aus der folgenden Beschreibung, welche in Verbindung mit den beigefügten Zeichnungen die Erfindung an Hand eines Ausführungsbeispiels erläutert. Es zeigt
- 1 einen Querschnitt durch einen Durchfahrtbereich eines Parkhauses mit zwei Fahrspuren,
- 2 ein Blockschaltbild der Kontrolleinrichtung,
- 3 ein Ablaufdiagramm des Prozesses in 2,
- 4 ein Ablaufdiagramm eines Kanals einer Weiterverarbeitungseinheit,
- 5 ein Signalflussdiagramm der Sensordatenfusion.
-
1 zeigt einen Querschnitt durch einen Durchfahrtbereich 10 eines Parkhauses mit zwei Fahrspuren 12L, 12R. Seitlich oberhalb jeder Fahrspur 12 ist jeweils eine 3D-Sensoreinheit 14L, 14R angeordnet. Die 3D-Kamera 16L und der Radarsensor 18L sind in einer Baugruppe zusammengefasst, wobei deren Messstrahlen 15L auf denselben Durchfahrtbereich ausgerichtet sind. Gleiches gilt für die 3D-Kamera 16R und den Radarsensor 18R.
-
2 zeigt ein Blockschaltbild der erfindungsgemäßen Kontrolleinrichtung. Die 3D-Sensoreinheiten 14 fassen jeweils die Daten einer 3D-Time-of-Flight-Kamera 16L, 16R und eines Radarsensors 18L, 18R zusammen. Auf diese Weise kann jede 3D-Sensoreinheit 14 neben einer Serie von 3D-Abstandsbildern eines erfassten Bereichs z.B. einer Einfahrt, Ausfahrt oder des Durchfahrtbereichs 10 in einem KFZ-Parkhaus auch das Spektrum jedes Radarsensors 18 zur direkten Bestimmung von Geschwindigkeit und Fahrtrichtung eines Fahrzeugs 20L, 20R bereitstellen.
-
Da die 3D-Kameras 16 und die Radarsensoren 18 nach physikalisch völlig unterschiedlichen Sensorprinzipien arbeiten, besteht der Vorteil, dass bei Störung eines Sensors, z.B. der 3D-Kamera 16L durch optische Störungen wie starkem Staub, Nebel oder Rauch die Daten des Radarsensors 18L unabhängig davon weiter korrekt geliefert werden. Durch eine intelligente Fusion und Analyse der Daten in einer Weiterverarbeitungseinheit 22 kann die Sensoreinheit 14L eine Störung zuverlässig erkannt werden und eine geeignete Störungsbehandlung auslösen.
-
Die Weiterverarbeitungseinheit 22 führt, wie in 4 dargestellt, mittels Neuronalem Netz 40 eine Detektion der von der Sensoreinheit 14 erfassten Fahrzeuge durch. Erkannte relevante Objekte werden hier einem Objekt-Tracking 44 zugeführt und bei Verlassen des Erfassungsbereichs der Sensoren, nach abschließender Plausibilisierung 56 und Bestimmung der Fahrtrichtung 54, entsprechend als zu- oder abfahrend gezählt.
-
Um die Erfassungsgenauigkeit zu erhöhen, kommen, wie oben bereits erwähnt, in breiteren Durchfahrtbereichen zwei 3D-Sensoreinheiten 14L, 14R zum Einsatz, die an beiden Seiten des Durchfahrtbereichs jeweils gegenüberliegend montiert sind. Die Weiterverarbeitungseinheit 22 fusioniert die beobachteten Objekte (Fahrzeuge 20L, 20R) beider 3D-Sensoreinheiten 14L, 14R und entscheidet, ob es sich bei den gemeldeten Objekten um dasselbe Objekt oder zwei evtl. in einem Kamerabild verdeckte Objekte handelt und zählt auf diese Weise auch bei komplexeren Verkehrssituationen korrekt.
-
3 zeigt ein Ablaufdiagramm der vorbeschriebenen Anordnung. In jeder 3D-Sensoreinheit 14L, 14R werden beim Empfang der verschiedenen Sensordaten Zeitstempel 28 vergeben, damit in dem folgenden Sammelmodul 30 die korrekte zeitliche Zuordnung der Daten erfolgen kann. In einem Radar-Verarbeitungsmodul 32 wird das Spektrum des Radar-Signals mit Hilfe einer Fast-Fourier-Analyse berechnet, während das 3D-Signalverarbeitungsmodul 34 das Abstandsbild in Polarkoordinaten berechnet. Anschließend werden die 3D-Bilddaten und das berechnete Radarspektrum in dem Sammelmodul 30 zusammengefasst, einem Netzwerkprotokoll 36 entsprechend formatiert und über eine Ethernet-Schnittstelle 26 an die Weiterverarbeitungseinheit 22 übertragen.
-
4 zeigt ein Ablaufdiagramm der Weiterverarbeitungseinheit 22. In dieser werden die über das Ethernet empfangenen Daten ausgewertet. Dabei wird das 3D-Abstandsbild zunächst auf die passende Eingangsdimension der Input-Schicht eines neuronalen Netzwerks 40 scaliert. Im neuronalen Netzwerk 40 wird mit Hilfe einer Objekterkennung 42 in jedem 3D-Bild wenigstens ein relevantes Objekt gesucht und mit Angabe von Position und Erkennungswahrscheinlichkeit in der Ausgabeschicht des neuronalen Netzwerks 40 ausgegeben.
-
Die Daten der Ausgabeschicht werden dann in einem Objekt-Tracking-Modul 44 analysiert. Hier wird in einer Objekt-Assoziation 48 zunächst geprüft, ob es relevante Objekte im aktuellen 3D-Bild gibt und wenn dies der Fall ist, ob diese mit zuvor erkannten Objekten assoziiert werden können. Mit einer Objekt-Verfolgung 50 werden alle erkannten Objekte und deren Positionen über die Zeit verfolgt. Die Informationen zu einem gefundenen relevanten Objekt werden dann in einer Tracking-Liste 46 abgespeichert. Erkennt das neuronale Netzwerk 40 im folgenden 3D-Bild wieder ein Objekt, so prüft die Objekt-Assoziation 48 des Tracking-Moduls 44, ob es sich um das bereits detektierte Objekt handelt und speichert in diesem Fall die aktuellen Parameter (Position und Dimension) im selben Eintrag der Tracking-Liste 46 ab. Handelt es sich nicht um dasselbe Objekt, wird ein neuer Eintrag erzeugt. Auf diese Weise „verfolgt“ der Tracking-Algorithmus die einzelnen erfassten Objekte über die Zeit in den 3D-Bildern. Verlässt eines der erfassten Objekte das 3D-Bild, so wird der Eintrag aus der Tracking-Liste 46 mit allen gesammelten Informationen (erste Position, Bewegungsrichtung, letzte Position, maximale Dimension, etc.) an die nächste Stufe, das Post-Processing 52 ausgegeben. Im Post-Processing-Modul 52 wird nun die Bewegungsrichtung 54 der verfolgten Objekte bestimmt. Auf Basis dieser Bewegungsrichtung 54 und der in der Tracking-Liste 46 gesammelten Parameter, wie erste und letzte Position des Objektes und maximale Dimension wird das Objekt in einem Plausibilisierungsmodul 56 plausibilisiert. Zu kleine Objekte oder Objekte, die keine plausible oder für eine Zählung relevante Bewegungsrichtung aufweisen, werden verworfen. Die plausiblen Objekte werden dann der Sensordatenfusion zugeführt.
-
Die Sensor-Datenfusion 60 (5) erhält nun die erkannten plausiblen Objekte aus den vorgelagerten 3D-Kameradatenauswertungen der einzelnen Kanäle und die zugehörigen Radarspektren dieser Kanäle. Mit Hilfe der eingeprägten Zeitstempel erfolgt die korrekte zeitliche Zuordnung der verschiedenen Signale. Aus den Radar-Spektren wird die Geschwindigkeit und die Bewegungsrichtung der Objekte bestimmt und mit der Bewegungsrichtung der Objektdaten aus der 3D-Kameradatenverarbeitung verglichen. Sind sowohl die zeitliche Zuordnung als auch die ermittelten Bewegungsrichtungen aus Radar und 3D-Bildauswertung plausibel, wird eine Datenfusion durchgeführt. Je nach Bewegungsrichtung werden die Objekte als zu- oder wegfahrende Fahrzeuge gezählt.
-
Treten häufiger Fälle auf, dass keine Fusion der verschiedenen Sensordaten möglich ist, weil beispielsweise nur Phantomdaten, verursacht durch eine vorbei ziehende Staubwolke, aus der 3D-Kameradatenauswertung vorliegen, während die Radardatenauswertung keine Objekte liefert, so wird dies in der Störungsüberwachung 80 (5) erkannt und eine entsprechende Störungsmeldung 58 via Ethernet an z.B. einen nicht dargestellten bilanzierenden Stellplatz-Zählserver ausgegeben. Auf diese Weise können Störungen, deren Ursache beispielsweise nur optischer Natur ist, sicher erkannt werden.
-
5 zeigt das Signalflussdiagramm der Sensordatenfusion. Die Daten 62, 64 der erkannten plausiblen Objekte aus den vorgelagerten 3D-Kameradatenauswertungen der einzelnen Kanäle und die zugehörigen Radarspektren 66, 68 dieser Kanäle werden einem Sensordaten-Fusionsmodul 60 übergeben. Mit Hilfe der eingeprägten Zeitstempel erfolgt die korrekte zeitliche Zuordnung der verschiedenen Signale zur zeitlichen Assoziation (Schritt 70). Aus den Radar-Spektren werden die Geschwindigkeit (Schritt 72) und die Bewegungsrichtung der Objekte bestimmt und mit der Bewegungsrichtung der Objektdaten aus der 3D-Kameradatenverarbeitung verglichen. Sind sowohl die zeitliche Zuordnung als auch die ermittelten Bewegungsrichtungen aus Radar und 3D-Bildauswertung plausibel (Schritt 74), wird eine Datenfusion durchgeführt.
-
Je nach Bewegungsrichtung werden die Objekte als zufahrende Fahrzeuge (Schritt 76) oder als wegfahrende Fahrzeuge (Schritt 78) gezählt.
-
Tritt häufiger der Fall auf, dass keine Fusion der verschiedenen Sensordaten möglich ist, weil beispielsweise nur Daten aus der 3D-Kameradatenauswertung vorliegen, während die Radardatenauswertung keine Objekte liefert, so wird dies in der Störungsüberwachung 80 erkannt und eine entsprechende Störungsmeldung 58 an einen nicht dargestellten übergeordneten Sever der Parkhausverwaltung ausgegeben. Auf diese Weise können Störungen, deren Ursache beispielsweise nur optischer Natur ist, sicher erkannt werden.
-
Bezugszeichenliste
-
- 10
- Durchfahrtbereich
- 12
- Fahrspur
- 14
- 3D-Sensoreinheit
- 15
- Messstrahl
- 16
- 3D-Kamera
- 18
- Radarsensor
- 20
- Fahrzeug
- 22
- Weiterverarbeitungseinheit
- 24
- Prozessor
- 26
- Ethernet-Schnittstelle
- 28
- Zeitstempel
- 30
- Sammelmodul
- 32
- Radar-Verarbeitungsmodul
- 34
- 3D-Verarbeitungsmodul
- 36
- Netzwerkprotokoll
- 38
- Scalierung
- 40
- Neuronales Netzwerk
- 42
- Objekterkennung
- 44
- Trackingmodul
- 46
- Tracking-Liste
- 48
- Objekt-Assoziation
- 50
- Objekt-Verfolgung
- 52
- Postprocessing
- 54
- Bewegungsrichtungs-Bestimmung
- 56
- Plausibilisierungs-Modul
- 58
- Störungsmeldung
- 60
- Sensordaten-Fusionsmodul
- 62
- Objektdaten Kanal 1
- 64
- Objektdaten Kanal 2
- 66
- Radarspektren Kanal 1
- 68
- Radarspektren 2
- 70
- Zeitliche Assoziation
- 72
- Geschwindigkeitsbestimmung
- 74
- Plausibilisierung
- 76
- Zufahrende Fahrzeuge
- 78
- wegfahrende Fahrzeuge
- 80
- Störungsüberwachung
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- EP 2916142 A1 [0001, 0002]