DE102018007323A1 - Kontrolleinrichtung für eine Ein- und Ausfahrt - Google Patents

Kontrolleinrichtung für eine Ein- und Ausfahrt Download PDF

Info

Publication number
DE102018007323A1
DE102018007323A1 DE102018007323.9A DE102018007323A DE102018007323A1 DE 102018007323 A1 DE102018007323 A1 DE 102018007323A1 DE 102018007323 A DE102018007323 A DE 102018007323A DE 102018007323 A1 DE102018007323 A1 DE 102018007323A1
Authority
DE
Germany
Prior art keywords
camera
detection device
data
vehicle detection
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018007323.9A
Other languages
English (en)
Inventor
Thomas Eisenbach
Andreas Hegemann
Tobias Greinert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RTB GmbH and Co KG
Original Assignee
RTB GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RTB GmbH and Co KG filed Critical RTB GmbH and Co KG
Priority to DE102018007323.9A priority Critical patent/DE102018007323A1/de
Publication of DE102018007323A1 publication Critical patent/DE102018007323A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Eine Kontrolleinrichtung für einen Durchfahrtbereich zur Zählung und Erkennung von Fahrzeugen und deren Abmessungen mit einer optischen 3D-Kamera ist dadurch gekennzeichnet, dass wenigstens eine zweite Fahrzeugerfassungseinrichtung vorgesehen ist, die nach einem anderen als optischen Erfassungsprinzip arbeitet und bei im Wesentlichen übereinstimmenden Erfassungsergebnissen der 3D-Kamera und der zweiten Fahrzeugerfassungseinrichtung eine Weiterverarbeitung der erkannten Daten freigegeben wird.

Description

  • Die Erfindung betrifft eine Kontrolleinrichtung für eine Ein- und Ausfahrt insbesondere für Kfz-Parkanlagen. Sie geht aus von der EP 2 916 142 A1 .
  • In der EP 2 916 142 A1 ist eine 3D-Kamera beschrieben, die an Ein- und Ausfahrten von Parkhäusern zur Erkennung von Fahrzeugen und deren Abmessungen einsetzbar ist. Bei normalen Sichtverhältnissen funktioniert die bekannte Einrichtung zuverlässig, nicht jedoch bei gestörter Sicht, beispielsweise durch Nebel, Staub oder Rauch.
  • Aufgabe der Erfindung ist es daher, eine Ein- und Ausfahrtkontrolleinrichtung vorzuschlagen, die auch bei gestörter Sicht einwandfrei funktioniert.
  • Die Aufgabe wird durch die Merkmale des Anspruchs 1 gelöst.
  • Die erfindungsgemäße Kontrolleinrichtung für eine Ein- und Ausfahrt zur Zählung und Erkennung von Fahrzeugen und deren Abmessungen mit einer optischen 3D-Kamera ist dadurch gekennzeichnet, dass wenigstens eine zweite Fahrzeugerfassungseinrichtung vorgesehen ist, die nach einem anderen als optischen Erfassungsprinzip arbeitet und bei im Wesentlichen übereinstimmenden Erfassungsergebnissen der 3D-Kamera und der zweiten Fahrzeugerfassungseinrichtung eine Weiterverarbeitung der erkannten Daten freigegeben wird.
  • Mit einer optischen 3D-Kamera, z.B. einer ToF-Kamera, lassen sich zuverlässig Fahrzeuge und deren Bewegungsrichtung erfassen. Damit ist es leicht möglich, die Zufahrt zu und die Ausfahrt aus KFZ-Parkanlagen zu überwachen und aus diesen Daten deren Belegungszustand zu errechnen. Bei normalen Sichtverhältnissen funktioniert die bekannte Einrichtung zuverlässig, nicht jedoch bei gestörter Sicht, beispielsweise durch Nebel, Staub oder Rauch.
  • Die Erfindung geht von der Überlegung aus, dass sich die Zuverlässigkeit beträchtlich steigern lässt, wenn ein zweiter Sensor eingesetzt wird, dessen Messstrahl die genannten Störungen zu durchdringen vermag. Dies ist insbesondere bei einem Radarsensor der Fall. Von besonderem Vorteil ist, dass das Erfassungsergebnis besonders zuverlässig ist, wenn darauf abgestellt wird, dass das Erfassungsergebnis beider Systeme im Wesentlichen überein stimmt.
  • Erfindungsgemäß sind die 3D-Kamera und der Radarsensor in einer Baugruppe zusammengefasst, wobei deren Messstrahlen auf denselben Durchfahrtbereich ausgerichtet sind.
  • Ein Problem besteht jedoch darin, dass die von der 3D-Kamera erfassten Informationen mit denen der zweiten Fahrzeugerfassungseinrichtung inkompatibel sind, also nicht logisch zusammengeführt werden können. Dieses Problem wird erfindungsgemäß dadurch gelöst, dass aus den von der 3D-Kamera erfassten Informationen und aus den durch die zweite Fahrzeugerfassungseinrichtung erfassten Informationen Metadaten gebildet werden und diese mit einem Zeitstempel versehen werden. Die Metadaten umfassen erfindungsgemäß wenigsten Angaben über die Größe und die Bewegungsrichtung des Gegenstandes, aber auch charakteristische Formenmerkmale, wie z.B. die Anordnung oder den Abstand der Räder.
  • Die Metadaten der 3D-Kamera und der zweiten Fahrzeugerfassungseinrichtung, welche einen identischen oder nahezu identischen Zeitstempel tragen, werden mit einander verglichen. Bei deren wesentlicher Übereinstimmung werden die Metadaten zur Weiterverarbeitung freigegeben. Bei Nichtübereinstimmung wird ein Fehlersignal erzeugt.
  • Zur Weiterverarbeitung der Metadaten gehört auch eine Plausibilitätsprüfung, u. A. die Überprüfung auf Minimal- und Maximalabmessungen. Bei fehlender Plausibilität wird ebenfalls ein Fehlersignal erzeugt.
  • Die Verarbeitung der Metadaten erfolgt mit einer Software, die es erlaubt, auch toleranzbehaftete Daten zusammenzuführen.
  • Weitere Merkmale und Vorteile der Erfindung ergeben sich aus der folgenden Beschreibung, welche in Verbindung mit den beigefügten Zeichnungen die Erfindung an Hand eines Ausführungsbeispiels erläutert. Es zeigt
    • 1 einen Querschnitt durch einen Durchfahrtbereich eines Parkhauses mit zwei Fahrspuren,
    • 2 ein Blockschaltbild der Kontrolleinrichtung,
    • 3 ein Ablaufdiagramm des Prozesses in 2,
    • 4 ein Ablaufdiagramm eines Kanals einer Weiterverarbeitungseinheit,
    • 5 ein Signalflussdiagramm der Sensordatenfusion.
  • 1 zeigt einen Querschnitt durch einen Durchfahrtbereich 10 eines Parkhauses mit zwei Fahrspuren 12L, 12R. Seitlich oberhalb jeder Fahrspur 12 ist jeweils eine 3D-Sensoreinheit 14L, 14R angeordnet. Die 3D-Kamera 16L und der Radarsensor 18L sind in einer Baugruppe zusammengefasst, wobei deren Messstrahlen 15L auf denselben Durchfahrtbereich ausgerichtet sind. Gleiches gilt für die 3D-Kamera 16R und den Radarsensor 18R.
  • 2 zeigt ein Blockschaltbild der erfindungsgemäßen Kontrolleinrichtung. Die 3D-Sensoreinheiten 14 fassen jeweils die Daten einer 3D-Time-of-Flight-Kamera 16L, 16R und eines Radarsensors 18L, 18R zusammen. Auf diese Weise kann jede 3D-Sensoreinheit 14 neben einer Serie von 3D-Abstandsbildern eines erfassten Bereichs z.B. einer Einfahrt, Ausfahrt oder des Durchfahrtbereichs 10 in einem KFZ-Parkhaus auch das Spektrum jedes Radarsensors 18 zur direkten Bestimmung von Geschwindigkeit und Fahrtrichtung eines Fahrzeugs 20L, 20R bereitstellen.
  • Da die 3D-Kameras 16 und die Radarsensoren 18 nach physikalisch völlig unterschiedlichen Sensorprinzipien arbeiten, besteht der Vorteil, dass bei Störung eines Sensors, z.B. der 3D-Kamera 16L durch optische Störungen wie starkem Staub, Nebel oder Rauch die Daten des Radarsensors 18L unabhängig davon weiter korrekt geliefert werden. Durch eine intelligente Fusion und Analyse der Daten in einer Weiterverarbeitungseinheit 22 kann die Sensoreinheit 14L eine Störung zuverlässig erkannt werden und eine geeignete Störungsbehandlung auslösen.
  • Die Weiterverarbeitungseinheit 22 führt, wie in 4 dargestellt, mittels Neuronalem Netz 40 eine Detektion der von der Sensoreinheit 14 erfassten Fahrzeuge durch. Erkannte relevante Objekte werden hier einem Objekt-Tracking 44 zugeführt und bei Verlassen des Erfassungsbereichs der Sensoren, nach abschließender Plausibilisierung 56 und Bestimmung der Fahrtrichtung 54, entsprechend als zu- oder abfahrend gezählt.
  • Um die Erfassungsgenauigkeit zu erhöhen, kommen, wie oben bereits erwähnt, in breiteren Durchfahrtbereichen zwei 3D-Sensoreinheiten 14L, 14R zum Einsatz, die an beiden Seiten des Durchfahrtbereichs jeweils gegenüberliegend montiert sind. Die Weiterverarbeitungseinheit 22 fusioniert die beobachteten Objekte (Fahrzeuge 20L, 20R) beider 3D-Sensoreinheiten 14L, 14R und entscheidet, ob es sich bei den gemeldeten Objekten um dasselbe Objekt oder zwei evtl. in einem Kamerabild verdeckte Objekte handelt und zählt auf diese Weise auch bei komplexeren Verkehrssituationen korrekt.
  • 3 zeigt ein Ablaufdiagramm der vorbeschriebenen Anordnung. In jeder 3D-Sensoreinheit 14L, 14R werden beim Empfang der verschiedenen Sensordaten Zeitstempel 28 vergeben, damit in dem folgenden Sammelmodul 30 die korrekte zeitliche Zuordnung der Daten erfolgen kann. In einem Radar-Verarbeitungsmodul 32 wird das Spektrum des Radar-Signals mit Hilfe einer Fast-Fourier-Analyse berechnet, während das 3D-Signalverarbeitungsmodul 34 das Abstandsbild in Polarkoordinaten berechnet. Anschließend werden die 3D-Bilddaten und das berechnete Radarspektrum in dem Sammelmodul 30 zusammengefasst, einem Netzwerkprotokoll 36 entsprechend formatiert und über eine Ethernet-Schnittstelle 26 an die Weiterverarbeitungseinheit 22 übertragen.
  • 4 zeigt ein Ablaufdiagramm der Weiterverarbeitungseinheit 22. In dieser werden die über das Ethernet empfangenen Daten ausgewertet. Dabei wird das 3D-Abstandsbild zunächst auf die passende Eingangsdimension der Input-Schicht eines neuronalen Netzwerks 40 scaliert. Im neuronalen Netzwerk 40 wird mit Hilfe einer Objekterkennung 42 in jedem 3D-Bild wenigstens ein relevantes Objekt gesucht und mit Angabe von Position und Erkennungswahrscheinlichkeit in der Ausgabeschicht des neuronalen Netzwerks 40 ausgegeben.
  • Die Daten der Ausgabeschicht werden dann in einem Objekt-Tracking-Modul 44 analysiert. Hier wird in einer Objekt-Assoziation 48 zunächst geprüft, ob es relevante Objekte im aktuellen 3D-Bild gibt und wenn dies der Fall ist, ob diese mit zuvor erkannten Objekten assoziiert werden können. Mit einer Objekt-Verfolgung 50 werden alle erkannten Objekte und deren Positionen über die Zeit verfolgt. Die Informationen zu einem gefundenen relevanten Objekt werden dann in einer Tracking-Liste 46 abgespeichert. Erkennt das neuronale Netzwerk 40 im folgenden 3D-Bild wieder ein Objekt, so prüft die Objekt-Assoziation 48 des Tracking-Moduls 44, ob es sich um das bereits detektierte Objekt handelt und speichert in diesem Fall die aktuellen Parameter (Position und Dimension) im selben Eintrag der Tracking-Liste 46 ab. Handelt es sich nicht um dasselbe Objekt, wird ein neuer Eintrag erzeugt. Auf diese Weise „verfolgt“ der Tracking-Algorithmus die einzelnen erfassten Objekte über die Zeit in den 3D-Bildern. Verlässt eines der erfassten Objekte das 3D-Bild, so wird der Eintrag aus der Tracking-Liste 46 mit allen gesammelten Informationen (erste Position, Bewegungsrichtung, letzte Position, maximale Dimension, etc.) an die nächste Stufe, das Post-Processing 52 ausgegeben. Im Post-Processing-Modul 52 wird nun die Bewegungsrichtung 54 der verfolgten Objekte bestimmt. Auf Basis dieser Bewegungsrichtung 54 und der in der Tracking-Liste 46 gesammelten Parameter, wie erste und letzte Position des Objektes und maximale Dimension wird das Objekt in einem Plausibilisierungsmodul 56 plausibilisiert. Zu kleine Objekte oder Objekte, die keine plausible oder für eine Zählung relevante Bewegungsrichtung aufweisen, werden verworfen. Die plausiblen Objekte werden dann der Sensordatenfusion zugeführt.
  • Die Sensor-Datenfusion 60 (5) erhält nun die erkannten plausiblen Objekte aus den vorgelagerten 3D-Kameradatenauswertungen der einzelnen Kanäle und die zugehörigen Radarspektren dieser Kanäle. Mit Hilfe der eingeprägten Zeitstempel erfolgt die korrekte zeitliche Zuordnung der verschiedenen Signale. Aus den Radar-Spektren wird die Geschwindigkeit und die Bewegungsrichtung der Objekte bestimmt und mit der Bewegungsrichtung der Objektdaten aus der 3D-Kameradatenverarbeitung verglichen. Sind sowohl die zeitliche Zuordnung als auch die ermittelten Bewegungsrichtungen aus Radar und 3D-Bildauswertung plausibel, wird eine Datenfusion durchgeführt. Je nach Bewegungsrichtung werden die Objekte als zu- oder wegfahrende Fahrzeuge gezählt.
  • Treten häufiger Fälle auf, dass keine Fusion der verschiedenen Sensordaten möglich ist, weil beispielsweise nur Phantomdaten, verursacht durch eine vorbei ziehende Staubwolke, aus der 3D-Kameradatenauswertung vorliegen, während die Radardatenauswertung keine Objekte liefert, so wird dies in der Störungsüberwachung 80 (5) erkannt und eine entsprechende Störungsmeldung 58 via Ethernet an z.B. einen nicht dargestellten bilanzierenden Stellplatz-Zählserver ausgegeben. Auf diese Weise können Störungen, deren Ursache beispielsweise nur optischer Natur ist, sicher erkannt werden.
  • 5 zeigt das Signalflussdiagramm der Sensordatenfusion. Die Daten 62, 64 der erkannten plausiblen Objekte aus den vorgelagerten 3D-Kameradatenauswertungen der einzelnen Kanäle und die zugehörigen Radarspektren 66, 68 dieser Kanäle werden einem Sensordaten-Fusionsmodul 60 übergeben. Mit Hilfe der eingeprägten Zeitstempel erfolgt die korrekte zeitliche Zuordnung der verschiedenen Signale zur zeitlichen Assoziation (Schritt 70). Aus den Radar-Spektren werden die Geschwindigkeit (Schritt 72) und die Bewegungsrichtung der Objekte bestimmt und mit der Bewegungsrichtung der Objektdaten aus der 3D-Kameradatenverarbeitung verglichen. Sind sowohl die zeitliche Zuordnung als auch die ermittelten Bewegungsrichtungen aus Radar und 3D-Bildauswertung plausibel (Schritt 74), wird eine Datenfusion durchgeführt.
  • Je nach Bewegungsrichtung werden die Objekte als zufahrende Fahrzeuge (Schritt 76) oder als wegfahrende Fahrzeuge (Schritt 78) gezählt.
  • Tritt häufiger der Fall auf, dass keine Fusion der verschiedenen Sensordaten möglich ist, weil beispielsweise nur Daten aus der 3D-Kameradatenauswertung vorliegen, während die Radardatenauswertung keine Objekte liefert, so wird dies in der Störungsüberwachung 80 erkannt und eine entsprechende Störungsmeldung 58 an einen nicht dargestellten übergeordneten Sever der Parkhausverwaltung ausgegeben. Auf diese Weise können Störungen, deren Ursache beispielsweise nur optischer Natur ist, sicher erkannt werden.
  • Bezugszeichenliste
  • 10
    Durchfahrtbereich
    12
    Fahrspur
    14
    3D-Sensoreinheit
    15
    Messstrahl
    16
    3D-Kamera
    18
    Radarsensor
    20
    Fahrzeug
    22
    Weiterverarbeitungseinheit
    24
    Prozessor
    26
    Ethernet-Schnittstelle
    28
    Zeitstempel
    30
    Sammelmodul
    32
    Radar-Verarbeitungsmodul
    34
    3D-Verarbeitungsmodul
    36
    Netzwerkprotokoll
    38
    Scalierung
    40
    Neuronales Netzwerk
    42
    Objekterkennung
    44
    Trackingmodul
    46
    Tracking-Liste
    48
    Objekt-Assoziation
    50
    Objekt-Verfolgung
    52
    Postprocessing
    54
    Bewegungsrichtungs-Bestimmung
    56
    Plausibilisierungs-Modul
    58
    Störungsmeldung
    60
    Sensordaten-Fusionsmodul
    62
    Objektdaten Kanal 1
    64
    Objektdaten Kanal 2
    66
    Radarspektren Kanal 1
    68
    Radarspektren 2
    70
    Zeitliche Assoziation
    72
    Geschwindigkeitsbestimmung
    74
    Plausibilisierung
    76
    Zufahrende Fahrzeuge
    78
    wegfahrende Fahrzeuge
    80
    Störungsüberwachung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2916142 A1 [0001, 0002]

Claims (6)

  1. Kontrolleinrichtung für eine Ein- und Ausfahrt zur Zählung und Erkennung von Fahrzeugen (20) und deren Abmessungen mit einer optischen 3D-Kamera (16), dadurch gekennzeichnet, dass wenigstens eine zweite Fahrzeugerfassungseinrichtung (18) vorgesehen ist, die nach einem anderen als optischen Erfassungsprinzip arbeitet und bei im Wesentlichen übereinstimmenden Erfassungsergebnissen der 3D-Kamera (16) und der zweiten Fahrzeugerfassungseinrichtung (18) eine Weiterverarbeitung der erkannten Daten freigegeben wird.
  2. Einrichtung nach Anspruch 1, deren zweite Fahrzeugerfassungseinrichtung ein Radarsensor (18) ist.
  3. Einrichtung nach Anspruch 1 oder 2, deren 3D-Kamera (16) und Radarsensor (18) in einer Baugruppe zusammengefasst sind, wobei deren Messstrahlen (15L, 15R) auf denselben Durchfahrtbereich (12L, 12R) ausgerichtet sind.
  4. Einrichtung nach einem der Ansprüche Anspruch 1 bis 3, bei der aus den von der 3D-Kamera (16) erfassten Informationen und aus den durch die zweite Fahrzeugerfassungseinrichtung (18) erfassten Informationen Metadaten gebildet werden und diese mit einem Zeitstempel (28) versehen werden.
  5. Einrichtung nach Anspruch 4, deren Metadaten wenigstens Angaben über die Größe und die Bewegungsrichtung des Gegenstandes umfassen.
  6. Einrichtung nach Anspruch 4 oder 5, bei der die Metadaten der 3D-Kamera (16) und der zweiten Fahrzeugerfassungseinrichtung (14), welche einen identischen oder nahezu identischen Zeitstempel tragen, mit einander verglichen werden, wonach bei deren wesentlicher Übereinstimmung die Metadaten zur Weiterverarbeitung freigegeben werden und bei Nichtübereinstimmung ein Fehlersignal (58) erzeugt wird.
DE102018007323.9A 2018-09-18 2018-09-18 Kontrolleinrichtung für eine Ein- und Ausfahrt Pending DE102018007323A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018007323.9A DE102018007323A1 (de) 2018-09-18 2018-09-18 Kontrolleinrichtung für eine Ein- und Ausfahrt

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018007323.9A DE102018007323A1 (de) 2018-09-18 2018-09-18 Kontrolleinrichtung für eine Ein- und Ausfahrt

Publications (1)

Publication Number Publication Date
DE102018007323A1 true DE102018007323A1 (de) 2020-03-19

Family

ID=69646517

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018007323.9A Pending DE102018007323A1 (de) 2018-09-18 2018-09-18 Kontrolleinrichtung für eine Ein- und Ausfahrt

Country Status (1)

Country Link
DE (1) DE102018007323A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022111879A1 (de) * 2020-11-27 2022-06-02 Siemens Mobility GmbH Automatisierte zuverlässigkeitsprüfung einer infrastrukturgestützten leittechnik

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090219172A1 (en) * 2008-02-28 2009-09-03 Neavia Technologies Method and Device for the Multi-Technology Detection of Vehicles
WO2012068064A1 (en) * 2010-11-15 2012-05-24 Image Sensing Systems, Inc. Hybrid traffic sensor system and associated method
EP2916142A1 (de) * 2014-03-06 2015-09-09 Skidata Ag Digitalkamera
US20180096595A1 (en) * 2016-10-04 2018-04-05 Street Simplified, LLC Traffic Control Systems and Methods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090219172A1 (en) * 2008-02-28 2009-09-03 Neavia Technologies Method and Device for the Multi-Technology Detection of Vehicles
WO2012068064A1 (en) * 2010-11-15 2012-05-24 Image Sensing Systems, Inc. Hybrid traffic sensor system and associated method
EP2916142A1 (de) * 2014-03-06 2015-09-09 Skidata Ag Digitalkamera
US20180096595A1 (en) * 2016-10-04 2018-04-05 Street Simplified, LLC Traffic Control Systems and Methods

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022111879A1 (de) * 2020-11-27 2022-06-02 Siemens Mobility GmbH Automatisierte zuverlässigkeitsprüfung einer infrastrukturgestützten leittechnik

Similar Documents

Publication Publication Date Title
EP2285632B1 (de) Fahrerassistenzsystem
DE102012107444B3 (de) Verfahren zur Klassifizierung von fahrenden Fahrzeugen durch Verfolgung einer Positionsgröße des Fahrzeuges
EP3679392B1 (de) Verfahren und steuervorrichtung zum erkennen einer fehlfunktion zumindest eines umfeldsensors eines kraftfahrzeugs
DE102011077998A1 (de) Verfahren und System zur Informationsvalidierung
DE10133945A1 (de) Verfahren und Vorrichtung zum Austausch und zur Verarbeitung von Daten
EP2867093B1 (de) Verfahren und system zur informationsnutzung
DE102008038731A1 (de) Verfahren zur Erkennung ausgedehnter statischer Objekte
EP3526624A1 (de) Automatisierte freiraumerkennung mittels differenzanalyse für fahrzeuge
WO2003036320A2 (de) Verfahren und vorrichtung zur messung der geschwindigkeiten von sich bewegenden objekten
WO2019162794A1 (de) Verfahren und system zur erkennung von für ein fahrzeug geeigneten parklücken
EP3136123A1 (de) Verfahren zur zuordnung von vorgegebenen einbaupositionen zu an den einbaupositionen in einem kraftfahrzeug verbauten radarsensoren
DE102018201849A1 (de) Verfahren zur Reduzierung der Fehlerrate in einem Objekterkennungssystem
EP3160818B1 (de) Verfahren zur erhöhung der verfügbarkeit einer raderkennungseinrichtung und raderkennungseinrichtung
DE102012009822A1 (de) Verfahren zur Ermittlung einer Größe zur Beschreibung eines lokalenVerkehrs
EP3545506A1 (de) Verfahren und system zum detektieren eines sich innerhalb eines parkplatzes befindenden erhabenen objekts
DE102017212513A1 (de) Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
DE102016223094A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
EP2819113A1 (de) Messanlage zur Erfassung eines einem Fahrzeug zugeordneten Kennzeichens bei Passage eines Messquerschnittes einer Fahrbahn
DE102018007323A1 (de) Kontrolleinrichtung für eine Ein- und Ausfahrt
DE102009033853A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems und Vorrichtung zur Durchführung des Verfahrens
EP2254104B1 (de) Verfahren zum automatischen Erkennen einer Situationsänderung
EP2388618A1 (de) Verfahren zur Detektion von Störungen des Messbetriebs einer Ultraschall-Messanordnung eines Kraftfahrzeugs und Kraftfahrzeug
EP2204788B1 (de) Verfahren und Vorrichtung zum Erfassen der Bewegung von Fahrzeugen
EP4238066A1 (de) Verfahren zum analysieren eines umfelds eines kraftfahrzeugs
DE102014206227A1 (de) Stereokamerasystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication