DE102016223185A1 - Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts - Google Patents

Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts Download PDF

Info

Publication number
DE102016223185A1
DE102016223185A1 DE102016223185.5A DE102016223185A DE102016223185A1 DE 102016223185 A1 DE102016223185 A1 DE 102016223185A1 DE 102016223185 A DE102016223185 A DE 102016223185A DE 102016223185 A1 DE102016223185 A1 DE 102016223185A1
Authority
DE
Germany
Prior art keywords
video cameras
video
cameras
video images
parking lot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016223185.5A
Other languages
English (en)
Inventor
Stefan Nordbruch
Felix Hess
Andreas Lehn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102016223185.5A priority Critical patent/DE102016223185A1/de
Priority to EP17777013.8A priority patent/EP3545505A1/de
Priority to JP2019547762A priority patent/JP6805363B2/ja
Priority to CN201780072507.XA priority patent/CN110114807B/zh
Priority to US16/346,211 priority patent/US20200050865A1/en
Priority to PCT/EP2017/074436 priority patent/WO2018095612A1/de
Publication of DE102016223185A1 publication Critical patent/DE102016223185A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096758Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where no selection takes place on the transmitted or the received information
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts unter Verwendung von mindestens zwei innerhalb des Parkplatzes räumlich verteilt angeordneten Videokameras, deren jeweiliger Sichtbereich sich in einem Überlappungsbereich überlappt, umfassend die folgenden Schritte:
Aufnehmen von jeweiligen Videobildern des Überlappungsbereichs mittels der Videokameras,
Analysieren der aufgenommenen Videobilder, um in den aufgenommenen Videobildern ein erhabenes Objekt zu detektieren,
wobei das Analysieren ausschließlich mittels zumindest einer der Videokameras videokameraintern durchgeführt wird.
Die Erfindung betrifft ferner ein entsprechendes System, einen Parkplatz sowie ein Computerprogramm.

Description

  • Die Erfindung betrifft ein Verfahren zum Detektieren eines sich innerhalb eines Parkplatzes, beispielsweise eines Parkhauses, insbesondere innerhalb eines Fahrschlauchs eines Parkplatzes, befindenden erhabenen Objekts. Die Erfindung betrifft ferner ein System zum Detektieren eines sich innerhalb eines Parkplatzes, beispielsweise Parkhauses, insbesondere innerhalb eines Fahrschlauchs eines Parkplatzes, befindenden erhabenen Objekts. Die Erfindung betrifft des Weiteren einen Parkplatz. Die Erfindung betrifft ferner ein Computerprogramm.
  • Stand der Technik
  • Die Offenlegungsschrift DE 10 2015 201 209 A1 zeigt ein Valet-Parking System zum automatischen Verbringen eines Fahrzeugs von einer Übergabezone zu einem zugewiesenen Stellplatz innerhalb eines vorgegebenen Parkraums. Das bekannte System umfasst ein Parkplatzüberwachungssystem mit mindestens einer ortsfest angeordneten Sensoreinheit. Das Parkplatzüberwachungssystem ist ausgebildet, die innerhalb des vorgegebenen Parkraums fahrenden Fahrzeuge zu lokalisieren.
  • Offenbarung der Erfindung
  • Die der Erfindung zugrunde liegende Aufgabe ist darin zu sehen, ein Konzept zum effizienten Detektieren eines sich innerhalb eines Parkplatzes, beispielsweise eines Parkhauses, insbesondere innerhalb eines Fahrschlauchs eines Parkplatzes, befindenden erhabenen Objekts bereitzustellen.
  • Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
  • Nach einem Aspekt wird ein Verfahren zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts unter Verwendung von mindestens zwei innerhalb des Parkplatzes räumlich verteilt angeordneten Videokameras bereitgestellt, deren jeweiliger Sichtbereich sich in einem Überlappungsbereich überlappt, umfassend die folgenden Schritte:
    • - Aufnehmen von jeweiligen Videobildern des Überlappungsbereichs mittels der Videokameras,
    • - Analysieren der aufgenommenen Videobilder, um in den aufgenommenen Videobildern ein erhabenes Objekt zu detektieren,
    • - wobei das Analysieren ausschließlich mittels zumindest einer der Videokameras videokameraintern durchgeführt wird.
  • Nach einem anderen Aspekt wird ein System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts bereitgestellt, wobei das System ausgebildet ist, das Verfahren zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts durchzuführen.
  • Nach einem anderen Aspekt wird ein Parkplatz bereitgestellt, welcher das System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts umfasst.
  • Nach noch einem Aspekt wird ein Computerprogramm bereitgestellt, welches Programmcode zur Durchführung des Verfahrens zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts umfasst, wenn das Computerprogramm auf einem Computer, insbesondere auf einem Prozessor einer Videokamera, ausgeführt wird.
  • Die Erfindung basiert auf der Erkenntnis, dass die Analyse der aufgenommenen Videobilder ausschließlich videokameraintern, also auf einer oder auf mehreren der Videokameras selbst, durchgeführt wird. Eine alternative oder zusätzliche Analyse der aufgenommenen Videobilder mittels einer externen Recheneinheit, die verschieden von den Videokameras ist, ist nicht vorgesehen.
  • Dadurch wird insbesondere der technische Vorteil bewirkt, dass die Videokameras effizient genutzt werden können: Aufnehmen der Videobilder und Analysieren der Videobilder. Die Videokameras weisen also eine Doppelfunktion auf.
  • Insbesondere wird dadurch der technische Vorteil bewirkt, dass auf eine zusätzliche externe Recheneinheit verzichtet werden kann. Eine Installation, ein Betrieb und eine Wartung einer solch externen Recheneinheit sind üblicherweise aufwendig, zeitintensiv und kostenintensiv. Das erfindungsgemäße Konzept vermeidet in vorteilhafter Weise diese Nachteile.
  • Somit wird also der technische Vorteil bewirkt, dass ein Konzept zum effizienten Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts bereitgestellt werden kann.
  • Insbesondere wird durch die Verwendung von mindestens zwei Videokameras eine Redundanz bewirkt. Insbesondere können Fehler eine Videokamera durch die andere Videokamera kompensiert werden.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass Fehlalarme reduziert oder vermieden werden können, was in vorteilhafter Weise einen effizienten Betrieb des Parkplatzes ermöglicht und was beispielsweise einen effizienten Betrieb von innerhalb des Parkplatzes führerlos fahrenden Kraftfahrzeugen ermöglicht.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass Objekte effizient erkannt werden können, so dass ein Kollidieren mit solchen Objekten verhindert werden kann.
  • Die Formulierung „zumindest einer der Videokameras“ umfasst insbesondere folgende Formulierungen: „ausschließlich eine der Videokameras“, „genau eine der Videokameras“, „mehrere Videokameras“ und „alle Videokameras“. Das heißt also insbesondere, dass die Analyse auf einer, insbesondere ausschließlich einer, oder auf mehreren Videokameras durchgeführt wird. Die Analyse wird also mittels einer oder mittels mehreren Videokameras durchgeführt.
  • Zum Durchführen der Analyse weist die entsprechende Videokamera beispielsweise einen Prozessor auf, der ausgebildet ist, die aufgenommenen Videobilder zu analysieren, um in den aufgenommenen Videobildern ein erhabenes Objekt zu detektieren.
  • Auf dem Prozessor läuft beispielsweise ein Videobildverarbeitungsprogramm ab.
  • Der Prozessor ist beispielsweise ausgebildet, ein Videobildverarbeitungsprogramm auszuführen.
  • Ein Parkplatz im Sinne der Beschreibung ist insbesondere ein Parkplatz für Kraftfahrzeuge. Der Parkplatz ist beispielsweise ein Parkhaus oder eine Parkgarage. Ein zu detektierendes Objekt befindet sich beispielsweise innerhalb eines Fahrschlauchs des Parkplatzes.
  • Ein erhabenes Objekt bezeichnet insbesondere ein Objekt, dessen Höhe relativ zu einem Boden des Parkplatzes mindestens 10 cm beträgt.
  • Das erhabene Objekt befindet sich beispielsweise auf einem Boden des Parkplatzes, beispielsweise auf einer Fahrbahn oder innerhalb eines Fahrbereichs, also beispielsweise innerhalb eines Fahrschlauchs, des Parkplatzes. Das erhabene Objekt befindet sich also beispielsweise innerhalb eines Fahrschlauchs des Parkplatzes.
  • Gemäß einer Ausführungsform ist vorgesehen, dass zum Detektieren eines erhabenen Objekts in den aufgenommenen Videobildern gemäß der Analyse folgende Schritte vorgesehen sind:
    • - Rektifizieren der aufgenommenen Videobilder,
    • - miteinander Vergleichen der jeweiligen rektifizierten Videobilder, um einen Unterschied in den aufgenommenen Überlappungsbereichen zu erkennen,
    • - Detektieren eines erhabenen Objekts basierend auf dem Vergleich.
  • Vor einem Vergleich der Videobilder ist also insbesondere vorgesehen, dass die Videobilder in die Vogelperspektive transformiert werden, also rektifiziert werden. Die rektifizierten Videobilder werden dann miteinander verglichen.
  • Wenn alle rektifizierten Videobilder des Überlappungsbereichs keine Unterschiede aufweisen, also gleich oder identisch sind, oder Unterschiede aufweisen, die sich um maximal einen vorbestimmten Toleranzwert unterscheiden, so kann davon ausgegangen werden, dass sich kein erhabenes Objekt auf der jeweiligen Sichtachse zwischen dem Überlappungsbereich und den Videokameras befindet. Sofern sich aber ein erhabenes Objekt auf einer Sichtachse zwischen dem Überlappungsbereich und einer der Videokameras befindet, sieht diese eine Videokamera nicht das Gleiche wie die anderen Videokameras. Das entsprechende rektifizierte Videobild wird sich also von dem rektifizierten Videobild der anderen Videokameras um einen Unterschied größer als der vorbestimmte Toleranzwert unterscheiden. Somit kann also effizient ein erhabenes Objekt detektiert werden.
  • Ein Rektifizieren der aufgenommenen Videobilder umfasst insbesondere respektive ist beispielsweise eine Transformation der aufgenommenen Videobilder in die Vogelperspektive. Das heißt also insbesondere, dass die aufgenommenen Videobilder beispielsweise in die Vogelperspektive transformiert werden. Dadurch kann in vorteilhafter Weise der anschließende Vergleich besonders effizient durchgeführt werden.
  • Die Formulierungen „Gleiche Bildinformation“ respektive „identische Bildinformation“ respektive „gleiche Videobilder“ respektive „identische Videobilder“ im Sinne dieser Beschreibung umfassen insbesondere auch den Fall, dass sich die Bildinformationen respektive die Videobilder um maximal einen vorbestimmten Toleranzwert unterscheiden. Erst Unterschiede, die größer als der vorbestimmte Toleranzwert ist, resultieren in einer Detektion eines Objekts. Das heißt also insbesondere, dass geringe Unterschiede in der Helligkeits- und/oder Farbinformation zulässig sind, um die Aussage zu treffen, dass die Bildinformation respektive die Videobilder gleich respektive identisch ist oder sind, solange die Unterschiede kleiner als der vorbestimmte Toleranzwert sind.
  • Das heißt also insbesondere, dass beispielsweise erst dann ein erhabenes Objekt detektiert wird, wenn sich beispielsweise die Videobilder um einen Unterschied unterscheiden, der größer ist als der vorbestimmte Toleranzwert. Das heißt also insbesondere, dass erst dann ein erhabenes Objekt detektiert wird, wenn sich beispielsweise ein Überlappungsbereich von den anderen Überlappungsbereichen um einen Unterschied unterscheidet, der größer als der vorbestimmte Toleranzwert ist.
  • Gemäß einer Ausführungsform ist vorgesehen, dass, wenn das Analysieren mittels mehrerer Videokameras durchgeführt wird, jede der Videokameras unabhängig voneinander die aufgenommenen Videobilder analysiert
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass effizient eine Redundanz geschaffen ist. Jede der Videokamera wird also insbesondere ein eigenes Ergebnis der Analyse bereitstellen. Selbst wenn eine der Videokameras ausfallen sollte, steht auf den anderen Videokameras ein Ergebnis der Analyse zur Verfügung. Das heißt also, dass selbst bei einem Ausfall einer Videokamera immer noch ein erhabenes Objekt detektiert werden kann.
  • Ein Ergebnis der Analyse im Sinne der Beschreibung gibt insbesondere an, ob in den aufgenommenen Videobildern ein erhabenes Objekt detektiert wurde oder nicht.
  • In einer Ausführungsform ist vorgesehen, dass innerhalb des Parkplatzes eine Vielzahl von Videokameras räumlich verteilt angeordnet sind, wobei mindestens zwei Videokameras aus der Vielzahl von Videokameras als die zu verwendenden Videokameras ausgewählt werden, deren jeweiliger Sichtbereich sich in dem Überlappungsbereich überlappt.
  • Gemäß dieser Ausführungsform ist also vorgesehen, dass innerhalb des Parkplatzes mehr als zwei Videokameras räumlich verteilt angeordnet sind. Insbesondere ist das Wissen vorhanden, welche Videokamera welchen Bereich des Parkplatzes erfasst. Zum Erfassen eines Bereichs des Parkplatzes ist vorgesehen, dass aus den mehreren Videokameras mindestens zwei Videokameras ausgewählt werden, die jeweils einen gemeinsamen Bereich, den Überlappungsbereich, sehen, also erfassen können.
  • Die ausgewählten Videokameras nehmen Videobilder des Überlappungsbereichs auf, die analysiert werden, um ein erhabenes Objekt zu detektieren.
  • Durch die Auswahl von mindestens zwei Videokameras, die einen gemeinsamen Bereich, hier der Überlappungsbereich, überwachen, kann insbesondere eine verlässliche und robuste Detektion eines erhabenen Objekts bewirkt werden.
  • Somit wird zum Beispiel der technische Vorteil bewirkt, dass ein sich innerhalb des Parkplatzes befindendes erhabenes Objekt effizient erkannt werden kann.
  • Insbesondere wird durch die Verwendung von mindestens zwei Videokameras eine Redundanz bewirkt. Insbesondere können Fehler eine Videokamera durch die andere Videokamera kompensiert werden.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass Fehlalarme reduziert oder vermieden werden können, was in vorteilhafter Weise einen effizienten Betrieb des Parkplatzes ermöglicht und was beispielsweise einen effizienten Betrieb von innerhalb des Parkplatzes führerlos fahrenden Kraftfahrzeugen ermöglicht.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass Objekte effizient erkannt werden können, so dass ein Kollidieren mit solchen Objekten verhindert werden kann.
  • In einer Ausführungsform ist vorgesehen, dass das Analysieren der aufgenommenen Videobilder mittels einer oder mehrerer der ausgewählten Videokameras videokameraintern durchgeführt wird. Insbesondere wird mittels sämtlichen ausgewählten Videokameras die Analyse durchgeführt. Insbesondere wird die Analyse ausschließlich mittels einer oder mittels mehrerer der ausgewählten Videokameras durchgeführt.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Videobilder nicht zu nicht-ausgewählten Videokameras übermittelt werden müssen.
  • Gemäß einer weiteren Ausführungsform ist vorgesehen, dass das Analysieren der aufgenommenen Videobilder mittels einer oder mehrerer der nicht-ausgewählten Videokameras videokameraintern durchgeführt wird. Insbesondere wird mittels sämtlichen nicht-ausgewählten Videokameras die Analyse durchgeführt. Insbesondere wird die Analyse ausschließlich mittels einer oder mittels mehrerer der nicht-ausgewählten Videokameras durchgeführt.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die nicht-ausgewählten Videokameras effizient genutzt werden, um ein erhabenes Objekt zu detektieren.
  • In einer Ausführungsform ist vorgesehen, dass das Analysieren der aufgenommenen Videobilder sowohl mittels einer oder mehrerer der ausgewählten Videokameras videokameraintern durchgeführt wird als auch mittels einer oder mehrerer der nicht-ausgewählten Videokameras videokameraintern durchgeführt wird.
  • Die Formulierung „mindestens zwei Videokameras“ bedeutet nach einer Ausführungsform mindestens drei Videokameras.
  • Nach einer Ausführungsform ist vorgesehen, dass die Videokameras untereinander kabellos und/oder kabelgebunden kommunizieren.
  • Insbesondere sind die Videokameras mittels eines Kommunikationsnetzwerks miteinander kommunikationstechnisch verbunden.
  • Ein Kommunikationsnetzwerk umfasst beispielsweise ein WLAN- und/oder ein Mobilfunkkommunikationsnetzwerk. Eine kabellose Kommunikation umfasst beispielsweise eine Kommunikation gemäß einer kabellosen Kommunikationstechnologie, beispielsweise WLAN und/oder Mobilfunk.
  • Ein Kommunikationsnetzwerk umfasst beispielsweise ein Ethernet- und/oder ein Buskommunikationsnetzwerk. Eine kabelgebundene Kommunikation umfasst beispielsweise eine Kommunikation gemäß einer kabelgebundenen Kommunikationstechnologie, beispielsweise Ethernet und/oder Buskommunikationtechnologie.
  • In einer Ausführungsform ist vorgesehen, dass die Videokameras untereinander kommunizieren, um zu entscheiden, mittels welcher oder mittels welchen der Videokameras das Analysieren der aufgenommenen Videobilder durchgeführt wird.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass für diese Entscheidung keine videokameraexternen Rechenkapazitäten bereitgestellt werden müssen.
  • In einer alternativen Ausführungsform ist vorgesehen, dass videokameraextern vorgegeben wird, mittels welcher oder mittels welchen der Videokameras das Analysieren der aufgenommenen Videobilder durchgeführt wird.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass für diese Entscheidung keine videokamerainternen Rechenkapazitäten bereitgestellt werden müssen.
  • Nach einer Ausführungsform ist vorgesehen, dass die Videokameras untereinander kommunizieren, um die jeweils aufgenommenen Videobilder zu derjenigen oder denjenigen Videokameras zu senden, mittels welcher oder mittels welchen die Analyse durchgeführt wird.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die aufgenommenen Videobilder effizient der oder denjenigen Videokameras bereitgestellt werden, mittels welcher oder mittels welchen die Analyse durchgeführt wird
  • In einer Ausführungsform ist vorgesehen, dass ein Ergebnis der Analyse an einen Parkplatzverwaltungsserver des Parkplatzes über ein Kommunikationsnetzwerk gesendet wird.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass der Parkplatzverwaltungsserver den Parkplatz effizient basierend auf dem Ergebnis betreiben kann.
  • Gemäß einer Ausführungsform ist vorgesehen, dass bei mehr als zwei Videokameras, deren jeweiliger Sichtbereich sich in dem Überlappungsbereich überlappt, das Auswählen der mindestens zwei Videokameras aus den mehr als zwei Videokameras ein zufälliges Auswählen von einer oder mehreren Videokameras aus den mehr als zwei Videokameras umfasst.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass statistische Fehler effizient kompensiert werden können.
  • Nach einer anderen Ausführungsform ist vorgesehen, dass bei mehr als zwei Videokameras, deren jeweiliger Sichtbereich sich in dem Überlappungsbereich überlappt, das Auswählen der mindestens zwei Videokameras aus den mehr als zwei Videokameras ein Auswählen von einer oder mehreren Videokameras aus den mehr als zwei Videokameras umfasst, deren jeweiliger mittlerer Sichtbereich, welcher das Zentrum vom jeweiligen Sichtbereich umfasst, vom Überlappungsbereich umfasst ist.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass erreicht wird, dass Abbildungsfehler von Objektiven der Videokameras, die in der Regel bevorzugt im Randbereich der Objektive auftreten, die Analyse der Videobilder nicht verfälschen oder erschweren können.
  • In einer anderen Ausführungsform ist vorgesehen, dass bei mehr als zwei Videokameras, deren jeweiliger Sichtbereich sich in dem Überlappungsbereich überlappt, das Auswählen der mindestens zwei Videokameras aus den mehr als zwei Videokameras ein Auswählen von mehreren Videokameras aus den mehr als zwei Videokameras umfasst, die unmittelbar benachbart zueinander angeordnet sind.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass der Überlappungsbereich effizient erfasst werden kann.
  • Gemäß einer anderen Ausführungsform ist vorgesehen, dass bei mehr als zwei Videokameras, deren jeweiliger Sichtbereich sich in dem Überlappungsbereich überlappt, das Auswählen der mindestens zwei Videokameras aus den mehr als zwei Videokameras ein Auswählen von mehreren Videokameras aus den mehr als zwei Videokameras umfasst, die den Überlappungsbereich von jeweils gegenüberliegenden Seiten aufnehmen.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass erhabene Objekte aus unterschiedlichen Perspektiven erfasst werden können, so dass diese in der Analyse effizient detektiert werden können.
  • Nach einer anderen Ausführungsform ist vorgesehen, dass bei mehr als zwei Videokameras, deren jeweiliger Sichtbereich sich in dem Überlappungsbereich überlappt, das Auswählen der mindestens zwei Videokameras aus den mehr als zwei Videokameras ein Auswählen von einer oder mehreren Videokameras aus den mehr als zwei Videokameras umfasst, die eine bestimmte Mindestauflösung und/oder eine bestimmte Verarbeitungszeit für die Verarbeitung der aufgenommenen Videobilder aufweisen.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass der Überlappungsbereich effizient erfasst werden kann. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Analyse effizient durchgeführt werden kann.
  • Gemäß einer weiteren Ausführungsform ist vorgesehen, dass bei mehr als zwei Videokameras, deren jeweiliger Sichtbereich sich in dem Überlappungsbereich überlappt, das Auswählen der mindestens zwei Videokameras aus den mehr als zwei Videokameras ein Auswählen von einer oder mehreren Videokameras aus den mehr als zwei Videokameras umfasst, die untereinander optimal kalibriert sind.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass der Überlappungsbereich effizient erfasst werden kann. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Analyse effizient durchgeführt werden kann.
  • Nach einer Ausführungsform ist vorgesehen, dass bei mehr als zwei Videokameras, deren jeweiliger Sichtbereich sich in dem Überlappungsbereich überlappt, das Auswählen der mindestens zwei Videokameras aus den mehr als zwei Videokameras ein Auswählen von einer oder mehreren Videokameras aus den mehr als zwei Videokameras umfasst, deren Videobilder in einer vorbestimmten Mindestzeit analysiert werden können.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Analyse effizient und schnell durchgeführt werden kann.
  • In einer weiteren Ausführungsform ist vorgesehen, dass bei mehr als zwei Videokameras, deren jeweiliger Sichtbereich sich in dem Überlappungsbereich überlappt, genau zwei Videokameras aus den mehr als zwei Videokameras ausgewählt werden.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass der Überlappungsbereich effizient erfasst werden kann. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Analyse effizient und schnell durchgeführt werden kann, insofern nur Videobilder von zwei Videokameras zu analysieren sind im Vergleich zu einer Analyse von Videobildern von mehr als zwei Videokameras.
  • Gemäß einer Ausführungsform ist vorgesehen, dass bei mehr als zwei Videokameras, deren jeweiliger Sichtbereich sich in dem Überlappungsbereich überlappt, zunächst alle der mehr als zwei Videokameras ausgewählt werden, wobei über die Zeit ermittelt wird, basierend auf wessen Videobilder der zunächst ausgewählten Videokameras eine Analyse der aufgenommenen Videobilder ein korrektes Ergebnis ergeben hat, wobei dann für den einen Überlappungsbereich nur noch Videokameras aus denjenigen Videokameras ausgewählt werden, deren Videobilder Basis für eine Analyse waren, die ein korrektes Ergebnis ergeben hat.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass effizient gelernt werden kann, welche der Videokameras sich am besten eignen, um sicher und zuverlässig in einem bestimmten Bereich des Parkplatzes ein erhabenes Objekt zu detektieren.
  • Gemäß einer Ausführungsform ist vorgesehen, dass bei mehr als zwei Videokameras, deren jeweiliger Sichtbereich sich in dem Überlappungsbereich überlappt, alle der mehr als zwei Videokameras ausgewählt werden.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass der Überlappungsbereich effizient erfasst werden kann. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass eine hohe Redundanz und damit einhergehend eine Reduzierung, insbesondere eine Minimierung, von Fehlern bewirkt werden können.
  • In einer anderen Ausführungsform ist vorgesehen, dass, wenn im Rahmen der Analyse ein Zwischenergebnis ermittelt wird, das mit einer vorbestimmten Mindestwahrscheinlichkeit korrekt ist, die Analyse unabhängig davon abgebrochen wird, ob alle Videobilder analysiert sind oder nicht, so dass die Analyse auch dann abgebrochen wird, wenn noch nicht alle Videobilder analysiert wurden.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Analyse effizient durchgeführt werden kann. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass eine Prozessorlast für die Analyse effizient reduziert werden kann.
  • In einer Ausführungsform ist vorgesehen, dass die jeweiligen Videobilder der Videokameras nacheinander, also nicht parallel, analysiert werden, wobei ein Abbruchkriterium festgelegt ist, wobei bei Vorliegen des Abbruchkriteriums die Analyse der Videobilder abgebrochen wird, auch wenn noch nicht alle Videobilder analysiert wurden.
  • Beispielsweise ist ein Abbruchkriterium, dass, wenn nach x (einstellbarer Wert) Analysen der jeweiligen Videobilder der ausgewählten Videokameras y (einstellbarer Wert) mal ein Zwischenergebnis ermittelt wird, das mit einer vorbestimmten Mindestwahrscheinlichkeit korrekt ist, die Analyse der jeweiligen Videobilder der restlichen Videokameras abgebrochen wird. Die Analyse wird also vorzeitig abgebrochen, wenn das Abbruchkriterium erfüllt ist.
  • Dies gilt beispielsweise immer für eine Position (zum Beispiel 1 Pixel und/oder die kleinste physikalische Einheit, zum Beispiel 1 cm mal 1 cm) und/oder für einen zusammenhängenden Bereich (zum Beispiel 5 Pixel mal 5 Pixel und/oder 5 cm mal 5 cm). Wenn zum Beispiel in einem Bereich (zum Beispiel x Pixel mal x Pixel oder in cm, also x cm mal x cm) der jeweiligen Videobilder die Bildbereiche „gleich“ oder „nicht gleich“ (-> Abbruchkriterium) sind, dann wird insbesondere abgebrochen. Dieses Abbruchkriterium kann man auf unterschiedliche Bereiche anwenden. Je kleiner der Bereich ist, desto genauer, aber auch desto rechenintensiver. Das heißt, dass ein bestimmter Bereich (x Pixel mal x Pixel oder x cm mal x cm) in den Videobildern (bei Angabe des Bereichs in Pixeln) oder in der realen Welt (bei Angabe in cm) festgelegt wird, wobei, wenn die jeweiligen Analysen dieser Bereiche in den Videobildern ein gleiches Ergebnis („gleich“ oder „nicht gleich“, also unterschiedlich) ergeben, wird die Analyse insbesondere abgebrochen und nicht fortgesetzt.
  • Die Anzahl und die Auswahl der einzelnen Sichten (Videokameras) ist dabei beispielsweise für jede Position respektive Bereich unterschiedlich.
  • Nach einer Ausführungsform ist vorgesehen, dass erstmalig ermittelt wird, welche Videokamera welchen Bereich des Parkplatzes aufnehmen kann, wobei ein Ergebnis des erstmaligen Ermittelns mittels eines Wiederholens des Ermittelns, welche der Videokamera welchen Bereich des Parkplatzes aufnehmen kann, überprüft wird.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass der Überlappungsbereich effizient erfasst werden kann. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass Veränderungen der Videokamerapositionen effizient erkannt und dann auch berücksichtigt werden können. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass auf Fertigungstoleranzen der Videokameras effizient regiert werden kann, die beispielsweise zu einer Veränderung einer Lage des Sichtfelds führen.
  • In einer Ausführungsform ist vorgesehen, dass das Ergebnis des erstmaligen Ermittelns vor jeder Analyse von aufgenommenen Videobildern für zumindest diejenigen Videokameras überprüft wird, deren Videobilder analysiert werden sollen.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass effizient verhindert werden kann, dass Veränderungen der Videokamerapositionen die Analyse verfälschen respektive erschweren können.
  • Nach einer Ausführungsform ist vorgesehen, dass der Überlappungsbereich relativ zu mindestens einer Videokamera unterschiedlich beleuchtet wird verglichen mit den anderen Videokameras.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass ein Objekt effizient detektiert werden kann. Denn sofern eine Seite des Objekts bevorzugt oder anders beleuchtet wird als andere Seiten des Objekts, so lassen sich in effizienter Weise Unterschiede in den aufgenommenen Videobildern besonders leicht und effizient erkennen.
  • Dass der Überlappungsbereich relativ zu zumindest einer Videokamera unterschiedlich beleuchtet wird verglichen mit den anderen Videokameras, bedeutet zum Beispiel, dass eine Lichtquelle innerhalb des Parkplatzes angeordnet ist, die den Überlappungsbereich aus der Richtung der zumindest einen Videokamera beleuchtet. Aus den Richtungen der anderen Videokameras ist zum Beispiel keine Beleuchtung, also keine weiteren Lichtquellen, vorgesehen oder es sind unterschiedliche Beleuchtungen vorgesehen, beispielsweise Lichtquellen, die mit unterschiedlichen Lichtstärken betrieben werden.
  • Gemäß einer Ausführungsform ist vorgesehen, dass der Überlappungsbereich einen Fahrbereich für Kraftfahrzeuge umfasst.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass der Fahrbereich effizient überwacht werden kann.
  • Nach einer Ausführungsform ist vorgesehen, dass das Vergleichen ein Vergleichen einer jeweiligen Helligkeit der rektifizierten Videobilder umfasst, um Helligkeitsunterschiede als einen Unterschied zu erkennen.
  • Dadurch wird insbesondere der technische Vorteil bewirkt, dass Unterschiede in den aufgenommenen Überlappungsbereichen effizient erkannt werden können.
  • Nach einer Ausführungsform ist vorgesehen, dass der Parkplatz eingerichtet oder ausgebildet ist, das Verfahren zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts aus- oder durchzuführen.
  • Nach einer Ausführungsform ist vorgesehen, dass das Verfahren zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts mittels des Systems zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts ausgeführt oder durchgeführt wird.
  • Technische Funktionalitäten des Systems ergeben sich analog aus entsprechenden technischen Funktionalitäten des Verfahrens und umgekehrt.
  • Das heißt also insbesondere, dass sich Systemmerkmale aus entsprechenden Verfahrensmerkmalen und umgekehrt ergeben.
  • Nach einer Ausführungsform ist vorgesehen, dass mindestens n Videokameras vorgesehen sind, wobei n größer-gleich 3 ist.
  • Nach einer Ausführungsform ist eine Beleuchtungseinrichtung vorgesehen. Die Beleuchtungseinrichtung ist ausgebildet, den Überlappungsbereich relativ zu zumindest einer Videokamera unterschiedlich zu beleuchten verglichen mit den anderen Videokameras.
  • Die Beleuchtungseinrichtung umfasst beispielsweise eine oder mehrere Lichtquellen, die räumlich verteilt innerhalb des Parkplatzes angeordnet sind. Die Lichtquellen sind beispielsweise derart angeordnet, dass der Überlappungsbereich aus unterschiedlichen Richtungen unterschiedlich beleuchtet wird.
  • In einer Ausführungsform ist vorgesehen, dass der Überlappungsbereich spotartig aus einer Vorzugsrichtung beleuchtet wird, beispielsweise mittels der Beleuchtungseinrichtung.
  • In einer Ausführungsform ist vorgesehen, dass der Überlappungsbereich aus einer einzigen Richtung beleuchtet wird.
  • Die Lichtquellen sind beispielsweise an einer Decke respektive an einer Säule respektive an einer Wand, allgemein an einem Infrastrukturelement, des Parkplatzes angeordnet.
  • Nach einer Ausführungsform ist vorgesehen, dass mindestens n Videokameras verwendet werden, wobei n größer-gleich 3 ist.
  • Nach einer Ausführungsform ist vorgesehen, dass ein jeweiliger Überlappungsbereich von genau drei oder von genau vier Videokameras überwacht wird, deren jeweiliger Sichtbereich sich in dem jeweiligen Überlappungsbereich überlappt.
  • In einer Ausführungsform ist vorgesehen, dass mehrere Videokameras vorgesehen sind respektive werden, deren jeweiliger Sichtbereich sich jeweils in einem Überlappungsbereich überlappen. Das heißt also insbesondere, dass hier mehrere Überlappungsbereiche mittels mehrerer Videokameras erfasst, also insbesondere überwacht, werden.
  • Die Formulierung „respektive“ umfasst insbesondere die Formulierung „und/oder“.
  • Nach einer Ausführungsform ist vorgesehen, dass eine respektive mehrere respektive alle Videokameras in einer Höhe von mindestens 2 m, insbesondere 2,5 m, relativ zu einem Boden des Parkplatzes angeordnet sind.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass der Überlappungsbereich effizient aufgenommen werden kann.
  • Gemäß einer Ausführungsform ist vorgesehen, dass diejenige oder diejenigen Videokameras, mittels welcher oder mittels welchen die Analyse durchgeführt wird, abhängig von einem oder mehreren Verarbeitungskriterien ausgewählt werden.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Videokameras effizient ausgewählt werden können.
  • Nach noch einer Ausführungsform ist vorgesehen, dass das oder die Verarbeitungskriterien aus der folgenden Gruppe von Verarbeitungskriterien ausgewählt werden: jeweilige Rechenkapazität der Videokameras, jeweilige Speicherauslastung der Videokameras, jeweilige Übertragungsbandbreite zu den Videokameras, jeweiliger Stromverbrauch der Videokameras, jeweilige Rechenleistung der Videokameras, jeweilige Rechengeschwindigkeit der Videokameras, jeweiliger aktueller Betriebsmodus der Videokameras.
  • Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Videokameras effizient ausgewählt werden können.
  • In einer Ausführungsform ist vorgesehen, dass das Verarbeitungskriterium mit einem vorbestimmten Verarbeitungskriteriumschwellwert verglichen wird, wobei die Videokameras oder die Videokameras abhängig von einem Ergebnis des Vergleichs ausgewählt werden.
  • Beispielsweise werden nur Videokameras ausgewählt, deren jeweilige Rechenkapazität größer oder größer-gleich einem Rechenkapazitätsschwellwert ist.
  • Beispielsweise werden nur Videokameras ausgewählt, deren jeweilige Speicherauslastung kleiner oder kleiner-gleich einem Speicherauslastungsschwellwert ist.
  • Beispielsweise werden nur Videokameras ausgewählt, zu denen eine Übertragungsbandbreite größer oder größer-gleich einem Übertragungsbandbreitenschwellwert ist.
  • Beispielsweise werden nur Videokameras ausgewählt, deren jeweiliger Stromverbrauch kleiner oder kleiner-gleich einem Stromverbrauchsschwellwert ist.
  • Beispielsweise werden nur Videokameras ausgewählt, deren jeweilige Rechenleistung größer oder größer-gleich einem Rechenleistungsschwellwert ist.
  • Beispielsweise werden nur Videokameras ausgewählt, deren jeweilige Rechengeschwindigkeit größer oder größer-gleich einem Rechengeschwindigkeitswellwert ist.
  • Beispielsweise werden nur Videokameras ausgewählt, deren jeweiliger aktueller Betriebsmodus einem aktivierten Betriebsmodus entspricht. Ein aktivierter Betriebsmodus ist kein Standby-Modus.
  • Die Erfindung wird im Folgenden anhand von bevorzugten Ausführungsbeispielen näher erläutert. Hierbei zeigen
    • 1 ein Ablaufdiagramm eines Verfahrens zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts,
    • 2 ein System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts,
    • 3 einen ersten Parkplatz,
    • 4 zwei Videokameras, die einen Boden eines Parkplatzes überwachen und
    • 5 die zwei Videokameras der 4 bei der Erfassung eines erhabenen Objekts und
    • 6 einen zweiten Parkplatz.
  • Im Folgenden können für gleiche Bezugszeichen gleiche Merkmale verwendet werden.
  • 1 zeigt ein Ablaufdiagramm eines Verfahrens zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts unter Verwendung von mindestens zwei innerhalb des Parkplatzes räumlich verteilt angeordneten Videokameras, deren jeweiliger Sichtbereich sich in einem Überlappungsbereich überlappt.
  • Das Verfahren umfasst die folgenden Schritte:
    • - Aufnehmen 101 von jeweiligen Videobildern des Überlappungsbereichs mittels der Videokameras,
    • - Analysieren 103 der aufgenommenen Videobilder, um in den aufgenommenen Videobildern ein erhabenes Objekt zu detektieren,
    • - wobei das Analysieren 103 ausschließlich mittels zumindest einer der Videokameras videokameraintern durchgeführt wird.
  • Ein detektiertes erhabenes Objekt kann beispielsweise wie folgt klassifiziert werden: Kraftfahrzeug, Fußgänger, Radfahrer, Tier, Kinderwagen, Sonstiges.
  • 2 zeigt ein System 201 zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts. Das System 201 ist ausgebildet, das Verfahren zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts auszuführen oder durchzuführen.
  • Das System 201 umfasst beispielsweise eine Vielzahl von innerhalb des Parkplatzes räumlich verteilt angeordneten Videokameras 203 zum Aufnehmen von Videobildern. Die Videokameras 203 umfassen jeweils einen Prozessor 205 zum Analysieren der aufgenommenen Videobilder, um in den aufgenommenen Videobildern ein erhabenes Objekt zu detektieren.
  • Das System 201 ist insbesondere ausgebildet, folgende Schritte durchzuführen:
    • - Auswählen von mindestens zwei Videokameras 203 aus der Vielzahl von Videokameras 203, deren jeweiliger Sichtbereich sich in einem Überlappungsbereich überlappt,
    • - Aufnehmen eines jeweiligen Videobilds des Überlappungsbereichs mittels der ausgewählten Videokameras 203,
    • - Analysieren der aufgenommenen Videobilder mittels eines Prozessors 205 oder mittels mehrerer Prozessoren 205, um in den aufgenommenen Videobildern ein erhabenes Objekt zu detektieren.
  • Es ist vorgesehen, dass die Analyse der aufgenommenen Videobilder ausschließlich auf einer oder auf mehreren der Videokameras 203 durchgeführt wird. Eine Analyse mittels einer externen Datenverarbeitungseinrichtung oder einer externen Recheneinheit ist nicht vorgesehen.
  • 3 zeigt einen Parkplatz 301.
  • Der Parkplatz 301 umfasst das System 201 der 2.
  • 4 zeigt eine erste Videokamera 403 und eine zweite Videokamera 405, die einen Boden 401 eines Parkplatzes überwachen. Die beiden Videokameras 403, 405 sind beispielsweise an einer Decke (nicht gezeigt) angeordnet.
  • Die erste Videokamera 403 weist einen ersten Sichtbereich 407 auf. Die zweite Videokamera 405 weist einen zweiten Sichtbereich 409 auf. Die beiden Videokameras 403, 405 sind derart angeordnet, dass sich die beiden Sichtbereiche 407, 409 in einem Überlappungsbereich 411 überlappen. Dieser Überlappungsbereich 411 ist Teil des Bodens 401.
  • Unmittelbar links neben der zweiten Videokamera 405 ist eine Lichtquelle 413 angeordnet, die den Überlappungsbereich 411 aus Richtung der zweiten Videokamera 405 beleuchtet.
  • Auf dem Boden 401 befindet sich kein erhabenes Objekt. Das heißt also, dass beide Videokameras 403, 405 den gleichen Überlappungsbereich 411 sehen oder erfassen. Das heißt also, dass die beiden Videokameras 403, 405 die gleiche Bildinformation des Überlappungsbereichs 411 erkennen oder sehen.
  • Die beiden Videokameras 403, 405 nehmen jeweils Videobilder des Überlappungsbereichs 411 auf, wobei die Videobilder rektifiziert werden. Wenn sich kein erhabenes Objekt zwischen dem Überlappungsbereich 411 und der Videokamera 403 respektive 405 befindet, so unterscheiden sich die jeweils rektifizierten Videobilder nicht voneinander, zumindest nicht innerhalb einer vorgegebenen Toleranz (der vorbestimmte Toleranzwert). In diesem Fall wird also kein Unterschied erkannt werden, sodass entsprechend auch kein erhabenes Objekt detektiert wird.
  • Der Überlappungsbereich 411 befindet sich zum Beispiel auf einem Fahrbereich des Parkplatzes. Das heißt also beispielsweise, dass auf dem Überlappungsbereich 411 Kraftfahrzeuge fahren können.
  • 5 zeigt die beiden Videokameras 403, 405 bei der Erfassung eines erhabenen Objekts 501. Das erhabene Objekt 501 weist gegenüberliegende Seiten 503, 505 auf: Die Seite 503 wird nachfolgend als die (bezogen auf die Papierebene) rechte Seite bezeichnet. Die Seite 505 wird nachfolgend als die (bezogen auf die Papierebene) linke Seite bezeichnet.
  • In der Regel sehen erhabene Objekte von unterschiedlichen Seiten unterschiedlich aus. Das heißt also, dass das erhabene Objekt 501 von der rechten Seite 503 anders aussieht als von der linken Seite 505.
  • Das erhabene Objekt 501 befindet sich auf dem Boden 401. Das erhabene Objekt 501 befindet sich zwischen dem Überlappungsbereich 411 und den beiden Videokameras 403, 405.
  • Die erste Videokamera 403 erfasst die linke Seite 505 des erhabenen Objekts 501. Die zweite Videokamera 405 erfasst die rechte Seite 503 des erhabenen Objekts 501.
  • In diesem Fall unterscheiden sich somit die jeweils rektifizierten Videobilder, sodass entsprechend ein Unterschied erkannt wird. Entsprechend wird dann das erhabene Objekt 501 detektiert. Hier sind die Unterschiede größer als der vorbestimmte Toleranzwert.
  • Durch das Vorsehen der Lichtquelle 413 wird insbesondere bewirkt, dass die rechte Seite 503 stärker beleuchtet wird als die linke Seite 505. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass sich die aufgenommenen und somit auch die rektifizierten Videobilder in ihrer Helligkeit unterscheiden. Helligkeitsunterschiede können effizient detektiert werden, sodass der Unterschied effizient erkannt werden kann, sodass hierüber in vorteilhafter Weise das erhabene Objekt 501 effizient detektiert werden kann.
  • Das erhabene Objekt 501 ist zum Beispiel ein Kraftfahrzeug, welches auf dem Boden 401 des Parkplatzes fährt. Die Seiten 503, 505 sind zum Beispiel Vorder- und Rückseiten des Kraftfahrzeugs oder die rechte und linke Seite.
  • Wenn sich ein nicht-erhabenes, also zweidimensionales oder flaches, Objekt auf dem Boden 401 befindet, so unterscheiden sich die entsprechend rektifizierten Videobilder in der Regel innerhalb einer vorgegebenen Toleranz nicht voneinander. Ein solch zweidimensionales Objekt ist zum Beispiel ein Blatt, Papier oder Laub. Dass in einem solchen Fall sich zwar ein Objekt, wenn auch kein erhabenes Objekt, auf dem Boden 401 befindet, welches gegebenenfalls aufgrund des mangelnden Unterschieds (Unterschiede sind kleiner oder kleiner-gleich als der vorgegebene Toleranzwert.) in den rektifizierten Videobildern nicht detektiert wird, ist hier insofern aus Sicherheitsgründen nicht relevant, da solche nicht erhabenen Objekte in der Regel problemlos durch Kraftfahrzeuge überfahren werden dürfen respektive können. Kraftfahrzeuge können Laub oder Papier überfahren, ohne dass es zu einer gefährlichen Situation oder Kollision kommt im Gegensatz zu einem erhabenen Objekt, welches beispielsweise ein Fußgänger oder ein Radfahrer oder ein Tier oder ein Kraftfahrzeug sein kann. Mit solchen Objekten sollte ein Kraftfahrzeug nicht kollidieren.
  • Mittels der Videokameras 403, 405 werden Videobilder aufgenommenen, die gemäß den vorstehenden Ausführungen analysiert werden, um ein erhabenes Objekt in den Videobildern zu detektieren.
  • Das erfindungsgemäße Konzept basiert nun darauf, dass die Analyse der Videobilder ausschließlich durch die Videokameras oder durch eine der Videokameras selbst durchgeführt wird. Die Videokameras senden ihrer aufgenommenen Videobilder zu derjenigen Videokamera oder zu denjenigen Videokameras, die die Analyse durchführen soll respektive sollen. Das Senden umfasst beispielsweise ein Senden der Videobilder über ein Kommunikationsnetzwerk, welches beispielsweise ein drahtloses und/oder ein drahtgebundenes Kommunikationsnetzwerk umfasst.
  • Je mehr Videokameras die Videobilder unabhängig voneinander analysieren, desto höher ist die Wahrscheinlichkeit eines korrekten respektive sicheren Ergebnisses - dies allerdings auf Kosten einer Berechnungsintensität, beispielsweise einer Prozessorlast oder einer Dauer der Berechnungen.
  • Die Information, dass ein Objekt detektiert wurde, wird beispielsweise an ein Parkplatzverwaltungssystem, das den Parkplatzverwaltungsserver umfasst, gemeldet oder gesendet. Das Parkplatzverwaltungssystem verwendet beispielsweise diese Information für die Planung oder Verwaltung eines Betriebs des Parkplatzes. Das Parkplatzverwaltungssystem betreibt also beispielsweise den Parkplatz basierend auf der Information.
  • Diese Information wird beispielsweise bei einer Fernsteuerung eines Kraftfahrzeugs verwendet, welches sich innerhalb des Parkplatzes befindet. Das heißt also beispielsweise, dass das Parkplatzverwaltungssystem basierend auf dem oder den detektierten Objekten ein Kraftfahrzeug innerhalb des Parkplatzes fernsteuert.
  • Diese Information wird beispielsweise an innerhalb des Parkplatzes autonom fahrende Kraftfahrzeuge über ein drahtloses Kommunikationsnetzwerk übermittelt.
  • Die Erfindung basiert also insbesondere auf dem Gedanken, mehrere Videokameras zu verwenden, die innerhalb eines Parkplatzes, der beispielsweise als ein Parkhaus oder als eine Parkgarage ausgebildet sein kann, räumlich verteilt derart angeordnet sind, dass beispielsweise jeder Punkt eines Fahrbereichs von mindestens zwei, beispielsweise mindestens drei, Videokameras gesehen oder erfasst respektive überwacht wird. Das heißt also, dass sich die jeweiligen Sichtbereiche jeweils in Überlappungsbereiche überlappen, wobei die Überlappungsbereiche den Fahrbereich abdecken. Die aufgenommenen Videobilder werden beispielsweise vor dem Vergleich rektifiziert.
  • Die entsprechenden rektifizierten Videobilder der Videokameras werden miteinander verglichen, beispielsweise mittels eines Bildverarbeitungsalgorithmus. Beispielsweise ist vorgesehen, dass, wenn alle Videokameras im Fahrbereich die gleiche Bildinformation an einer bestimmten Stelle oder an einem bestimmten Punkt sehen, bestimmt wird, dass sich auf dem jeweiligen Sichtstrahl zwischen der bestimmten Stelle und den Videokameras kein Objekt befindet. Insofern wird auch kein Objekt detektiert. Unterscheidet sich allerdings gemäß einer Ausführungsform die Bildinformation einer Videokamera an dieser Stelle von den anderen Videokameras, so ist klar, dass sich auf dem Sichtstrahl dieser einen Videokamera ein erhabenes Objekt befinden muss. Insofern wird ein erhabenes Objekt detektiert.
  • Die Formulierungen „gleiche Bildinformation“ respektive „identische Bildinformation“ im Sinne dieser Beschreibung umfassen insbesondere auch den Fall, dass sich die Bildinformationen maximal um einen vorbestimmten Toleranzwert unterscheiden. Erst Unterschiede, die größer als der vorbestimmte Toleranzwert ist, resultieren in einer Detektion eines Objekts. Das heißt also insbesondere, dass geringe Unterschiede in der Helligkeits- und/oder Farbinformation zulässig sind, um die Aussage zu treffen, dass die Bildinformation gleich respektive identisch ist, solange die Unterschiede kleiner als der vorbestimmte Toleranzwert sind.
  • Das heißt also insbesondere, dass beispielsweise eine Toleranz vorgegeben wird respektive ist, um die sich die rektifizierten Videobilder unterscheiden dürfen, ohne dass ein erhabenes Objekt detektiert wird. Erst wenn die Unterschiede größer als die vorgegebene Toleranz sind, wird ein erhabenes Objekt detektiert.
  • Das heißt also insbesondere, dass gemäß einer Ausführungsform erst dann ein Objekt detektiert wird, wenn die Unterschiede in den rektifizierten Videobildern größer als eine vorgegebene Toleranz respektive ein vorbestimmter Toleranzwert sind.
  • Das erfindungsgemäße Konzept ist insbesondere in vorteilhafter Weise modellfrei in Bezug auf die zu erkennenden Objekte. Der Algorithmus verwendet beispielsweise nur ein Modellwissen über den Parkplatz, das heißt, wo im Fahrbereich sich Begrenzungsflächen des Parkplatzes (z.B. Boden, Wände oder Säulen) befinden.
  • Beispielsweise ist vorgesehen, dass sich ein autonom oder ferngesteuert fahrendes Kraftfahrzeug innerhalb des Parkplatzes auf vorher festgelegten Flächen, dem Fahrbereich, bewegt. Die Videokameras sind beispielsweise derart angeordnet, dass sich ihre Sichtbereiche im Fahrbereich überlappen. Diese Überlappung ist derart gewählt, dass jeder Punkt auf den Begrenzungsflächen (zum Beispiel Boden, Wand) im Fahrbereich von mindestens drei Videokameras gesehen oder überwacht wird. Insbesondere ist die Anordnung derart gewählt, dass jeder Punkt auf der Begrenzungsfläche aus unterschiedlichen Perspektiven betrachtet oder überwacht wird.
  • Das heißt also insbesondere, dass der Überlappungsbereich mittels der Videokameras aus unterschiedlichen Richtungen erfasst respektive aufgenommen wird.
  • Von jedem einzelnen Punkt der Begrenzungsfläche lassen sich nun die Sichtstrahlen zu den beispielsweise drei Videokameras verfolgen, die diesen Punkt sehen. Sofern mehr Videokameras zur Verfügung stehen sollten, so ist beispielsweise vorgesehen, dass aus den mehreren Kameras drei Videokameras mit möglichst unterschiedlichen Perspektiven ausgewählt werden.
  • Befindet sich kein erhabenes Objekt auf den Sichtstrahlen der Videokameras zu diesem Punkt, so sehen alle Videokameras die gleiche Bildinformation respektive Bildinformationen, die sich maximal um einen vorbestimmten Toleranzwert unterscheiden, der Begrenzungsfläche (vgl. 4).
  • Ändert sich beispielsweise eine Helligkeit oder eine Farbe der Oberfläche des Bodens, beispielsweise wenn der Boden durch Nässeeintrag feucht ist, so stört dies eine Detektion der Begrenzungsfläche nicht, insofern alle Videokameras die gleiche geänderte Helligkeit oder Farbe sehen. Liegt beispielsweise ein zweidimensionales Objekt, beispielsweise ein Blatt, Papier oder Laub, auf dem Boden, so wird dieses nicht erhabene gemäß dem erfindungsgemäßen Konzept in der Regel nicht detektiert, da alle Videokameras die gleiche Bildinformation respektive Bildinformationen, die sich maximal um einen vorbestimmten Toleranzwert unterscheiden, sehen. Dies ist insofern aus Sicherheitsgründen nicht kritisch, da solche zweidimensionalen Objekte von Kraftfahrzeugen problemlos überfahren werden dürfen.
  • Sofern sich ein erhabenes Objekt im Fahrbereich (vgl. beispielsweise 5) befindet, treffen die Sichtstrahlen der Videokameras nicht mehr wie erwartet auf die Begrenzungsfläche (Überlappungsbereich), sondern sehen unterschiedliche Ansichten des erhabenen Objekts und nehmen somit unterschiedliche Videobilder auf.
  • Ein erhabenes Objekt ist beispielsweise eine Person oder ein Kraftfahrzeug.
  • So sieht zum Beispiel eine Videokamera die Vorderseite des Objekts, während die andere Videokamera die Rückseite des Objekts sieht. In der Regel unterscheiden sich die beiden Seiten signifikant und das erhabene Objekt kann somit detektiert werden, insofern sich die aufgenommenen Videobilder unterscheiden. Dieser Effekt lässt sich beispielsweise durch eine einseitig hellere Beleuchtung der Szene, also des Überlappungsbereichs, verstärken, sodass ein Übersehen von erhabenen Objekten effizient ausgeschlossen werden kann. Durch eine unterschiedliche Beleuchtung der verschiedenen Seiten eines Objekts erscheint dieses Objekt auf der stärker beleuchteten Seite heller als auf der schwach beleuchteten Seite, sodass die Videokameras unterschiedliche Bildinformationen sehen. Dies gilt selbst für einfarbige Objekte.
  • 6 zeigt einen zweiten Parkplatz 601.
  • Der Parkplatz 601 umfasst mehrere Stellplätze 603, die quer zu einem Fahrweg 602 angeordnet sind, auf welchem ein erstes Kraftfahrzeug 605 fährt. Ein zweites Kraftfahrzeug 607 parkt auf einem der Stellplätze 603.
  • Das erste Kraftfahrzeug 605 fährt in Pfeilrichtung 609 von links nach rechts bezogen auf die Papierebene.
  • Das zweite Kraftfahrzeug 607 will ausparken, was durch einen Pfeil mit dem Bezugszeichen 611 angedeutet ist.
  • Innerhalb des Parkplatzes sind mehrere Videokameras 613 räumlich verteilt angeordnet. Die Videokameras 613 sind schematisch als ausgefüllter Kreis gezeichnet.
  • Die Videokameras 613 sind beispielsweise an einem Rand des Fahrwegs 602 jeweils links und rechts versetzt angeordnet. Die Videokameras 613 sind beispielsweise jeweils in Ecken der Stellplätze 603 angeordnet.
  • Die Videokameras 613 sind beispielsweise an einer Abgabeposition angeordnet, an welcher ein Fahrer eines Kraftfahrzeugs sein Kraftfahrzeug für einen automatischen Parkvorgang (AVP-Vorgang; AVP = automated valet parking) abstellt. Das dort abgestellte Kraftfahrzeug beginnt also das automatische Parken ab der Abgabeposition. Das Kraftfahrzeug fährt also von dort automatisch, insbesondere autonom oder ferngesteuert, zu einem der Stellplätze 603 und parkt dort.
  • Die Videokameras 613 sind beispielsweise an einer Abholposition angeordnet, an welcher ein Fahrer sein Kraftfahrzeug nach einem Ende eines AVP-Vorgangs abholen kann. Nach Ende einer Parkdauer fährt das auf einem Stellplatz 603 abgestellte Kraftfahrzeug automatisch, insbesondere autonom oder ferngesteuert, zur Abholposition und stellt sich dort ab.
  • Die Abholposition ist beispielsweise identisch zur Abgabeposition oder beispielsweise verschieden von der Abgabeposition.
  • Mittels der Videokameras 613 ist somit eine effiziente Überwachung eines Verkehrs, insbesondere eines Verkehrs von automatisch fahrenden Kraftfahrzeugen, also insbesondere von führerlos fahrenden Kraftfahrzeugen, ermöglicht.
  • Das Konzept sieht eine Detektion der Kraftfahrzeuge vor und basierend darauf beispielsweise eine Steuerung der Kraftfahrzeuge. Beispielsweise wird das erste Kraftfahrzeug 605 detektiert. Insbesondere wird das zweite Kraftfahrzeug 607 detektiert. Insbesondere wird erkannt, dass das zweite Kraftfahrzeug 607 ausparken will. Insbesondere wird erkannt, dass das erste Kraftfahrzeug 605 von links nach rechts fährt. Insbesondere wird eine mögliche Kollision erkannt. Insbesondere wird entsprechend das zweite Kraftfahrzeug 607 ferngesteuert angehalten, bis das erste Kraftfahrzeug 605 an dem zweiten Kraftfahrzeug 607 vorbeigefahren ist.
  • Diese Schritte des Erkennens basieren insbesondere auf der Analyse der Videobilder von entsprechend ausgewählten Videokameras.
  • Das erfindungsgemäße Konzept ermöglicht es in vorteilhafter Weise, dass erhabene Objekte effizient detektiert oder erkannt werden können. Das erfindungsgemäße Konzept ist insbesondere sehr robust gegenüber Helligkeitsänderungen oder punktuellen Änderungen der Helligkeit, beispielsweise durch Sonneneinstrahlung.
  • Die Information, dass ein erhabenes Objekt detektiert wird, kann beispielsweise an ein übergeordnetes Regelsystem übergeben werden. Dieses Regelsystem kann beispielsweise ein ferngesteuertes Kraftfahrzeug stoppen oder ein Stoppsignal an ein autonom fahrendes Kraftfahrzeug senden, sodass diese Kraftfahrzeuge vor dem erhabenen Objekt noch rechtzeitig anhalten können. Das Regelsystem ist beispielsweise von dem Parkplatzverwaltungssystem umfasst.
  • Somit kann das erfindungsgemäße Konzept in vorteilhafter Weise auch im AVP-Bereich eingesetzt werden. „AVP“ steht für „Automated Valet Parking“ und kann mit „automatischer Parkvorgang“ übersetzt werden. Im Rahmen eines solchen AVP-Vorgangs ist insbesondere vorgesehen, dass Kraftfahrzeuge automatisch innerhalb eines Parkplatzes geparkt werden und nach Ende einer Parkdauer automatisch von ihrer Parkposition zu einer Abholposition geführt werden, an welcher das Kraftfahrzeug von seinem Besitzer abgeholt werden kann.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102015201209 A1 [0002]

Claims (15)

  1. Verfahren zum Detektieren eines sich innerhalb eines Parkplatzes (301) befindenden erhabenen Objekts (501) unter Verwendung von mindestens zwei innerhalb des Parkplatzes (301) räumlich verteilt angeordneten Videokameras (203), deren jeweiliger Sichtbereich (407, 409) sich in einem Überlappungsbereich (411) überlappt, umfassend die folgenden Schritte: - Aufnehmen (101) von jeweiligen Videobildern des Überlappungsbereichs (411) mittels der Videokameras (203), - Analysieren (103) der aufgenommenen Videobilder, um in den aufgenommenen Videobildern ein erhabenes Objekt (501) zu detektieren, - wobei das Analysieren ausschließlich mittels zumindest einer der Videokameras (203) videokameraintern durchgeführt wird.
  2. Verfahren nach Anspruch 1, wobei, wenn das Analysieren mittels mehrerer Videokameras (203) durchgeführt wird, jede der Videokameras (203) unabhängig voneinander die aufgenommenen Videobilder analysiert.
  3. Verfahren nach Anspruch 1 oder 2, wobei innerhalb des Parkplatzes (301) eine Vielzahl von Videokameras (203) räumlich verteilt angeordnet sind, wobei mindestens zwei Videokameras (203) aus der Vielzahl von Videokameras (203) als die zu verwendenden Videokameras (203) ausgewählt werden, deren jeweiliger Sichtbereich (407, 409) sich in dem Überlappungsbereich (411) überlappt.
  4. Verfahren nach Anspruch 3, wobei das Analysieren der aufgenommenen Videobilder mittels einer oder mehrerer der ausgewählten Videokameras (203) videokameraintern durchgeführt wird.
  5. Verfahren nach Anspruch 3 oder 4, wobei das Analysieren der aufgenommenen Videobilder mittels einer oder mehrerer der nicht-ausgewählten Videokameras (203) videokameraintern durchgeführt wird.
  6. Verfahren nach einem der vorherigen Ansprüche, wobei die Videokameras (203) untereinander kabellos und/oder kabelgebunden kommunizieren.
  7. Verfahren nach Anspruch 6, wobei die Videokameras (203) untereinander kommunizieren, um zu entscheiden, mittels welcher oder mittels welchen der Videokameras (203) das Analysieren der aufgenommenen Videobilder durchgeführt wird.
  8. Verfahren nach Anspruch 6 oder 7, wobei die Videokameras (203) untereinander kommunizieren, um die jeweils aufgenommenen Videobilder zu derjenigen oder denjenigen Videokameras (203) zu senden, mittels welcher oder mittels welchen die Analyse durchgeführt wird.
  9. Verfahren nach einem der vorherigen Ansprüche, wobei ein Ergebnis der Analyse an einen Parkplatzverwaltungsserver des Parkplatzes (301) über ein Kommunikationsnetzwerk gesendet wird.
  10. Verfahren nach einem der vorherigen Ansprüche, wobei zum Detektieren eines erhabenen Objekts in den aufgenommenen Videobildern gemäß der Analyse folgende Schritte vorgesehen sind: - Rektifizieren der aufgenommenen Videobilder, - miteinander Vergleichen der jeweiligen rektifizierten Videobilder, um einen Unterschied in den aufgenommenen Überlappungsbereichen (411) zu erkennen, - Detektieren eines erhabenen Objekts (501) basierend auf dem Vergleich.
  11. Verfahren nach einem der vorherigen Ansprüche, wobei diejenige oder diejenigen Videokameras (203), mittels welcher oder mittels welchen die Analyse durchgeführt wird, abhängig von einem oder mehreren Verarbeitungskriterien ausgewählt werden.
  12. Verfahren nach Anspruch 11, wobei das oder die Verarbeitungskriterien aus der folgenden Gruppe von Verarbeitungskriterien ausgewählt werden: jeweilige Rechenkapazität der Videokameras (203), jeweilige Speicherauslastung der Videokameras (203), jeweilige Übertragungsbandbreite zu den Videokameras (203), jeweiliger Stromverbrauch der Videokameras (203), jeweilige Rechenleistung der Videokameras (203), jeweilige Rechengeschwindigkeit der Videokameras (203), jeweiliger aktueller Betriebsmodus der Videokameras (203).
  13. System (201) zum Detektieren eines sich innerhalb eines Parkplatzes (301) befindenden erhabenen Objekts (501), wobei das System (201) ausgebildet ist, das Verfahren nach einem der vorherigen Ansprüche durchzuführen.
  14. Parkplatz (301), umfassend das System (201) nach Anspruch 13.
  15. Computerprogramm, umfassend Programmcode zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 12, wenn das Computerprogramm auf einem Computer ausgeführt wird.
DE102016223185.5A 2016-11-23 2016-11-23 Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts Pending DE102016223185A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102016223185.5A DE102016223185A1 (de) 2016-11-23 2016-11-23 Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
EP17777013.8A EP3545505A1 (de) 2016-11-23 2017-09-27 Verfahren und system zum detektieren eines sich innerhalb eines parkplatzes befindenden erhabenen objekts
JP2019547762A JP6805363B2 (ja) 2016-11-23 2017-09-27 駐車場内に存在する隆起した物体を検出するための方法およびシステム
CN201780072507.XA CN110114807B (zh) 2016-11-23 2017-09-27 用于探测位于停车场内的突起对象的方法和系统
US16/346,211 US20200050865A1 (en) 2016-11-23 2017-09-27 Method and system for detecting a raised object located within a parking area
PCT/EP2017/074436 WO2018095612A1 (de) 2016-11-23 2017-09-27 Verfahren und system zum detektieren eines sich innerhalb eines parkplatzes befindenden erhabenen objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016223185.5A DE102016223185A1 (de) 2016-11-23 2016-11-23 Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts

Publications (1)

Publication Number Publication Date
DE102016223185A1 true DE102016223185A1 (de) 2018-05-24

Family

ID=59974433

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016223185.5A Pending DE102016223185A1 (de) 2016-11-23 2016-11-23 Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts

Country Status (6)

Country Link
US (1) US20200050865A1 (de)
EP (1) EP3545505A1 (de)
JP (1) JP6805363B2 (de)
CN (1) CN110114807B (de)
DE (1) DE102016223185A1 (de)
WO (1) WO2018095612A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020233902A1 (de) * 2019-05-20 2020-11-26 Robert Bosch Gmbh Verfahren zum überwachen einer infrastruktur
EP3882733B1 (de) 2020-03-16 2022-11-02 Kopernikus Automotive GmbH Verfahren und system zum autonomen fahren eines fahrzeugs

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016223171A1 (de) * 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
JP7163669B2 (ja) * 2018-08-28 2022-11-01 トヨタ自動車株式会社 駐車システム
DE102019218479A1 (de) * 2019-11-28 2021-06-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Klassifikation von Objekten auf einer Fahrbahn in einem Umfeld eines Fahrzeugs
KR102476520B1 (ko) * 2020-08-11 2022-12-12 사이클롭스 주식회사 복수의 카메라를 활용한 스마트 주차관리 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150339924A1 (en) * 2014-05-21 2015-11-26 Douglas J. Cook Parking space occupancy
DE102015201209A1 (de) 2015-01-26 2016-07-28 Robert Bosch Gmbh Valet Parking-Verfahren und Valet-Parking System

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL88806A (en) * 1988-12-26 1991-04-15 Shahar Moshe Automatic multi-level parking garage
US20010020299A1 (en) * 1989-01-30 2001-09-06 Netergy Networks, Inc. Video communication/monitoring apparatus and method therefor
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
US8564661B2 (en) * 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US7412088B2 (en) * 2001-03-06 2008-08-12 Toray Industries, Inc. Inspection method, and inspection device, and manufacturing for display panel
US8154616B2 (en) * 2007-01-16 2012-04-10 Panasonic Corporation Data processing apparatus and method, and recording medium
KR101182853B1 (ko) * 2008-12-19 2012-09-14 한국전자통신연구원 자동 주차 대행 시스템 및 방법
JP4957850B2 (ja) * 2010-02-04 2012-06-20 カシオ計算機株式会社 撮像装置、警告方法、および、プログラム
CN102918833B (zh) * 2010-06-15 2015-07-08 三菱电机株式会社 车辆周边监视装置
WO2012115594A1 (en) * 2011-02-21 2012-08-30 Stratech Systems Limited A surveillance system and a method for detecting a foreign object, debris, or damage in an airfield
KR101736648B1 (ko) * 2012-11-27 2017-05-16 클라우드팍 인코포레이티드 다수의 카메라를 사용한 단일의 다수-차량 주차 공간의 사용 제어
US9488483B2 (en) * 2013-05-17 2016-11-08 Honda Motor Co., Ltd. Localization using road markings
EP2922042A1 (de) * 2014-03-21 2015-09-23 SP Financial Holding SA Verwaltungsverfahren und -system eines Parkplatzes

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150339924A1 (en) * 2014-05-21 2015-11-26 Douglas J. Cook Parking space occupancy
DE102015201209A1 (de) 2015-01-26 2016-07-28 Robert Bosch Gmbh Valet Parking-Verfahren und Valet-Parking System

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Magrini, M.; Moroni, D.; Pieri, G.; Salvetti, O.: Real Time Image Analysis for Infomobility. In: Salerno E., Çetin A.E., Salvetti O. (eds) Computational Intelligence for Multimedia Understanding. MUSCLE 2011. Lecture Notes in Computer Science, vol 7252. Springer, Berlin, Heidelberg *
Remagnino, P.; Shihab, A.I.; Jones, G.A.: Distributed intelligence for multi-camera visual surveillance. In: Pattern Recognition, Volume 37, Issue 4, 2004, Pages 675-689, ISSN 0031-3203, https://doi.org/10.1016/j.patcog.2003.09.017. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020233902A1 (de) * 2019-05-20 2020-11-26 Robert Bosch Gmbh Verfahren zum überwachen einer infrastruktur
EP3882733B1 (de) 2020-03-16 2022-11-02 Kopernikus Automotive GmbH Verfahren und system zum autonomen fahren eines fahrzeugs

Also Published As

Publication number Publication date
JP2020500389A (ja) 2020-01-09
CN110114807A (zh) 2019-08-09
WO2018095612A1 (de) 2018-05-31
EP3545505A1 (de) 2019-10-02
JP6805363B2 (ja) 2020-12-23
CN110114807B (zh) 2022-02-01
US20200050865A1 (en) 2020-02-13

Similar Documents

Publication Publication Date Title
EP3545507B1 (de) Verfahren und system zum detektieren eines sich innerhalb eines parkplatzes befindenden erhabenen objekts
DE102016223185A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE102017130488A1 (de) Verfahren zur Klassifizierung von Parklücken in einem Umgebungsbereich eines Fahrzeugs mit einem neuronalen Netzwerk
EP3014569B1 (de) Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs
DE112014001727T5 (de) Vorrichtung und Verfahren für die Überwachung von bewegten Objekten in einem Erfassungsbereich
EP3671546A1 (de) Verfahren und system zum bestimmen von landmarken in einer umgebung eines fahrzeugs
DE102015201586A1 (de) Verfahren und Vorrichtung zur Wiedererkennung eines Anhängers
DE102017210112A1 (de) Verfahren und System zur Durchführung einer Kalibrierung eines Sensors
WO2018095640A1 (de) Verfahren und system zum detektieren eines sich innerhalb eines parkplatzes befindenden erhabenen objekts
DE102015004923A1 (de) Verfahren zur Selbstlokalisation eines Fahrzeugs
DE102016223094A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE102015211053A1 (de) Steuerung eines Parkplatzsensors
DE102017212513A1 (de) Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
DE102016223180A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE102018201111B4 (de) Verfahren zur Überwachung zumindest eines Parkplatzes auf Verfügbarkeit sowie System zum Durchführen des Verfahrens
DE102013226725A1 (de) Verfahren und system für das erkennen einer handgeste, wobei selektive beleuchtung benutzt wird
DE102019206083A1 (de) Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug
DE102016223132A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE102016223144A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
WO2019063255A1 (de) Verfahren zur erkennung eines blattrandes, verfahren zur gezielten behandlung von pflanzen mit einem blattbehandlungsmittel und verwendung eines eventbasierten bildsensors zur erkennung eines blattrandes
DE102018133457B4 (de) Verfahren und System zum Bereitstellen von Umgebungsdaten
DE102017205782A1 (de) Steuervorrichtung und Verfahren
DE102016223168A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE102017100669A1 (de) Verfahren zum Erfassen eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung einer Region von Interesse in Abhängigkeit von einem Anhänger, Recheneinrichtung, Kamerasystem sowie Kraftfahrzeug
EP3655934B1 (de) Konzept zum überwachen eines parkraums

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed