DE102022002325A1 - Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken - Google Patents
Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken Download PDFInfo
- Publication number
- DE102022002325A1 DE102022002325A1 DE102022002325.3A DE102022002325A DE102022002325A1 DE 102022002325 A1 DE102022002325 A1 DE 102022002325A1 DE 102022002325 A DE102022002325 A DE 102022002325A DE 102022002325 A1 DE102022002325 A1 DE 102022002325A1
- Authority
- DE
- Germany
- Prior art keywords
- parking
- driver
- vehicle
- function
- bpm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000003213 activating effect Effects 0.000 title claims abstract description 9
- 230000004913 activation Effects 0.000 claims abstract description 19
- 238000001994 activation Methods 0.000 claims abstract description 19
- 239000013598 vector Substances 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 description 24
- 238000012800 visualization Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000000454 anti-cipatory effect Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/14—Traffic control systems for road vehicles indicating individual free spaces in parking areas
- G08G1/141—Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
- G08G1/143—Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/14—Traffic control systems for road vehicles indicating individual free spaces in parking areas
- G08G1/145—Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
- G08G1/147—Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is within an open public zone, e.g. city centre
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs (2) und zum Auffinden potenzieller Parklücken (P1 bis Pn). Erfindungsgemäß werden die Aktivierung der Parkfunktion und eine mittels dieser ausgeführte Parklückensuche automatisch unter Berücksichtigung einer Blickrichtung (BR1 bis BRm) eines Fahrers (F) des Fahrzeugs (2) durchgeführt, wobei anhand eines Schnittpunkts eines Richtungsvektors (VR1 bis VRm) der Blickrichtung (BR1 bis BRm) mit einem aus erfassten Umgebungsdaten rekonstruierten Umgebungsmodell ein Blickpunkt (BP1 bis BPm) des Fahrers (F) ermittelt wird. Der Blickpunkt (BP1 bis BPm) wird in eine hinterlegte Kartenrepräsentation (KR1, KR2) transformiert und in der Kartenrepräsentation (KR1, KR2) werden potenzielle Parklücken (P1 bis Pn) auf Basis von maschinell gelernten Algorithmen lokalisiert und klassifiziert. Weiterhin werden Übereinstimmungen von Blickpunkten (BP1 bis BPm) und lokalisierten potenziellen Parklücken (P1 bis Pn) in der Kartenrepräsentation (KR1, KR2) ermittelt und die ermittelten Übereinstimmungen und ein in vorangegangenen Aktivierungen der Parkfunktion gelerntes Fahrerverhalten werden bei der Parklückensuche berücksichtigt. Dem Fahrer (F) werden bzw. wird eine Nutzung der Parkfunktion und/oder eine Parklücke (P1 bis Pn) vorgeschlagen.
Description
- Die Erfindung betrifft ein Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken.
- In modernen Fahrzeugen finden eine Vielzahl von Fahrerassistenzfunktion Anwendung. Diese umfassen verschiedene Parkassistenzfunktionen, bei welchen basierend auf einer Aktivierung durch einen Fahrer eines Fahrzeugs eine Vermessung von potenziellen Parklücken sowie eine automatisierte längs- und quergeregelte Einfahrt in die jeweiligen Parklücken und eine automatisierte längs- und quergeregelte Ausfahrt aus den jeweiligen Parklücken erfolgt. Die Parkassistenzfunktionen wird beispielsweise mittels einer Betätigung eines Schalters, beispielsweise eines Hardkeys im Bereich einer Headunit, aktiviert. Das heißt, die Parkassistenzfunktionen bedürfen einer initialen Aktivierung durch den Fahrer, so dass das Suchen potenzieller Parklücken erst nach der Aktivierung durch den Fahrer initiiert wird.
- In diesem Zusammenhang ist aus dem Stand der Technik eine als „Automatic Park Control“ bezeichnete Parkassistenzfunktion bekannt, welche über einen Hardkey aktiviert wird. Nach der Aktivierung wird eine Parkplatzsuche im Umfeld des Fahrzeugs ausgelöst, wobei die Parkplatzsuche auf Kamerabildern und einer Ultraschallvermessung der Umgebung basiert. Nach einer Rekonstruktion der Umgebung und einer Klassifizierung potenzieller Parkplätze wird ein notwendiger Pfad geplant und durch eine entsprechende Regelung eine Trajektorie unter Berücksichtigung einer Längs- und Querregelung abgefahren.
- Aus der
DE 10 2021 002 377 A1 ist ein Verfahren zur vorausschauenden, kamerabasierten Parkplatzdetektion bekannt, wobei eine zum Einparken mit einem Fahrzeug geeignete Parklücke bereits vor einer Vorbeifahrt an der Parklücke detektiert wird. Das Verfahren umfasst folgende Verfahrensschritte: - - Aktivieren der Parkplatzdetektion;
- - Erkennen von Hindernismerkmalen in einem von einer am Fahrzeug angeordneten Kamera erzeugten Kamerabild;
- - Projizieren der Hindernismerkmale in eine zu einem Fahrbahnrand parallele und zur Fahrbahn orthogonale Merkmalebene;
- - Kartografieren der in der Merkmalebene befindlichen Hindernismerkmale zu einer Merkmalkarte durch Strahlenbildung von den Hindernismerkmalen ausgehender und zur Kamera reichender Strahlen;
- - Analyse der Merkmalkarte zur Musterdetektion von einem charakteristischen Abstand zueinander aufweisenden Hindernismerkmalen;
- - Suchen nach Anomalien in detektierten Mustern, wobei das Vorliegen einer Anomalie auf das Vorhandensein einer Parklücke hindeutet; und
- - Bei einer erkannten Anomalie: Rücktransformation einer Position der Anomalie aus der Merkmalkarte in ein dreidimensionales, eine Umgebung des Fahrzeugs beschreibendes Koordinatensystem.
- Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken anzugeben.
- Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.
- Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
- In dem Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken wird erfindungsgemäß die Aktivierung der Parkfunktion und eine mittels dieser ausgeführte Parklückensuche automatisch unter Berücksichtigung einer Blickrichtung eines Fahrers des Fahrzeugs durchgeführt. Anhand eines Schnittpunkts eines Richtungsvektors der Blickrichtung wird mit einem aus erfassten Umgebungsdaten rekonstruierten Umgebungsmodell ein Blickpunkt des Fahrers ermittelt. Der Blickpunkt wird in eine hinterlegte Kartenrepräsentation transformiert, wobei in der Kartenrepräsentation potenzielle Parklücken auf Basis von maschinell gelernten Algorithmen lokalisiert und klassifiziert werden. Weiterhin werden Übereinstimmungen von Blickpunkten und lokalisierten potenzielle Parklücken in der Kartenrepräsentation ermittelt, wobei die ermittelten Übereinstimmungen und ein in vorangegangenen Aktivierungen der Parkfunktion gelerntes Fahrerverhalten bei der Parklückensuche berücksichtigt werden und dem Fahrer eine Nutzung der Parkfunktion und/oder eine Parklücke vorgeschlagen werden bzw. wird.
- Mittels des vorliegenden Verfahrens wird eine automatisierte, adaptive und an einen entsprechenden Fahrer angepasste Aktivierung einer Parkfunktion durch Berücksichtigung der Blickrichtung des Fahrers und durch einen Abgleich mit hinterlegten Parklücken ermöglicht, beispielsweise auf der Basis von Satellitendaten oder so genannten Parkplatzprovidern. Die automatische Aktivierung verringert dabei eine Ablenkung des Fahrers vom Fahrgeschehen. Dabei ist es möglich, über einen vorherigen Datensatz ein Verhalten des Fahrers bei Parkplatzsuchen zu lernen und daraufhin im späteren Betrieb beispielsweise parallel zu Daten in einem Backend entsprechende Funktionen zu aktivieren. Das Verfahren kann mit einer bereits im Fahrzeug vorhanden Sensorik zur Umgebungserfassung umgesetzt werden. Eine Adaption einer Elektrisch/Elektronischen-Architektur des Fahrzeugs ist nicht erforderlich. Weiterhin ist das Verfahren unabhängig von verschiedenen Parklückentypen, beispielsweise Längsparklücken und Querparklücken, und kann im Rahmen maschineller Lernverfahren in einfacher Weise beliebig erweitert werden.
- Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
- Dabei zeigen:
-
1 schematisch einen Ablauf eines Verfahrens zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken, -
2 schematisch eine Visualisierung eines Verfahrensschritts des Verfahrens gemäß1 , -
3 schematisch eine Visualisierung eines weiteren Verfahrensschritts des Verfahrens gemäß1 , -
4 schematisch eine Visualisierung eines weiteren Verfahrensschritts des Verfahrens gemäß1 , -
5 schematisch eine Visualisierung eines weiteren Verfahrensschritts des Verfahrens gemäß1 , -
6 schematisch eine Visualisierung eines weiteren Verfahrensschritts des Verfahrens gemäß1 , -
7 schematisch eine Visualisierung eines weiteren Verfahrensschritts des Verfahrens gemäß1 , -
8 schematisch eine Visualisierung eines weiteren Verfahrensschritts des Verfahrens gemäß1 , -
9 schematisch eine Visualisierung eines weiteren Verfahrensschritts des Verfahrens gemäß1 , -
10 schematisch eine Visualisierung eines weiteren Verfahrensschritts des Verfahrens gemäß1 und -
11 schematisch eine Visualisierung eines weiteren Verfahrensschritts des Verfahrens gemäß1 . - Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
- In
1 ist ein Ablauf eines möglichen Ausführungsbeispiels eines Verfahrens zur Aktivierung einer Parkfunktion eines in2 gezeigten Fahrzeugs 2 und zum Auffinden von in7 näher dargestellten potenziellen Parklücken P1 bis Pn dargestellt. In den2 bis11 sind Visualisierungen von möglichen Verfahrensschritten VS1 bis VS10 des Verfahrens dargestellt. - Für einen zuverlässigen Betrieb des Verfahrens zur Aktivierung einer Parkfunktion ist eine Kalibrierung einer Sensorik zur Umgebungserfassung und einer Fahrerbeobachtungskamera.
- Hierzu erfolgen in einem ersten Verfahrensschritt VS1, veranschaulicht am Beispiel eines Kamerasystems in
2 , eine intrinsische und extrinsische Initialkalibrierung einer Kamera 1, beispielsweise während einer Produktion des Fahrzeugs 2 mittels spezifischen Targets oder auch im Feldbetrieb des Fahrzeugs 2 durch ein Tracking charakteristischer Merkmale. Diese Kalibrierung erfolgt beispielsweise unter Verwendung von mittels weiteren zur Umgebungserfassung ausgebildeten Sensoren 3 bis 7 erfassten Daten. Die Sensoren 3 bis 7 umfassen beispielsweise Radarsensoren, Ultraschallsensoren, weitere Kameras und/oder Lidarsensoren. -
- Gleichung (1) beschreibt dabei eine Projektion eines dreidimensionalen Punkts auf die Kamerabildebene mit einer intrinsischen Kalibriematrix, dargestellt durch das Formelzeichen K, einer extrinsischen Kalibriermatrix in Form einer Rotationsmatrix R, einem dreidimensionalen Objektpunkt I und einem Translationsvektor X0.
- Ergebnisse der Kalibrierung sind die intrinsische Kalibriermatrix und die extrinsische Kalibriermatrix. Die intrinsische Kalibriermatrix definiert eine innere Beschreibung der Kamera 1, beispielsweise deren Brennweite, Brennpunkte und Bildmittelhauptpunktverschiebungen. Die extrinsische Kalibriermatrix definiert eine extrinsische Position der Kamera 1 in Relation zu einem übergeordneten Koordinatensystem. Beispielsweise werden eine Translation (x, y, z) und eine Rotation um eine Rollachse, Nickachse und Gierachse des Fahrzeugs 2 entsprechend einem Fahrzeugursprung, beispielsweise einem Mittelpunkt einer Fahrzeughinterachse, bestimmt.
- Eine Kombination von extrinsischer und intrinsischer Kalibriermatrix ergibt eine so genannte Projektionsmatrix, mittels welcher eine Kameraabbildung in ein übergeordnetes Referenzsystem projiziert wird.
- In einem Verfahrensschritt VS2, visualisiert in
3 , erfolgt anhand von mittels der kalibrierten Sensorik erfassten Umgebungsdaten eine Rekonstruktion der Umgebung des Fahrzeugs 2. Ergebnis ist eine insbesondere dreidimensionale Umgebungsrekonstruktion R. - Weiterhin wird in einem Verfahrensschritt VS3, visualisiert in
4 , eine Blickrichtung BR1 bis BRm eines Fahrers F des Fahrzeugs 2 ermittelt. Dies erfolgt anhand eines mittels der Fahrerbeobachtungskamera erfassten Kamerabilds B2 des Fahrers F, beispielsweise anhand einer so genannten Purkinje Reflexion etc. Die Fahrerbeobachtungskamera ist beispielsweise in einem Bereich eines Instrumentenklusters im Innenraum des Fahrzeugs 2 verbaut. - Weiterhin zeigt
4 ein mittels der Kamera 1 erfasstes Kamerabild B1 der Umgebung des Fahrzeugs 2 und in diese projizierte Blickrichtungen BR1 bis BRm des Fahrers F. Somit liegt für jede Blickrichtung BR1 bis BRm ein Richtungsvektor VR1 bis VRm in einem Koordinatensystem der Kamera 1 vor. Die Kamera 1 ist beispielsweise eine so genannte Multi-Purpose-Kamera, welche beispielsweise im Bereich eines oberen Drittels einer Windschutzscheibe des Fahrzeugs 2 verbaut ist. - Anschließend erfolgt in einem weiteren Verfahrensschritt VS4, visualisiert in
5 , eine Berechnung von Blickpunkten BP1 bis BPm durch Ermittlung von Schnittpunkten von Richtungsvektoren VR1 bis VRm der jeweiligen Blickrichtung BR1 bis BRm bzw. der Blickpunkte BP1 bis BPm mit der aus den erfassten Umgebungsdaten erzeugten Umgebungsrekonstruktion R ausgehend von einem Ursprung U eines Koordinatensystem des Fahrzeugs 2. Somit liegen dreidimensionale Schnittpunkte in Relation zum Koordinatensystem des Fahrzeugs 2 vor, welche den Blickpunkten BP1 bis BPm im dreidimensionalen Raum des Fahrers F entsprechen. - In einem weiteren Verfahrensschritt VS5, visualisiert in
6 , erfolgt eine Transformation der im Verfahrensschritt VS4 gewonnenen Blickpunkte BP1 bis BPm in eine beispielsweise in einem Backend hinterlegte Kartenrepräsentation KR1, KR2, wobei die Kartenrepräsentation KR1, KR2 auf Satellitenbildern bzw. einer Repräsentation einer so genannten Parkplatz- oder Parklückenkarte basiert. - In einem weiteren Verfahrensschritt VS6, visualisiert in
7 , werden in der Kartenrepräsentation KR1, KR2 potenzielle Parklücken P1 bi Pn auf Basis von Bildverarbeitungsalgorithmen, insbesondere maschinell gelernten Algorithmen, lokalisiert und klassifiziert. - Liegen derartige potenzielle Parklücken P1 bis Pn vor, werden in einem weiteren Verfahrensschritt VS7, visualisiert in
8 , die ermittelten Blickpunkte BP1 bis BPm mit den räumlich extrahierten Parklücken P1 bis Pn anhand geeigneter Metriken Met verglichen. Das heißt, es werden Übereinstimmungen von Blickpunkten BP1 bis BPn und lokalisierten potenziellen Parklücken P1 bis Pn in der Kartenrepräsentation KR1, KR2 ermittelt. - Die Metriken Met können gemäß
- In einem weiteren Verfahrensschritt VS8, visualisiert in
9 , erfolgt eine Berechnung einer Aktivierung der Parkfunktion über einen definierten Zeitraum, wobei beispielsweise ermittelt wird, ob die Metrik Met über den definierten Zeitraum oberhalb einer definierten Schwelle SW liegt. Ist dies der Fall, wird dem Fahrer F die Parkfunktion vorgeschlagen. Die Parkfunktion ist dabei insbesondere derart ausgebildet, dass nach einer Aktivierung derselben eine Vermessung von potenziellen Parklücken P1 bis Pn sowie eine automatisierte längs- und quergeregelte Einfahrt in die jeweiligen Parklücken P1 bis Pn und eine automatisierte längs- und quergeregelte Ausfahrt aus den jeweiligen Parklücken P1 bis Pn erfolgt. - In einem weiteren Verfahrensschritt VS9, visualisiert in
10 , erfolgt eine Akkumulation von Datensätzen über mehrere Einparkmanöver, wobei die Datensätze insbesondere Informationen über die Blickrichtungen BR1 bis BRm, Blickpunkte BP1 bis BPm, Parklücken P1 bis Pn, dreidimensionale Modelle, User-Interface-Aktionen, das heißt gewünschte Funktionsaktivierungen, etc. aufweisen. - In einer möglichen Ausgestaltung des Verfahrens werden in einem weiteren Verfahrensschritt VS10, visualisiert in
11 , anhand der akquirierten Datensätze maschinelle Lernverfahren bzw. künstliche neuronale Netze Kl trainiert, die nach einer entsprechenden Trainingsphase aus einem jeweiligen Pattern der Blickrichtung BR1 bis BRm die Suche nach Parklücken P1 bis Pn ableiten können, so dass eine Funktionsaktivierung auch ohne ein Vorliegen von Parklücken P1 bis Pn möglich ist. Die Parklückeninformationen sind jedoch in einer Trainingsphase weiterhin notwendig. - Ein solcher Ansatz bietet sich insbesondere für ein so genanntes Reinforcement Learning an, in welchem ein Vorschlag einer Funktionsaktivierung durch das System, welches schlussendlich auch in einem Einparkmanöver mündet, als Reward RW interpretiert wird. Hingegen wird ein Ausbleiben eines Einparkmanövers als Punishment PM berücksichtigt. Das neuronale Netz KI versucht dabei Reward-Einparkmanöver zu maximieren.
- Das vorliegende Verfahren stellt somit einen Ansatz dar, bei welchem anhand der Blickrichtung BR1 bis BRm des Fahrers F und einem Abgleich dieser mit, beispielsweise in einem Backend verfügbaren, Parklücken P1 bis Pn eine Aktivierung von Parkfunktionalitäten zu ermöglichen. Dabei weist das Verfahren den Vorteil auf, dass es auf im Fahrzeug 2 bereits existenten Baugruppen aufbauen kann, eine Aufmerksamkeit des Fahrers F nicht durch Betätigungen Hardkeys oder Softkeys vom Fahrgeschehen ablenkt und eine automatisierte und adaptive Aktivierung von Parkfunktionen ermöglicht. Darüber hinaus besteht die Möglichkeit, dass sich das Verfahren an den jeweiligen Fahrer F individuell anpasst.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102021002377 A1 [0004]
Claims (3)
- Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs (2) und zum Auffinden potenzieller Parklücken (P1 bis Pn), dadurch gekennzeichnet, dass - die Aktivierung der Parkfunktion und eine mittels dieser ausgeführte Parklückensuche automatisch unter Berücksichtigung einer Blickrichtung (BR1 bis BRm) eines Fahrers (F) des Fahrzeugs (2) durchgeführt werden, - anhand eines Schnittpunkts eines Richtungsvektors (VR1 bis VRm) der Blickrichtung (BR1 bis BRm) mit einem aus erfassten Umgebungsdaten rekonstruierten Umgebungsmodell ein Blickpunkt (BP1 bis BPm) des Fahrers (F) ermittelt wird, - der Blickpunkt (BP1 bis BPm) in eine hinterlegte Kartenrepräsentation (KR1, KR2) transformiert wird, - in der Kartenrepräsentation (KR1, KR2) potenzielle Parklücken (P1 bis Pn) auf Basis von maschinell gelernten Algorithmen lokalisiert und klassifiziert werden, - Übereinstimmungen von Blickpunkten (BP1 bis BPm) und lokalisierten potenziellen Parklücken (P1 bis Pn) in der Kartenrepräsentation (KR1, KR2) ermittelt werden, - die ermittelten Übereinstimmungen und ein in vorangegangenen Aktivierungen der Parkfunktion gelerntes Fahrerverhalten bei der Parklückensuche berücksichtigt werden und dem Fahrer (F) eine Nutzung der Parkfunktion und/oder eine Parklücke (P1 bis Pn) vorgeschlagen werden bzw. wird.
- Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass die Kartenrepräsentation (KR1, KR2) auf Satellitenbildern basiert. - Verfahren nach
Anspruch 1 oder2 , dadurch gekennzeichnet, dass die Blickrichtung (BR1 bis BRm) mittels einer Fahrerbeobachtungskamera ermittelt wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022002325.3A DE102022002325B4 (de) | 2022-06-28 | 2022-06-28 | Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022002325.3A DE102022002325B4 (de) | 2022-06-28 | 2022-06-28 | Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102022002325A1 true DE102022002325A1 (de) | 2022-09-15 |
DE102022002325B4 DE102022002325B4 (de) | 2023-11-30 |
Family
ID=83005407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022002325.3A Active DE102022002325B4 (de) | 2022-06-28 | 2022-06-28 | Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022002325B4 (de) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021002377A1 (de) | 2021-05-04 | 2021-06-17 | Daimler Ag | Verfahren zur vorausschauenden, kamerabasierten Parkplatzdetektion und Fahrzeug |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020106986A (ja) | 2018-12-26 | 2020-07-09 | パナソニックIpマネジメント株式会社 | 情報処理装置、情報処理方法、および移動体 |
DE102022001569A1 (de) | 2022-05-04 | 2022-07-14 | Mercedes-Benz Group AG | Verfahren zur Erkennung und Auswahl einer Parklücke |
-
2022
- 2022-06-28 DE DE102022002325.3A patent/DE102022002325B4/de active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021002377A1 (de) | 2021-05-04 | 2021-06-17 | Daimler Ag | Verfahren zur vorausschauenden, kamerabasierten Parkplatzdetektion und Fahrzeug |
Also Published As
Publication number | Publication date |
---|---|
DE102022002325B4 (de) | 2023-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017116088B4 (de) | Vorrichtung und Verfahren zum Abschätzen einer Position eines Fahrzeugs | |
DE102018128290A1 (de) | Verfahren und vorrichtung zum erzeugen von szenarien und parametrischen sweeps für die entwicklung und bewertung von autonomen antriebssystemen | |
DE102017205093A1 (de) | Verfahren und System zur Vorhersage von Sensorsignalen eines Fahrzeugs | |
WO2012152268A2 (de) | Redudante objektdetektion für fahrerassistenzsysteme | |
DE102018214510A1 (de) | Parkplatzkartenerzeugung auf der Straße | |
DE102016208025A1 (de) | Verfahren zur Erfassung von Verkehrszeichen | |
DE102014106506A1 (de) | Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug | |
DE102019103368A1 (de) | Erkennung durch fusion mehrerer sensoren | |
DE102016124888A1 (de) | Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken unter Verwendung einer Fahrerassistenzvorrichtung, entsprechendes Computerprogrammprodukt und Fahrerassistenzvorrichtung | |
DE102020006719A1 (de) | Verfahren zur Bereitstellung von Informationen über Verkehrsteilnehmer | |
DE102022002325B4 (de) | Verfahren zur Aktivierung einer Parkfunktion eines Fahrzeugs und zum Auffinden potenzieller Parklücken | |
WO2019211293A1 (de) | Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug | |
DE102021005053A1 (de) | Verfahren zum Fusionieren von einer Vielzahl von Sensordaten mittels einer elektronischen Recheneinrichtung, sowie ein Fahrerassistenzsystem | |
DE102019005825A1 (de) | Verfahren zum Erzeugen von Trainingsdaten für eine kraftfahrzeugexterne elektronische Recheneinrichtung, sowie Fahrerassistenzsystem | |
DE102010018333A1 (de) | Verfahren und Auswertevorrichtung zum Auswerten von Informationen zumindest eines von zumindest einer optischen Kamera aufgenommenen Bildes | |
DE102016103037A1 (de) | Verfahren zum Überprüfen einer Funktionstüchtigkeit eines Kamera-Monitor-Systems, Kamera-Monitor-System sowie Kraftfahrzeug | |
DE102020003465A1 (de) | Verfahren zur Detektion von Objekten in monokularen RGB-Bildern | |
DE102019127322A1 (de) | Verfahren zur Erfassung von Objekten in einer Fahrzeugumgebung, Vorrichtung zur Datenverarbeitung, Computerprogrammprodukt und computerlesbarer Datenträger | |
DE102019211459A1 (de) | Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren | |
DE102019004075A1 (de) | Verfahren zum Bestimmen einer Relevanz eines Objekts in einer Umgebung eines Kraftfahrzeugs mittels eines Fahrerassistenzsystems sowie Fahrerassistenzsystem | |
DE102021131116B3 (de) | Computerimplementiertes Verfahren zur Detektion von Fehlern eines Fahrerassistenzprogramms für ein Kraftfahrzeug | |
DE102021002918B4 (de) | Verfahren zur Erkennung von für ein Fahrzeug sicherheitsrelevanten Objekten | |
DE102019212279B3 (de) | Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren | |
DE102022204086A1 (de) | Verfahren zur Ermittlung einer dynamischen Fremdobjekt-Fahrkorridor-Assoziation | |
DE102022000644A1 (de) | Verfahren zum Betreiben eines Assistenzsystems für ein Kraftfahrzeug, sowie Assistenzsystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R230 | Request for early publication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division |