DE102011084524A1 - Verfahren zur Darstellung eines Fahrzeugumfeldes - Google Patents

Verfahren zur Darstellung eines Fahrzeugumfeldes Download PDF

Info

Publication number
DE102011084524A1
DE102011084524A1 DE102011084524A DE102011084524A DE102011084524A1 DE 102011084524 A1 DE102011084524 A1 DE 102011084524A1 DE 102011084524 A DE102011084524 A DE 102011084524A DE 102011084524 A DE102011084524 A DE 102011084524A DE 102011084524 A1 DE102011084524 A1 DE 102011084524A1
Authority
DE
Germany
Prior art keywords
environment
touch
representation
display device
sensitive display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011084524A
Other languages
English (en)
Inventor
Henning Von Zitzewitz
Karsten Muehlmann
Jan Egelhaaf
Raphael Cano
Leo Vepa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102011084524A priority Critical patent/DE102011084524A1/de
Priority to PCT/EP2012/068804 priority patent/WO2013053590A1/de
Publication of DE102011084524A1 publication Critical patent/DE102011084524A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es wird ein Verfahren zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine-Schnittstelle (18) eines Fahrerassistenzsystems (26) mit folgenden Schritten: – Erfassen von Umfelddaten mit Hilfe von Umfeldsensorik (20, 22, 24); – Berechnen einer Umfelddarstellung (42) in der Vogelperspektive auf Basis der erfassten Umfelddaten; – Ausgabe der Umfelddarstellung (42) auf einer berührungsempfindlichen Anzeigevorrichtung (40); und – Steuern einer Ansicht auf das Umfeld in der Umfelddarstellung (42) durch Gesten (52, 54, 55, 56, 58) eines Benutzers (44) auf der berührungsempfindlichen Anzeigevorrichtung (40). Weiterhin werden ein derartiges Computerprogrammprodukt und ein derartiges Fahrassistenzsystem vorgeschlagen.

Description

  • Stand der Technik
  • Die Erfindung betrifft ein Verfahren zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine Schnittstelle in einem Fahrerassistenzsystem. Die Erfindung betrifft weiterhin ein derartiges Computerprogrammprodukt sowie ein derartiges Fahrassistenzsystem.
  • Fahrassistenzsysteme sind Zusatzeinrichtungen in einem Fahrzeug, die den Fahrer beim Manövrieren des Fahrzeuges unterstützen. Typischerweise umfassen Fahrassistenzsysteme unterschiedliche Subsysteme, beispielsweise einen Einparkassistenten, ein Navigationssystem oder eine Totwinkelüberwachung, die mit Hilfe von einer Sensorik das Umfeld des Fahrzeuges überwachen. Derartige Sensorik kann beispielsweise optische Sensoren, Ultraschallsensoren, Radarsensoren oder LIDAR-Sensoren umfassen, die einzeln oder in Kombination Daten betreffend das Fahrzeugumfeld bereitstellen.
  • Fahrassistenzsysteme umfassen typischerweise eine Mensch-Maschine-Schnittstelle (HMI), die dem Fahrer Informationen unterschiedlicher Subsysteme, beispielsweise eines Navigationssystems oder eines Unterhaltungssystems, bereitstellt und/oder durch die der Fahrer mit unterschiedlichen Subsystemen interagieren kann. Aus Dokument DE 10 2008 025 124 A1 ist ein Anzeigesystem für ein Fahrzeug bekannt, das eine Anzeige zur graphischen Darstellung veränderlicher Informationen in Kombination mit einer berührungssensitiven Oberfläche umfasst. Dabei erzeugt die berührungssensitive Oberfläche in Abhängigkeit einer Betätigung der Oberfläche durch den Benutzer eine Bedieninformation.
  • DE 10 2009 057 081 A1 beschreibt eine Benutzerschnittstelle, die Eingabegesten auf einer berührungsempfindlichen Oberfläche erfasst und in Abhängigkeit von erfassten Parametern betreffend die Eingabegeste eine graphische Darstellung auf einer Anzeigefläche verändert.
  • Aus DE 10 2006 060 904 ist ein Flughafenverkehrsinformations-Anzeigesystem bekannt, das mit Hilfe einer Bildverarbeitungseinheit einen zu beobachtenden Flughafenbereich anzeigt. Zur Darstellung ist die Bildverarbeitungseinheit mit einem berührungsempfindlichen Eingabegerät ausgerüstet, um ein Panoramasegment in Abhängigkeit von einer Fingerbewegung auf dem Eingabegerät auszuwählen.
  • An die Mensch-Maschine-Schnittstelle eines Fahrassistenzsystems werden hohe Anforderungen gestellt. So muss die Schnittstelle intuitiv erfassbar und schnell bedienbar sein, damit die Aufmerksamkeit des Fahrers nicht negativ beeinflusst wird. Daher besteht ein anhaltendes Interesse daran, die Bereitstellung von Informationen an den Fahrer sowie die Interaktion mit dem Fahrer möglichst einfach und unkompliziert zu gestalteten.
  • Offenbarung der Erfindung
  • Erfindungsgemäß wird ein Verfahren zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine-Schnittstelle eines Fahrerassistenzsystems mit folgenden Schritten vorgeschlagen:
    • – Erfassen von Umfelddaten mit Hilfe von Umfeldsensorik;
    • – Berechnen einer Umfelddarstellung in der Vogelperspektive auf Basis der erfassten Umfelddaten;
    • – Ausgabe der Umfelddarstellung auf einer berührungsempfindlichen Anzeigevorrichtung; und
    • – Steuern einer Ansicht auf das Umfeld in der Umfelddarstellung durch Gesten des Benutzers auf der berührungsempfindlichen Anzeigevorrichtung.
  • Im Rahmen der Erfindung bezeichnet ein Fahrassistenzsystem eine elektronische, in einem Fahrzeug integrierte Zusatzeinrichtung, die den Fahrer in verschiedenen Fahrsituationen unterstützt. Fahrassistenzsysteme umfassen üblicherweise verschiedene Subsysteme, die insbesondere zur Steigerung der Sicherheit oder des Komforts des Fahrzeuges eingesetzt werden. Beispielsweise kann ein Fahrassistenzsystem einen Einparkassistenten umfassen, der den Fahrer beim Manövrieren in Parksituationen unterstützt.
  • Zur Ausgabe von Informationen an den Fahrer umfasst ein Fahrassistenzsystem üblicherweise eine Mensch-Maschine-Schnittstelle (HMI), die Informationen in haptischer, optischer und/oder akustischer Form ausgeben kann. Beispielsweise entsprechen Ruckeln am Lenkrad, Darstellen von Bildern auf einem Display oder Ausgeben von Tönen über einen Lautsprecher solchen Ausgaben. Weiterhin kann die Mensch-Maschine-Schnittstelle mit dem Fahrer interagieren, wobei dem Fahrer Mittel zur haptischen, optischen und/oder akustischen Eingabe bereitgestellt werden. Beispielsweise kann eine Sprach- oder Videosteuerung vorgesehen sein. Auch eine berührungsempfindliche Einrichtung, die Berührungen des Benutzers, etwa dem Fahrer oder dem Beifahrer, registriert, kann für Eingaben des Fahrers eingesetzt werden. Beispiele hierfür sind Tastaturen oder berührungsempfindliche Anzeigevorrichtungen.
  • Zur Charakterisierung des Fahrzeugumfeldes umfasst das Fahrassistenzsystem Umfeldsensorik, die Umfelddaten erfasst. Die Umfeldsensorik kann beispielsweise ein Kamerasystem mit einer oder mehreren Kameras umfassen. Zusätzlich oder alternativ können aber auch ein Ultraschallsystem, Radarsystem, etc. eingesetzt werden, um Umfelddaten zu sammeln. Die Umfelddarstellung vereinigt die erfassten Umfelddaten zur Ausgabe auf einer berührungsempfindlichen Anzeigevorrichtung. So kann die Umfelddarstellung etwa auf dem Kamerasystem basierende Videoansichten des Fahrzeugumfeldes zur Ausgabe auf einer berührungsempfindlichen Anzeigevorrichtung umfassen. Weiterhin kann die Umfelddarstellung Visualisierungen von Ultraschalldaten, Radardaten, etc. enthalten.
  • Die Umfelddarstellung, die eine Vereinigung von erfassten Umfelddaten darstellt, kann in die Vogelperspektive transformiert werden. Dazu können die erfassten Umfelddaten in einer Datenverarbeitungseinrichtung auf eine Ebene projiziert werden, die das Fahrzeugumfeld, von einem über dem Fahrzeug gelegenen Punkt gesehen, darstellt. Die Projektionsebene kann dabei in Ihrer Form beliebig gewählt werden. Bevorzugt werden die Umfelddaten auf eine flache oder eine schüsselförmige Ebene projiziert. So können insbesondere auf dem Kamerasystem basierende Videoansichten, die unterschiedliche Ausschnitte des Fahrzeugumfeldes zeigen, in einer Ebenen zusammengeführt werden. Dabei können das Fahrzeug und dessen Umfeld so dargestellt werden, dass das Fahrzeug beispielsweise im Zentrum mit dem um das Fahrzeug herum liegende Umfeld wiedergegeben wird.
  • Im Falle einer schüsselförmigen Projektionsebene kann der Übergang zwischen horizontalem Bereich und vertikalem Bereich der Ebene so gewählt werden, dass dieser mit dem Übergang zwischen flachen Bereichen, wie der Straße, und erhabenen Objekten, beispielsweise Gebäuden, übereinstimmt. Vorzugsweise wird die Umfelddarstellung in der Vogelperspektive aus Videoansichten des Kamerasystems, projiziert auf eine schüsselförmige Ebene, generiert.
  • Die berührungsempfindliche Anzeigevorrichtung kann eine Anzeige umfassen, die mit mindestens einem Detektionselement gekoppelt ist, um Berührungen des Benutzers zu registrieren. Beispielsweise kann die Anzeige eine berührungsempfindliche Oberfläche als Detektionselement umfassen. Das Detektionselement erfasst dabei einen Kontakt zwischen der berührungsempfindlichen Anzeigevorrichtung und einem Finger oder einem Stift des Benutzers. So können Finger- und/oder Stiftbewegungen des Benutzers als Geste detektiert werden und basierend auf der detektierten Geste ein Steuersignal an eine Datenverarbeitungseinheit gesendet wird, die die Transformation von einer Ansicht in eine andere Ansicht beziehungsweise von einem Blickwinkel in einen anderen Blickwinkel auf das Umfeld in der Umfelddarstellung durchführt.
  • Die Gesten und deren Wirkung im Bezug auf das Verändern der Ansicht auf das Umfeld in der Umfelddarstellung können vordefiniert sein. So können Veränderungen der Ansicht durch vordefinierte Gesten des Benutzers gesteuert werden. Beispielsweise kann der Blickwinkel oder die Skalierung der Umfelddarstellung verändert werden, wenn die Geste des Benutzers zu der entsprechenden vordefinierten Geste korrespondiert.
  • Die Veränderung der Ansicht kann dabei je nach Geste des Benutzers gleichmäßig oder sprunghaft erfolgen. So kann eine Blickwinkeländerung in der Umfelddarstellung gleichmäßig erfolgen, indem die Ansicht auf das Umfeld in der Umfelddarstellung beispielsweise einem Ziehen des Fingers oder Stifts über die berührungsempfindliche Anzeigevorrichtung als Geste folgt. Auch eine Skalierung der Ansicht oder ein Zoom in die Ansicht kann gleichmäßig durch beispielsweise Strecken und Stauchen von beispielsweise zwei Fingern als Geste erfolgen.
  • Sprunghafte Veränderungen der Ansicht können etwa das Umschalten zwischen vordefinierten Blickwinkeln umfassen. Dazu können etwa ein oder mehrere Symbole in die Ansicht der Umfelddarstellung aufgenommen sein. Zum Umschalten zwischen den Ansichten kann ein Tippen oder Doppeltippen mit dem Stift oder dem Finger auf ein Symbol als Geste vordefiniert sein. Alternativ kann auch Ziehen oder Schubsen mit ein oder mehreren Fingern über die berührungsempfindliche Anzeigevorrichtung als Geste die Auswahl verschiedener vordefinierter Blickwinkel steuern.
  • Erfindungsgemäß wird weiterhin ein Computerprogramm vorgeschlagen, gemäß dem eines der hierin beschriebenen Verfahren durchgeführt wird, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird. Bei der Computereinrichtung kann es sich beispielsweise um ein Modul zur Implementierung eines Fahrerassistenzsystems, oder eines Subsystems hiervon, in einem Fahrzeug handeln. Das Computerprogramm kann auf einem maschinenlesbaren Speichermedium gespeichert werden, etwa auf einem permanenten oder wiederbeschreibbaren Speichermedium oder in Zuordnung zu einer Computereinrichtung oder auf einer entfernbaren CD-ROM, DVD oder einem USB-Stick. Zusätzlich oder alternativ kann das Computerprogramm auf einer Computereinrichtung wie etwa einem Server zum Herunterladen bereitgestellt werden, z.B. über ein Datennetzwerk wie etwa das Internet oder eine Kommunikationsverbindung wie etwa eine Telefonleitung oder eine drahtlose Verbindung.
  • Schließlich wird erfindungsgemäß ein Fahrassistenzsystem zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine-Schnittstelle in einem Fahrerassistenzsystem vorgeschlagen, das vorzugsweise zur Durchführung des vorstehend beschriebenen Verfahrens dient. Das erfindungsgemäße Fahrassistenzsystem umfasst dazu folgende Komponenten:
    • – Umfeldsensorik zum Erfassen von Umfelddaten;
    • – mindestens eine Komponente zum Berechnen einer Umfelddarstellung in der Vogelperspektive auf Basis der erfassten Umfelddaten;
    • – mindestens eine berührungsempfindliche Anzeigevorrichtung zum Ausgeben der Umfelddarstellung; und
    • – mindestens eine Komponente, die in Reaktion auf Gesten des Benutzers eine Ansicht auf das Umfeld in der Umfelddarstellung ändert.
  • Die Umfeldsensorik kann beispielsweise ein Kamerasystem mit einer oder mehreren Kameras umfassen. Zusätzlich oder alternativ können aber auch ein Ultraschallsystem, Radarsystem, etc. eingesetzt werden, um Umfelddaten zu sammeln.
  • Die Berechnung der Umfelddarstellung in der Vogelperspektive sowie die Transformation der Umfelddarstellung von einer Ansicht in eine andere Ansicht können durch eine oder unterschiedliche Komponenten des Fahrassistenzsystems erfolgen. So kann beispielsweise eine Datenverarbeitungseinrichtung des Fahrassistenzsystems ausgebildet sein, diese Berechnungen und Transformationen durchzuführen.
  • Die berührungsempfindliche Anzeigevorrichtung kann eine Anzeige umfassen, die mit einem Detektionselement gekoppelt ist, um Berührungen des Benutzers zu registrieren. Beispielsweise kann die Anzeige eine berührungsempfindliche Oberfläche als Detektionselement umfassen. wobei je nach Geste auf der berührungsempfindlichen Oberfläche ein Steuersignal erzeugt wird, anhand dessen die Ansicht auf das Umfeld in der Umfelddarstellung gemäß einer vordefinierten Veränderung transformiert wird.
  • Vorteile der Erfindung
  • Die Erfindung ermöglicht es, dem Fahrer insbesondere in schwierigen und unübersichtlichen Fahrsituationen, wie dem Einparken, möglichst schnell, individuell an die Situation angepasste Informationen zur Verfügung zu stellen. So kann sich der Fahrer schnell einen umfassenden Überblick über das Umfeld des Fahrzeuges verschaffen, um die Fahrsituation zu beurteilen und das Fahrmanöver sicher durchführen zu können. Weiterhin stellt die Erfindung eine besonders intuitive Lösung dar, die ohne Schwierigkeiten bedient werden kann und damit unnötige Ablenkungen des Fahrers durch das Fahrassistenzsystem vermeidet. Auf diese Weise kann der Nutzwert und die Akzeptanz von entsprechenden Assistenten erhöht werden.
  • Situationen, bei denen insbesondere das Sichtfeld des Fahrers eingeschränkt ist, treten im städtischen Verkehr, beispielsweise beim Einparken, häufig auf und ein erfindungsgemäß weitergebildetes Fahrassistenzsystem kann somit zu einer relevanten Verbesserung beitragen.
  • Kurze Beschreibung der Zeichnungen
  • Weitere Aspekte und Vorteile der Erfindung werden nunmehr anhand der beigefügten Figuren eingehender beschrieben. Hierbei zeigt:
  • 1 ein mit einem erfindungsgemäßen Fahrassistenzsystem ausgerüstetes Fahrzeug in einer beispielhaften Fahrsituation;
  • 2 eine schematische Darstellung der Projektionsebene zur Erzeugung einer Umfelddarstellung in der Vogelperspektive;
  • 3 eine beispielhafte Umfelddarstellung ausgegeben auf einer berührungsempfindlichen Anzeigevorrichtung des HMI eines Fahrassistenzsystems aus 1;
  • 4 in Form eines Flussdiagramms eine Arbeitsweise des Fahrassistenzsystems aus 1.
  • Ausführungsformen der Erfindung
  • In 1 ist schematisch ein Fahrzeug 10 in einer Fahrsituation dargestellt, die ein Einparken in eine Parklücke 12 zwischen begrenzenden Objekten (z.B. Fahrzeugen 14 und 16) betrifft, die aber auch ein Ausparken aus der Parklücke 12 betreffen kann. Beim Manövrieren wird der Fahrer von erfindungsgemäßem Fahrassistenzsystem 26 unterstützt, indem ein HMI 18 dem Fahrer das Umfeld des Fahrzeuges 10 auf einer Anzeigevorrichtung 40 darstellt. Dazu umfasst das Fahrassistenzsystem 26 ein Kamerasystem mit einer Frontkamera 20, einer Rückfahrkamera 24 und zwei Seitenkameras 22, die als Weitwinkelkameras ausgelegt sein können. Neben dem Kamerasystem kann das Fahrassistenzsystem 11 weitere Umfeldsensorik umfassen, die in 1 nicht gezeigt ist.
  • Von dem Kamerasystem 20, 22, 24 wird das Umfeld des Fahrzeuges 10 in Ausschnitten aus unterschiedlichen Perspektiven aufgezeichnet und stellt so unterschiedliche Videoansichten bereit. Um dem Fahrer einen möglichst vollständigen Überblick über sein unmittelbares Umfeld, das heißt innerhalb der Reichweite der verbauten Kameras 20, 22, 24, zu verschaffen, können die unterschiedlichen Videoansichten in einer Datenverarbeitungseinheit 25 in eine Umfelddarstellung 42 aus der Vogelperspektive transformiert werden und auf einer Anzeigevorrichtung 18 ausgeben werden. Dazu werden die unterschiedlichen Videoansichten auf eine Ebene 30 projiziert, die das Fahrzeug 10 und dessen Umfeld, von einem Punkt über dem Fahrzeug 10 gesehen, darstellt.
  • In 2 ist beispielhaft ein Schnitt einer schüsselartigen Ebene 30 gezeigt, auf die Videoansichten des Fahrzeugumfeldes projiziert werden können. Dabei wird der Übergang zwischen dem horizontalen Bereich 34 und dem vertikalen Bereich 32 der schüsselförmigen Ebene 30 möglichst so gewählt, dass dieser mit dem Übergang zwischen flachen Bereichen, wie der Straße 27 auf der sich das Fahrzeug 10 befindet, und erhabenen Objekten, wie Gebäuden 28, im Umfeld des Fahrzeuges 10 übereinstimmen. Auf diese Weise entsteht in der angezeigten Umfelddarstellung 42 ein realer Eindruck, der für den Fahrer intuitiver zu beurteilen ist.
  • Die resultierende Umfelddarstellung 42 zur Ausgabe auf einer der Anzeigevorrichtung 40 eines HMI ist in 3 dargestellt. Dort sind das Fahrzeug 10 und dessen Umfeld aus der Vogelperspektive dargestellt. Die Anzeigevorrichtung 40 ist als berührungsempfindliche Anzeigevorrichtung 40 ausgestaltet, wobei in die Anzeige eine berührungsempfindliche Oberfläche integriert ist, um einen Kontakt mit beispielsweise einem oder mehreren Fingern 44 des Benutzers oder einem Stift zu detektieren. Dabei wird die Position des Kontakts auf der Anzeigevorrichtung 40 sowie etwaige Finger- oder Stiftbewegungen des Benutzers als Geste registriert. Solche Gesten können beispielsweise Fingerbewegungen wie einfaches Tippen, Doppeltippen, Ziehen, Strecken oder Stauchen auf der Oberfläche der Anzeigevorrichtung 40 umfassen. Hierdurch kann eine intuitive Unterstützung des Fahrers erreicht werden, da der Fahrer die Ansicht auf das Umfeld in der Umfelddarstellung 42 individuell angepasst an die Fahrsituation steuern kann. Zusätzlich ist die Steuerung schnell und einfach zu bedienen. So wird der Fahrer nicht unnötig abgelenkt und kann sich auf die vorliegende Fahrsituation konzentrieren.
  • In 3 sind beispielhafte Wirkungen von Gesten auf der Anzeige 40 des HMI 18 angedeutet. Dabei sind Gesten und deren Wirkung im Bezug auf die Steuerung der Ansicht auf das Umfeld in der Umfelddarstellung 42 vordefiniert. Im Folgenden seien nur einige der möglichen Ausführungsformen zur Gestensteuerung in der vogelperspektivischen Ansicht des Fahrzeuges 10 erwähnt. Die folgenden Beispiele sind nicht abschließend und im Rahmen fachmännischen Handelns ist eine Vielzahl von Abwandlungen möglich.
  • In einem Beispiel zur Steuerung des Blickwinkels kann der Benutzer als Geste zum Beispiel den Finger oder den Stift, wie mit Bezugszeichen 56 angedeutet, über die berührungsempfindliche Anzeigevorrichtung 40 ziehen und so mit der Bewegung des Fingers den Blickwinkel auf das Umfeld des Fahrzeuges 10, dargestellt in der Umfelddarstellung 42, steuern. Dazu wird basierend auf der detektierten Geste ein Steuersignal an eine Datenverarbeitungseinheit 25 des Fahrassistenzsystems 26 gesendet, die die Transformation der Umfelddarstellung 42 in verschiedene Ansichten auf das Umfeld durchführt.
  • In einem weiteren Beispiel kann die Blickwinkeländerung durch Tippen oder Doppeltippen sprunghaft realisiert werden. So können, wie in 3 dargestellt, Symbole 46, 48, 50 für vordefinierte Ansichten auf das Fahrzeugumfeld, dargestellt in der Umfelddarstellung 42, eingeblendet werden. Bei Antippen dieser Symbole wird automatisch die Ansicht mit vordefiniertem Blickwinkel und möglicherweise vordefinierter Skalierung angezeigt. Neben Tippen als Geste könnte dies auch durch Schubsen zwischen den Symbolen 46, 48, 50, wie mit Bezugszeichen 58 angedeutet, realisiert werden. Schubsen beschreibt dabei eine Finger- beziehungsweise Stiftbewegung, die ein schnelles Ziehen über die berührungsempfindliche Anzeige mit nur kurzzeitigem Kontakt darstellt. Dabei ist kurz und schnell relativ zu anderen Gesten mit anderen Wirkungen, etwa dem Ziehen zur Blickwinkeländerung, zu verstehen.
  • Eine weitere Möglichkeit besteht darin, dass der Benutzer als Geste zum Beispiel einen oder mehrere Finger, wie mit Bezugszeichen 52, 54 und 55 angedeutet, in Rotationsbewegungen über die berührungsempfindliche Anzeigevorrichtung 40 zieht. Auf diese Weise kann der Benutzer den Blickwinkel auf das Umfeld des Fahrzeuges 10, dargestellt in der Umfelddarstellung 42, der Bewegung des Fingers folgend um eine von drei Raumachsen 52, 54, 55 rotieren.
  • Neben der Streuung des Blickwinkels durch Gesten können auch Gesten zur Skalierung oder zum Ein- und Auszoomen in die Ansicht des Fahrzeugumfeldes, gezeigt in der Umfelddarstellung 42, definiert werden. Beispielsweise kann Strecken und Stauchen von mindestens zwei Fingern als Geste definiert werden. Es sein an dieser Stelle nochmals explizit darauf hingewiesen, dass zu den konkret genannten Beispielen eine Vielzahl von Abwandlungen zur Gestensteuerung in der vogelperspektivischen Ansicht möglich sind.
  • 4 zeigt ein Flussdiagramm 60 zur Durchführung von erfindungsgemäßem Verfahren, wobei das Zusammenwirken der Komponenten gemäß 1 illustriert ist. In Schritt 62 werden zunächst Umfelddaten mit Hilfe von Umfeldsensorik erfasst. Dabei dient insbesondere ein Kamerasystem 20, 22, 24 als Umfeldsensorik, das Videoansichten aus verschiedenen Perspektiven als Umfelddaten zur Verfügung stellt.
  • In Schritt 62 wird aus den Umfelddaten eine Umfelddarstellung 42 in der Vogelperspektive berechnet, wobei die Umfelddaten auf eine Ebene 30 projiziert werden, die das Fahrzeug 10 und dessen Umfeld aus der Vogelperspektive zeigt.
  • In Schritt 64 wird die berechnete Umfelddarstellung 42 auf einer berührungsempfindlichen Anzeigevorrichtung 40 ausgeben. Dabei erkennt die Anzeigevorrichtung 40 Gesten des Benutzers auf einer berührungsempfindlichen Oberfläche und wandelt diese in Steuersignale um, die von einer Datenverarbeitungseinheit 25 interpretiert werden. Auf diese Weise kann der Benutzer die Ansicht auf das Umfeld in der Umfelddarstellung 42 durch Gesten auf der berührungsempfindlichen Anzeigevorrichtung 40, wie in Schritt 66 ausgeführt, steuern.
  • Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr sind innerhalb des durch die anhängenden Ansprüche angegebenen Bereichs eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102008025124 A1 [0003]
    • DE 102009057081 A1 [0004]
    • DE 102006060904 [0005]

Claims (9)

  1. Verfahren zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine-Schnittstelle (18) eines Fahrerassistenzsystems (26) mit folgenden Schritten: – Erfassen von Umfelddaten mit Hilfe von Umfeldsensorik (20, 22, 24); – Berechnen einer Umfelddarstellung (42) in der Vogelperspektive auf Basis der erfassten Umfelddaten; – Ausgabe der Umfelddarstellung (42) auf einer berührungsempfindlichen Anzeigevorrichtung (40); und – Steuern einer Ansicht auf das Umfeld in der Umfelddarstellung (42) durch Gesten (52, 54, 55, 56, 58) eines Benutzers (44) auf der berührungsempfindlichen Anzeigevorrichtung (40).
  2. Verfahren gemäß Anspruch 1, wobei die Umfeldsensorik ein Kamerasystem mit einer oder mehreren Kameras (20, 22, 24) umfasst und die Umfelddarstellung (42) auf dem Kamerasystem basierende Videoansichten des Fahrzeugumfeldes zur Ausgabe auf einer berührungsempfindlichen Anzeigevorrichtung (40) umfasst.
  3. Verfahren gemäß einem der Ansprüche 1 oder 2, wobei die Umfelddarstellung (42) in der Vogelperspektive aus Videoansichten des Kamerasystems (20, 22, 24), projiziert auf eine schüsselförmige Ebene (30), generiert wird.
  4. Verfahren gemäß einem der Ansprüche 1 bis 3, wobei ein Detektionselement einen Kontakt zwischen der berührungsempfindlichen Anzeigevorrichtung (40) und mindestens einem Finger oder mindestens einem Stift des Benutzers (44) detektiert.
  5. Verfahren gemäß einem der Ansprüche 1 bis 4, wobei das Steuern der Ansicht durch vordefinierte Gesten (52, 54, 55, 56, 58) des Benutzers (44) erfolgt.
  6. Verfahren gemäß einem der Ansprüche 1 bis 5, wobei der Blickwinkel oder die Skalierung der Umfelddarstellung (42) verändert wird, wenn die Geste des Benutzers (44) zu einer vordefinierten Geste (52, 54, 55, 56, 58) korrespondiert.
  7. Verfahren gemäß einem der Ansprüche 1 bis 6, wobei die Steuerung der Ansicht je nach Geste (52, 54, 55, 56, 58) des Benutzers (44) gleichmäßig oder sprunghaft erfolgt.
  8. Computerprogramm zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird.
  9. Fahrassistenzsystem (26) zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine-Schnittstelle (18) mit folgenden Komponenten: – Umfeldsensorik (20, 22, 24) zum Erfassen von Umfelddaten; – mindestens eine Komponente (26) zum Berechnen einer Umfelddarstellung (42) in der Vogelperspektive auf Basis der erfassten Umfelddaten; – mindestens eine berührungsempfindliche Anzeigevorrichtung (40) zum Ausgeben der Umfelddarstellung (42); und – mindestens eine Komponente (26), die in Reaktion auf Gesten (52, 54, 55, 56, 58) eines Benutzers (44) auf der berührungsempfindlichen Anzeigevorrichtung (40) eine Ansicht auf das Umfeld in der Umfelddarstellung (42) steuert.
DE102011084524A 2011-10-14 2011-10-14 Verfahren zur Darstellung eines Fahrzeugumfeldes Withdrawn DE102011084524A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102011084524A DE102011084524A1 (de) 2011-10-14 2011-10-14 Verfahren zur Darstellung eines Fahrzeugumfeldes
PCT/EP2012/068804 WO2013053590A1 (de) 2011-10-14 2012-09-24 Verfahren zur darstellung eines fahrzeugumfeldes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011084524A DE102011084524A1 (de) 2011-10-14 2011-10-14 Verfahren zur Darstellung eines Fahrzeugumfeldes

Publications (1)

Publication Number Publication Date
DE102011084524A1 true DE102011084524A1 (de) 2013-04-18

Family

ID=47074673

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011084524A Withdrawn DE102011084524A1 (de) 2011-10-14 2011-10-14 Verfahren zur Darstellung eines Fahrzeugumfeldes

Country Status (2)

Country Link
DE (1) DE102011084524A1 (de)
WO (1) WO2013053590A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013215484A1 (de) * 2013-08-06 2015-02-12 Bayerische Motoren Werke Aktiengesellschaft Anzeigesystem und Visualisierungsverfahren für ein Fahrzeug
DE102018119481A1 (de) * 2018-08-10 2020-02-13 Connaught Electronics Ltd. Verfahren zum Bereitstellen einer Bilddarstellung von mindestens einem Teil einer Umgebung eines Kraftfahrzeugs, Computerprogrammprodukt und Fahrerassistenzsystem
DE102019102283A1 (de) * 2019-01-30 2020-07-30 Connaught Electronics Ltd. Verfahren und System zur Beschränkung der Bewegung einer Tür eines Fahrzeugs
DE102019123778A1 (de) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Darstellen einer Fahrzeugumgebung zum Bewegen des Fahrzeugs zu einer Zielposition
US12007765B2 (en) 2018-12-06 2024-06-11 Valeo Schalter Und Sensoren Gmbh Method for assisting a user in the remote control of a motor vehicle, computer program product, remote-control device and driver assistance system for a motor vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016011916A1 (de) 2016-10-05 2017-06-01 Daimler Ag Verfahren zum Durchführen eines automatischen Parkvorgangs eines Kraftfahrzeugs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006060904A1 (de) 2006-12-20 2008-06-26 Deutsches Zentrum für Luft- und Raumfahrt e.V. Flughafenverkehrsinformations-Anzeigesystem
DE102008025124A1 (de) 2008-05-26 2009-12-03 Volkswagen Ag Anzeigesystem für ein Fahrzeug und Bedienverfahren für ein Anzeigesystem eines Fahrzeugs
DE102009057081A1 (de) 2009-12-04 2011-06-09 Volkswagen Ag Verfahren zum Bereitstellen einer Benutzerschnittstelle

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116567A (ja) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd 車載運転支援情報表示装置
JP5439890B2 (ja) * 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006060904A1 (de) 2006-12-20 2008-06-26 Deutsches Zentrum für Luft- und Raumfahrt e.V. Flughafenverkehrsinformations-Anzeigesystem
DE102008025124A1 (de) 2008-05-26 2009-12-03 Volkswagen Ag Anzeigesystem für ein Fahrzeug und Bedienverfahren für ein Anzeigesystem eines Fahrzeugs
DE102009057081A1 (de) 2009-12-04 2011-06-09 Volkswagen Ag Verfahren zum Bereitstellen einer Benutzerschnittstelle

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013215484A1 (de) * 2013-08-06 2015-02-12 Bayerische Motoren Werke Aktiengesellschaft Anzeigesystem und Visualisierungsverfahren für ein Fahrzeug
DE102018119481A1 (de) * 2018-08-10 2020-02-13 Connaught Electronics Ltd. Verfahren zum Bereitstellen einer Bilddarstellung von mindestens einem Teil einer Umgebung eines Kraftfahrzeugs, Computerprogrammprodukt und Fahrerassistenzsystem
US11491914B2 (en) 2018-08-10 2022-11-08 Connaught Electronics Ltd. Method for providing an image representation of at least part of an environment of a vehicle, computer program product and driver assistance system
US12007765B2 (en) 2018-12-06 2024-06-11 Valeo Schalter Und Sensoren Gmbh Method for assisting a user in the remote control of a motor vehicle, computer program product, remote-control device and driver assistance system for a motor vehicle
DE102019102283A1 (de) * 2019-01-30 2020-07-30 Connaught Electronics Ltd. Verfahren und System zur Beschränkung der Bewegung einer Tür eines Fahrzeugs
DE102019123778A1 (de) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Darstellen einer Fahrzeugumgebung zum Bewegen des Fahrzeugs zu einer Zielposition
CN114585540A (zh) * 2019-09-05 2022-06-03 法雷奥开关和传感器有限责任公司 用于将车辆移动到目标位置的车辆环境的显示

Also Published As

Publication number Publication date
WO2013053590A1 (de) 2013-04-18

Similar Documents

Publication Publication Date Title
EP2720929B1 (de) Verfahren und vorrichtung zur unterstützung eines fahrers bei einer spurführung eines fahrzeugs auf einer fahrbahn
EP1862376B1 (de) Verfahren zur Steuerung eines Einparkvorgangs
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE102013021834B4 (de) Vorrichtung und Verfahren zum Navigieren innerhalb eines Menüs zur Fahrzeugsteuerung sowie Auswählen eines Menüeintrags aus dem Menü
DE102011084524A1 (de) Verfahren zur Darstellung eines Fahrzeugumfeldes
DE102011087459B4 (de) Fahrerassistenzsystem für ein Kraftfahrzeug
DE102007039442A1 (de) Verfahren zum Anzeigen von Informationen in einem Fahrzeug und Anzeigeeinrichtung für ein Fahrzeug
WO2013037694A1 (de) Rangiersystem und verfahren zum automatischen rangieren eines kraftfahrzeugs, kraftfahrzeug, tragbares kommunikationsgerät und computerprogramm
DE102011087901A1 (de) Verfahren zur Darstellung eines Fahrzeugumfeldes
DE102010030463A1 (de) Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
EP2485913B1 (de) Verfahren und anzeigeeinrichtung zum anzeigen von informationen
EP3807119B1 (de) Verfahren zum betreiben einer anzeige- und bedienvorrichtung, anzeige- und bedienvorrichtung, und kraftfahrzeug
DE102013213039A1 (de) Assistenzsystem und Assistenzverfahren zur Unterstützung bei der Steuerung eines Kraftfahrzeugs
EP2822814B1 (de) Kraftfahrzeug mit einem elektronischen rückspiegel
DE102012208288A1 (de) Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeige und Fahrassistenzsystem
DE102010025354B4 (de) Fahrerassistenzsystem für ein Kraftfahrzeug
DE102013021978A1 (de) Verfahren und mobiles Endgerät zur augmentierten Darstellung mindestens eines realen Bedienelements und/oder... eines realen Objekts
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
DE102012020607A1 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE102013217558A1 (de) Verfahren zum Steuern einer Informationsanzeigeeinrichtung sowie Vorrichtung mit einer Informationsanzeigeeinrichtung
DE102013215370A1 (de) Steuerungseinrichtung zur Verwendung in einem Kraftfahrzeug
EP3562730A1 (de) Verfahren zum automatisierten parken eines kraftfahrzeugs
DE102013000069A1 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE102013203653A1 (de) Außenbildeinblendung für Center Display
DE102013001327B4 (de) Verfahren und Anzeigesystem zum blickrichtungsabhängigen Skalieren einer Darstellung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140501