WO2013053590A1 - Method for representing a vehicle environment - Google Patents

Method for representing a vehicle environment Download PDF

Info

Publication number
WO2013053590A1
WO2013053590A1 PCT/EP2012/068804 EP2012068804W WO2013053590A1 WO 2013053590 A1 WO2013053590 A1 WO 2013053590A1 EP 2012068804 W EP2012068804 W EP 2012068804W WO 2013053590 A1 WO2013053590 A1 WO 2013053590A1
Authority
WO
WIPO (PCT)
Prior art keywords
environment
view
touch
sensitive display
display device
Prior art date
Application number
PCT/EP2012/068804
Other languages
German (de)
French (fr)
Inventor
Henning Von Zitzewitz
Karsten Muehlmann
Jan Egelhaaf
Raphael Cano
Leo VEPA
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2013053590A1 publication Critical patent/WO2013053590A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • B60K2360/1438
    • B60K2360/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Definitions

  • the invention relates to a method for representing a vehicle environment on a man-machine interface in a driver assistance system.
  • the invention further relates to such a computer program product and such
  • Driving assistance system are additional devices in a vehicle that assist the driver when driving
  • driver assistance systems include various subsystems, such as a parking assistant
  • Such sensors may include, for example, optical sensors, ultrasonic sensors, radar sensors or LIDAR sensors that provide individually or in combination data concerning the vehicle environment.
  • Driver assistance systems typically include a human-machine interface (HMI) that provides the driver with information from various subsystems, such as a MCI, Sprint, MCI, etc.
  • HMI human-machine interface
  • Navigation system or an entertainment system provides and / or by the
  • the touch-sensitive generates
  • DE 10 2009 057 081 A1 describes a user interface which records input gestures on a touch-sensitive surface and changes a graphical representation on a display surface as a function of detected parameters relating to the input gestures.
  • an airport traffic information display system is known, which displays an airport area to be monitored with the aid of an image processing unit.
  • the image processing unit is provided with a touch-sensitive
  • Input device equipped to a panoramic segment depending on a
  • a method for representing a vehicle environment on a man-machine interface of a driver assistance system is proposed with the following steps:
  • a driver assistance system is an electronic, integrated in a vehicle option that supports the driver in different driving situations.
  • Driver assistance systems typically include various subsystems that are used in particular to enhance the safety or comfort of the vehicle.
  • a driver assistance system may include a parking assistant that assists the driver in maneuvering in parking situations.
  • a driver assistance system usually comprises a human-machine interface (HMI), which can output information in haptic, optical and / or acoustic form. For example, jerking on the steering wheel, displaying images on a display, or outputting sounds through a speaker correspond to such outputs.
  • HMI human-machine interface
  • the human-machine interface can interact with the driver, wherein means are provided to the driver for haptic, visual and / or acoustic input.
  • a voice or video control may be provided.
  • a touch-sensitive device that registers touches of the user, such as the driver or the passenger, can be used for inputs of the driver. Examples include keyboards or touch-sensitive
  • the environment sensor system may include, for example, a camera system with one or more cameras. Additionally or alternatively, however, an ultrasound system, radar system, etc. may be used to capture environmental data.
  • the environment representation combines the acquired environment data for output on a touch-sensitive display device. So can the
  • Vehicle environment for output on a touch-sensitive display device include. Furthermore, the environment representation may include visualizations of ultrasound data, radar data, etc.
  • the environment representation which represents a combination of captured environmental data, can be transformed into a bird's-eye view.
  • the recorded environment data can be stored in one
  • Data processing device are projected onto a plane that represents the vehicle environment, as seen from a point above the vehicle.
  • the projection level can be chosen arbitrarily in your form.
  • the environment data is projected onto a flat or bullet-shaped level.
  • Vehicle environment show to be merged in a plane.
  • the vehicle and its surroundings can be displayed such that the vehicle is reproduced, for example, in the center with the environment around the vehicle.
  • the transition between the horizontal area and the vertical area of the plane may be chosen to match the transition between flat areas such as the street and raised objects such as buildings.
  • the bird's eye view of the environment is projected from video views of the camera system projected onto one
  • the touch-sensitive display device may include a display coupled to at least one detection element for registering touches of the user.
  • the display may include a touch-sensitive surface as a detection element.
  • the detection element detects a contact between the touch-sensitive display device and a finger or a stylus of the user.
  • finger and / or pen movements of the user can be detected as a gesture and based on the detected gesture, a control signal to a
  • Data processing unit is sent, which performs the transformation from one view to another view or from a viewing angle in a different perspective on the environment in the environment representation.
  • the gestures and their effect with respect to changing the view to the environment in the environment representation can be predefined.
  • changes in the view can be controlled by predefined gestures of the user.
  • the angle of view or the scale of the environment representation may be changed if the gesture of the user corresponds to the corresponding predefined gesture.
  • the change of view can be made evenly or erratic depending on the gesture of the user.
  • a viewing angle change in the environment representation can take place evenly, by following the view of the surroundings in the environment representation, for example, by dragging the finger or stylus via the touch-sensitive display device as a gesture.
  • a scaling of the view or a zoom in the view can be made evenly by, for example, stretching and compressing, for example, two fingers as a gesture.
  • predefined angles of view For this purpose, one or more symbols can be included in the view of the environment representation.
  • To switch between the Views can be predefined by tapping or double-tapping with the stylus or finger on an icon as a gesture.
  • dragging or pushing with one or more fingers via the touch-sensitive display as a gesture may also control the selection of various predefined viewing angles.
  • a computer program is also proposed according to which one of the methods described herein is performed when the computer program is executed on a programmable computer device.
  • the computer device can be, for example, a module for implementing a
  • the computer program may be stored on a machine-readable storage medium, such as on a permanent or rewritable storage medium or in association with a computer device or on a removable CD-ROM, DVD or USB stick. Additionally or alternatively, the computer program may be provided for download on a computing device, such as a server, e.g. via a data network such as the Internet or a communication connection such as a telephone line or a wireless connection.
  • a computing device such as a server, e.g. via a data network such as the Internet or a communication connection such as a telephone line or a wireless connection.
  • Vehicle environment proposed on a man-machine interface in a driver assistance system, preferably for carrying out the above-described
  • the driver assistance system comprises the following components for this purpose: environmental sensor system for detecting environmental data;
  • At least one touch-sensitive display device for outputting the environment representation
  • the environment sensor system may include, for example, a camera system with one or more cameras. Additionally or alternatively, however, an ultrasound system, radar system, etc. can be used to collect environmental data.
  • the calculation of the environment representation in the bird's eye view as well as the transformation of the environment representation from one view to another view can be done by one or different components of the driver assistance system.
  • a data processing device of the driver assistance system can be designed to perform these calculations and transformations.
  • the touch-sensitive display device may include a display coupled to a detection element for registering touches of the user.
  • the display may have a touch-sensitive surface as
  • Detection element include, depending on the gesture on the touch-sensitive
  • the invention makes it possible to provide the driver, particularly in difficult and confusing driving situations, such as parking, as quickly as possible, individually adapted to the situation information available.
  • the driver can quickly get a comprehensive overview of the environment of the vehicle to assess the driving situation and to perform the driving maneuver safely.
  • the invention represents a particularly intuitive solution that can be operated without difficulty and thus avoids unnecessary distractions of the driver through the driver assistance system. In this way, the utility and acceptance of appropriate wizards can be increased.
  • FIG. 1 shows a vehicle equipped with a driver assistance system according to the invention in an exemplary driving situation
  • Figure 2 is a schematic representation of the projection plane for the production
  • Figure 3 shows an exemplary environment representation issued on a
  • FIG. 4 shows in the form of a flowchart an operation of the driver assistance system from FIG. 1.
  • the driver assistance system 26 comprises a camera system with a front camera 20, a reversing camera 24 and two side cameras 22, which can be designed as wide-angle cameras.
  • the driver assistance system 1 more
  • Surrounding sensors include, which is not shown in Fig. 1.
  • the environment of the vehicle 10 is recorded in sections from different perspectives and thus provides different video views.
  • Data processing unit 25 are transformed into an environment representation 42 from a bird's eye view and output on a display device 18.
  • the different video views are projected onto a plane 30, which represents the vehicle 10 and its surroundings, viewed from a point above the vehicle 10.
  • FIG. 2 shows by way of example a section of a dish-like plane 30 onto which
  • the transition between the horizontal region 34 and the vertical region 32 of the bowl-shaped plane 30 is preferably selected such that it coincides with the transition between flat regions, such as the road 27 on which the vehicle 10 is located, and raised objects, such as buildings 28 , in the environment of the vehicle 10 match. In this way, a real impression arises in the displayed environment representation 42, which is more intuitive for the driver to judge.
  • the resulting environment representation 42 for output on one of the display devices 40 of an HMI is shown in FIG.
  • the display device 40 is embodied as a touch-sensitive display device 40, wherein a touch-sensitive surface is integrated in the display in order to detect contact with, for example, one or more fingers 44 of the user or a stylus.
  • the position of the contact on the display device 40 and any finger or pen movements of the user is registered as a gesture.
  • gestures may include, for example, finger gestures such as simple typing, double tipping, dragging, stretching or swaging on the surface of the device
  • Display device 40 include. As a result, an intuitive support of the driver can be achieved because the driver can control the view of the environment in the environment representation 42 individually adapted to the driving situation. In addition, the controller is quick and easy to use. Thus, the driver is not distracted unnecessarily and can concentrate on the current driving situation.
  • exemplary effects of gestures on the display 40 of the HMI 18 are indicated.
  • only some of the possible embodiments for gesture control in the bird's-eye view of the vehicle 10 are mentioned. The following examples are not exhaustive and im
  • the user may as a gesture, for example, the finger or the pen, as indicated by reference numeral 56, on the
  • the viewing angle change by jogging or double-taping can be realized abruptly.
  • icons 46, 48, 50 for predefined views of the vehicle environment, shown in the environment representation 42, o are displayed. Tapping these icons will automatically display the view
  • predefined viewing angle and possibly predefined scaling In addition to jogging as a gesture, this could also be realized by pushing between the symbols 46, 48, 50, as indicated by reference numeral 58.
  • Schubsen describes a finger or pin movement that represents a quick pull over the touch-sensitive display with only a short-term contact. It is to be understood briefly and quickly relative to other gestures with other effects, such as pulling to change the angle.
  • the user as a gesture, for example, one or more fingers, as indicated by reference numerals 52, 54 and 55, in rotational movements o moves over the touch-sensitive display device 40.
  • a gesture for example, one or more fingers, as indicated by reference numerals 52, 54 and 55, in rotational movements o moves over the touch-sensitive display device 40.
  • FIG. 4 shows a flow diagram 60 for carrying out the method according to the invention, wherein the interaction of the components according to FIG. 1 is illustrated.
  • step 62 first environmental data are acquired with the aid of environmental sensors. It serves in particular, a camera system 20, 22, 24 as environmental sensors that provides video views from different perspectives as environmental data.
  • an environment representation 42 is calculated from the environment data in a bird's-eye view, wherein the environment data is projected onto a plane 30, which shows the vehicle 10 and its surroundings from a bird's-eye view.
  • step 64 the computed environment representation 42 is output on a touch-sensitive display device 40.
  • the display device 40 recognizes gestures of the user on a touch-sensitive surface and converts these into control signals that are interpreted by a data processing unit 25. In this way, the user can control the view of the environment in the surround view 42 by gestures on the touch-sensitive display device 40 as performed in step 66.

Abstract

The invention proposes a method for representing a vehicle environment on a man-machine interface (18) of a driver assistance system (26), having the following steps: acquiring environment data with the aid of an environment sensor system (20, 22, 24); calculating an environment representation (42) in a bird's eye view on the basis of the acquired environment data; outputting the environment representation (42) on a touch-sensitive display apparatus (40); and controlling a view of the environment in the environment representation (42) by means of gestures (52, 54, 55, 56, 58) of a user (44) on the touch-sensitive display apparatus (40). Such a computer program product and such a driving assistance system are also proposed.

Description

Beschreibung Titel  Description title
Verfahren zur Darstellung eines Fahrzeugumfeldes Stand der Technik Die Erfindung betrifft ein Verfahren zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine Schnittstelle in einem Fahrerassistenzsystem. Die Erfindung betrifft weiterhin ein derartiges Computerprogrammprodukt sowie ein derartiges  PRIOR ART The invention relates to a method for representing a vehicle environment on a man-machine interface in a driver assistance system. The invention further relates to such a computer program product and such
Fahrassistenzsystem. Fahrassistenzsysteme sind Zusatzeinrichtungen in einem Fahrzeug, die den Fahrer beimDriving assistance system. Driver assistance systems are additional devices in a vehicle that assist the driver when driving
Manövrieren des Fahrzeuges unterstützen. Typischerweise umfassen Fahrassistenzsysteme unterschiedliche Subsysteme, beispielsweise einen Einparkassistenten, ein Assist maneuvering of the vehicle. Typically, driver assistance systems include various subsystems, such as a parking assistant
Navigationssystem oder eine Totwinkel Überwachung, die mit Hilfe von einer Sensorik das Umfeld des Fahrzeuges überwachen. Derartige Sensorik kann beispielsweise optische Sensoren, Ultraschallsensoren, Radarsensoren oder LIDAR-Sensoren umfassen, die einzeln oder in Kombination Daten betreffend das Fahrzeugumfeld bereitstellen. Navigation system or blind spot monitoring, which monitor the environment of the vehicle with the help of a sensor. Such sensors may include, for example, optical sensors, ultrasonic sensors, radar sensors or LIDAR sensors that provide individually or in combination data concerning the vehicle environment.
Fahrassistenzsysteme umfassen typischerweise eine Mensch-Maschine-Schnittstelle (HMI), die dem Fahrer Informationen unterschiedlicher Subsysteme, beispielsweise eines Driver assistance systems typically include a human-machine interface (HMI) that provides the driver with information from various subsystems, such as a
Navigationssystems oder eines Unterhaltungssystems, bereitstellt und/oder durch die derNavigation system or an entertainment system, provides and / or by the
Fahrer mit unterschiedlichen Subsystemen interagieren kann. Aus Dokument DE 10 2008 025 124 A1 ist ein Anzeigesystem für ein Fahrzeug bekannt, das eine Anzeige zur graphischen Darstellung veränderlicher Informationen in Kombination mit einer Driver can interact with different subsystems. From document DE 10 2008 025 124 A1 a display system for a vehicle is known, which has a display for the graphical representation of variable information in combination with a
berührungssensitiven Oberfläche umfasst. Dabei erzeugt die berührungssensitive touch-sensitive surface. The touch-sensitive generates
Oberfläche in Abhängigkeit einer Betätigung der Oberfläche durch den Benutzer eineSurface as a function of actuation of the surface by the user a
Bedieninformation. Operational information.
DE 10 2009 057 081 A1 beschreibt eine Benutzerschnittstelle, die Eingabegesten auf einer berührungsempfindlichen Oberfläche erfasst und in Abhängigkeit von erfassten Parametern betreffend die Eingabegeste eine graphische Darstellung auf einer Anzeigefläche verändert. Aus DE 10 2006 060 904 ist ein Flughafenverkehrsinformations-Anzeigesystem bekannt, das mit Hilfe einer Bildverarbeitungseinheit einen zu beobachtenden Flughafenbereich anzeigt. Zur Darstellung ist die Bildverarbeitungseinheit mit einem berührungsempfindlichen DE 10 2009 057 081 A1 describes a user interface which records input gestures on a touch-sensitive surface and changes a graphical representation on a display surface as a function of detected parameters relating to the input gestures. From DE 10 2006 060 904 an airport traffic information display system is known, which displays an airport area to be monitored with the aid of an image processing unit. For illustration, the image processing unit is provided with a touch-sensitive
Eingabegerät ausgerüstet, um ein Panoramasegment in Abhängigkeit von einer Input device equipped to a panoramic segment depending on a
Fingerbewegung auf dem Eingabegerät auszuwählen. To select finger movement on the input device.
An die Mensch-Maschine-Schnittstelle eines Fahrassistenzsystems werden hohe At the man-machine interface of a driver assistance system are high
Anforderungen gestellt. So muss die Schnittstelle intuitiv erfassbar und schnell bedienbar sein, damit die Aufmerksamkeit des Fahrers nicht negativ beeinflusst wird. Daher besteht ein anhaltendes Interesse daran, die Bereitstellung von Informationen an den Fahrer sowie die Interaktion mit dem Fahrer möglichst einfach und unkompliziert zu gestalteten. Requirements made. So the interface must be intuitively detectable and easy to use, so that the driver's attention is not negatively affected. Therefore, there is a continuing interest in making the provision of information to the driver as well as the interaction with the driver as simple and uncomplicated as possible.
Offenbarung der Erfindung Disclosure of the invention
Erfindungsgemäß wird ein Verfahren zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine-Schnittstelle eines Fahrerassistenzsystems mit folgenden Schritten vorgeschlagen: According to the invention, a method for representing a vehicle environment on a man-machine interface of a driver assistance system is proposed with the following steps:
- Erfassen von Umfelddaten mit Hilfe von Umfeldsensorik; - Capture environmental data using environmental sensors;
- Berechnen einer Umfelddarstellung in der Vogelperspektive auf Basis der erfassten Umfelddaten;  - calculating an environment representation in a bird's eye view on the basis of the acquired environment data;
- Ausgabe der Umfelddarstellung auf einer berührungsempfindlichen  - Output of the environment representation on a touch-sensitive
Anzeigevorrichtung; und  Display device; and
- Steuern einer Ansicht auf das Umfeld in der Umfelddarstellung durch Gesten des Benutzers auf der berührungsempfindlichen Anzeigevorrichtung.  - Controlling a view of the environment in the environment representation by gestures of the user on the touch-sensitive display device.
Im Rahmen der Erfindung bezeichnet ein Fahrassistenzsystem eine elektronische, in einem Fahrzeug integrierte Zusatzeinrichtung, die den Fahrer in verschiedenen Fahrsituationen unterstützt. Fahrassistenzsysteme umfassen üblicherweise verschiedene Subsysteme, die insbesondere zur Steigerung der Sicherheit oder des Komforts des Fahrzeuges eingesetzt werden. Beispielsweise kann ein Fahrassistenzsystem einen Einparkassistenten umfassen, der den Fahrer beim Manövrieren in Parksituationen unterstützt. Zur Ausgabe von Informationen an den Fahrer umfasst ein Fahrassistenzsystem üblicherweise eine Mensch-Maschine-Schnittstelle (HMI), die Informationen in haptischer, optischer und/oder akustischer Form ausgeben kann. Beispielsweise entsprechen Ruckeln am Lenkrad, Darstellen von Bildern auf einem Display oder Ausgeben von Tönen über einen Lautsprecher solchen Ausgaben. Weiterhin kann die Mensch-Maschine-Schnittstelle mit dem Fahrer interagieren, wobei dem Fahrer Mittel zur haptischen, optischen und/oder akustischen Eingabe bereitgestellt werden. Beispielsweise kann eine Sprach- oder Videosteuerung vorgesehen sein. Auch eine berührungsempfindliche Einrichtung, die Berührungen des Benutzers, etwa dem Fahrer oder dem Beifahrer, registriert, kann für Eingaben des Fahrers eingesetzt werden. Beispiele hierfür sind Tastaturen oder berührungsempfindliche In the context of the invention, a driver assistance system is an electronic, integrated in a vehicle option that supports the driver in different driving situations. Driver assistance systems typically include various subsystems that are used in particular to enhance the safety or comfort of the vehicle. For example, a driver assistance system may include a parking assistant that assists the driver in maneuvering in parking situations. To output information to the driver, a driver assistance system usually comprises a human-machine interface (HMI), which can output information in haptic, optical and / or acoustic form. For example, jerking on the steering wheel, displaying images on a display, or outputting sounds through a speaker correspond to such outputs. Furthermore, the human-machine interface can interact with the driver, wherein means are provided to the driver for haptic, visual and / or acoustic input. For example, a voice or video control may be provided. Also, a touch-sensitive device that registers touches of the user, such as the driver or the passenger, can be used for inputs of the driver. Examples include keyboards or touch-sensitive
Anzeigevorrichtungen. Display devices.
Zur Charakterisierung des Fahrzeugumfeldes umfasst das Fahrassistenzsystem To characterize the vehicle environment includes the driver assistance system
Umfeldsensorik, die Umfelddaten erfasst. Die Umfeldsensorik kann beispielsweise ein Kamerasystem mit einer oder mehreren Kameras umfassen. Zusätzlich oder alternativ können aber auch ein Ultraschallsystem, Radarsystem, etc. eingesetzt werden, um Environment sensor system that captures environmental data. The environment sensor system may include, for example, a camera system with one or more cameras. Additionally or alternatively, however, an ultrasound system, radar system, etc. may be used to
Umfelddaten zu sammeln. Die Umfelddarstellung vereinigt die erfassten Umfelddaten zur Ausgabe auf einer berührungsempfindlichen Anzeigevorrichtung. So kann die To collect environmental data. The environment representation combines the acquired environment data for output on a touch-sensitive display device. So can the
Umfelddarstellung etwa auf dem Kamerasystem basierende Videoansichten des Environment representation about on the camera system based video views of the
Fahrzeugumfeldes zur Ausgabe auf einer berührungsempfindlichen Anzeigevorrichtung umfassen. Weiterhin kann die Umfelddarstellung Visualisierungen von Ultraschalldaten, Radardaten, etc. enthalten. Vehicle environment for output on a touch-sensitive display device include. Furthermore, the environment representation may include visualizations of ultrasound data, radar data, etc.
Die Umfelddarstellung, die eine Vereinigung von erfassten Umfelddaten darstellt, kann in die Vogelperspektive transformiert werden. Dazu können die erfassten Umfelddaten in einerThe environment representation, which represents a combination of captured environmental data, can be transformed into a bird's-eye view. For this purpose, the recorded environment data can be stored in one
Datenverarbeitungseinrichtung auf eine Ebene projiziert werden, die das Fahrzeugumfeld, von einem über dem Fahrzeug gelegenen Punkt gesehen, darstellt. Die Projektionsebene kann dabei in Ihrer Form beliebig gewählt werden. Bevorzugt werden die Umfelddaten auf eine flache oder eine schüsseiförmige Ebene projiziert. So können insbesondere auf dem Kamerasystem basierende Videoansichten, die unterschiedliche Ausschnitte des Data processing device are projected onto a plane that represents the vehicle environment, as seen from a point above the vehicle. The projection level can be chosen arbitrarily in your form. Preferably, the environment data is projected onto a flat or bullet-shaped level. In particular, video views based on the camera system, the different sections of the
Fahrzeugumfeldes zeigen, in einer Ebenen zusammengeführt werden. Dabei können das Fahrzeug und dessen Umfeld so dargestellt werden, dass das Fahrzeug beispielsweise im Zentrum mit dem um das Fahrzeug herum liegende Umfeld wiedergegeben wird. Im Falle einer schüsseiförmigen Projektionsebene kann der Übergang zwischen horizontalem Bereich und vertikalem Bereich der Ebene so gewählt werden, dass dieser mit dem Übergang zwischen flachen Bereichen, wie der Straße, und erhabenen Objekten, beispielsweise Gebäuden, übereinstimmt. Vorzugsweise wird die Umfelddarstellung in der Vogelperspektive aus Videoansichten des Kamerasystems, projiziert auf eine Vehicle environment show to be merged in a plane. In this case, the vehicle and its surroundings can be displayed such that the vehicle is reproduced, for example, in the center with the environment around the vehicle. In the case of a bullet-shaped projection plane, the transition between the horizontal area and the vertical area of the plane may be chosen to match the transition between flat areas such as the street and raised objects such as buildings. Preferably, the bird's eye view of the environment is projected from video views of the camera system projected onto one
schüsseiförmige Ebene, generiert. Bowl-shaped level, generated.
Die berührungsempfindliche Anzeigevorrichtung kann eine Anzeige umfassen, die mit mindestens einem Detektionselement gekoppelt ist, um Berührungen des Benutzers zu registrieren. Beispielsweise kann die Anzeige eine berührungsempfindliche Oberfläche als Detektionselement umfassen. Das Detektionselement erfasst dabei einen Kontakt zwischen der berührungsempfindlichen Anzeigevorrichtung und einem Finger oder einem Stift des Benutzers. So können Finger- und/oder Stiftbewegungen des Benutzers als Geste detektiert werden und basierend auf der detektierten Geste ein Steuersignal an eine The touch-sensitive display device may include a display coupled to at least one detection element for registering touches of the user. For example, the display may include a touch-sensitive surface as a detection element. The detection element detects a contact between the touch-sensitive display device and a finger or a stylus of the user. Thus, finger and / or pen movements of the user can be detected as a gesture and based on the detected gesture, a control signal to a
Datenverarbeitungseinheit gesendet wird, die die Transformation von einer Ansicht in eine andere Ansicht beziehungsweise von einem Blickwinkel in einen anderen Blickwinkel auf das Umfeld in der Umfelddarstellung durchführt. Data processing unit is sent, which performs the transformation from one view to another view or from a viewing angle in a different perspective on the environment in the environment representation.
Die Gesten und deren Wirkung im Bezug auf das Verändern der Ansicht auf das Umfeld in der Umfelddarstellung können vordefiniert sein. So können Veränderungen der Ansicht durch vordefinierte Gesten des Benutzers gesteuert werden. Beispielsweise kann der Blickwinkel oder die Skalierung der Umfelddarstellung verändert werden, wenn die Geste des Benutzers zu der entsprechenden vordefinierten Geste korrespondiert. Die Veränderung der Ansicht kann dabei je nach Geste des Benutzers gleichmäßig oder sprunghaft erfolgen. So kann eine Blickwinkeländerung in der Umfelddarstellung gleichmäßig erfolgen, indem die Ansicht auf das Umfeld in der Umfelddarstellung beispielsweise einem Ziehen des Fingers oder Stifts über die berührungsempfindliche Anzeigevorrichtung als Geste folgt. Auch eine Skalierung der Ansicht oder ein Zoom in die Ansicht kann gleichmäßig durch beispielsweise Strecken und Stauchen von beispielsweise zwei Fingern als Geste erfolgen. The gestures and their effect with respect to changing the view to the environment in the environment representation can be predefined. Thus, changes in the view can be controlled by predefined gestures of the user. For example, the angle of view or the scale of the environment representation may be changed if the gesture of the user corresponds to the corresponding predefined gesture. The change of view can be made evenly or erratic depending on the gesture of the user. Thus, a viewing angle change in the environment representation can take place evenly, by following the view of the surroundings in the environment representation, for example, by dragging the finger or stylus via the touch-sensitive display device as a gesture. Also, a scaling of the view or a zoom in the view can be made evenly by, for example, stretching and compressing, for example, two fingers as a gesture.
Sprunghafte Veränderungen der Ansicht können etwa das Umschalten zwischen Abrupt changes in the view can be about switching between
vordefinierten Blickwinkeln umfassen. Dazu können etwa ein oder mehrere Symbole in die Ansicht der Umfelddarstellung aufgenommen sein. Zum Umschalten zwischen den Ansichten kann ein Tippen oder Doppeltippen mit dem Stift oder dem Finger auf ein Symbol als Geste vordefiniert sein. Alternativ kann auch Ziehen oder Schubsen mit ein oder mehreren Fingern über die berührungsempfindliche Anzeigevorrichtung als Geste die Auswahl verschiedener vordefinierter Blickwinkel steuern. include predefined angles of view. For this purpose, one or more symbols can be included in the view of the environment representation. To switch between the Views can be predefined by tapping or double-tapping with the stylus or finger on an icon as a gesture. Alternatively, dragging or pushing with one or more fingers via the touch-sensitive display as a gesture may also control the selection of various predefined viewing angles.
Erfindungsgemäß wird weiterhin ein Computerprogramm vorgeschlagen, gemäß dem eines der hierin beschriebenen Verfahren durchgeführt wird, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird. Bei der Computereinrichtung kann es sich beispielsweise um ein Modul zur Implementierung eines According to the invention, a computer program is also proposed according to which one of the methods described herein is performed when the computer program is executed on a programmable computer device. The computer device can be, for example, a module for implementing a
Fahrerassistenzsystems, oder eines Subsystems hiervon, in einem Fahrzeug handeln. Das Computerprogramm kann auf einem maschinenlesbaren Speichermedium gespeichert werden, etwa auf einem permanenten oder wiederbeschreibbaren Speichermedium oder in Zuordnung zu einer Computereinrichtung oder auf einer entfernbaren CD-ROM, DVD oder einem USB-Stick. Zusätzlich oder alternativ kann das Computerprogramm auf einer Computereinrichtung wie etwa einem Server zum Herunterladen bereitgestellt werden, z.B. über ein Datennetzwerk wie etwa das Internet oder eine Kommunikationsverbindung wie etwa eine Telefonleitung oder eine drahtlose Verbindung. Driver Assistance System, or a subsystem thereof, acting in a vehicle. The computer program may be stored on a machine-readable storage medium, such as on a permanent or rewritable storage medium or in association with a computer device or on a removable CD-ROM, DVD or USB stick. Additionally or alternatively, the computer program may be provided for download on a computing device, such as a server, e.g. via a data network such as the Internet or a communication connection such as a telephone line or a wireless connection.
Schließlich wird erfindungsgemäß ein Fahrassistenzsystem zur Darstellung eines Finally, according to the invention a driver assistance system for the representation of a
Fahrzeugumfeldes auf einer Mensch-Maschine-Schnittstelle in einem Fahrerassistenzsystem vorgeschlagen, das vorzugsweise zur Durchführung des vorstehend beschriebenen Vehicle environment proposed on a man-machine interface in a driver assistance system, preferably for carrying out the above-described
Verfahrens dient. Das erfindungsgemäße Fahrassistenzsystem umfasst dazu folgende Komponenten: - Umfeldsensorik zum Erfassen von Umfelddaten; Procedure serves. The driver assistance system according to the invention comprises the following components for this purpose: environmental sensor system for detecting environmental data;
- mindestens eine Komponente zum Berechnen einer Umfelddarstellung in der Vogelperspektive auf Basis der erfassten Umfelddaten;  at least one component for calculating a bird's eye view of the surrounding environment on the basis of the acquired environment data;
- mindestens eine berührungsempfindliche Anzeigevorrichtung zum Ausgeben der Umfelddarstellung; und  at least one touch-sensitive display device for outputting the environment representation; and
- mindestens eine Komponente, die in Reaktion auf Gesten des Benutzers eine - at least one component that responds to user's gestures
Ansicht auf das Umfeld in der Umfelddarstellung ändert. Change view to the environment in the environment view.
Die Umfeldsensorik kann beispielsweise ein Kamerasystem mit einer oder mehreren Kameras umfassen. Zusätzlich oder alternativ können aber auch ein Ultraschallsystem, Radarsystem, etc. eingesetzt werden, um Umfelddaten zu sammeln. Die Berechnung der Umfelddarstellung in der Vogelperspektive sowie die Transformation der Umfelddarstellung von einer Ansicht in eine andere Ansicht können durch eine oder unterschiedliche Komponenten des Fahrassistenzsystems erfolgen. So kann beispielsweise eine Datenverarbeitungseinrichtung des Fahrassistenzsystems ausgebildet sein, diese Berechnungen und Transformationen durchzuführen. The environment sensor system may include, for example, a camera system with one or more cameras. Additionally or alternatively, however, an ultrasound system, radar system, etc. can be used to collect environmental data. The calculation of the environment representation in the bird's eye view as well as the transformation of the environment representation from one view to another view can be done by one or different components of the driver assistance system. For example, a data processing device of the driver assistance system can be designed to perform these calculations and transformations.
Die berührungsempfindliche Anzeigevorrichtung kann eine Anzeige umfassen, die mit einem Detektionselement gekoppelt ist, um Berührungen des Benutzers zu registrieren. The touch-sensitive display device may include a display coupled to a detection element for registering touches of the user.
Beispielsweise kann die Anzeige eine berührungsempfindliche Oberfläche als For example, the display may have a touch-sensitive surface as
Detektionselement umfassen, wobei je nach Geste auf der berührungsempfindlichen  Detection element include, depending on the gesture on the touch-sensitive
Oberfläche ein Steuersignal erzeugt wird, anhand dessen die Ansicht auf das Umfeld in der Umfelddarstellung gemäß einer vordefinierten Veränderung transformiert wird. Vorteile der Erfindung Surface is generated a control signal, based on which the view is transformed to the environment in the environment representation according to a predefined change. Advantages of the invention
Die Erfindung ermöglicht es, dem Fahrer insbesondere in schwierigen und unübersichtlichen Fahrsituationen, wie dem Einparken, möglichst schnell, individuell an die Situation angepasste Informationen zur Verfügung zu stellen. So kann sich der Fahrer schnell einen umfassenden Überblick über das Umfeld des Fahrzeuges verschaffen, um die Fahrsituation zu beurteilen und das Fahrmanöver sicher durchführen zu können. Weiterhin stellt die Erfindung eine besonders intuitive Lösung dar, die ohne Schwierigkeiten bedient werden kann und damit unnötige Ablenkungen des Fahrers durch das Fahrassistenzsystem vermeidet. Auf diese Weise kann der Nutzwert und die Akzeptanz von entsprechenden Assistenten erhöht werden. The invention makes it possible to provide the driver, particularly in difficult and confusing driving situations, such as parking, as quickly as possible, individually adapted to the situation information available. Thus, the driver can quickly get a comprehensive overview of the environment of the vehicle to assess the driving situation and to perform the driving maneuver safely. Furthermore, the invention represents a particularly intuitive solution that can be operated without difficulty and thus avoids unnecessary distractions of the driver through the driver assistance system. In this way, the utility and acceptance of appropriate wizards can be increased.
Situationen, bei denen insbesondere das Sichtfeld des Fahrers eingeschränkt ist, treten im städtischen Verkehr, beispielsweise beim Einparken, häufig auf und ein erfindungsgemäß weitergebildetes Fahrassistenzsystem kann somit zu einer relevanten Verbesserung beitragen. Situations in which in particular the driver's field of vision is limited occur frequently in urban traffic, for example when parking, and a driver assistance system developed according to the invention can thus contribute to a relevant improvement.
Kurze Beschreibung der Zeichnungen Brief description of the drawings
Weitere Aspekte und Vorteile der Erfindung werden nunmehr anhand der beigefügten Figuren eingehender beschrieben. Hierbei zeigt: Figur 1 ein mit einem erfindungsgemäßen Fahrassistenzsystem ausgerüstetes Fahrzeug in einer beispielhaften Fahrsituation; Further aspects and advantages of the invention will now be described in more detail with reference to the accompanying figures. Hereby shows: FIG. 1 shows a vehicle equipped with a driver assistance system according to the invention in an exemplary driving situation;
Figur 2 eine schematische Darstellung der Projektionsebene zur Erzeugung Figure 2 is a schematic representation of the projection plane for the production
Umfelddarstellung in der Vogelperspektive;  Environment presentation in a bird's-eye view;
Figur 3 eine beispielhafte Umfelddarstellung ausgegeben auf einer Figure 3 shows an exemplary environment representation issued on a
berührungsempfindlichen Anzeigevorrichtung des HMI eines  touch-sensitive display device of the HMI
Fahrassistenzsystems aus Figur 1 ;  Driver assistance system of Figure 1;
Figur 4 in Form eines Flussdiagramms eine Arbeitsweise des Fahrassistenzsystems aus Figur 1. Ausführungsformen der Erfindung FIG. 4 shows in the form of a flowchart an operation of the driver assistance system from FIG. 1. Embodiments of the invention
In Fig. 1 ist schematisch ein Fahrzeug 10 in einer Fahrsituation dargestellt, die ein Einparken in eine Parklücke 12 zwischen begrenzenden Objekten (z.B. Fahrzeugen 14 und 16) betrifft, die aber auch ein Ausparken aus der Parklücke 12 betreffen kann. Beim Manövrieren wird der Fahrer von erfindungsgemäßem Fahrassistenzsystem 26 unterstützt, indem ein HMI 18 dem Fahrer das Umfeld des Fahrzeuges 10 auf einer Anzeigevorrichtung 40 darstellt. Dazu umfasst das Fahrassistenzsystem 26 ein Kamerasystem mit einer Frontkamera 20, einer Rückfahrkamera 24 und zwei Seitenkameras 22, die als Weitwinkel kameras ausgelegt sein können. Neben dem Kamerasystem kann das Fahrassistenzsystem 1 1 weitere 1 schematically shows a vehicle 10 in a driving situation, which relates to parking in a parking space 12 between delimiting objects (for example vehicles 14 and 16), but which may also affect parking out of the parking space 12. During maneuvering, the driver is assisted by the driver assistance system 26 according to the invention in that an HMI 18 displays the environment of the vehicle 10 on a display device 40 to the driver. For this purpose, the driver assistance system 26 comprises a camera system with a front camera 20, a reversing camera 24 and two side cameras 22, which can be designed as wide-angle cameras. In addition to the camera system, the driver assistance system 1 1 more
Umfeldsensorik umfassen, die in Fig. 1 nicht gezeigt ist. Surrounding sensors include, which is not shown in Fig. 1.
Von dem Kamerasystem 20, 22, 24 wird das Umfeld des Fahrzeuges 10 in Ausschnitten aus unterschiedlichen Perspektiven aufgezeichnet und stellt so unterschiedliche Videoansichten bereit. Um dem Fahrer einen möglichst vollständigen Überblick über sein unmittelbares Umfeld, das heißt innerhalb der Reichweite der verbauten Kameras 20, 22, 24, zu verschaffen, können die unterschiedlichen Videoansichten in einer From the camera system 20, 22, 24, the environment of the vehicle 10 is recorded in sections from different perspectives and thus provides different video views. In order to provide the driver as complete as possible an overview of his immediate environment, that is within the range of the built-in cameras 20, 22, 24, the different video views in one
Datenverarbeitungseinheit 25 in eine Umfelddarstellung 42 aus der Vogelperspektive transformiert werden und auf einer Anzeigevorrichtung 18 ausgeben werden. Dazu werden die unterschiedlichen Videoansichten auf eine Ebene 30 projiziert, die das Fahrzeug 10 und dessen Umfeld, von einem Punkt über dem Fahrzeug 10 gesehen, darstellt. In Fig. 2 ist beispielhaft ein Schnitt einer schüsselartigen Ebene 30 gezeigt, auf die Data processing unit 25 are transformed into an environment representation 42 from a bird's eye view and output on a display device 18. For this purpose, the different video views are projected onto a plane 30, which represents the vehicle 10 and its surroundings, viewed from a point above the vehicle 10. FIG. 2 shows by way of example a section of a dish-like plane 30 onto which
Videoansichten des Fahrzeugumfeldes projiziert werden können. Dabei wird der Übergang zwischen dem horizontalen Bereich 34 und dem vertikalen Bereich 32 der schüsseiförmigen Ebene 30 möglichst so gewählt, dass dieser mit dem Übergang zwischen flachen Bereichen, wie der Straße 27 auf der sich das Fahrzeug 10 befindet, und erhabenen Objekten, wie Gebäuden 28, im Umfeld des Fahrzeuges 10 übereinstimmen. Auf diese Weise entsteht in der angezeigten Umfelddarstellung 42 ein realer Eindruck, der für den Fahrer intuitiver zu beurteilen ist. Video views of the vehicle environment can be projected. In this case, the transition between the horizontal region 34 and the vertical region 32 of the bowl-shaped plane 30 is preferably selected such that it coincides with the transition between flat regions, such as the road 27 on which the vehicle 10 is located, and raised objects, such as buildings 28 , in the environment of the vehicle 10 match. In this way, a real impression arises in the displayed environment representation 42, which is more intuitive for the driver to judge.
Die resultierende Umfelddarstellung 42 zur Ausgabe auf einer der Anzeigevorrichtung 40 eines HMI ist in Fig. 3 dargestellt. Dort sind das Fahrzeug 10 und dessen Umfeld aus der Vogelperspektive dargestellt. Die Anzeigevorrichtung 40 ist als berührungsempfindliche Anzeigevorrichtung 40 ausgestaltet, wobei in die Anzeige eine berührungsempfindliche Oberfläche integriert ist, um einen Kontakt mit beispielsweise einem oder mehreren Fingern 44 des Benutzers oder einem Stift zu detektieren. Dabei wird die Position des Kontakts auf der Anzeigevorrichtung 40 sowie etwaige Finger- oder Stiftbewegungen des Benutzers als Geste registriert. Solche Gesten können beispielsweise Fingerbewegungen wie einfaches Tippen, Doppeltippen, Ziehen, Strecken oder Stauchen auf der Oberfläche der The resulting environment representation 42 for output on one of the display devices 40 of an HMI is shown in FIG. There, the vehicle 10 and its environment are shown from a bird's eye view. The display device 40 is embodied as a touch-sensitive display device 40, wherein a touch-sensitive surface is integrated in the display in order to detect contact with, for example, one or more fingers 44 of the user or a stylus. In this case, the position of the contact on the display device 40 and any finger or pen movements of the user is registered as a gesture. Such gestures may include, for example, finger gestures such as simple typing, double tipping, dragging, stretching or swaging on the surface of the device
Anzeigevorrichtung 40 umfassen. Hierdurch kann eine intuitive Unterstützung des Fahrers erreicht werden, da der Fahrer die Ansicht auf das Umfeld in der Umfelddarstellung 42 individuell angepasst an die Fahrsituation steuern kann. Zusätzlich ist die Steuerung schnell und einfach zu bedienen. So wird der Fahrer nicht unnötig abgelenkt und kann sich auf die vorliegende Fahrsituation konzentrieren. Display device 40 include. As a result, an intuitive support of the driver can be achieved because the driver can control the view of the environment in the environment representation 42 individually adapted to the driving situation. In addition, the controller is quick and easy to use. Thus, the driver is not distracted unnecessarily and can concentrate on the current driving situation.
In Fig. 3 sind beispielhafte Wirkungen von Gesten auf der Anzeige 40 des HMI 18 angedeutet. Dabei sind Gesten und deren Wirkung im Bezug auf die Steuerung der Ansicht auf das Umfeld in der Umfelddarstellung 42 vordefiniert. Im Folgenden seien nur einige der möglichen Ausführungsformen zur Gestensteuerung in der vogelperspektivischen Ansicht des Fahrzeuges 10 erwähnt. Die folgenden Beispiele sind nicht abschließend und im In Fig. 3 exemplary effects of gestures on the display 40 of the HMI 18 are indicated. Here are gestures and their effect in relation to the control of the view of the environment in the environment representation 42 predefined. In the following, only some of the possible embodiments for gesture control in the bird's-eye view of the vehicle 10 are mentioned. The following examples are not exhaustive and im
Rahmen fachmännischen Handelns ist eine Vielzahl von Abwandlungen möglich.  A range of modifications is possible within the framework of expert action.
In einem Beispiel zur Steuerung des Blickwinkels kann der Benutzer als Geste zum Beispiel den Finger oder den Stift, wie mit Bezugszeichen 56 angedeutet, über die In an example for controlling the viewing angle, the user may as a gesture, for example, the finger or the pen, as indicated by reference numeral 56, on the
berührungsempfindliche Anzeigevorrichtung 40 ziehen und so mit der Bewegung des Fingers den Blickwinkel auf das Umfeld des Fahrzeuges 10, dargestellt in der Pull the touch-sensitive display device 40 and so with the movement of the Fingers the view of the environment of the vehicle 10, shown in the
Umfelddarstellung 42, steuern. Dazu wird basierend auf der detektierten Geste ein  Environment representation 42, control. For this purpose, based on the detected gesture a
Steuersignal an eine Datenverarbeitungseinheit 25 des Fahrassistenzsystems 26 gesendet, die die Transformation der Umfelddarstellung 42 in verschiedene Ansichten auf das Umfeld 5 durchführt.  Control signal sent to a data processing unit 25 of the driving assistance system 26, which performs the transformation of the environment representation 42 in different views of the environment 5.
In einem weiteren Beispiel kann die Blickwinkeländerung durch Tippen oder Doppeltippen sprunghaft realisiert werden. So können, wie in Fig. 3 dargestellt, Symbole 46, 48, 50 für vordefinierte Ansichten auf das Fahrzeugumfeld, dargestellt in der Umfelddarstellung 42, o eingeblendet werden. Bei Antippen dieser Symbole wird automatisch die Ansicht mit In another example, the viewing angle change by jogging or double-taping can be realized abruptly. Thus, as shown in Fig. 3, icons 46, 48, 50 for predefined views of the vehicle environment, shown in the environment representation 42, o are displayed. Tapping these icons will automatically display the view
vordefiniertem Blickwinkel und möglicherweise vordefinierter Skalierung angezeigt. Neben Tippen als Geste könnte dies auch durch Schubsen zwischen den Symbolen 46, 48, 50, wie mit Bezugszeichen 58 angedeutet, realisiert werden. Schubsen beschreibt dabei eine Fingerbeziehungsweise Stiftbewegung, die ein schnelles Ziehen über die berührungsempfindliche5 Anzeige mit nur kurzzeitigem Kontakt darstellt. Dabei ist kurz und schnell relativ zu anderen Gesten mit anderen Wirkungen, etwa dem Ziehen zur Blickwinkeländerung, zu verstehen.  predefined viewing angle and possibly predefined scaling. In addition to jogging as a gesture, this could also be realized by pushing between the symbols 46, 48, 50, as indicated by reference numeral 58. Schubsen describes a finger or pin movement that represents a quick pull over the touch-sensitive display with only a short-term contact. It is to be understood briefly and quickly relative to other gestures with other effects, such as pulling to change the angle.
Eine weitere Möglichkeit besteht darin, dass der Benutzer als Geste zum Beispiel einen oder mehrere Finger, wie mit Bezugszeichen 52, 54 und 55 angedeutet, in Rotationsbewegungen o über die berührungsempfindliche Anzeigevorrichtung 40 zieht. Auf diese Weise kann derAnother possibility is that the user as a gesture, for example, one or more fingers, as indicated by reference numerals 52, 54 and 55, in rotational movements o moves over the touch-sensitive display device 40. In this way, the
Benutzer den Blickwinkel auf das Umfeld des Fahrzeuges 10, dargestellt in der Users the perspective on the environment of the vehicle 10, shown in the
Umfelddarstellung 42, der Bewegung des Fingers folgend um eine von drei Raumachsen 52, 54, 55 rotieren. 5 Neben der Streuung des Blickwinkels durch Gesten können auch Gesten zur Skalierung oder zum Ein- und Auszoomen in die Ansicht des Fahrzeugumfeldes, gezeigt in der  Environment representation 42, the movement of the finger following one of three spatial axes 52, 54, 55 rotate. 5 In addition to the scattering of the angle by gestures can also gestures for scaling or for zooming in and out in the view of the vehicle environment, shown in the
Umfelddarstellung 42, definiert werden. Beispielsweise kann Strecken und Stauchen von mindestens zwei Fingern als Geste definiert werden. Es sein an dieser Stelle nochmals explizit darauf hingewiesen, dass zu den konkret genannten Beispielen eine Vielzahl von 0 Abwandlungen zur Gestensteuerung in der vogelperspektivischen Ansicht möglich sind.  Environment representation 42 to be defined. For example, stretching and compressing at least two fingers can be defined as a gesture. It should again be pointed out explicitly at this point that a variety of 0 modifications to the gesture control in the bird's-eye view are possible for the specifically mentioned examples.
Fig. 4 zeigt ein Flussdiagramm 60 zur Durchführung von erfindungsgemäßem Verfahren, wobei das Zusammenwirken der Komponenten gemäß Fig. 1 illustriert ist. In Schritt 62 werden zunächst Umfelddaten mit Hilfe von Umfeldsensorik erfasst. Dabei dient insbesondere ein Kamerasystem 20, 22, 24 als Umfeldsensorik, das Videoansichten aus verschiedenen Perspektiven als Umfelddaten zur Verfügung stellt. FIG. 4 shows a flow diagram 60 for carrying out the method according to the invention, wherein the interaction of the components according to FIG. 1 is illustrated. In step 62, first environmental data are acquired with the aid of environmental sensors. It serves in particular, a camera system 20, 22, 24 as environmental sensors that provides video views from different perspectives as environmental data.
In Schritt 62 wird aus den Umfelddaten eine Umfelddarstellung 42 in der Vogelperspektive berechnet, wobei die Umfelddaten auf eine Ebene 30 projiziert werden, die das Fahrzeug 10 und dessen Umfeld aus der Vogelperspektive zeigt. In step 62, an environment representation 42 is calculated from the environment data in a bird's-eye view, wherein the environment data is projected onto a plane 30, which shows the vehicle 10 and its surroundings from a bird's-eye view.
In Schritt 64 wird die berechnete Umfelddarstellung 42 auf einer berührungsempfindlichen Anzeigevorrichtung 40 ausgeben. Dabei erkennt die Anzeigevorrichtung 40 Gesten des Benutzers auf einer berührungsempfindlichen Oberfläche und wandelt diese in Steuersignale um, die von einer Datenverarbeitungseinheit 25 interpretiert werden. Auf diese Weise kann der Benutzer die Ansicht auf das Umfeld in der Umfelddarstellung 42 durch Gesten auf der berührungsempfindlichen Anzeigevorrichtung 40, wie in Schritt 66 ausgeführt, steuern. In step 64, the computed environment representation 42 is output on a touch-sensitive display device 40. In this case, the display device 40 recognizes gestures of the user on a touch-sensitive surface and converts these into control signals that are interpreted by a data processing unit 25. In this way, the user can control the view of the environment in the surround view 42 by gestures on the touch-sensitive display device 40 as performed in step 66.
Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr sind innerhalb des durch die anhängenden Ansprüche angegebenen Bereichs eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen. The invention is not limited to the embodiments described herein and the aspects highlighted therein. Rather, within the scope given by the appended claims a variety of modifications are possible, which are within the scope of expert action.

Claims

Ansprüche 1. Verfahren zur Darstellung eines Fahrzeugumfeldes auf einer Mensch-Maschine- Schnittstelle (18) eines Fahrerassistenzsystems (26) mit folgenden Schritten: Claims 1. A method for displaying a vehicle environment on a man-machine interface (18) of a driver assistance system (26), comprising the following steps:
- Erfassen von Umfelddaten mit Hilfe von Umfeldsensorik (20, 22, 24); - Capture environmental data using environmental sensors (20, 22, 24);
- Berechnen einer Umfelddarstellung (42) in der Vogelperspektive auf Basis der erfassten Umfelddaten;  - Computing an environment representation (42) in a bird's eye view on the basis of the acquired environment data;
- Ausgabe der Umfelddarstellung (42) auf einer berührungsempfindlichen  - Output of the environment representation (42) on a touch-sensitive
Anzeigevorrichtung (40); und  Display device (40); and
- Steuern einer Ansicht auf das Umfeld in der Umfelddarstellung (42) durch Gesten (52, 54, 55, 56, 58) eines Benutzers (44) auf der berührungsempfindlichen  - Controlling a view of the environment in the environment representation (42) by gestures (52, 54, 55, 56, 58) of a user (44) on the touch-sensitive
Anzeigevorrichtung (40).  Display device (40).
2. Verfahren gemäß Anspruch 1 , wobei die Umfeldsensorik ein Kamerasystem mit einer oder mehreren Kameras (20, 22, 24) umfasst und die Umfelddarstellung (42) auf dem Kamerasystem basierende Videoansichten des Fahrzeugumfeldes zur Ausgabe auf einer berührungsempfindlichen Anzeigevorrichtung (40) umfasst. 2. The method of claim 1, wherein the surround sensing system comprises a camera system having one or more cameras (20, 22, 24) and the surround view (42) includes video system-based video views of the vehicle surroundings for output on a touch-sensitive display device (40).
3. Verfahren gemäß einem der Ansprüche 1 oder 2, wobei die Umfelddarstellung (42) in der Vogelperspektive aus Videoansichten des Kamerasystems (20, 22, 24), projiziert auf eine schüsseiförmige Ebene (30), generiert wird. The method of claim 1 or 2, wherein the bird's eye view of the surround view (42) is generated from video views of the camera system (20, 22, 24) projected onto a bullet-shaped plane (30).
4. Verfahren gemäß einem der Ansprüche 1 bis 3, wobei ein Detektionselement einen Kontakt zwischen der berührungsempfindlichen Anzeigevorrichtung (40) und mindestens einem Finger oder mindestens einem Stift des Benutzers (44) detektiert. A method according to any one of claims 1 to 3, wherein a detection element detects contact between the touch-sensitive display device (40) and at least one finger or at least one stylus of the user (44).
5. Verfahren gemäß einem der Ansprüche 1 bis 4, wobei das Steuern der Ansicht durch vordefinierte Gesten (52, 54, 55, 56, 58) des Benutzers (44) erfolgt. The method of any one of claims 1 to 4, wherein the controlling of the view is by predefined gestures (52, 54, 55, 56, 58) of the user (44).
6. Verfahren gemäß einem der Ansprüche 1 bis 5, wobei der Blickwinkel oder die 6. The method according to any one of claims 1 to 5, wherein the angle of view or the
Skalierung der Umfelddarstellung (42) verändert wird, wenn die Geste des Benutzers (44) zu einer vordefinierten Geste (52, 54, 55, 56, 58) korrespondiert. Scaling the environment representation (42) is changed when the gesture of the user (44) to a predefined gesture (52, 54, 55, 56, 58) corresponds.
7. Verfahren gemäß einem der Ansprüche 1 bis 6, wobei die Steuerung der Ansicht je nach Geste (52, 54, 55, 56, 58) des Benutzers (44) gleichmäßig oder sprunghaft erfolgt. 7. The method according to any one of claims 1 to 6, wherein the control of the view depending on the gesture (52, 54, 55, 56, 58) of the user (44) takes place evenly or suddenly.
8. Computerprogramm zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird. 8. Computer program for carrying out the method according to one of the preceding claims, when the computer program is executed on a programmable computer device.
9. Fahrassistenzsystem (26) zur Darstellung eines Fahrzeugumfeldes auf einer Mensch- Maschine-Schnittstelle (18) mit folgenden Komponenten: 9. driver assistance system (26) for displaying a vehicle environment on a man-machine interface (18) with the following components:
- Umfeldsensorik (20, 22, 24) zum Erfassen von Umfelddaten; - Environment sensors (20, 22, 24) for detecting environmental data;
- mindestens eine Komponente (26) zum Berechnen einer Umfelddarstellung (42) in der Vogelperspektive auf Basis der erfassten Umfelddaten;  - At least one component (26) for calculating an environment representation (42) in a bird's eye view on the basis of the detected environment data;
- mindestens eine berührungsempfindliche Anzeigevorrichtung (40) zum Ausgeben der Umfelddarstellung (42); und  - at least one touch-sensitive display device (40) for outputting the environment representation (42); and
- mindestens eine Komponente (26), die in Reaktion auf Gesten (52, 54, 55, 56, 58) eines Benutzers (44) auf der berührungsempfindlichen Anzeigevorrichtung (40) eine Ansicht auf das Umfeld in der Umfelddarstellung (42) steuert.  - at least one component (26) which in response to gestures (52, 54, 55, 56, 58) of a user (44) on the touch-sensitive display device (40) controls a view of the environment in the environment representation (42).
PCT/EP2012/068804 2011-10-14 2012-09-24 Method for representing a vehicle environment WO2013053590A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102011084524.0 2011-10-14
DE102011084524A DE102011084524A1 (en) 2011-10-14 2011-10-14 Method for displaying a vehicle environment

Publications (1)

Publication Number Publication Date
WO2013053590A1 true WO2013053590A1 (en) 2013-04-18

Family

ID=47074673

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2012/068804 WO2013053590A1 (en) 2011-10-14 2012-09-24 Method for representing a vehicle environment

Country Status (2)

Country Link
DE (1) DE102011084524A1 (en)
WO (1) WO2013053590A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016011916A1 (en) 2016-10-05 2017-06-01 Daimler Ag Method for carrying out an automatic parking operation of a motor vehicle

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013215484A1 (en) * 2013-08-06 2015-02-12 Bayerische Motoren Werke Aktiengesellschaft Display system and visualization method for a vehicle
DE102018119481A1 (en) * 2018-08-10 2020-02-13 Connaught Electronics Ltd. Method for providing an image representation of at least part of an environment of a motor vehicle, computer program product and driver assistance system
DE102019102283A1 (en) * 2019-01-30 2020-07-30 Connaught Electronics Ltd. Method and system for restricting the movement of a door of a vehicle
DE102019123778A1 (en) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Representing a vehicle environment for moving the vehicle to a target position

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116567A (en) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd On-vehicle driving supporting information displaying device
DE102006060904A1 (en) 2006-12-20 2008-06-26 Deutsches Zentrum für Luft- und Raumfahrt e.V. Airport traffic information display system
DE102008025124A1 (en) 2008-05-26 2009-12-03 Volkswagen Ag Display system operating method for e.g. passenger car, involves generating control signal based on operating information and adjusted mode of operation to control function of display system
EP2234399A1 (en) * 2009-03-25 2010-09-29 Fujitsu Limited Image processing method and image processing apparatus
DE102009057081A1 (en) 2009-12-04 2011-06-09 Volkswagen Ag Method for providing user interface in e.g. car, involves determining quality values of detected parameters during detection of parameters, and changing graphical representation on display surface depending on quality values

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116567A (en) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd On-vehicle driving supporting information displaying device
DE102006060904A1 (en) 2006-12-20 2008-06-26 Deutsches Zentrum für Luft- und Raumfahrt e.V. Airport traffic information display system
DE102008025124A1 (en) 2008-05-26 2009-12-03 Volkswagen Ag Display system operating method for e.g. passenger car, involves generating control signal based on operating information and adjusted mode of operation to control function of display system
EP2234399A1 (en) * 2009-03-25 2010-09-29 Fujitsu Limited Image processing method and image processing apparatus
DE102009057081A1 (en) 2009-12-04 2011-06-09 Volkswagen Ag Method for providing user interface in e.g. car, involves determining quality values of detected parameters during detection of parameters, and changing graphical representation on display surface depending on quality values

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016011916A1 (en) 2016-10-05 2017-06-01 Daimler Ag Method for carrying out an automatic parking operation of a motor vehicle

Also Published As

Publication number Publication date
DE102011084524A1 (en) 2013-04-18

Similar Documents

Publication Publication Date Title
EP1862376B1 (en) Method for controlling the parking process
EP2720929B1 (en) Method and device for assisting a driver in performing lateral guidance of a vehicle on a carriageway
EP1998996B1 (en) Interactive operating device and method for operating the interactive operating device
EP2181013B1 (en) Method for displying information in a vehicle, and display device for a vehicle
EP3337713B1 (en) Parking system with interactive trajectory optimization
WO2013083364A1 (en) Method for representing a motor vehicle environment
WO2014198552A1 (en) System and method for monitoring and/or operating a piece of technical equipment, in particular a vehicle
WO2013037694A1 (en) Maneuvering system and method for automatically maneuvering a motor vehicle, motor vehicle, portable communication device, and computer program
WO2015090569A1 (en) Device and method for navigating within a menu for controlling a vehicle, and selecting a menu entry from the menu
DE102013201746A1 (en) INTERACTION WITH VEHICLE CONTROL ELEMENTS BY GESTURE DETECTION
WO2013053590A1 (en) Method for representing a vehicle environment
EP2485913B1 (en) Method and display device for displaying information
DE102010030463A1 (en) Method for assisting a driver of a motor vehicle
EP3695395A1 (en) Method for reproducing the surroundings of a vehicle
EP3807119B1 (en) Method for operating a display and input device, display and input device, and motor vehicle
EP2704634B1 (en) Multifunction operating device
DE102013215370B4 (en) Control device for use in a motor vehicle
WO2014108147A1 (en) Zooming and shifting of image content of a display device
CN113147745A (en) Interaction method and device based on automatic driving
DE102012206247A1 (en) Method and device for displaying a hand of an operator of a control element of a vehicle
DE102013221201A1 (en) Method for assisting a driver when parking
WO2013131635A1 (en) Motor vehicle comprising an electronic rear-view mirror
EP3562730A1 (en) Method for automatically parking a motor vehicle
DE102013203653A1 (en) Control unit for vehicle, for increasing safety of road user in traffic, displays front area image on picture screen of infotainment system, if driver of vehicle directs his attention to picture screen
DE102013001327B4 (en) Method and display system for viewing direction-dependent scaling of a representation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12778050

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 12778050

Country of ref document: EP

Kind code of ref document: A1