EP1874611A1 - Verfahren und vorrichtung zur auswertung von abstandsmessdaten eines abstandsmesssystems eines kraftfahrzeugs - Google Patents

Verfahren und vorrichtung zur auswertung von abstandsmessdaten eines abstandsmesssystems eines kraftfahrzeugs

Info

Publication number
EP1874611A1
EP1874611A1 EP06723330A EP06723330A EP1874611A1 EP 1874611 A1 EP1874611 A1 EP 1874611A1 EP 06723330 A EP06723330 A EP 06723330A EP 06723330 A EP06723330 A EP 06723330A EP 1874611 A1 EP1874611 A1 EP 1874611A1
Authority
EP
European Patent Office
Prior art keywords
camera image
distance
motor vehicle
integrated
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP06723330A
Other languages
English (en)
French (fr)
Inventor
Markus Hedderich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Publication of EP1874611A1 publication Critical patent/EP1874611A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/002Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
    • B60Q9/004Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors
    • B60Q9/005Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors using a video camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/002Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
    • B60Q9/007Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle providing information about the distance to an obstacle, e.g. varying sound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • B62D15/0295Steering assistants using warnings or proposing actions to the driver without influencing the steering system by overlaying a vehicle path based on present steering angle over an image without processing that image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers

Definitions

  • the present invention relates to a method for evaluating distance measuring data of a distance measuring system of a motor vehicle, in which a camera image is obtained from an environment of the motor vehicle to be observed and in which distance measuring data are obtained from the same environment to be observed by means of the distance measuring system, wherein the camera image is displayed on a display device is and be integrated depending on the distance measurement data distance information in the camera image.
  • the present invention further relates to an apparatus for carrying out such a method.
  • Methods and devices of this type are known and dazzle for example in the environment to be examined and detected by the distance measuring system objects or obstacles in the form of bars in the camera image to a driver of the motor vehicle, at least to some extent, a spatial assignment of the objects when viewing of the camera image.
  • these devices or methods permit, at most, the reading of a distance of the corresponding object from the camera image. Further information is not provided by the known systems.
  • This object is achieved according to the invention in the method of the type mentioned in that a driving tube of the motor vehicle is determined and also integrated into the camera image.
  • the travel tube describes that region of the surroundings of the motor vehicle in which the motor vehicle is expected to travel and, perpendicular to its imaginary center line, has a width which corresponds to the largest width dimension of the motor vehicle. In this way, depending on the arrangement of the driving tube in the room to be examined whether the motor vehicle is on a collision course with an object located in its environment or not.
  • the integration of the driving tube into the camera image according to the invention is very helpful in order to be able to detect or avoid possible impending collisions of the motor vehicle with objects in the vehicle environment indicated by the camera image.
  • the driver recognizes that driving on with the same parameters as e.g. an unchanged steering angle leads to a collision with the object. If no object is located in the space area marked by the travel tube, there is no collision if the vehicle continues to travel.
  • the integration of the driving tube into the camera image can be achieved, for example, by fading in the driving tube or a geometric one representing the driving tube Object in the camera image done.
  • the fade-in can be carried out, for example, by manipulating the corresponding video data of the camera image directly in a memory provided for this purpose or by integrating it into the video data stream by a computer. Additional graphic objects can be integrated into the camera image in the same way.
  • the driving tube is determined dynamically as a function of a steering angle and / or a speed and / or wheel speeds of individual wheels of the motor vehicle. In this way, the most accurate representation of the driving tube can be realized in any driving situation.
  • the dynamically determined travel route is advantageously also dynamic, i. as soon as possible after its recalculation, integrated into the current camera image in order to always provide the driver with the latest information.
  • Data relating to the steering angle or the wheel speeds may be a control device executing the method according to the invention, for example via a provided in the motor vehicle data bus such. receive the CAN bus from other ECUs.
  • the travel tube is integrated into the camera image only up to a predefinable maximum distance from the motor vehicle.
  • the driving route represents an area presumably traveled by the motor vehicle, so that the calculation of the driving route makes little sense, in particular for large distances to the current position of the motor vehicle due to various changes in the driving parameters, such as a change in the steering wheel angle or the steering angle.
  • the driving parameters such as a change in the steering wheel angle or the steering angle.
  • too long a driving tube also leads to unnecessary information in the camera image, because the driver could be distracted from the immediate area running around the motor vehicle.
  • the inventive limitation of the length of the integrated into the camera image driving tube is very beneficial.
  • a maximum distance in the form of a parameter can be specified, which specifies the maximum length of the driving tube to be integrated into the camera image. It may also be advantageous to select this maximum distance as a function of the vehicle speed.
  • the travel tube integrated in the camera image does not abruptly terminate in the region of the predefinable maximum distance, but continuously, for example, being hidden over a certain distance range.
  • the fade-out can be effected, for example, by a changing contrast of the geometric object representing the travel route in the camera image along the distance range specified for this purpose.
  • different brightness values and / or contrast values and / or color values can be assigned to the travel tube for integration into the camera image, preferably as a function of a driving state of the motor vehicle and / or as a function of distance measured values.
  • the distance measuring system obtains distance measuring data assigned to these areas for at least two different regions of the environment to be observed. In this way, separate distance information can be formed for the individual areas and thus more precise Information about the motor vehicle environment delivered and finally integrated into the camera image.
  • the at least two regions it is particularly expedient for the at least two regions to extend along a width of the environment or of the camera image to be observed. This makes it possible to selectively detect objects or their distance to the motor vehicle, which is e.g. only in the area of the right or left side of the motor vehicle and thus occupy only part of the width of the driving tube.
  • these at least two regions correspond to the detection regions in FIG.
  • Distance measuring system integrated distance sensors these distance sensors work in particular after the ultrasonic or according to the radar principle.
  • Distance information by their graphical representation in the camera image directly specify information about their assigned distance measurement data.
  • the distance information in the form of geometric objects, in particular of rectangles and / or trapezoids, into the camera image.
  • geometric objects can be generated in a simple manner by a processing unit processing the camera image and integrated or displayed in the camera image.
  • these geometric objects differ well from objects observed in the camera image Environment, so that the driver can easily interpret the distance information as such and evaluate accordingly.
  • the distance information corresponding to different areas can furthermore be assigned different brightness values and / or contrast values and / or color values.
  • this can serve to optically distinguish the different regions - beyond their spatial arrangement in the camera image - by assigning them different primary colors, for example.
  • giving different color values e.g. take place as a function of distance measurement values assigned to the areas, so that likewise a clear representation is ensured.
  • a further, particularly advantageous embodiment of the present invention is characterized in that distance information which is assigned to regions outside the driving tube of the environment to be observed is integrated differently in the camera image or as a distance information located inside the driving tube Are associated with areas of the environment to be observed. As a result, a simple differentiability of the different distance information is guaranteed according to whether or not they are to be used for the assessment of possible collisions due to their arrangement within the driving tube.
  • the distance information outside the travel tube lying areas of the environment to be observed are less clearly, for example, with low contrast, integrated into the camera image or shown in this, and that the distance information, which are assigned within the driving lane areas of the environment to be observed, clearly, for example with high contrast, integrated into the camera image or displayed in this.
  • a differentiation of the respective more important or less important distance information is achieved according to the invention, for example, by integrating the distance information into the camera image in different ways, in particular with different brightness values and / or contrast values and / or color values, which area of the one to be observed Environment they are associated with.
  • Distance information can be integrated into the camera image.
  • Such distance information preferably indicates a distance from the motor vehicle in mutually equivalent steps of, for example, half a meter in the camera image and serves as an orientation aid for the driver to assess the individual distances to objects in the observed environment.
  • the distance measurement data can be obtained alternatively or additionally to ultrasound or radar-based sensor systems by means of a camera system, in particular a stereo camera system.
  • Fig. 2a shows a camera image obtained by the method according to the invention
  • Fig. 2b shows a simplified version of the camera image of Fig. 2a.
  • a camera image is obtained from an environment of a motor vehicle to be observed.
  • a camera image 100 is shown by way of example and greatly simplified in FIG. 2a.
  • the camera image 100 depicted in FIG. 2a shows a scene as obtained with a conventional reversing camera of a motor vehicle from an area behind the motor vehicle.
  • a protruding from the plane of Fig. 2a forward facing direction of travel of the motor vehicle, located in the environment right behind the motor vehicle, ie upper left in Fig. 2a, an obstacle 10, which, for example, another, eg parked motor vehicle, which is in a marked by a side strip 11 parking area.
  • the side strip 11 in this case separates the parking area arranged to the left of it in FIG. 2a from a road leading past this parking area, which extends parallel to the side strip 11 and on the camera image 100 according to FIG. 2a to the right of it.
  • the scene shown results, for example, when parking out of the considered motor vehicle from lying in Fig. 2a to the left of the side strip 11 parking space, the rear, i. against the forward direction of travel, is limited by the parking motor vehicle 10.
  • the method according to the invention provides for the integration of a driving tube 4a, 4b into the camera image 100, cf. Step 210 in FIG. 1.
  • the driving lane 4a, 4b describes that area of the surroundings of the motor vehicle in which the motor vehicle is expected to travel - in the course of a presently anticipated reverse drive for parking out of the parking space - and has - perpendicular to its imaginary center line - a width corresponding to the largest width dimension of the motor vehicle.
  • This width of the driving tube 4a, 4b is indicated by the curves 4a, 4b shown in the camera image 100.
  • the color or brightness and / or the contrast of the curves 4a, 4b is chosen so that the driving tube 4a, 4b well from the Camera image 100 stands out to allow easy visual evaluation.
  • the driving tube 4a, 4b is determined from the geometry of the motor vehicle and from the speed or individual wheel speeds of the motor vehicle and a steering angle. According to the invention, the driving lane 4a, 4b is faded in only up to a predefinable maximum distance, whereby the regions 4a ', 4b' of the driving tube 4a, 4b located in the region of the maximum distance are not abruptly faded out or are not even faded into the camera image 100.
  • the end regions 4a ', 4b' of the driving tube 4a, 4b are preferably displayed in the camera image 100 by a corresponding coloration and / or brightness and / or contrast progression dependent on the distance from the motor vehicle. This situation is symbolized in Fig. 2a by the continuation of the curves 4a, 4b by means of dashed lines 4a ', 4b'.
  • the driver of the motor vehicle can recognize on the camera image 100 displayed via a display device (not shown) that the current heading of the motor vehicle will lead to a collision with the parked vehicle 10 because the left-hand boundary 4a of the driving tube 4a, 4b, the parking vehicle 10 intersects.
  • distance information in the form of curves 5a, 5b, 5c connecting the curves 4a, 4b of the driving tube 4a, 4b is integrated into the camera image 100.
  • These distance information 5a, 5b, 5c are preferably arranged in mutually equidistant steps or depending on the distance and, for example, each spaced half a meter apart.
  • the driver can clearly see from the camera image 100 that at a distance of 0.5 m to the rear of the motor vehicle, the left curve 4a of the driving tube 4a, 4b has an intersection with the obstacle 10.
  • the travel tube 4a, 4b is imaged in the camera image 100 up to a maximum distance of approximately 2 m, calculated from the rear of the motor vehicle.
  • distance measurement data are obtained from the same surroundings of the motor vehicle as shown in the camera image 100, i. the distance measurement data contain information about objects located behind the motor vehicle and their distance from the motor vehicle.
  • a known per se distance measuring system based on ultrasonic sensors or radar sensors or an optical system, in particular a stereo camera system can be used.
  • the distance measuring system has a plurality of ultrasonic sensors which detect an environment behind the motor vehicle in three areas defined by the detection areas of the ultrasonic sensors.
  • Ultrasonic sensors supplied distance measurement data in the form of distance information Ia ', Ib', 2 'integrated into the camera image 100.
  • the parking motor vehicle 10 represents the object detected in the region 1 and in the region 2.
  • the region 3 has no rectangle because no object has been detected for it.
  • the distance information Ia ', Ib', 2 'shown in the camera image 100 becomes relative to the driving tube 4a, 4b analyzed and shown accordingly different, which takes place in step 230 of the method according to the invention, cf. 1, in particular in the area 1 (FIG. 2 a), the distance information Ia 'corresponding to a region located outside the driving lane 4a, 4b is shown differently in the camera image 100 than the distance information lb' corresponding to a region lying inside the lane 4a, 4b, which is symbolized in Fig. 2a by the dotted lines for marking the distance information Ia 'and the dashed lines for marking the distance information Ib'.
  • the distance information assigned to the different regions 1, 2, 3 can be divided according to the invention into a plurality, at least two, parts such as Ia ', Ib' to allow a special emphasis on the more important of the two parts.
  • 2b shows a further simplified representation of the camera image 100 from FIG. 2a, in which the division of the distance information Ia ', Ib' according to the invention as a function of its position relative to the driving tube 4a, 4b is particularly clearly recognizable.
  • the data used to calculate the driving lane 4a, 4b can be used for the corresponding division of the distance information Ia ', Ib'.
  • the geometric objects which in the camera image 100 represent the driving tube 4a, 4b and the distance information Ia ', Ib', 2 ', 5a, 5b, 5c can have different brightness and / or contrast and / or color values in FIG Camera image 100 are displayed to highlight the respective objects of importance.
  • the driver With the aid of the distance information Ia ', Ib', 2 'integrated into the camera image 100 according to the invention, the driver is effectively made aware of any obstacles that may be present inside the driving tube 4a, 4b.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur Auswertung von Abstandsmessdaten eines Abstandsmesssystems eines Kraftfahrzeugs, bei dem ein Kamerabild (100) von einer zu beobachtenden Umgebung des Kraftfahrzeugs erhalten wird und bei dem mittels des Abs tandsmess Systems Abstandsmessdaten aus derselben zu beobachtenden Umgebung erhalten werden, wobei das Kamerabild (100) auf einem Anzeigegerät angezeigt wird und wobei in Abhängigkeit der Abstandsmessdaten Abstandsinformationen (1a', 1b', 2') in das Kamerabild (100) integriert werden. Erfindungsgemäss wird ein Fahrschlauch (4a, 4b) des Kraftfahrzeugs ermittelt und ebenfalls in das Kamerabild (100) integriert.

Description

Titel; Verfahren und Vorrichtung zur Auswertung von
Abstandsmessdaten eines Abstandsmesssystems eines Kraftfahrzeugs
Beschreibung
Die vorliegende Erfindung betrifft ein Verfahren zur Auswertung von Abstandsmessdaten eines AbstandsmessSystems eines Kraftfahrzeugs, bei dem ein Kamerabild von einer zu beobachtenden Umgebung des Kraftfahrzeugs erhalten wird und bei dem mittels des Abstandsmesssystems Abstandsmessdaten aus derselben zu beobachtenden Umgebung erhalten werden, wobei das Kamerabild auf einem Anzeigegerät angezeigt wird und wobei in Abhängigkeit der Abstandsmessdaten Abstandsinformationen in das Kamerabild integriert werden.
Die vorliegende Erfindung betrifft ferner eine Vorrichtung zur Durchführung eines derartigen Verfahrens .
Verfahren und Vorrichtungen dieser Art sind bekannt und blenden beispielsweise in der zu untersuchenden Umgebung befindliche und mittels des Abstandsmesssystems detektierte Objekte bzw. Hindernisse in Form von Balken in das Kamerabild ein, um einem Fahrer des Kraftfahrzeugs zumindest in gewissem Umfang eine räumliche Zuordnung der Objekte beim Betrachten des Kamerabilds zu ermöglichen. Abgesehen von der Aussage, ob überhaupt ein Objekt in der zu untersuchenden Umgebung existiert, erlauben diese Vorrichtungen bzw. Verfahren jedoch allenfalls das Ablesen einer Entfernung des entsprechenden Objekts aus dem Kamerabild. Weitere Informationen werden durch die bekannten Systeme nicht zur Verfügung gestellt.
Demgemäß ist es Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung der eingangs genannten Art dahingehend weiterzuentwickeln, dass eine verbesserte Darstellung ermittelter Informationen und eine effizientere Information des Benutzers erreicht wird.
Diese Aufgabe wird bei dem Verfahren der eingangs genannten Art erfindungsgemäß dadurch gelöst, dass ein Fahrschlauch des Kraftfahrzeugs ermittelt und ebenfalls in das Kamerabild integriert wird.
Der Fahrschlauch beschreibt denjenigen Bereich der Umgebung des Kraftfahrzeugs, in dem sich das Kraftfahrzeug voraussichtlich fortbewegen wird und weist - senkrecht zu seiner gedachten Mittellinie - eine Breite auf, die der größten Breitenabmessung des Kraftfahrzeugs entspricht. Auf diese Weise kann je nach Anordnung des Fahrschlauchs im Raum untersucht werden, ob das Kraftfahrzeug auf Kollisionskurs mit einem in seiner Umgebung befindlichen Objekt ist oder nicht.
Für den Fahrer eines Kraftfahrzeugs ist die erfindungsgemäße Integration des Fahrschlauchs in das Kamerabild sehr hilfreich, um mögliche bevorstehende Kollisionen des Kraftfahrzeugs mit Objekten in der durch das Kamerabild angezeigten Fahrzeugumgebung zu erkennen bzw. vermeiden zu können .
Falls sich innerhalb des in dem Kamerabild integrierten Fahrschlauchs Objekte befinden, erkennt der Fahrer, dass eine Weiterfahrt mit denselben Parametern wie z.B. einem unveränderten Lenkeinschlag zur Kollision mit dem Objekt führt. Falls kein Objekt in dem von dem Fahrschlauch markierten Raumbereich befindlich ist, ergibt sich bei einer Weiterfahrt keine Kollision.
Die Integration des Fahrschlauchs in das Kamerabild kann beispielsweise durch ein Einblenden des Fahrschlauchs bzw. eines den Fahrschlauch repräsentierenden geometrischen Objekts in das Kamerabild erfolgen. Das Einblenden kann beispielsweise dadurch vorgenommen werden, dass die entsprechen Videodaten des Kamerabilds direkt in einem hierfür vorgesehenen Speicher manipuliert werden bzw. von einer Recheneinheit in den Videodatenstrom integriert werden. Weitere grafische Objekte können auf dieselbe Weise in das Kamerabild integriert werden.
Bei einer besonders vorteilhaften Ausführungsform der vorliegenden Erfindung wird der Fahrschlauch dynamisch in Abhängigkeit eines Lenkwinkels und/oder einer Geschwindigkeit und/oder von Raddrehzahlen einzelner Räder des Kraftfahrzeugs ermittelt. Auf diese Weise ist in jeder Fahrsituation eine möglichst genaue Darstellung des Fahrschlauchs realisierbar. Der dynamisch ermittelte Fahrschlauch wird vorteilhaft ebenfalls dynamisch, d.h. möglichst direkt nach seiner Neuberechnung, in das aktuelle Kamerabild integriert, um den Fahrer stets mit den aktuellsten Informationen zu versorgen.
Daten betreffend den Lenkwinkel bzw. die Raddrehzahlen kann ein das erfindungsgemäße Verfahren ausführendes Steuergerät beispielsweise über einen in dem Kraftfahrzeug vorgesehenen Datenbus wie z.B. den CAN-Bus von anderen Steuergeräten erhalten.
Bei einer weiteren sehr vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird der Fahrschlauch nur bis zu einem vorgebbaren Maximalabstand von dem Kraftfahrzeug in das Kamerabild integriert. Der Fahrschlauch stellt wie bereits beschrieben einen voraussichtlich von dem Kraftfahrzeug befahrenen Bereich dar, so dass die Berechnung des Fahrschlauchs insbesondere für große Abstände zu der momentanen Position des Kraftfahrzeugs aufgrund verschiedener Änderungen der Fahrparameter wie z.B. einer Veränderung des Lenkradeinschlags bzw. des Lenkwinkels wenig sinnvoll ist. Einerseits ist es bei einem zu langen Fahrschlauch wenig wahrscheinlich, dass dieser die tatsächliche Bahn des Kraftfahrzeugs angibt, andererseits führt ein zu langer Fahrschlauch auch zu unnötigen Informationen in dem Kamerabild, weil der Fahrer von dem unmittelbar um das Kraftfahrzeug verlaufenden Nahbereich abgelenkt werden könnte. Daher ist die erfindungsgemäße Begrenzung der Länge des in das Kamerabild integrierten Fahrschlauchs sehr vorteilhaft. Beispielsweise kann ein Maximalabstand in Form eines Parameters vorgegeben werden, der die maximale Länge des in das Kamerabild zu integrierenden Fahrschlauchs angibt. Es kann ferner vorteilhaft sein, diesen Maximalabstand in Abhängigkeit der Fahrzeuggeschwindigkeit zu wählen.
Bei einer weiteren sehr vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens endet der in das Kamerabild integrierte Fahrschlauch im Bereich des vorgebbaren Maximalabstands nicht abrupt, sondern kontinuierlich, indem er beispielsweise über einen gewissen Abstandsbereich hinweg ausgeblendet wird. Das Ausblenden kann beispielsweise durch einen sich ändernden Kontrast des den Fahrschlauch repräsentierenden geometrischen Objekts in dem Kamerabild entlang des hierfür vorgegeben Abstandsbereichs erfolgen.
Generell können dem Fahrschlauch zur Integration in das Kamerabild unterschiedliche Helligkeitswerte und/oder Kontrastwerte und/oder Farbwerte zugeordnet werden, vorzugsweise in Abhängigkeit eines Fahrzustands des Kraftfahrzeugs und/oder in Abhängigkeit von Abstandsmesswerten.
Bei einer weiteren erfindungsgemäßen Verfahrensvariante werden mit dem Abstandsmesssystem für mindestens zwei verschiedene Bereiche der zu beobachtenden Umgebung jeweils diesen Bereichen zugeordnete Abstandsmessdaten erhalten. Auf diese Weise können für die einzelnen Bereiche separate Abstandsinformationen gebildet und damit präzisere Informationen betreffend das Kraftfahrzeugumfeld geliefert und schließlich auch in das Kamerabild integriert werden.
Besonders zweckmäßig ist bei einer weiteren Ausführungsform der Erfindung vorgesehen, dass die mindestens zwei Bereiche sich entlang einer Breite der zu beobachtenden Umgebung bzw. des Kamerabilds erstrecken. Damit ist es möglich, selektiv Objekte bzw. deren Abstand zu dem Kraftfahrzeug zu ermitteln, die sich z.B. nur im Bereich der rechten oder linken Seite des Kraftfahrzeugs befinden und damit nur einen Teil der Breite des Fahrschlauchs einnehmen.
Ganz besonders vorteilhaft entsprechen diese mindestens zwei Bereiche den Erfassungsbereichen von in dem
Abstandsmesssystem integrierten Abstandssensoren, wobei diese Abstandssensoren insbesondere nach dem Ultraschall- oder nach dem Radarprinzip arbeiten.
Ebenfalls sehr vorteilhaft ist ferner eine erfindungsgemäße Integration von den Bereichen entsprechenden Abstandsinformationen in Abhängigkeit der den jeweiligen Bereichen zugeordneten Abstandsmessdaten in das Kamerabild. Auf diese Weise ist es möglich, dass die
Abstandsinformationen durch ihre grafische Repräsentation in dem Kamerabild direkt eine Information über die ihnen zugeordneten Abstandsmessdaten angeben.
Besonders vorteilhaft ist es auch, die Abstandsinformationen in Form von geometrischen Objekten, insbesondere von Rechtecken und/oder Trapezen, in das Kamerabild zu integrieren. Solche geometrischen Objekte können auf einfache Weise von einer das Kamerabild verarbeitenden Recheneinheit erzeugt und in das Kamerabild integriert bzw. eingeblendet werden. Darüberhinaus unterscheiden sich diese geometrischen Objekte aufgrund ihrer einfachen, regelmäßigen Form gut von in dem Kamerabild enthaltenen Objekten aus der beobachteten Umgebung, so dass der Fahrer die Abstandsinformationen leicht als solche interpretieren und dementsprechend auswerten kann.
Sehr zweckmäßig ist es auch, die Größe der geometrischen Objekte in Abhängigkeit der jeweiligen Abstandsmessdaten zu wählen, wodurch dem Fahrer auf eine intuitive Art und Weise die Abstandsmessdaten in dem Kamerabild zur Verfügung gestellt werden.
Den verschiedenen Bereichen entsprechenden Abstandsinformationen können ferner unterschiedliche Helligkeitswerte und/oder Kontrastwerte und/oder Farbwerte zugeordnet werden. Einerseits kann dies dazu dienen, die verschiedenen Bereiche - über ihre räumliche Anordnung in dem Kamerabild hinaus - an sich optisch voneinander unterscheidbar zu machen, indem ihnen beispielsweise unterschiedliche Grundfarben zugeordnet werden. Andererseits kann eine Vergabe unterschiedlicher Farbwerte z.B. in Abhängigkeit von den Bereichen zugeordneten Abstandsmesswerten erfolgen, so dass ebenfalls eine übersichtliche Darstellung gewährleistet ist.
Eine weitere, ganz besonders vorteilhafte Ausführungsform der vorliegenden Erfindung ist dadurch gekennzeichnet, dass Abstandsinformationen, die außerhalb des Fahrschlauchs liegenden Bereichen der zu beobachtenden Umgebung zugeordnet sind, anders in das Kamerabild integriert bzw. in diesem dargestellt werden, als Abstandsinformationen, die innerhalb des Fahrschlauchs liegenden Bereichen der zu beobachtenden Umgebung zugeordnet sind. Dadurch ist eine einfache Unterscheidbarkeit der verschiedenen Abstandsinformationen danach gewährleistet, ob sie für die Beurteilung möglicher Kollisionen aufgrund ihrer Anordnung innerhalb des Fahrschlauchs zu verwenden sind oder nicht.
Ganz besonders zweckmäßig wird vorgeschlagen, dass die Abstandsinformationen, die außerhalb des Fahrschlauchs liegenden Bereichen der zu beobachtenden Umgebung zugeordnet sind, weniger deutlich, beispielsweise mit geringem Kontrast, in das Kamerabild integriert bzw. in diesem dargestellt werden, und dass die Abstandsinformationen, die innerhalb des Fahrschlauchs liegenden Bereichen der zu beobachtenden Umgebung zugeordnet sind, deutlich, beispielsweise mit hohem Kontrast, in das Kamerabild integriert bzw. in diesem dargestellt werden. Damit ist sichergestellt, dass die für eine sichere, kollisionsfreie Fahrt wichtigeren Informationen, nämlich die Abstandsinformationen aus Bereichen innerhalb des Fahrschlauchs, besser aus dem Kamerabild erfassbar sind, als weniger wichtige Informationen, nämlich die Abstandsinformationen aus Bereichen außerhalb des Fahrschlauchs .
Eine Unterscheidung der jeweiligen wichtigeren bzw. weniger wichtigen Abstandsinformationen wird erfindungsgemäß beispielsweise dadurch erreicht, dass die Abstandsinformationen in Abhängigkeit davon auf unterschiedliche Weise, insbesondere mit unterschiedlichen Helligkeitswerten und/oder Kontrastwerten und/oder Farbwerten, in das Kamerabild integriert werden, welchem Bereich der zu beobachtenden Umgebung sie zugeordnet sind.
Bei einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens ist vorgeschlagen, dass weitere, insbesondere nicht von den Abstandsmessdaten abhängige,
Abstandsinformationen in das Kamerabild integriert werden. Solche Abstandsinformationen geben in dem Kamerabild vorzugsweise in zueinander äguidistanten Schritten von beispielsweise einem halben Meter einen Abstand von dem Kraftfahrzeug an und dienen dem Fahrer als Orientierungshilfe zur Beurteilung der einzelnen Abstände zu Objekten in der beobachteten Umgebung.
Es ist erfindungsgemäß auch möglich, Abstandsinformationen nur dann in das Kamerabild zu integrieren, wenn entsprechende Werte der Abstandsmessdaten in einem vorgebbaren Wertebereich liegen. Somit können aufgrund ihres Abstands als unwichtig oder möglicherweise unplausibel eingeschätzte Objekte von einer Darstellung in dem Kamerabild ausgeschlossen werden, was die Übersichtlichkeit der mittels des Kamerabilds dargebotenen Informationen weiter steigert.
Ferner ist es denkbar, dass die Abstandsmessdaten alternativ oder zusätzlich zu Ultraschall- oder Radar-basierten Sensorsystemen mittels eines Kamerasystems, insbesondere eines Stereo-Kamerasystems, erhalten werden.
Als eine weitere Lösung der Aufgabe der vorliegenden Erfindung ist eine Vorrichtung gemäß Patentanspruch 19 angegeben .
Weitere Merkmale, Vorteile und Ausführungsformen der vorliegenden Erfindung sind in der nachstehenden Figurenbeschreibung unter Bezugnahme auf die Zeichnung angegeben, wobei
Fig. 1 ein vereinfachtes Flussdiagramm einer
Ausführungsform des erfindungsgemäßen Verfahrens zeigt,
Fig. 2a ein mit dem erfindungsgemäßen Verfahren erhaltenes Kamerabild zeigt, und
Fig. 2b eine vereinfachte Version des Kamerabilds aus Fig. 2a zeigt.
Bei dem erfindungsgemäßen Verfahren wird gemäß Fig. 1 in einem ersten Schritt 200 zunächst ein Kamerabild von einer zu beobachtenden Umgebung eines Kraftfahrzeugs erhalten. Ein solches Kamerabild 100 ist beispielhaft und stark vereinfacht in Fig. 2a gezeigt. Das in Fig. 2a abgebildete Kamerabild 100 zeigt eine Szene wie sie mit einer an sich bekannten Rückfahrkamera eines Kraftfahrzeugs von einem hinter dem Kraftfahrzeug liegenden Bereich erhalten wird. Bezogen auf eine aus der Zeichenebene der Fig. 2a herausragende, nach vorne deutende Fahrtrichtung des Kraftfahrzeugs, befindet sich in der Umgebung rechts hinter dem Kraftfahrzeug, d.h. links oben in Fig. 2a ein Hindernis 10, bei dem es sich beispielsweise um ein weiteres, z.B. parkendes Kraftfahrzeug handeln kann, das in einem von einem Seitenstreifen 11 markierten Parkbereich steht.
Der Seitenstreifen 11 trennt hierbei den in Fig. 2a links von ihm angeordneten Parkbereich von einer an diesem Parkbereich vorbeiführenden Straße, die sich parallel zu dem Seitenstreifen 11 und auf dem Kamerabild 100 nach Fig. 2a rechts von ihm erstreckt. Die gezeigte Szene ergibt sich beispielsweise beim Ausparken des betrachteten Kraftfahrzeugs aus einer in Fig. 2a links von dem Seitenstreifen 11 liegenden Parklücke, die nach hinten, d.h. entgegen der Vorwärtsfahrtrichtung, von dem parkenden Kraftfahrzeug 10 begrenzt ist.
Zur Unterstützung des Fahrers des Kraftfahrzeugs sieht das erfindungsgemäße Verfahren die Integration eines Fahrschlauchs 4a, 4b in das Kamerabild 100 vor, vgl. Schritt 210 in Fig. 1. Der Fahrschlauch 4a, 4b beschreibt denjenigen Bereich der Umgebung des Kraftfahrzeugs, in dem sich das Kraftfahrzeug voraussichtlich - im Rahmen einer vorliegend vorausgesetzten Rückwärtsfahrt zum Ausparken aus der Parklücke - fortbewegen wird und weist - senkrecht zu seiner gedachten Mittellinie - eine Breite auf, die der größten Breitenabmessung des Kraftfahrzeugs entspricht. Diese Breite des Fahrschlauchs 4a, 4b ist durch die in das Kamerabild 100 eingeblendeten Kurven 4a, 4b angegeben. Die Farbe bzw. Helligkeit und/oder der Kontrast der Kurven 4a, 4b wird so gewählt, dass sich der Fahrschlauch 4a, 4b gut von dem Kamerabild 100 abhebt, um eine einfache visuelle Auswertung zu ermöglichen.
Der Fahrschlauch 4a, 4b wird aus der Geometrie des Kraftfahrzeugs sowie aus der Geschwindigkeit bzw. einzelnen Raddrehzahlen des Kraftfahrzeugs sowie einem Lenkwinkel ermittelt. Erfindungsgemäß wird der Fahrschlauch 4a, 4b nur bis zu einem vorgebbaren Maximalabstand eingeblendet, wobei die sich im Bereich des Maximalabstands befindlichen Bereiche 4a', 4b' des Fahrschlauchs 4a, 4b nicht abrupt ausgeblendet bzw. gar nicht erst in das Kamerabild 100 eingeblendet werden. Vorzugsweise werden die Endbereiche 4a' , 4b' des Fahrschlauchs 4a, 4b im Kamerabild 100 durch einen entsprechenden, von dem Abstand zum Kraftfahrzeug abhängigen Färb- und/oder Helligkeits- und/oder Kontrastverlauf angezeigt. Dieser Sachverhalt ist in Fig. 2a durch die Fortsetzung der Kurven 4a, 4b mittels gestrichelter Linien 4a', 4b' symbolisiert.
Anhand des erfindungsgemäßen Fahrschlauchs 4a, 4b kann der Fahrer des Kraftfahrzeugs auf dem über ein Anzeigegerät (nicht abgebildet) angezeigten Kamerabild 100 erkennen, dass der momentane Kurs des Kraftfahrzeugs zu einer Kollision mit dem parkenden Fahrzeug 10 führen wird, weil die linke Begrenzung 4a des Fahrschlauchs 4a, 4b das parkende Fahrzeug 10 schneidet.
Zur verbesserten Orientierung werden bei dem erfindungsgemäßen Verfahren, zusätzlich zu dem Fahrschlauch 4a, 4b Abstandsinformationen in Form von die Kurven 4a, 4b des Fahrschlauchs 4a, 4b verbindenden Kurven 5a, 5b, 5c in das Kamerabild 100 integriert. Diese Abstandsinformationen 5a, 5b, 5c sind vorzugsweise in zueinander äquidistanten Schritten oder auch abstandsabhängig angeordnet und beispielsweise jeweils einen halben Meter voneinander beabstandet. Mittels dieser Abstandsinformationen 5a, 5b, 5c kann der Fahrer aus dem Kamerabild 100 deutlich ersehen, dass bei einem Abstand von 0,5 m zu dem Heck des Kraftfahrzeugs die linke Kurve 4a des Fahrschlauchs 4a, 4b einen Schnittpunkt mit dem Hindernis 10 aufweist. Ferner ist aus diesen Abstandsinformationen 5a, 5b, 5c ersichtlich, dass der Fahrschlauch 4a, 4b bis zu einem Maximalabstand von etwa 2 m gerechnet von dem Heck des Kraftfahrzeugs in dem Kamerabild 100 abgebildet ist.
Zusätzlich zu dem Kamerabild 100 und dem Fahrschlauch 4a, 4b werden in dem Schritt 220 des erfindungsgemäßen Verfahrens nach Fig. 1 Abstandsmessdaten aus derselben Umgebung des Kraftfahrzeug erhalten, wie sie in dem Kamerabild 100 gezeigt ist, d.h. die Abstandsmessdaten enthalten Informationen über hinter dem Kraftfahrzeug befindliche Objekte und deren Abstand zu dem Kraftfahrzeug.
Hierzu kann ein an sich bekanntes Abstandsmesssystem basierend auf Ultraschallsensoren oder Radarsensoren oder aber ein optisches System, insbesondere ein Stereo- Kamerasystem, eingesetzt werden.
Im vorliegenden Beispiel weist das Abstandsmesssystem mehrere Ultraschallsensoren auf, die eine hinter dem Kraftfahrzeug liegende Umgebung in drei durch die Erfassungsbereiche der UltraschallSensoren definierten Bereichen erfassen.
Diese Bereiche sind in Fig. 2a mit den Doppelpfeilen 1, 2, 3 symbolisiert, d.h. über die gesamte in dem Kamerabild 100 gezeigte Breite wird die rückwärtige Umgebung des Kraftfahrzeugs von den Ultraschallsensoren erfasst.
Im vorliegenden Beispiel werden die von den
Ultraschallsensoren gelieferten Abstandsmessdaten in Form von Abstandsinformationen Ia', Ib', 2' in das Kamerabild 100 integriert. Dabei werden die Abstandsinformationen Ia', Ib', 2', wie aus Fig. 2a ersichtlich, als geometrische Objekte, insbesondere als Rechtecke bzw. Trapeze dargestellt.
Sowohl in dem Bereich 1 als auch in dem Bereich 2 werden von dem Abstandsmesssystem vorliegend Objekte detektiert, und ein entsprechender Abstand zu den Objekten wird durch die Größe bzw. Höhe der Rechtecke Ia', Ib', 2' angegeben. Vorliegend stellt das parkende Kraftfahrzeug 10 das im Bereich 1 und im Bereich 2 detektierte Objekt dar. Der Bereich 3 weist kein Rechteck auf, weil für ihn kein Objekt detektiert worden ist.
Um das von dem Abstandsmesssystem gemäß Fig. 2a erfasste Objekt 10 hinsichtlich seiner Bedeutung für eine sichere und kollisionsfreie Fahrt des Kraftfahrzeugs besser beurteilen zu können, werden die in dem Kamerabild 100 gezeigten Abstandsinformationen Ia', Ib', 2' in Abhängigkeit ihrer Lage relativ zu dem Fahrschlauch 4a, 4b analysiert und dementsprechend unterschiedlich dargestellt, was in Schritt 230 des erfindungsgemäßen Verfahrens erfolgt, vgl. Fig. 1. So ist insbesondere im Bereich 1 (Fig. 2a) die einem außerhalb des Fahrschlauchs 4a, 4b liegenden Bereich entsprechende Abstandsinformation Ia' anders im Kamerabild 100 dargestellt als die einem innerhalb des Fahrschlauchs 4a, 4b liegenden Bereich entsprechende Abstandsinformation Ib' , was in Fig. 2a durch die punktierten Linien zur Markierung der Abstandsinformation Ia' und die gestrichelten Linien zur Markierung der Abstandsinformation Ib' symbolisiert ist.
Bei einem farbigen Kamerabild 100 können insbesondere diejenigen Abstandsinformationen Ib', 2' deutlich hervorgehoben werden, deren Bereiche innerhalb des Fahrschlauchs 4a, 4b liegen.
Generell können die den unterschiedlichen Bereichen 1, 2, 3 zugeordneten Abstandsinformationen erfindungsgemäß in mehrere, mindestens zwei, Teile wie z.B. Ia', Ib' geteilt werden, um eine besondere Hervorhebung des wichtigeren der beiden Teile zu ermöglichen. Fig. 2b zeigt eine weiter vereinfachte Darstellung des Kamerabilds 100 aus Fig. 2a, in der die erfindungsgemäße Aufteilung der Abstandsinformationen Ia' , Ib' in Abhängigkeit ihrer Lage zu dem Fahrschlauch 4a, 4b besonders gut erkennbar ist. Zur entsprechenden Teilung der Abstandsinformationen Ia' , Ib' können die zur Berechnung des Fahrschlauchs 4a, 4b verwendeten Daten herangezogen werden.
Besonders zweckmäßig ist die Nutzung einer halbtransparenten Darstellung für die weniger wichtigen Abstandsinformationen Ia', während die wichtigeren Abstandsinformationen Ib', 2' nicht transparent dargestellt sind.
Generell können die geometrischen Objekte, die in dem Kamerabild 100 den Fahrschlauch 4a, 4b und die Abstandsinformationen Ia', Ib', 2', 5a, 5b, 5c repräsentieren, mit unterschiedlichen Helligkeits- und/oder Kontrast- und/oder Farbwerten in dem Kamerabild 100 dargestellt werden, um die jeweiligen Objekte ihrer Wichtigkeit entsprechend hervorzuheben.
Mithilfe der erfindungsgemäß in das Kamerabild 100 integrierten Abstandsinformationen Ia', Ib', 2' wird der Fahrer effektiv auf eventuell innerhalb des Fahrschlauchs 4a, 4b vorhandene Hindernisse aufmerksam gemacht.

Claims

Patentansprüche
1. Verfahren zur Auswertung von Abstandsmessdaten eines Abstandsmesssystems eines Kraftfahrzeugs, bei dem ein Kamerabild (100) von einer zu beobachtenden Umgebung des Kraftfahrzeugs erhalten wird und bei dem mittels des Abstandsmesssystems Abstandsmessdaten aus derselben zu beobachtenden Umgebung erhalten werden, wobei das Kamerabild (100) auf einem Anzeigegerät angezeigt wird und wobei in Abhängigkeit der Abstandsmessdaten Abstandsinformationen (Ia', Ib', 2') in das Kamerabild
(100) integriert werden, dadurch gekennzeichnet, dass ein Fahrschlauch (4a, 4b) des Kraftfahrzeugs ermittelt und ebenfalls in das Kamerabild (100) integriert wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Fahrschlauch (4a, 4b) dynamisch ermittelt wird in Abhängigkeit eines Lenkwinkels und/oder einer Geschwindigkeit und/oder von Raddrehzahlen einzelner Räder des Kraftfahrzeugs .
3. Verfahren nach einem der Ansprüche 1 oder 2 , dadurch gekennzeichnet, dass der Fahrschlauch (4a, 4b) nur bis zu einem vorgebbaren Maximalabstand von dem Kraftfahrzeug in das Kamerabild (100) integriert wird.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der in das Kamerabild (100) integrierte Fahrschlauch (4a, 4b) im Bereich (4a' , 4b') des vorgebbaren
Maximalabstands nicht abrupt endet, sondern kontinuierlich über einen gewissen Abstandsbereich ausgeblendet wird.
5. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass dem Fahrschlauch (4a, 4b) zur Integration in das Kamerabild (100) unterschiedliche Helligkeitswerte und/oder Kontrastwerte und/oder Farbwerte zugeordnet werden, vorzugsweise in Abhängigkeit eines Fahrzustands des Kraftfahrzeugs und/oder in Abhängigkeit von Abstandsmesswerten.
6. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass mit dem AbstandsmessSystem für mindestens zwei verschiedene Bereiche (1, 2, 3) der zu beobachtenden Umgebung jeweils diesen Bereichen (1, 2,
3) zugeordnete Abstandsmessdaten erhalten werden.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die mindestens zwei Bereiche (1, 2, 3) sich entlang einer Breite der zu beobachtenden Umgebung bzw. des Kamerabilds (100) erstrecken.
8. Verfahren nach Anspruch 6 oder 7 , dadurch gekennzeichnet, dass die Bereiche (1, 2, 3) den Erfassungsbereichen von in dem AbstandsmessSystem integrierten AbstandsSensoren entsprechen, wobei diese Abstandssensoren insbesondere nach dem Ultraschall- oder nach dem Radarprinzip arbeiten.
9. Verfahren nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass den Bereichen (1, 2, 3) entsprechende Abstandsinformationen (Ia', Ib', 2') in Abhängigkeit der den jeweiligen Bereichen (1, 2, 3) zugeordneten Abstandsmessdaten in das Kamerabild (100) integriert werden.
10,. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Abstandsinformationen (Ia', Ib', 2') in Form von geometrischen Objekten, insbesondere von Rechtecken und/oder Trapezen, in das Kamerabild (100) integriert werden.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass eine Größe der geometrischen Objekte in Abhängigkeit der jeweiligen Abstandsmessdaten gewählt wird.
12. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass den verschiedenen Bereichen (1, 2, 3) entsprechenden Abstandsinformationen (Ia', Ib', 2') unterschiedliche Helligkeitswerte und/oder Kontrastwerte und/oder Farbwerte zugeordnet werden, vorzugsweise in Abhängigkeit von den Bereichen zugeordneten
Abstandsmesswerten .
13. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass Abstandsinformationen (Ia'), die außerhalb des Fahrschlauchs (4a, 4b) liegenden Bereichen der zu beobachtenden Umgebung zugeordnet sind, anders in das Kamerabild (100) integriert bzw. in diesem dargestellt werden, als Abstandsinformationen (Ib', 2'), die innerhalb des Fahrschlauchs (4a, 4b) liegenden Bereichen der zu beobachtenden Umgebung zugeordnet sind.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass die Abstandsinformationen (Ia'), die außerhalb des Fahrschlauchs (4a, 4b) liegenden Bereichen der zu beobachtenden Umgebung zugeordnet sind, weniger deutlich, beispielsweise mit geringem Kontrast, in das Kamerabild (100) integriert bzw. in diesem dargestellt werden, und dass die Abstandsinformationen (Ib', 2'), die innerhalb des Fahrschlauchs (4a, 4b) liegenden Bereichen der zu beobachtenden Umgebung zugeordnet sind, deutlich, beispielsweise mit hohem Kontrast, in das Kamerabild (100) integriert bzw. in diesem dargestellt werden
15. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die AbstandsInformationen (Ia', Ib', 2') in Abhängigkeit davon auf unterschiedliche Weise, insbesondere mit unterschiedlichen Helligkeitswerten und/oder Kontrastwerten und/oder Farbwerten, in das Kamerabild (100) integriert werden, welchem Bereich (1, 2, 3) der zu beobachtenden Umgebung sie zugeordnet sind.
16. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass weitere, insbesondere nicht von den Abstandsmessdaten abhängige, Abstandsinformationen (5a, 5b, 5c) in das Kamerabild (100) integriert werden, wobei diese Abstandsinformationen (5a, 5b, 5c) vorzugsweise in zueinander äquidistanten Schritten von beispielsweise einem halben Meter einen Abstand von dem Kraftfahrzeug angeben .
17. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass Abstandsinformationen (Ia', Ib', 2') nur dann in das Kamerabild (100) integriert werden, wenn entsprechende Werte der Abstandsmessdaten in einem vorgebbaren Wertebereich liegen.
18. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Abstandsmessdaten mittels eines Kamerasystems, insbesondere eines Stereo-Kamerasystems, erhalten werden.
19. Vorrichtung zur Durchführung des Verfahrens nach einem der vorstehenden Ansprüche.
EP06723330A 2005-04-20 2006-03-10 Verfahren und vorrichtung zur auswertung von abstandsmessdaten eines abstandsmesssystems eines kraftfahrzeugs Withdrawn EP1874611A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005018408A DE102005018408A1 (de) 2005-04-20 2005-04-20 Verfahren und Vorrichtung zur Auswertung von Abstandsmessdaten eines Abstandsmesssystems eines Kraftfahrzeugs
PCT/EP2006/002200 WO2006111222A1 (de) 2005-04-20 2006-03-10 Verfahren und vorrichtung zur auswertung von abstandsmessdaten eines abstandsmesssystems eines kraftfahrzeugs

Publications (1)

Publication Number Publication Date
EP1874611A1 true EP1874611A1 (de) 2008-01-09

Family

ID=36581784

Family Applications (1)

Application Number Title Priority Date Filing Date
EP06723330A Withdrawn EP1874611A1 (de) 2005-04-20 2006-03-10 Verfahren und vorrichtung zur auswertung von abstandsmessdaten eines abstandsmesssystems eines kraftfahrzeugs

Country Status (5)

Country Link
US (1) US20090021396A1 (de)
EP (1) EP1874611A1 (de)
JP (1) JP2008539111A (de)
DE (1) DE102005018408A1 (de)
WO (1) WO2006111222A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006052779A1 (de) * 2006-11-09 2008-05-15 Bayerische Motoren Werke Ag Verfahren zur Erzeugung eines Gesamtbilds der Umgebung eines Kraftfahrzeugs
DE102008061359A1 (de) * 2008-12-10 2010-06-17 Valeo Schalter Und Sensoren Gmbh Einrichtung und Verfahren zur Überwachung eines Fahrzeugumfelds
DE102009000401A1 (de) * 2009-01-26 2010-07-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Vermeiden einer Kollision zwischen einem Fahrzeug und einem Objekt
US8977446B2 (en) * 2009-07-22 2015-03-10 Toyota Jidosha Kabushiki Kaisha Driving support device
DE102009047066A1 (de) * 2009-11-24 2011-05-26 Robert Bosch Gmbh Verfahren zur Warnung vor einem Objekt in der Umgebung eines Fahrzeugs sowie Fahrassistentensystem
US8665116B2 (en) 2010-07-18 2014-03-04 Ford Global Technologies Parking assist overlay with variable brightness intensity
DE102011121763B4 (de) 2011-12-21 2023-04-06 Volkswagen Aktiengesellschaft Verfahren zur Darstellung einer Abstandsinformation auf einer Anzeigevorrichtung eines Fahrzeugs und Anzeigevorrichtung
DE102014114329A1 (de) * 2014-10-02 2016-04-07 Connaught Electronics Ltd. Kamerasystem für einen elektronischen Rückspiegel eines Kraftfahrzeugs
FR3031707B1 (fr) * 2015-01-16 2018-06-29 Renault S.A.S. Procede et dispositif d'aide a la manœuvre en marche arriere d'un vehicule automobile
CN105513161A (zh) * 2015-11-24 2016-04-20 大连楼兰科技股份有限公司 一种带测距功能的行车记录仪及其测距方法
WO2018058263A1 (zh) * 2016-09-27 2018-04-05 深圳智乐信息科技有限公司 一种驾驶方法及系统
CN106564496B (zh) * 2016-10-19 2018-11-09 江苏大学 基于前向车辆驾驶行为的智能车辆安全环境包络重构方法
DE102017129322A1 (de) * 2017-12-08 2019-06-13 Trw Automotive Gmbh Allradlenkungssystem für ein Kraftfahrzeug, Kraftfahrzeug sowie Verfahren zum Betrieb eines Allradlenkungssystems
JP6964276B2 (ja) 2018-03-07 2021-11-10 パナソニックIpマネジメント株式会社 表示制御装置、車両周辺表示システムおよびコンピュータプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
JP3787218B2 (ja) * 1997-05-14 2006-06-21 クラリオン株式会社 車輌後方監視装置
DE19741896C2 (de) * 1997-09-23 1999-08-12 Opel Adam Ag Vorrichtung zur bildlichen Darstellung von Bereichen der Umgebung eines Kraftfahrzeugs
US7277123B1 (en) * 1998-10-08 2007-10-02 Matsushita Electric Industrial Co., Ltd. Driving-operation assist and recording medium
DE19847611C2 (de) * 1998-10-15 2003-06-18 Volkswagen Ag Verfahren zur integrierten Darstellung der Parameter eines kombinierten ADR-/GRA-Systems
JP4723703B2 (ja) * 1999-06-25 2011-07-13 富士通テン株式会社 車両の運転支援装置
US7366595B1 (en) 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
DE60038467T2 (de) 1999-08-12 2009-04-23 Kabushiki Kaisha Toyota Jidoshokki, Kariya Lenkhilfseinrichtung
DE19947766A1 (de) * 1999-10-02 2001-05-10 Bosch Gmbh Robert Einrichtung zur Überwachung der Umgebung eines einparkenden Fahrzeugs
US6411867B1 (en) * 1999-10-27 2002-06-25 Fujitsu Ten Limited Vehicle driving support system, and steering angle detection device
US6476730B2 (en) * 2000-02-29 2002-11-05 Aisin Seiki Kabushiki Kaisha Assistant apparatus and method for a vehicle in reverse motion
JP3645196B2 (ja) * 2001-02-09 2005-05-11 松下電器産業株式会社 画像合成装置
JP3608527B2 (ja) * 2001-05-15 2005-01-12 株式会社豊田中央研究所 周辺状況表示装置
US7068289B2 (en) * 2001-09-14 2006-06-27 Honda Giken Kogyo Kabushiki Kaisha Rearview monitoring apparatus for vehicle
JP4108314B2 (ja) * 2001-10-31 2008-06-25 トヨタ自動車株式会社 車両用周辺監視装置
DE10241464A1 (de) * 2002-09-06 2004-03-18 Robert Bosch Gmbh Vorrichtung zur Umfelderfassung eines Fahrzeugs
DE10317044A1 (de) * 2003-04-11 2004-10-21 Daimlerchrysler Ag Freiraumüberwachung bei Kraftfahrzeugen
JP3894322B2 (ja) * 2003-07-23 2007-03-22 松下電工株式会社 車両用視界モニタシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2006111222A1 *

Also Published As

Publication number Publication date
JP2008539111A (ja) 2008-11-13
WO2006111222A1 (de) 2006-10-26
US20090021396A1 (en) 2009-01-22
DE102005018408A1 (de) 2006-10-26

Similar Documents

Publication Publication Date Title
WO2006111222A1 (de) Verfahren und vorrichtung zur auswertung von abstandsmessdaten eines abstandsmesssystems eines kraftfahrzeugs
EP2643188B1 (de) Verfahren und vorrichtung zum unterstützen eines fahrers eines kraftfahrzeugs beim ausparken aus einer parklücke und kraftfahrzeug
DE102014209072B4 (de) Verbessertes ausrichtungsverfahren zur parkassistenz
DE102008036009B4 (de) Verfahren zum Kollisionsschutz eines Kraftfahrzeugs und Parkhausassistent
EP1576563B1 (de) Einparkhilfe
WO2009086967A1 (de) Verfahren und vorrichtung zum anzeigen der umgebung eines fahrzeugs
EP3437929A1 (de) Sichtsystem mit fahrsituationsbedingter sichtfeld-/sichtbereicheinblendung
EP1827950B1 (de) Verfahren zum ermitteln der befahrbarkeit einer parklücke und einparkhilfe-einrichtung
EP2594461B1 (de) Verfahren zum Erkennen einer Parklücke für ein Kraftfahrzeug, Parkhilfesystem und Kraftfahrzeug mit einem Parkhilfesystem
DE102012201112A1 (de) Verfahren zur Unterstützung eines Fahrers beim Vorwärtseinparken
EP2720906B1 (de) Nachrüstsatz für parkführung
EP1642768A1 (de) Verfahren zur Anzeige eines Fahrzeugfahrraums
EP1147032A1 (de) Einrichtung zur überwachung der umgebung eines einparkenden fahrzeugs
EP3695395A1 (de) Verfahren zum darstellen einer umgebung eines fahrzeugs
DE102006051977B4 (de) Parkassistenzsystem
EP2464992A1 (de) Kollisionsüberwachung für ein kraftfahrzeug
DE102009046726A1 (de) Auswahl einer Parklücke aus mehreren erkannten Parklücken
WO2011138164A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines fahrzeugs, fahrerassistenzsystem und fahrzeug
DE102020101623A1 (de) Einparkhilfesystem mit parklückenbelegungsausgabe
DE102014111012A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Ausparken, Fahrerassistenzsystem und Kraftfahrzeug
EP2887335A1 (de) Verfahren zum Warnen eines Fahrers eines Kraftfahrzeugs vor einer Kollisionsgefahr durch Ausgeben eines nicht-optischen Warnsignals, Kollisionswarnungssystem und Kraftfahrzeug
EP2345572B1 (de) Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeuges
WO2007033806A1 (de) Parksystem für kraftfahrzeuge
DE102016117743A1 (de) Verfahren zum Bewerten eines Fahrverhaltens eines Fahrers eines Kraftfahrzeug während eines Parkmanövers, Fahrerassistenzsystem sowie Kraftfahrzeug
EP2287060A1 (de) Verfahren zur Ermittlung eines Ein- oder Ausschervorgangs eines dem eigenen Kraftfahrzeug vorausfahrenden Fahrzeugs

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20070827

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

RIN1 Information on inventor provided before grant (corrected)

Inventor name: HEDDERICH, MARKUS

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20090908

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20120211