DE102007008542A1 - Method for controlling light emission of vehicle, involves detecting multiple successive images as image sequence and analyzing part of images of image sequence with help of analysis method - Google Patents

Method for controlling light emission of vehicle, involves detecting multiple successive images as image sequence and analyzing part of images of image sequence with help of analysis method Download PDF

Info

Publication number
DE102007008542A1
DE102007008542A1 DE102007008542A DE102007008542A DE102007008542A1 DE 102007008542 A1 DE102007008542 A1 DE 102007008542A1 DE 102007008542 A DE102007008542 A DE 102007008542A DE 102007008542 A DE102007008542 A DE 102007008542A DE 102007008542 A1 DE102007008542 A1 DE 102007008542A1
Authority
DE
Germany
Prior art keywords
analysis
images
vehicle
evaluation
image sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102007008542A
Other languages
German (de)
Other versions
DE102007008542B4 (en
Inventor
Ingo Dipl.-Ing. Hoffmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CarSoftware Estonia AS
Original Assignee
Hella KGaA Huek and Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hella KGaA Huek and Co filed Critical Hella KGaA Huek and Co
Priority to DE102007008542.9A priority Critical patent/DE102007008542B4/en
Publication of DE102007008542A1 publication Critical patent/DE102007008542A1/en
Application granted granted Critical
Publication of DE102007008542B4 publication Critical patent/DE102007008542B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/11Linear movements of the vehicle
    • B60Q2300/112Vehicle speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/33Driving situation
    • B60Q2300/332Driving situation on city roads
    • B60Q2300/3321Detection of streetlights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/41Indexing codes relating to other road users or special conditions preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/42Indexing codes relating to other road users or special conditions oncoming vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

The method involves detecting multiple successive images as image sequence. A part of the images of the image sequence is analyzed with the help of an analysis method (62). Another part of the images of the image sequence is analyzed with the help of another analysis method (62 to 68) that is different from the former analysis method. The analysis results, produced by each analysis method, are evaluated with the help of an evaluation method, which gives an evaluation result, and the light emission by a headlight (20,22) of a vehicle (18) is controlled depending on the evaluation result. An independent claim is also included for a device for controlling the light emission of a vehicle.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs, bei dem mehrere Bilder von der Umgebung des Fahrzeugs erfasst und analysiert werden.The The invention relates to a method and a device for controlling the light output of a vehicle, in which several pictures of the Environment of the vehicle are detected and analyzed.

Aus dem Dokument DE 10 2004 063 836 A1 ist bekannt, zur Bildaufnahme eine Kamera im Bereich des Innenspiegels des Kraftfahrzeugs anzuordnen, die das Licht des Gegenverkehrs und das Licht von anderen äußeren Lichtquellen erfasst. Dabei wird das Verkehrsgeschehen vor dem Fahrzeug analysiert und abhängig vom Analyseergebnis wird die Reichweite des Abblendlichtscheinwerfers des Kraftfahrzeugs eingestellt. Eine variable Einstellung der Reichweite des Abblendlichts kann dabei je nach Aufbau des Scheinwerfers durch eine Leuchtweitenregulierung, durch Drehen einer Blendenwelle, durch eine gleitende Absenkung eines Shutters durch eine Leistungsänderung einer oder mehrerer Lichtquellen, sowie durch Zuschalten einer oder mehrerer Lichtquellen erfolgen. Mit Hilfe einer bereits erwähnten Blendenwelle, die auch als VarioX-Walze bezeichnet wird und die in Abstrahlrichtung vor der Lichtquelle des Scheinwerfers angeordnet ist, kann die Hell-Dunkel-Grenze des Scheinwerfers des Kraftfahrzeugs verschoben werden.From the document DE 10 2004 063 836 A1 It is known to arrange for imaging a camera in the region of the interior mirror of the motor vehicle, which detects the light of oncoming traffic and the light from other external light sources. The traffic situation in front of the vehicle is analyzed and depending on the analysis result, the range of the low beam headlight of the motor vehicle is adjusted. A variable adjustment of the range of the low beam can be done depending on the design of the headlamp by a headlamp leveling, by rotating a diaphragm shaft, by a sliding lowering of a shutter by a change in performance of one or more light sources, and by connecting one or more light sources. With the help of an already mentioned diaphragm shaft, which is also referred to as VarioX roller and which is arranged in the emission in front of the light source of the headlamp, the cut-off of the headlamp of the motor vehicle can be moved.

Aus dem Dokument EP 0 935 728 B1 ist ein Scheinwerfer für Fahrzeuge bekannt, bei dem eine Blendenwelle in mehrere Drehstellungen drehbar ist, um verschiedene Lichtfiguren zu erzeugen. Mit Hilfe dieser Lichtfiguren kann eine Hell-Dunkel-Grenze variiert werden.From the document EP 0 935 728 B1 a headlight for vehicles is known in which a diaphragm shaft is rotatable in several rotational positions to produce different light patterns. With the help of these light figures, a light-dark border can be varied.

Aus dem Dokument EP 0 971 829 B1 ist ein Steuerungssystem zum automatischen Dimmen von Fahrzeugscheinwerfern bekannt, das ein optisches System und ein Bildverarbeitungssystem umfasst. Das optische System ist dabei in der Lage, zwischen Scheinwerfern und Rücklichtern zu unterscheiden, wobei die Lichtstrahlen von den Scheinwerfern und von den Rücklichtern auf unterschiedliche Bereiche eines Sensor-Pixel-Arrays fokussiert werden. Abhängig von der vertikalen und horizontalen Winkelposition sowie von der Entfernung anderer Fahrzeuge wird das Fernlicht des mit dem Steuerungssystem ausgestatteten Fahrzeugs gesteuert.From the document EP 0 971 829 B1 For example, a control system for automatically dimming vehicle headlights is known which comprises an optical system and an image processing system. The optical system is able to distinguish between headlamps and taillights, with the light beams from the headlamps and from the taillights focused on different areas of a sensor pixel array. Depending on the vertical and horizontal angular position as well as the distance of other vehicles, the high beam of the vehicle equipped with the control system is controlled.

Aufgabe der Erfindung ist es, ein Verfahren und eine Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs anzugeben, bei denen auf einfache Art und Weise die Lichtabgabe durch mindestens einen Scheinwerfer des Fahrzeugs gesteuert werden kann, um den Verkehrsraum vor dem Fahrzeug optimal auszuleuchten.task The invention is a method and an apparatus for controlling indicate the light output of a vehicle in which in a simple way and the light output through at least one headlight of the Vehicle can be controlled to the traffic area in front of the vehicle optimally illuminate.

Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und einer Vorrichtung mit den Merkmalen des Patentanspruchs 11 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind in den abhängigen Patentansprüchen angegeben.These The object is achieved by a method having the features of the patent claim 1 and a device with the features of claim 11 solved. Advantageous developments of the invention are specified in the dependent claims.

Bei dem Verfahren zum Steuern der Lichtabgabe eines Fahrzeugs mit den Merkmalen des Patentanspruchs 1 werden mehrere Bilder nacheinander als Bildfolge erfasst. Zumindest ein Teil der Bilder der Bildfolge wird mit Hilfe eines ersten Analyseverfahrens analysiert. Ferner wird zumindest ein Teil der Bilder der Bildfolge mit Hilfe mindestens eines vom ersten Analyseverfahren verschiedenen zweiten Analyseverfahrens analysiert, wobei jedes Analyseverfahren mindestens ein Analyseergebnis erzeugt.at the method for controlling the light output of a vehicle with the Features of claim 1, several images in succession captured as a sequence of images. At least part of the pictures in the sequence is analyzed by means of a first analysis procedure. Further will at least part of the images of the image sequence using at least a second analysis method different from the first analysis method analyzed, each analysis method at least one analysis result generated.

Die Analyseergebnisse werden mit Hilfe eines Bewertungsverfahrens bewertet und ein Bewertungsergebnis ausgegeben. Abhängig vom Bewertungsergebnis wird die Lichtabgabe durch mindestens einen Scheinwerfer des Fahrzeugs gesteuert.The Analysis results are evaluated using a rating method and issued an evaluation result. Depending on the evaluation result is the light output through at least one headlight of the vehicle controlled.

Bei diesem erfindungsgemäßen Verfahren werden mehrere Analyseverfahren vorzugsweise parallel, im Multitasking-Betrieb einer Steuereinheit oder nacheinander ausgeführt. Die Analyseergebnisse der Analyseverfahren werden mit Hilfe des Bewertungsverfahrens bewertet. Das Bewertungsverfahren kann dabei insbesondere voreingestellte Bewertungskriterien berücksichtigen, durch die insbesondere gesetzliche oder andere Vorschriften, die beispielsweise in Lastenheften festgelegt sind, umgesetzt werden können. Durch das Verfahren mit den Merkmalen des Patentsanspruchs 1 ist es möglich, die Lichtabgabe durch mindestens einen Scheinwerfer des Fahrzeugs automatisch in Abhängigkeit von der mit Hilfe der erfassten Bilder und der Analyseverfahren analysierten Umgebung des Fahrzeugs einzustellen. Dabei wird mit Hilfe der Bilder insbesondere der Bereich vor dem Fahrzeug erfasst und ausgewertet, indem die von dem mindestens einen Scheinwerfer des Fahrzeugs abgestrahlten Lichtstrahlen andere Verkehrsteilnehmer behindern können. Durch das Verfahren kann die Lichtabstrahlung der Scheinwerfer eines Fahrzeugs und somit die Ausleuchtung des Bereichs vor dem Fahrzeug optimal eingestellt werden, wobei eine Behinderung anderer Verkehrsteilnehmer vermieden wird.at This method according to the invention are several Analysis method preferably parallel, in multitasking mode a control unit or sequentially executed. The analysis results The analytical methods are evaluated using the evaluation procedure. The evaluation method can be preset in particular Take into account evaluation criteria, in particular by statutory or other regulations, for example, in specifications can be implemented. By the procedure with the features of patent claim 1 it is possible that the Light output by at least one headlight of the vehicle automatically depending on the with the help of captured images and the analysis method to adjust the environment of the vehicle. It is with the help of images in particular the area before the Vehicle recorded and evaluated by the at least one of Headlights of the vehicle emitted light rays other road users can hamper. By the method, the light emission the headlight of a vehicle and thus the illumination of the area be optimally adjusted in front of the vehicle, with a disability other road users is avoided.

Durch eine Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs mit den Merkmalen des Patentanspruchs 11 können die gleichen Vorteile erzielt werden wie durch das Verfahren nach Patentanspruch 1. Ferner kann diese Vorrichtung auf die gleiche Weise weitergebildet werden, wie dieses Verfahren.By a device for controlling the light output of a vehicle with The features of claim 11 may be the same Advantages are achieved as by the method according to claim 1. Furthermore, this device can be developed in the same way be like this procedure.

Weitere Merkmale und Vorteile der Erfindung ergeben sich aus der folgenden Beschreibung, welche in Verbindung mit den beigefügten Figuren die Erfindung anhand eines Ausführungsbeispiels erläutert.Further features and advantages of the invention will become apparent from the following description which, taken in conjunction with the accompanying drawings Invention explained with reference to an embodiment.

Es zeigen:It demonstrate:

1 eine schematische Darstellung einer Verkehrssituation mit mehreren Kraftfahrzeugen; 1 a schematic representation of a traffic situation with multiple vehicles;

2 ein Blockdiagramm zur verkehrsabhängigen Steuerung der Lichtabgabe eines Kraftfahrzeugs; 2 a block diagram for traffic-dependent control of the light output of a motor vehicle;

3 das mit Hilfe einer Kamera aufgenommene Bild eines vorausfahrenden Fahrzeugs bei Dunkelheit, wobei die Rücklichter des vorausfahrenden Fahrzeugs sichtbar sind; 3 the image taken by a camera of a vehicle ahead in the dark, the taillights of the vehicle in front are visible;

4 das mit Hilfe einer Kamera aufgenommene Bild eines entgegenkommenden Fahrzeugs bei Dunkelheit, wobei ein Frontscheinwerfer des Fahrzeugs sichtbar ist; 4 the image taken by a camera of an oncoming vehicle in the dark, wherein a headlight of the vehicle is visible;

5 das mit Hilfe einer Kamera aufgenommene Bild einer vom Fahrzeug weit entfernten Straßenlampe bei Dunkelheit; 5 the image taken with the aid of a camera of a street lamp far away from the vehicle in the dark;

6 das mit Hilfe einer Kamera aufgenommene Bild einer nahe dem Fahrzeug angeordneten Straßenlampe; 6 the image taken with the aid of a camera of a street lamp arranged near the vehicle;

7 das mit Hilfe einer Kamera aufgenommene Bild von insgesamt zwei Leitpfosten, wobei ein erster Leitpfosten nahe dem Fahrzeug und ein zweiter Leitpfosten weiter entfernt vom Fahrzeug angeordnet sind; 7 the image taken with the aid of a camera of a total of two guide posts, wherein a first guide post near the vehicle and a second guide post are arranged further away from the vehicle;

8 das mit Hilfe einer Kamera aufgenommene Bild eines entgegenkommenden Fahrzeugs bei Dunkelheit, wobei die Frontscheinwerfer des Fahrzeugs sichtbar sind; 8th the image taken by a camera of an oncoming vehicle in the dark, the headlights of the vehicle being visible;

9 das Tracking eines Objekts über mehrere Bilder zum Ermitteln der Zusammengehörigkeit von in den einzelnen Bildern ermittelten Objekten; und 9 tracking an object across multiple images to determine the identity of objects found in each image; and

10 eine grafische Darstellung der Positionsbestimmung eines Objekts mit Hilfe einer bewegten Kamera, um die Hypothese zu bestätigen oder zu widerlegen, dass das Objekt ein ortsfestes Objekt ist. 10 a graphical representation of the position of an object using a moving camera to confirm the hypothesis or disprove that the object is a stationary object.

In 1 ist eine schematische Darstellung einer Verkehrssituation 10 mit mehreren Kraftfahrzeugen 18, 24, 26, 28 auf den Fahrspuren 14, 16 der Fahrbahn 12 gezeigt. Auf der Fahrspur 14 befindet sich das Fahrzeug 18, das eine Vorrichtung zum Steuern der Lichtabgabe der Frontscheinwerfer 20, 22 des Fahrzeugs 18 aufweist. Vor dem Fahrzeug 18 befindet sich auf der Fahrspur 14 das Fahrzeug 24. Das Fahrzeug 24 bildet den zum Fahrzeug 18 nächstkommenden vorausfahrenden Verkehr. Auf der Fahrspur 16 kommen dem Fahrzeug 18 die Fahrzeuge 26, 28 als Gegenverkehr entgegen. Ferner befinden sich zwei Straßenlampen 30, 32 am rechten Fahrbandrand und zwei Straßenlampen 34, 36 am linken Fahrbahnrand im Bereich vor dem Fahrzeug 18. Vom Fahrzeug 18 aus gesehen sind weiterhin am rechten Fahrbahnrand zwei Leitpfosten 38, 40 und am linken Fahrbahnrand zwei Leitpfosten 42, 44 vorhanden. Die Straßenlam pen 30 bis 36 dienen zur Beleuchtung der Fahrspuren 14, 16 innerhalb einer geschlossenen Ortschaft. Die Leitpfosten 38 bis 44 dienen zur Markierung der Fahrbahnränder außerhalb geschlossener Ortschaften.In 1 is a schematic representation of a traffic situation 10 with several vehicles 18 . 24 . 26 . 28 on the lanes 14 . 16 the roadway 12 shown. On the lane 14 is the vehicle 18 , which is a device for controlling the light output of the headlights 20 . 22 of the vehicle 18 having. In front of the vehicle 18 is on the lane 14 the vehicle 24 , The vehicle 24 forms the vehicle 18 nearest traffic ahead. On the lane 16 come to the vehicle 18 the vehicles 26 . 28 contrary to oncoming traffic. There are also two street lamps 30 . 32 on the right side of the track and two streetlights 34 . 36 on the left lane in the area in front of the vehicle 18 , From the vehicle 18 Seen from are still on the right lane two Leitposts 38 . 40 and on the left side of the road two guide posts 42 . 44 available. The street lamps 30 to 36 serve to illuminate the lanes 14 . 16 within a closed village. The guide posts 38 to 44 serve to mark the edges of the road outside closed villages.

Vor dem Fahrzeug 18 sind die mit Hilfe der Scheinwerfer 20, 22 des Fahrzeugs 18 ausleuchtbaren Bereiche für herkömmliches Abblendlicht (Bereich 46) für den mit Hilfe der Leuchtweitenregulierung und einer VarioX-Blendenwalze ausgestatteten Frontscheinwerfer 20, 22 des Fahrzeugs 18 ausleuchtbare Bereich 48 und der mit Hilfe des Fernlichts ausleuchtbare Bereich 50 als Projektion auf die Fahrbahn 12 schematisch dargestellt. Das Fahrzeug 18 weist eine Bilderfassungseinheit 52 auf, die vorzugsweise nahe dem Innenspiegel hinter der Windschutzscheibe des Fahrzeugs 18 angeordnet ist. Die Bilderfassungseinheit 52 erzeugt vorzugsweise mit Hilfe eines CMOS-Pixel-Arrays Ladungsbilder, die mit Hilfe eines Analog-Digital-Wandlers in digitale Bilddaten umgewandelt werden. Für jeden Bildpunkt des CMOS-Pixel-Arrays wird dabei ein Helligkeitswert ermittelt, vorzugsweise werden mit Hilfe der Bilderfassungseinheit 52 Graustufenbilder und keine Farbbilder erfasst. Die Bilderfassungseinheit 52 weist ein geeignetes optisches System zum Abbilden des gesamten relevanten Bereichs vor dem Fahrzeug 18 auf, so dass auf den mit Hilfe der Bilderfassungseinheit 52 erfassten Bildern das vorausfahrende Fahrzeug 24, die entgegenkommenden Fahrzeuge 26, 28, die Straßenlampen 30 bis 36 sowie die Leitpfosten 38 bis 44 abgebildet sind. Bei Dunkelheit werden von der Bilderfassungseinheit 52 nur die aktuell lichtabstrahlenden Lichtquellen sowie die aktuell lichtreflektierenden Elemente dieser Objekte als helle Bereiche in den aufgenommenen Bildern erfasst.In front of the vehicle 18 are those with the help of the headlights 20 . 22 of the vehicle 18 illuminable areas for conventional dipped beam (area 46 ) for headlamps equipped with headlamp leveling and a VarioX roller shutter 20 . 22 of the vehicle 18 illuminable area 48 and the area which can be illuminated by means of the high beam 50 as a projection onto the roadway 12 shown schematically. The vehicle 18 has an image capture unit 52 on, preferably near the rear-view mirror behind the windshield of the vehicle 18 is arranged. The image capture unit 52 preferably generates charge images with the aid of a CMOS pixel array, which are converted into digital image data with the aid of an analog-to-digital converter. For each pixel of the CMOS pixel array, a brightness value is determined, preferably using the image acquisition unit 52 Grayscale images and no color images captured. The image capture unit 52 has a suitable optical system for imaging the entire relevant area in front of the vehicle 18 on, so that on with the help of the image capture unit 52 captured images the preceding vehicle 24 , the oncoming vehicles 26 . 28 , the street lamps 30 to 36 as well as the guide posts 38 to 44 are shown. In the dark are from the image capture unit 52 only the currently light-emitting light sources and the currently light-reflecting elements of these objects are detected as bright areas in the recorded images.

Die Scheinwerfer 20, 22 weisen Stellantriebe zur Leuchtweitenregulierung und/oder zum Einstellen einer gewünschten Position der jeweiligen Blendenwalze auf oder gestatten zumindest das Zu- und Abschalten des Fernlichts über einen Datenbus. Vorzugsweise weisen die Scheinwerfer 20, 22 des Fahrzeugs 18 Steuereinheiten auf, die über ein CAN-Bus-System mit weiteren Steuereinheiten des Fahrzeugs 18 verbunden sind. Die Bilderfassungseinheit 52 ist ebenfalls über das CAN-Bus-System mit weiteren Steuereinheiten des Fahrzeugs 18, insbesondere den Steuereinheiten der Scheinwerfersysteme 20, 22, verbunden.The headlights 20 . 22 have actuators for headlamp leveling and / or for setting a desired position of the respective diaphragm roller or at least allow the switching on and off of the high beam via a data bus. Preferably, the headlights 20 . 22 of the vehicle 18 Control units connected via a CAN bus system with other control units of the vehicle 18 are connected. The image capture unit 52 is also via the CAN bus system with other control units of the vehicle 18 , in particular the control units of the headlamp systems 20 . 22 , connected.

Die Lichtsteuerung des Fahrzeugs 18 hat dabei so zu erfolgen, dass weder der vorausfahrende Verkehr (Fahrzeug 24) noch der entgegenkommende Verkehr (Fahrzeuge 26, 28) geblendet und dadurch behindert werden.The light control of the vehicle 18 has to be done in such a way that neither the preceding traffic (vehicle 24 ) nor the oncoming traffic (vehicles 26 . 28 ) and thus obstructed.

Die Bilderfassungseinheit 52 nimmt fortlaufend Bilder des relevanten Bereichs vor dem Fahrzeug 18 auf, die von einer Bildverarbeitungseinheit ausgewertet werden, wie nachfolgend im Zusammenhang mit den weiteren Figuren noch näher erläutert wird. Die Analyseergebnisse mehrerer Analyseverfahren werden dabei mit Hilfe eines geeigneten Bewertungsverfahrens bewertet. Ein Bewertungsergebnis des Bewertungsverfahrens gibt dann an, welche Scheinwerfereinstellung der Scheinwerfer 20, 22 möglich ist, um die optimale Fahrbahnausleuchtung zu erreichen. Die optimale Fahrbahnausleuchtung ist dabei die durch die Scheinwerfer erzeugbare maximale Ausleuchtung des Verkehrsraums, bei der die anderen Verkehrsteilnehmer nicht geblendet und behindert werden. Auf die optimale Ausleuchtung kann beispielsweise bei Tagfahrten und/oder in Ortschaften bei Dunkelheit verzichtet werden. Bei der in 1 dargestellten Verkehrssituation 10 ist die optimal mögliche Ausleuchtung durch den Bereich 51 angegeben, da bei dieser Ausleuchtung kein Verkehrsteilnehmer der Fahrzeuge 24, 26, 28 durch das von den Scheinwerfern 20, 22 des Fahrzeugs 18 emittierten Lichts beeinträchtigt wird.The image capture unit 52 continuously takes pictures of the relevant area in front of the vehicle 18 on, which are evaluated by an image processing unit, as will be explained in more detail below in connection with the other figures. The analysis results of several analytical methods are evaluated using a suitable evaluation method. An evaluation result of the evaluation process then indicates which headlamp setting of the headlamp 20 . 22 is possible to achieve the optimal road illumination. The optimal road illumination is the maximum illumination of the traffic area that can be generated by the headlights, in which the other road users are not dazzled and obstructed. The optimum illumination can be dispensed with, for example, during day trips and / or in villages in the dark. At the in 1 illustrated traffic situation 10 is the optimal possible illumination through the area 51 given, since in this illumination no road users of the vehicles 24 . 26 . 28 through the headlights 20 . 22 of the vehicle 18 emitted light is impaired.

In 2 ist ein Blockdiagramm mit Funktionen zur Bildaufnahme, Bildverarbeitung und zur Ansteuerung der Scheinwerfer 20, 22 dargestellt. Mit Hilfe der Bilderfassungseinheit 52 wird, wie bereits im Zusammenhang mit 1 beschrieben, eine Bildfolge mit Bildern des Bereichs vor dem Kraftfahrzeug 18 aufgenommen. Vorzugsweise werden bei einer Fahrt des Kraftfahrzeugs 18 mit eingeschaltetem Lichtsystem bzw. bei Dunkelheit fortlaufend Bilder aufgenommen. Die Bildaufnahme wird mit Hilfe des Funktionsblocks 54 gesteuert, wobei durch den Funktionsblock 54 sowohl die zeitliche Abfolge der Bildaufnahme als auch die Umwandlung der aufgenommenen Bilder in Digitalbilddaten gesteuert wird. Die Bilder der Bildfolge können dabei in gleichen zeitlichen Abständen oder in von der Fahrzeuggeschwindigkeit des Kraftfahrzeugs 18 abhängigen zeitlichen Abständen aufgenommen werden. Mit Hilfe der Bilderfassungseinheit 52 und der Bildaufnahmesteuerung 54 erfolgt eine Datenerfassung. In den aufgenommenen Bildern werden Bereiche mit einer größeren Helligkeit als die übrigen Bildbereiche mit Hilfe der Blobextraktionsfunktion 56 extrahiert. Diese Bereiche mit größerer Helligkeit sind Strahlungsquellen, wie Lichtquellen oder lichtreflektierende Objekte, d. h. beispielsweise Verkehrszeichen oder Leitpfähle sowie Warntafeln und Reflektoren an Kraftfahrzeugen.In 2 is a block diagram with functions for image acquisition, image processing and control of the headlights 20 . 22 shown. With the help of the image acquisition unit 52 will, as already related to 1 described, an image sequence with images of the area in front of the motor vehicle 18 added. Preferably, when driving the motor vehicle 18 with the light system switched on or pictures taken in the dark. The picture is taken with the help of the function block 54 controlled by the function block 54 both the timing of the image acquisition and the conversion of the recorded images is controlled in digital image data. The images of the image sequence can be at the same time intervals or in of the vehicle speed of the motor vehicle 18 dependent time intervals are recorded. With the help of the image acquisition unit 52 and the image pickup control 54 there is a data collection. In the captured images, areas with higher brightness than the rest of the image areas are rendered using the Blobextraktionsfunktion 56 extracted. These areas of greater brightness are radiation sources, such as light sources or light-reflecting objects, ie, for example, traffic signs or guide posts, as well as warning signs and reflectors on motor vehicles.

Die Blobextraktion 56 wird für jedes Bild durchgeführt, das zur weiteren Analyse herangezogen wird. Mit Hilfe einer nachfolgend durchgeführten Blobtrackingfunktion 58 werden gleiche Strahlungsquellen in mehreren nacheinander aufgenommenen Bildern ermittelt und deren Bewegung über mehrere Bilder nachverfolgt. Das Blobtracking umfasst somit Bearbeitungsschritte, die der Verfolgung von Objekten über mehrere Bilder dienen und dadurch die Information über den Verlauf der Objektbewegung und der Position des Objekts im Raum ermitteln. Mit Hilfe des Blobtrackings kann auch eine Vorhersage der Positions- und Bewegungsinformation anhand der bereits über mehrere Bilder ermittelten Bewegungsinformation und Positionsinformation eines Objekts in Verbindung mit physikalischer sowie mathematischer Gesetzmäßigkeiten getroffen werden. Dieser Vorgang wird auch als Prädiktion bezeichnet.The Blobextraktion 56 is performed for each image used for further analysis. With the help of a subsequent blobtracking function 58 the same radiation sources are determined in several consecutively recorded images and their movement is tracked over several images. The blobtracking thus includes processing steps that serve the tracking of objects across multiple images and thereby determine the information about the course of the object movement and the position of the object in space. With the help of blobtracking, a prediction of the position and movement information can be made on the basis of the motion information and position information of an object already determined over several images in conjunction with physical and mathematical laws. This process is also called prediction.

Durch die vom Blobtracking vorzugsweise umfasste Assoziation werden einzelne Objekte über mehrere Messzyklen bzw. über mehrere Bilder identifiziert, wodurch ein in einem aktuell auszuwertenden Bild ermitteltes Objekt einem bereits über mehrere Bilder ermittelten und verfolgten Objekt zugeordnet werden kann. Anhand der für einzelne Objekte ermittelten Bewegungsverläufe kann das Objekt einem bestimmten Objektmodell zugeordnet werden, wodurch nachfolgend mindestens eine Objekteigenschaft des Objekts bestimmt werden kann. Der Blobtrackingfunktion 58 werden zusätzliche Kalibrierungsinformationen 60 zur Verfügung gestellt, um Fehler beim Blobtracking zu vermeiden.The association preferably encompassed by blobtracking identifies individual objects over several measurement cycles or over a plurality of images, as a result of which an object determined in an image currently to be evaluated can be assigned to an object that has already been detected and tracked over several images. On the basis of the motion profiles determined for individual objects, the object can be assigned to a specific object model, as a result of which subsequently at least one object property of the object can be determined. The blob tracking function 58 will provide additional calibration information 60 provided to prevent blobtracking errors.

Die von der Blobtrackingfunktion 58 ermittelten Trackingergebnisse werden nachfolgend mehreren Analysefunktionen 62 bis 68 zugeführt, die jeweils ein Analyseverfahren durchführen. Jeder Analysefunktion 62 bis 68 werden Zusatzinformationen 62a bis 68a in Form von Modellwissen zur Verfügung gestellt, um die zugeführten Informationen entsprechend verarbeiten und bewerten zu können. Bei der Analysefunktion 62 werden die 2D-Eigenschaften von Objekten erfasst, insbesondere die Form, die Struktur, die Größe usw. Dazu wird die Blobstruktur ausgewertet, wobei insbesondere der Grauwert und die Grauwertverteilung jedes Blobs, d. h. jedes Helligkeitskleckses, im erfassten Bild bzw. in den erfassten Bildern ermittelt und bewertet wird. Jedoch sind die Grauwerte und die Grauwert verteilung der Helligkeitskleckse stark von der Entfernung und dem Blickwinkel von der Bilderfassungseinheit 52 zu der jeweiligen Strahlungsquelle des Blobs und vom Design des Helligkeitspunkts abhängig. Beispiele für mögliche Blobs, deren zweidimensionale Eigenschaften (2D-Eigenschaften), d. h. deren Blobstruktur, analysiert wird, sind nachfolgend in den 3 bis 8 beispielhaft gezeigt. Jedoch ergibt die Analyse der 2D-Eigenschaften ein schwach signifikantes Merkmal, das nur in Kombination mit den Ergebnissen weiterer Analysen zu einem sinnvollen Bewertungsergebnis führt.The of the blobtracking function 58 determined tracking results are subsequently several analysis functions 62 to 68 fed, each performing an analysis method. Every analysis function 62 to 68 become additional information 62a to 68a provided in the form of model knowledge in order to be able to process and evaluate the supplied information accordingly. In the analysis function 62 The 2D properties of objects are recorded, in particular the shape, the structure, the size etc. For this purpose, the Blobstruktur evaluated, in particular the gray value and the gray value distribution of each blob, ie each brightness blob detected in the captured image or in the captured images and is evaluated. However, the gray values and the gray scale distribution of the brightness blobs are strong from the distance and the viewing angle from the image capture unit 52 depending on the radiation source of the blob and the design of the brightness point. Examples of possible blobs whose two-dimensional properties (2D properties), ie their Blobstruktur, analyzed, are described in the following 3 to 8th shown by way of example. However, the analysis of the 2D properties gives a weakly significant feature, which, in combination with the results of further analyzes, makes for a meaningful evaluation result.

Die Analysefunktion 64 ermittelt aus den Blobtrackingdaten zusammengehörende helle Bereiche, vorzugsweise über mehrere nacheinander aufgenommene Bilder einer Bildfolge hinweg und analysiert eine dreidimensionale Struktur (3D-Struktur) der einzelnen lichtabstrahlenden Elemente im Raum und kann dadurch insbesondere zusammengehörige Elemente einem Objekt zuordnen bzw. zu einem Objekt zusammenfassen. Bei dieser Analyse erfolgt eine Modellierung von erwarteten Strukturen. Insbesondere werden Leuchtenpaare, wie Frontscheinwerferpaare und Rückleuchtenpaare, ermittelt. Beispielsweise können mit der 3D-Strukturanalyse Fahrzeuge mit zahlreicher Zusatzbeleuchtung als LKW und eine Reihe von Leuchtpunkten als Straßenbeleuchtung bzw. als Leitpfähle identifiziert werden. Für einzelne Lichtquellen, wie z. B. die Rückleuchte oder der Frontscheinwerfer von Motorrädern oder PKW bzw. LKW mit nur einem funktionierenden Rücklicht oder nur einem funktionierenden Frontscheinwerfer können mit Hilfe der 3D-Strukturanalyse nicht genauer analysiert werden, sodass die 3D-Strukturanalyse für diese Objekte keine weiteren Informationen ermitteln kann. Die Analysefunktion 64 zum Ermitteln der 3D-Strukur kann ferner auch als Bestandteil einer sogenannten Lane-Departure-Warning (LDW-Funktion) genutzt werden.The analysis function 64 determines bright areas belonging together from the blob tracking data, preferably over a plurality of successively recorded images of a sequence and analyzes a three-dimensional structure (3D structure) of the individual light-emitting elements in the room and can therefore in particular associate associated elements with an object or combine them into an object. In this analysis, a modeling of expected structures takes place. In particular, pairs of lights, such as headlight pairs and pairs of taillights, are determined. For example, with the 3D structural analysis, vehicles with numerous auxiliary lights can be identified as trucks and a series of illuminated spots as street lights or guide posts. For individual light sources, such. For example, the tail light or front headlamp of motorcycles or cars or trucks with only one working taillight or only one functioning headlamp can not be analyzed more accurately using 3D structural analysis so that 3D structural analysis can not determine any further information for these objects. The analysis function 64 to determine the 3D structure can also be used as part of a so-called Lane Departure Warning (LDW function).

Ein Tracking kann dann vorzugsweise für alle einem Objekt zugeordneten Lichtpunkte erfolgen. Mit Hilfe der Netzleuchtenerkennungsfunktion 56 können netzbetriebene Lichtquellen, wie Ampeln, Straßenbeleuchtungen, beleuchtete Werbeflächen und aus Gebäuden austretendes Licht von nicht netzbetriebenen Lichtquellen unterschieden werden. Die netzbetriebenen Lichtquellen sind ortsfeste Lichtquellen, die für eine erfindungsgemäße Lichtsteuerung irrelevant sind, da diese Leuchten nicht Verkehrsteilnehmern zuzuordnen sind, die bei der Lichtverteilung des vom Kraftfahrzeug 18 abgestrahlten Lichts berücksichtigt werden müssten. Die Abtastfrequenz, d. h. die Bildaufnahmefrequenz, der mit Hilfe der Netzleuchtenerkennungsfunktion 66 ausgewerteten Bilder kann dabei weit unter der Netzfrequenz von 50 bzw. 60 Hz liegen, mit der die netzbetriebenen Lichtquellen mit Energie versorgt werden. Eine konkrete Ausführungsmöglichkeit der Netzleuchtenerkennung ist ausführlich im Dokument WO 2006/069978 A2 beschrieben.A tracking can then preferably take place for all points of light associated with an object. Using the power indicator function 56 For example, mains operated light sources such as traffic lights, street lighting, illuminated billboards, and building leaked light may be distinguished from non-mains powered light sources. The mains-operated light sources are fixed light sources, which are irrelevant for a light control according to the invention, since these lights are not attributable to road users, in the light distribution of the motor vehicle 18 radiated light would have to be considered. The sampling frequency, ie the image acquisition frequency, which is determined by means of the power indicator function 66 Evaluated images can be well below the mains frequency of 50 or 60 Hz, with which the mains-powered light sources are supplied with energy. A concrete embodiment of the power indicator is detailed in the document WO 2006/069978 A2 described.

Mit Hilfe der Analysefunktion 68 kann eine Unterscheidung von unbewegten, d. h. ortsfesten, und bewegten Objekten durchgeführt werden, indem die Position eines lichtabgebenden Objekts im Raum mit Hilfe der durch die Bilderfassungseinheit 52 aufgenommenen Bilder bei einer bekannten Relativbewegung der Bilderfassungseinheit 52 zum Objekt bestimmt wird. Eine solche Positionsbestimmung ist mit Hilfe einer Bilderfassungseinheit 52, die nur ein Monokamerasystem und kein Stereokamerasystem aufweist, nur für ortsfeste Objekte möglich. Kann für ein solches Objekt über mindestens drei nacheinander aufgenommene Bilder, zwischen denen eine Relativbewegung der Bilderfassungseinheit 52 stattgefunden hat, eine einzige Position plausibel ermittelt werden, so ist das Objekt ein ortsfestes Objekt. Bei dieser Analysefunktion 68 wird vorzugs weise als Hypothese angenommen, dass das zu analysierendes Objekt ein unbewegtes ortsfestes Objekt ist. Die Position des Objekts wird dabei bei der Verwendung einer Monokamera als Bilderfassungseinheit 52 mit Hilfe von zwei nacheinander aufgenommenen Bildern bestimmt und mit mindestens einem dritten Bild überprüft, indem die Position des Objekts weiterhin mit Hilfe des ersten und dritten und/oder zweiten und dritten Bildes bestimmt wird. Stimmen die ermittelten Positionen überein, ist das Objekt unbewegt und im betrachteten Zeitraum ortsfest. Somit wird die Hypothese, dass das Objekt unbewegt ist mit Hilfe der dritten und/oder weiteren Bilder überprüft und verifiziert. Ergeben sich für das Objekt andere Positionen, so dass die Hypothese nicht verifiziert werden kann, so ist das Objekt ein bewegtes Objekt. Die Analysefunktion 68 zur Bestimmung von ortsfesten Objekten erhält neben Modellwissen weiterhin Informationen eines Fahrdynamikmodells 68a, dem über das CAN-Bus-System 69 des Kraftfahrzeugs 18 aktuelle Fahrzeugdaten zur Verfügung gestellt werden, die insbesondere die Geschwindigkeit und/oder die Position des Fahrzeugs 18 betreffen. Aus diesen Daten wird die Positionsänderung der Bilderfassungseinheit 52 zwischen der Aufnahme von zwei zur Positionsbestimmung genutzten Bildern ermittelt.With the help of the analysis function 68 a distinction can be made from stationary, ie stationary, and moving objects, by the position of a light-emitting object in space with the aid of the image acquisition unit 52 taken pictures in a known relative movement of the image acquisition unit 52 is determined to the object. Such a position determination is with the aid of an image acquisition unit 52 , which has only a monocamera system and no stereo camera system, only possible for fixed objects. Can for such an object on at least three successive recorded images, between which a relative movement of the image acquisition unit 52 If a single position has been plausibly determined, the object is a stationary object. In this analysis function 68 is preferential, as a hypothesis, that the object to be analyzed is a stationary stationary object. The position of the object is thereby when using a mono camera as an image capture unit 52 is determined by means of two successive recorded images and checked with at least one third image by the position of the object is further determined using the first and third and / or second and third image. If the determined positions match, the object is stationary and stationary in the period considered. Thus, the hypothesis that the object is stationary is checked and verified with the aid of the third and / or further images. If there are other positions for the object, so that the hypothesis can not be verified, the object is a moving object. The analysis function 68 In addition to model knowledge, information about a vehicle dynamics model is also provided for the determination of stationary objects 68a , via the CAN bus system 69 of the motor vehicle 18 current vehicle data is made available, in particular the speed and / or position of the vehicle 18 affect. From this data, the position change of the image acquisition unit 52 between the recording of two used for determining position images.

Die Analyseergebnisse der Analysefunktion 62 bis 68 werden der Klassifikationsfunktion 70 zugeführt, durch die eine Zusammenfassung der durch die einzelnen Analysefunktionen 62 bis 68 erfolgten Einzelbewertungen erfolgt. Dabei erfolgen eine Zuordnung und eine differenzierte Bewertung in vordefinierten Objektklassen. Solche Objektklassen können beispielsweise Rücklicht, Frontscheinwerfer, Straßenlampe, Reflektor, Verkehrsschild usw. sein. Aufgrund von voreingestellten Regeln, durch die Funktionsvorschriften des Gesamtsystems zum Steuern der Lichtabgabe durch die Funktionskategorisierung umgesetzt werden, erfolgt eine Ge samtbewertung der Analyseergebnisse der Analysefunktionen. Dabei können insbesondere Lastenhefte und gesetzliche Vorschriften berücksichtigt und Aktionen zur Lichtsteuerung festgelegt werden. Anschließend wird aufgrund der Einstellmöglichkeiten des Lichtsystems bzw. der Scheinwerfer 20, 22 des Kraftfahrzeugs 18 die optimale Ausleuchtung 51 des relevanten Verkehrsraums vor dem Fahrzeug 18 unter Berücksichtigung der anderen Verkehrsteilnehmer 24, 26, 28 bestimmt. Diese Information wird als Parameter oder Stellsignal über das CAN-Bus-System des Kraftfahrzeugs 18 zum Lichtsystem übertragen, durch das die Lichtabgabe der Scheinwerfer 20, 22 entsprechend eingestellt wird. Über ein Human-Machine-Interface kann eine Information über die aktuelle Einstellung des Lichtsystems des Kraftfahrzeugs 18 an den Fahrer des Kraftfahrzeugs 18 ausgegeben werden.The analysis results of the analysis function 62 to 68 become the classification function 70 fed by a summary of the through the individual analysis functions 62 to 68 carried out individual evaluations. In this case, an assignment and a differentiated evaluation are carried out in predefined object classes. Such object classes may be, for example, taillight, headlights, street lamp, reflector, road sign, etc. On the basis of preset rules, by means of which the functional rules of the overall system for controlling the light output are converted by the function categorization, an overall evaluation of the analysis results of the analysis functions takes place. Specifically, specifications and legal regulations can be taken into account and actions for lighting control can be defined. Subsequently, due to the adjustment possibilities of the lighting system or the headlights 20 . 22 of the motor vehicle 18 the optimal illumination 51 the relevant traffic space in front of the vehicle 18 taking into account the other road users 24 . 26 . 28 certainly. This information is used as a parameter or control signal via the CAN bus system of the driver zeugs 18 transmitted to the light system, through which the light output of the headlights 20 . 22 is adjusted accordingly. About a human-machine interface information about the current setting of the lighting system of the motor vehicle 18 to the driver of the motor vehicle 18 be issued.

In den 3 bis 8 ist jeweils ein mit Hilfe der Bilderfassungseinheit 52 des Kraftfahrzeugs 18 aufgenommenes Bild in verschiedenen Verkehrssituationen dargestellt, wobei jeweils das Analyseergebnis der Analysefunktion 62 angegeben ist, durch das das ermittelte Objekt näher bestimmbar ist und einer Objektklasse zugeordnet wird. Bei den in 3 dargestellten lichtabstrahlenden Elementen handelt es sich um die Rücklichter und die Nummernschildbeleuchtung eines vorausfahrenden Fahrzeugs 24. Bei dem in 4 dargestellten lichtabstrahlenden Bereich handelt es sich um einen Scheinwerfer eines entgegenkommenden Fahrzeugs. Bei dem in 5 dargestellten lichtabstrahlenden Bereich handelt es sich um eine entfernt vom Kraftfahrzeug 18 bzw. entfernt von der Bilderfassungseinheit 52 angeordnete Straßenlampe. Bei dem in 6 dargestellten lichtabstrahlenden Bereich handelt es sich um eine nahe dem Kraftfahrzeug 18 bzw. nahe der Bilderfassungseinheit 52 angeordnete Straßenlampe. Bei den in 7 dargestellten lichtabstrahlenden Berei chen handelt es sich um einen nahe dem Kraftfahrzeug 18 angeordneten ersten Leitpfosten und einen entfernt vom Kraftfahrzeug 18 angeordneten zweiten Leitpfosten. Bei den in 8 dargestellten lichtabstrahlenden Bereichen handelt es sich um entfernt vom Kraftfahrzeug 18 angeordnete Scheinwerfer entgegenkommender Kraftfahrzeuge.In the 3 to 8th is one each with the help of the image acquisition unit 52 of the motor vehicle 18 recorded image in different traffic situations, where in each case the analysis result of the analysis function 62 is specified by which the determined object is more precisely determined and assigned to an object class. At the in 3 The light-emitting elements shown are the taillights and license plate illumination of a vehicle ahead 24 , At the in 4 shown light emitting area is a headlight of an oncoming vehicle. At the in 5 shown light emitting area is a remote from the motor vehicle 18 or removed from the image capture unit 52 arranged street lamp. At the in 6 shown light emitting area is a close to the motor vehicle 18 or near the image capture unit 52 arranged street lamp. At the in 7 illustrated Lichtabstrahlenden Berei chen is a close to the motor vehicle 18 arranged first guide post and one away from the motor vehicle 18 arranged second guide post. At the in 8th shown light emitting areas are remote from the motor vehicle 18 arranged headlights oncoming motor vehicles.

In 9 ist das Analyseergebnis der 3D-Strukturanalysefunktion 64 für insgesamt 12 Straßenlampen dargestellt, wobei die Straßenlampen in dem mit Kamerakoordinaten der Bilderfassungseinheit 52 versehenen rechten Diagramm als Lichtpunkte und im linken Diagramm als Punkte in dem Koordinatensystem einer Ebene dargestellt sind. Die Positionen der Lichtpunkte bzw. der Straßenlampen in der Ebene sind im linken Diagramm der 9 ausgehend von der Bilderfassungseinheit 52 bzw. zum Kraftfahrzeug 18 angegeben, wobei die Bilderfassungseinheit 52 im Koordinatenursprung angeordnet ist.In 9 is the analysis result of the 3D structure analysis function 64 for a total of 12 Street lamps are shown, wherein the street lamps in the camera coordinates of the image acquisition unit 52 provided right-hand diagram as points of light and in the left diagram as points in the coordinate system of a plane are shown. The positions of the light points or the street lamps in the plane are in the left diagram of 9 starting from the image acquisition unit 52 or to the motor vehicle 18 indicated, wherein the image acquisition unit 52 is arranged in the coordinate origin.

In 10 ist die Positionsbestimmung eines ortsfesten Objekts 80 mit Hilfe der Analysefunktion 68 dargestellt. Die Bilderfassungseinheit 52 wird mit dem Fahrzeug 18 bewegt. Die Bewegung der Bilderfassungseinheit 52 in der Ebene ist durch mehrere Punkte dargestellt, die auf einer zur Y-Achse parallelen Gerade angeordnet sind. Die Relativbewegung der Bilderfassungseinheit 52 zum Objekt 80 ist durch die Bewegung des Fahrzeugs 18 festgelegt, da das Objekt 80 als ortsfest angenommen wird. Wird für das Objekt 80 mit Hilfe mehrerer Positionsbestimmungen mit unterschiedlichen aufgenommenen Bildern jeweils dieselbe Position ermittelt, ist die Annahme korrekt, dass es sich beim Objekt 80 um ein ortsfestes Objekt handelt. Werden verschiedene Positionen oder nicht plausible Positionen ermittelt, so handelt es sich beim Objekt 80 nicht um ein ortsfestes Objekt.In 10 is the position determination of a stationary object 80 with the help of the analysis function 68 shown. The image capture unit 52 is with the vehicle 18 emotional. The movement of the image acquisition unit 52 in the plane is represented by several points, which are arranged on a straight line parallel to the Y-axis. The relative movement of the image acquisition unit 52 to the object 80 is due to the movement of the vehicle 18 set because the object 80 is assumed to be stationary. Will for the object 80 With the help of several position determinations with different recorded pictures the same position is determined, the assumption is correct, that it is the object 80 is a fixed object. If different positions or non-plausible positions are determined, this is the object 80 not a stationary object.

Bei dieser Analyse kann dann auch die Entfernung zwischen dem Kraftfahrzeug 18 und dem Objekt 80 mit Hilfe einer Monokamera ermittelt werden, wenn es sich beim Objekt 80 um ein ortsfestes Objekt handelt. Die Klassifizierung von Objekten erfolgt vorzugsweise mit Hilfe eines Bewertungsverfahrens, das die Bewertung der zu erfassenden Objekte ausgehend von den durch die Analysefunktionen ausgegebenen Analysenergebnisse durchführt. Als Bewertungsverfahren kann insbesondere ein Standardklassifizierungsverfahren genutzt werden, insbesondere unter Verwendung der Bayes-Klassifikation, einer Fuzzy-Logik, einer Support-Vector-Machine und/oder eines anderen geeigneten Bewertungsverfahrens.In this analysis, then the distance between the motor vehicle 18 and the object 80 be determined with the help of a mono camera, if it is the object 80 is a fixed object. The classification of objects is preferably carried out by means of an evaluation method which carries out the evaluation of the objects to be detected on the basis of the analysis results output by the analysis functions. In particular, a standard classification method can be used as the evaluation method, in particular using the Bayes classification, a fuzzy logic, a support vector machine and / or another suitable evaluation method.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - DE 102004063836 A1 [0002] DE 102004063836 A1 [0002]
  • - EP 0935728 B1 [0003] EP 0935728 B1 [0003]
  • - EP 0971829 B1 [0004] - EP 0971829 B1 [0004]
  • - WO 2006/069978 A2 [0033] - WO 2006/069978 A2 [0033]

Claims (11)

Verfahren zum Steuern der Lichtabgabe eines Fahrzeugs, bei dem mehrere Bilder nacheinander als Bildfolge erfasst werden; zumindest ein Teil der Bilder der Bildfolge mit Hilfe eines ersten Analyseverfahrens (62) analysiert wird; zumindest ein Teil der Bilder der Bildfolge mit Hilfe mindestens eines vom ersten Analyseverfahren (62) verschiedenen zweiten Analyseverfahrens (62 bis 68) analysiert wird, wobei durch jedes Analyseverfahren (62 bis 68) mindestens ein Analyseergebnis erzeugt wird; die Analyseergebnisse mit Hilfe eines Bewertungsverfahrens bewertet werden, wobei das Bewertungsverfahren mindestens ein Bewertungsergebnis ausgibt; und bei dem abhängig vom Bewertungsergebnis die Lichtabgabe durch mindestens einen Scheinwerfer (20, 22) des Fahrzeugs (18) gesteuert wird.A method for controlling the light output of a vehicle, in which a plurality of images are sequentially acquired as a sequence of images; at least a part of the images of the image sequence with the aid of a first analysis method ( 62 ) is analyzed; at least a part of the images of the image sequence using at least one of the first analysis method ( 62 ) different second analysis method ( 62 to 68 ), whereby each analytical method ( 62 to 68 ) at least one analysis result is generated; the analysis results are evaluated by means of an evaluation procedure, the evaluation process issuing at least one evaluation result; and in which depending on the evaluation result, the light output by at least one headlamp ( 20 . 22 ) of the vehicle ( 18 ) is controlled. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Analyseverfahren den jeweiligen Teil der Bilder unabhängig voneinander analysieren, wobei zumindest ein Teil der vom ersten Analyse verfahren (62) genutzten Bilder auch zur Analyse mit Hilfe des zweiten Analyseverfahrens (64 bis 68) genutzt wird.A method according to claim 1, characterized in that the analysis methods analyze the respective part of the images independently of one another, wherein at least a part of the method of the first analysis ( 62 ) also for analysis using the second analysis method ( 64 to 68 ) is being used. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bilder der Bildfolge mit Hilfe einer Einzelkamera (52) oder einer Stereokamera erfasst werden, wobei zumindest die mit Hilfe des ersten Analyseverfahrens (62) analysierten Bilder vorzugsweise Graustufenbilder sind.Method according to one of the preceding claims, characterized in that the images of the image sequence with the aid of a single camera ( 52 ) or a stereo camera, whereby at least those with the aid of the first analysis method ( 62 ) are preferably grayscale images. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die durch den Scheinwerfer (20, 22) abgegebenen Lichtstrahlen erzeugte Lichtverteilung gesteuert wird, wobei die durch mindestens den einen Scheinwerfer (20, 22) des Fahrzeugs (18) abgegebenen Lichtstrahlen durch Verändern des Neigungswinkels, des Gierwinkels und/oder eines optischen Systems zum Formen der abgegebenen Lichtstrahlen mindestens eines Scheinwerfers (20, 22) und/oder mindestens einer Lichtquelle gesteuert wird.Method according to one of the preceding claims, characterized in that by the headlight ( 20 . 22 ) emitted light beams is controlled, wherein the at least one headlight ( 20 . 22 ) of the vehicle ( 18 ) emitted light beams by changing the inclination angle, the yaw angle and / or an optical system for shaping the emitted light beams of at least one headlamp ( 20 . 22 ) and / or at least one light source is controlled. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bewertungsverfahren mit Hilfe der Analyseergebnisse eine Klassifizierung mit Hilfe von in den Analyseergebnissen enthaltenen Merkmalen von erfassten Objekten (80) durchführt, vorzugsweise mit Hilfe eines Standardklassifizierungsverfahren, insbesondere unter Verwendung der Bayes-Klassifikation, einer Fuzzy-Logik oder einer Support-Vector-Machine.Method according to one of the preceding claims, characterized in that the evaluation method with the aid of the analysis results a classification with the aid of features contained in the analysis results of detected objects ( 80 ), preferably by means of a standard classification method, in particular using the Bayes classification, a fuzzy logic or a support vector machine. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass bei der Klassifikation weitere durch das Fahrzeug (18) zur Verfügung gestellte Informationen (68a) berücksichtigt werden.A method according to claim 5, characterized in that in the classification further by the vehicle ( 18 ) ( 68a ). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mit Hilfe des ersten Analyseverfahrens (62), des zweiten Analyseverfahrens (64 bis 68) und/oder des Bewertungsverfahrens eine Kategorisierung von mit Hilfe der Bilder ermittelten Objekten (80) durchgeführt wird.Method according to one of the preceding claims, characterized in that by means of the first analysis method ( 62 ), the second analysis procedure ( 64 to 68 ) and / or the evaluation method, a categorization of objects determined with the aid of the images ( 80 ) is carried out. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Analyseverfahren (62 bis 68) ein Analyseverfahren zur Netzleuchtenerkennung, ein Analyseverfahren zur dreidimensionalen Strukturanalyse zum Erfassen von zusammengehörigen Objekten, ein Analyseverfahren zum Ermitteln von zweidimensionalen Eigenschaften eines Objekts, wie Form, Struktur und/oder Größe, ein Analyseverfahren zum Ermitteln von dreidimensionalen Eigenschaften eines Objekts, vorzugsweise zum Ermitteln des Objektstatus bewegt oder unbewegt, und/oder mindestens ein weiteres Analyseverfahren umfasst.Method according to one of the preceding claims, characterized in that the analysis methods ( 62 to 68 ) An analysis method for detecting the luminous flux, an analysis method for three-dimensional structure analysis for detecting related objects, an analysis method for determining two-dimensional properties of an object, such as shape, structure and / or size, an analysis method for determining three-dimensional properties of an object, preferably for determining the Object status moved or unmoved, and / or at least one further analysis method comprises. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die ermittelten Eigenschaften eines Objekts (80) durch mindestens eines der Analyseverfahren (62, 60) mit Eigenschaften eines Objektmodells (62a bis 66a) verglichen werden, wobei aufgrund der übereinstimmenden und/oder abweichenden Eigenschaften zwischen den tatsächlichen Eigenschaften des Objekts (80) und eines Objektmodells (62a bis 66a) ein Bewertungskriterium als Analyseergebnis dem Bewertungsverfahren zur Verfügung gestellt wird.Method according to claim 8, characterized in that the determined properties of an object ( 80 ) by at least one of the analytical methods ( 62 . 60 ) with properties of an object model ( 62a to 66a ) due to the matching and / or deviating properties between the actual properties of the object ( 80 ) and an object model ( 62a to 66a ) an evaluation criterion as an analysis result is provided to the evaluation process. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bewertungsverfahren bei der Verarbeitung der Analyseergebnisse eine Wichtung der Analyseergebnisse durchführt und/oder Fehlertoleranzen bei der Bewertung der Analyseergebnisse einbezieht.Method according to one of the preceding claims, characterized in that the evaluation method during processing the analysis results perform a weighting of the analysis results and / or fault tolerances in the evaluation of the analysis results includes. Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs, mit einer Bilderfassungseinheit (52) zum Erfassen von Bildern einer Bildfolge; mit einer Auswerteeinheit, die einen Teil der Bilder der Bildfolge mit Hilfe eines ersten Analyseverfahrens (62) analysiert, die zumindest einen Teil der Bilder der Bildfolge mit Hilfe mindestens eines vom ersten Analyseverfahren (62) verschiedenen zweiten Analyseverfahrens (64 bis 68) analysiert, die mit Hilfe eines Bewertungsverfahrens die von jedem Analyseverfahren erzeugten Analyseergebnisse bewertet und ein Bewertungsergebnis ausgibt, und die abhängig vom Bewertungsergebnis ein Stellsignal erzeugt, durch das die Abgabe von Lichtstrahlen mindestens eines Scheinwerfers (20, 22) eines Fahrzeugs (18) gesteuert wirdDevice for controlling the emission of light from a vehicle, comprising an image acquisition unit ( 52 ) for capturing images of a sequence of images; with an evaluation unit, which extracts part of the images of the image sequence with the aid of a first analysis method ( 62 ) analyzes at least part of the images of the image sequence using at least one of the first analysis methods ( 62 ) different second analysis method ( 64 to 68 ), which uses a rating procedure to evaluate the analysis results generated by each analysis method and output an evaluation result, and which adjusts according to the evaluation result generated by the emission of light rays of at least one headlamp ( 20 . 22 ) of a vehicle ( 18 ) is controlled
DE102007008542.9A 2007-02-21 2007-02-21 Method and device for controlling the light output of a vehicle Active DE102007008542B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007008542.9A DE102007008542B4 (en) 2007-02-21 2007-02-21 Method and device for controlling the light output of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007008542.9A DE102007008542B4 (en) 2007-02-21 2007-02-21 Method and device for controlling the light output of a vehicle

Publications (2)

Publication Number Publication Date
DE102007008542A1 true DE102007008542A1 (en) 2008-08-28
DE102007008542B4 DE102007008542B4 (en) 2019-04-18

Family

ID=39645805

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007008542.9A Active DE102007008542B4 (en) 2007-02-21 2007-02-21 Method and device for controlling the light output of a vehicle

Country Status (1)

Country Link
DE (1) DE102007008542B4 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2495127A1 (en) * 2011-03-01 2012-09-05 Autoliv Development AB A driver assistance system and method for a motor vehicle
WO2015075402A1 (en) * 2013-11-25 2015-05-28 Renault S.A.S. System and method for forming nighttime images for a motor vehicle
US9102265B2 (en) 2009-08-07 2015-08-11 Robert Bosch Gmbh Method and device for the distance-based debouncing of light-characteristic changes
EP2261081B1 (en) * 2009-06-09 2019-01-02 Automotive Lighting Reutlingen GmbH Method for operating a lighting device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19922735A1 (en) * 1998-05-18 1999-12-02 Koito Mfg Co Ltd External lighting system for a motor vehicle
US6097023A (en) * 1993-02-26 2000-08-01 Donnelly Corporation Vehicle headlight control using imaging sensor
EP0971829B1 (en) 1997-04-02 2001-11-14 Gentex Corporation Control system to automatically dim vehicle head lamps
US20040066458A1 (en) * 2002-07-12 2004-04-08 Hiroyuki Kawamura Imaging system
EP0935728B1 (en) 1997-09-06 2004-05-26 Hella KG Hueck & Co. Headlight for vehicles
DE102004063836A1 (en) 2004-12-24 2006-03-30 Daimlerchrysler Ag Vehicle`s headlight controller, has sensors for receiving of occurrence of traffic before the vehicle, and evaluating unit controlling electronics, which adjusts range of lower beam headlight after determined traffic occurrences
WO2006069978A2 (en) 2004-12-23 2006-07-06 Hella Kgaa Hueck & Co. Method and device for determining a calibrating parameter of a stereo camera
DE10261290B4 (en) * 2001-12-28 2007-02-15 Yazaki Corp. In-vehicle image correction device and night driving field of view assistance device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19902015A1 (en) * 1999-01-20 2000-07-27 Porsche Ag Arrangement for adapting motor vehicle lighting system has traffic situation detector with image acquisition unit connected to image evaluation device; adjuster driven depending on images
DE102006016073A1 (en) * 2005-08-24 2007-03-22 Dr.Ing.H.C. F. Porsche Ag Method for controlling the headlamp range of a motor vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6097023A (en) * 1993-02-26 2000-08-01 Donnelly Corporation Vehicle headlight control using imaging sensor
EP0971829B1 (en) 1997-04-02 2001-11-14 Gentex Corporation Control system to automatically dim vehicle head lamps
EP0935728B1 (en) 1997-09-06 2004-05-26 Hella KG Hueck & Co. Headlight for vehicles
DE19922735A1 (en) * 1998-05-18 1999-12-02 Koito Mfg Co Ltd External lighting system for a motor vehicle
DE10261290B4 (en) * 2001-12-28 2007-02-15 Yazaki Corp. In-vehicle image correction device and night driving field of view assistance device
US20040066458A1 (en) * 2002-07-12 2004-04-08 Hiroyuki Kawamura Imaging system
WO2006069978A2 (en) 2004-12-23 2006-07-06 Hella Kgaa Hueck & Co. Method and device for determining a calibrating parameter of a stereo camera
DE102004063836A1 (en) 2004-12-24 2006-03-30 Daimlerchrysler Ag Vehicle`s headlight controller, has sensors for receiving of occurrence of traffic before the vehicle, and evaluating unit controlling electronics, which adjusts range of lower beam headlight after determined traffic occurrences

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GRAEFE,V.:Echtzeit-Bildverarbeitung für ein Fahrer-Unterstützungssystem zum Einsatz auf Autobahnen.In:it+ti Informationstechnik und Technische Informatik, H.36,1994,S.16-24; *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2261081B1 (en) * 2009-06-09 2019-01-02 Automotive Lighting Reutlingen GmbH Method for operating a lighting device
US9102265B2 (en) 2009-08-07 2015-08-11 Robert Bosch Gmbh Method and device for the distance-based debouncing of light-characteristic changes
EP2495127A1 (en) * 2011-03-01 2012-09-05 Autoliv Development AB A driver assistance system and method for a motor vehicle
WO2015075402A1 (en) * 2013-11-25 2015-05-28 Renault S.A.S. System and method for forming nighttime images for a motor vehicle
FR3013875A1 (en) * 2013-11-25 2015-05-29 Renault Sa SYSTEM AND METHOD FOR FORMING NIGHT IMAGES FOR A MOTOR VEHICLE.
CN105745670A (en) * 2013-11-25 2016-07-06 雷诺股份公司 Methods and systems for forming nighttime images for a motor vehicle
CN105745670B (en) * 2013-11-25 2020-03-27 雷诺股份公司 System and method for forming nighttime images for a motor vehicle

Also Published As

Publication number Publication date
DE102007008542B4 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
EP2127944B1 (en) Method and device for controlling the light emission of a front headlamp of a vehicle
DE102009039179B4 (en) Headlight control device and vehicle headlight with headlight control device
EP2501584B1 (en) Method for controlling a headlamp arrangement for vehicle and headlamp arrangement
DE69937956T3 (en) CONTINUOUS CONTROL OF A HEADLAMP
WO2012168055A2 (en) Method and device for detecting objects in the area surrounding a vehicle
EP2748032B1 (en) Method and device for controlling a headlamp of a vehicle
EP0869031A2 (en) Device for controlling the light beam and/or the lighting direction
EP2127945B1 (en) Methods and device for controlling the light emission of a vehicle
DE102014212162A1 (en) Headlight control device
DE102013100327A1 (en) Vehicle traveling environment detection device
DE102009020910A1 (en) Headlight system for use in driver assistance system of vehicle, has light source whose light is radiated through image generator, where transmission rate of generator is changeable depending on objects in surrounding field of vehicle
DE102012003158A1 (en) Method for projecting laser light image in environment around vehicle during driving vehicle, involves projecting manipulated contents of captured image to position in predetermined environment by using laser light beams
EP2501586A1 (en) Method for controlling a headlight arrangement for a vehicle and such a headlight arrangement
DE10060734A1 (en) Spotlight on vehicle, for illumination of roadside traffic sign, is connected to camera which recognizes sign and control system keeping spotlight centered on sign
DE102007008542B4 (en) Method and device for controlling the light output of a vehicle
DE102011003550A1 (en) Method and device for adjusting a basic setting of a headlight of a motor vehicle
EP4185488B1 (en) Method for operating an illuminating device, and motor vehicle
EP2131308B1 (en) Method and device for classifying an object detected in at least one image of an area visualised in front of a vehicle
DE102015209550A1 (en) METHOD AND DEVICE FOR DETECTING OBJECTS IN A VEHICLE ENVIRONMENT ENVIRONMENT
DE102013220839A1 (en) Imaging system for car, has processor for dynamically adjusting brightness of captured image based on brightness of virtual image, and rearview mirror display device for displaying brightness adjusted image
DE10156653A1 (en) Automatic generation of main beam and/or dipped beam light involves using pattern-supported video sensors to automatically distinguish between all dazzle situations while driving
DE102007008543A1 (en) Method and device for determining the state of motion of objects
EP3136291A1 (en) Method and device for detecting objects in the dark by means of a vehicular camera and a vehicle lighting system
EP4297535A1 (en) Method and control device for automatically controlling at least one lighting function of an illumination device of an ego vehicle
DE102019001259A1 (en) Method for optimizing the function of visual sensors

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R012 Request for examination validly filed

Effective date: 20131121

R082 Change of representative

Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE GBR, DE

Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE MBB, DE

Representative=s name: SCHAUMBURG UND PARTNER PATENTANWAELTE MBB, DE

R081 Change of applicant/patentee

Owner name: CAR.SOFTWARE ESTONIA AS, EE

Free format text: FORMER OWNER: HELLA KGAA HUECK & CO., 59557 LIPPSTADT, DE

Owner name: HELLA GMBH & CO. KGAA, DE

Free format text: FORMER OWNER: HELLA KGAA HUECK & CO., 59557 LIPPSTADT, DE

R082 Change of representative

Representative=s name: SCHAUMBURG UND PARTNER PATENTANWAELTE MBB, DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: CAR.SOFTWARE ESTONIA AS, EE

Free format text: FORMER OWNER: HELLA GMBH & CO. KGAA, 59557 LIPPSTADT, DE

R082 Change of representative