DE112018007190T5 - Fahrzeugbeleuchtungssteuerungsvorrichtung,fahrzeugbeleuchtungssteuerungsverfahren undfahrzeugbeleuchtungssteuerungsprogramm - Google Patents

Fahrzeugbeleuchtungssteuerungsvorrichtung,fahrzeugbeleuchtungssteuerungsverfahren undfahrzeugbeleuchtungssteuerungsprogramm Download PDF

Info

Publication number
DE112018007190T5
DE112018007190T5 DE112018007190.1T DE112018007190T DE112018007190T5 DE 112018007190 T5 DE112018007190 T5 DE 112018007190T5 DE 112018007190 T DE112018007190 T DE 112018007190T DE 112018007190 T5 DE112018007190 T5 DE 112018007190T5
Authority
DE
Germany
Prior art keywords
vehicle
pedestrian
light
unit
lighting control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112018007190.1T
Other languages
English (en)
Inventor
Naoyuki Fujiyama
Ryota Sekiguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112018007190T5 publication Critical patent/DE112018007190T5/de
Granted legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • B60Q1/085Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/24Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead
    • B60Q1/247Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead for illuminating the close surroundings of the vehicle, e.g. to facilitate entry or exit
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/45Special conditions, e.g. pedestrians, road signs or potential dangers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S2205/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S2205/01Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations specially adapted for specific applications
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

Eine Fahrzeugbeleuchtungssteuerungsvorrichtung (10) umfasst eine Lichtsteuerungseinheit (22), eine erste Erkennungseinheit (23) und eine zweite Erkennungseinheit (24). Die erste Erkennungseinheit (23) erkennt ein Zielobjekt, präsent außerhalb eines Beleuchtungsbereichs eines Abblendlichts eines Fahrzeugs (100), unter Verwendung einer Ferninfrarotkamera (31). Eine zweite Erkennungseinheit (24) erkennt eine Position des von der ersten Erkennungseinheit (23) erkannten Zielobjekts, unter Verwendung eines Distanzsensors (321), der eine Entfernung mit einem Laser misst. Eine Lichtsteuerungseinheit (22) beleuchtet die Position des von der zweiten Erkennungseinheit (24) erkannten Zielobjekts, mit einer Markierungsleuchte (35), die, verglichen mit dem Abblendlicht, einen Bereich in einer größeren Entfernung beleuchten kann.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Technologie zum Steuern von Beleuchtung, montiert an einem Fahrzeug.
  • Stand der Technik
  • Ein Fahrzeugscheinwerfer ist mit einer als adaptives Fahrlicht (nachfolgend bezeichnet als „ADB“ [Adaptive Driving Beam]) bekannten Funktion ausgestattet, die einen Beleuchtungsbereich eines Lichtverteilungsmusters durch Steuern des Ein- und Ausschaltens jeder lichtemittierenden Vorrichtung von halbleiterlichtemittierenden Vorrichtungen wie LEDs, angeordnet in einer Matrix, verändert. Die ADB-Funktion erkennt den Bewegungsstatus eines Fußgängers in der Nähe des Fahrzeugs durch Verwendung eines Sensors wie einer Monokularkamera und realisiert ein partielles Ein- und Ausschalten von Leuchten in Richtung des Fußgängers, um den Fußgänger nicht zu blenden (siehe Patentliteratur 1).
  • Zitationsverzeichnis
  • Patentdokumente
  • Patentliteratur 1: JP 2016-110853 A
  • Kurzdarstellung der Erfindung
  • Technisches Problem
  • Wenn jedoch die Leuchten in Richtung des Fußgängers teilweise ausgeschaltet werden, um den Fußgänger nicht zu blenden, wird ein Fahrer nicht in der Lage sein, den Fußgänger visuell zu erkennen. Folglich ist es ein Risiko, den eine Straße überquerenden Fußgänger zu übersehen und mit dem Fußgänger zu kollidieren.
  • Es ist eine Aufgabe der vorliegenden Erfindung, die Erkennung eines Zielobjekts wie eines Fußgängers durch einen Fahrer zu erleichtern.
  • Lösung des Problems
  • Eine erfindungsgemäße Fahrzeugbeleuchtungssteuerungsvorrichtung umfasst
    eine erste Erkennungseinheit zum Erkennen eines Zielobjekts, präsent außerhalb eines Beleuchtungsbereichs eines Abblendlichts eines Fahrzeugs, unter Verwendung einer Ferninfrarotkamera;
    eine zweite Erkennungseinheit zum Erkennen einer Position des von der ersten Erkennungseinheit erkannten Zielobjekts, unter Verwendung eines Distanzsensors, der eine Entfernung mit einem Laser misst; und
    eine Lichtsteuerungseinheit zum Beleuchten der Position des von der zweiten Erkennungseinheit erkannten Zielobjekts, mit einer Markierungsleuchte, die, wenn verglichen mit dem Abblendlicht, einen Bereich in einer größeren Entfernung beleuchten kann.
  • Vorteilhafte Wirkungen der Erfindung
  • In der vorliegenden Erfindung wird ein Zielobjekt, präsent außerhalb eines Beleuchtungsbereichs eines Abblendlichts, von einer Markierungsleuchte beleuchtet. Dies gestattet einem Fahrer, ein Zielobjekt in der Entfernung zu erkennen, das in einer Situation, in welcher nur das Abblendlicht verwendet wird, nicht erkannt werden kann.
  • Figurenliste
    • 1 ist eine Konfigurationsübersicht einer Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß einer ersten Ausführungsform;
    • 2 ist eine Konfigurationsübersicht einer Lichtsteuerungseinheit 22 gemäß der ersten Ausführungsform;
    • 3 ist eine Übersicht, die ein Bildkoordinatensystem 50 eines Bildes veranschaulicht, das von einer Ferninfrarotkamera 31 und einer Kamera 32 für sichtbares Licht gemäß der ersten Ausführungsform erlangt wurde;
    • 4 ist eine Übersicht, die ein Fahrzeugkoordinatensystem 60 gemäß der ersten Ausführungsform veranschaulicht;
    • 5 ist eine Übersicht, die ein Lichtkoordinatensystem 70 gemäß der ersten Ausführungsform veranschaulicht;
    • 6 ist ein Flowchart, das den Betrieb der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der ersten Ausführungsform veranschaulicht;
    • 7 ist eine Übersicht, die eine Beziehung zwischen einem von der Ferninfrarotkamera 31 erlangten Bild und horizontalen Winkeln einer Markierungsleuchte 35 gemäß der ersten Ausführungsform veranschaulicht;
    • 8 ist eine Übersicht, die einen Abblendlichtfeststellungsprozess gemäß der ersten Ausführungsform beschreibt;
    • 9 ist eine Übersicht, die ein Beispiel für Steuerung der Markierungsleuchte 35 gemäß der ersten Ausführungsform veranschaulicht;
    • 10 ist eine Konfigurationsübersicht der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß einer zweiten Ausführungsform;
    • 11 ist eine Konfigurationsübersicht der Lichtsteuerungseinheit 22 gemäß der zweiten Ausführungsform;
    • 12 ist eine Übersicht, die ein Distanzsensorkoordinatensystem 80 gemäß der zweiten Ausführungsform veranschaulicht;
    • 13 ist ein Flowchart, das den Betrieb der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der zweiten Ausführungsform veranschaulicht;
    • 14 ist eine Übersicht, die eine Beziehung zwischen Pixelpositionen eines Fußgängers im Bildkoordinatensystem 50 und Positionen im Distanzsensorkoordinatensystem 80 gemäß der zweiten Ausführungsform veranschaulicht; und
    • 15 ist eine Übersicht, die einen Beleuchtungsbereich eines Abblendlichts gemäß der zweiten Ausführungsform veranschaulicht.
  • Beschreibung von Ausführungsformen
  • Erste Ausführungsform
  • *** Beschreibung der Konfiguration ***
  • Bezug nehmend auf 1, wird eine Konfiguration einer Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß einer ersten Ausführungsform beschrieben.
  • Die Fahrzeugbeleuchtungssteuerungsvorrichtung 10 ist ein Computer, beispielsweise eine elektronische Steuerungseinheit (Electronic Control Unit, ECU), die an einem Fahrzeug 100 zu montieren ist. Die Fahrzeugbeleuchtungssteuerungsvorrichtung 10 kann in einer Form integral mit und untrennbar von dem Fahrzeug 100 implementiert sein oder kann in einer vom Fahrzeug 100 abtrennbaren Form implementiert sein.
  • Die Fahrzeugbeleuchtungssteuerungsvorrichtung 10 umfasst eine Erkennungseinheit 21 und eine Lichtsteuerungseinheit 22 als funktionale Komponenten. Die Erkennungseinheit 21 umfasst eine erste Erkennungseinheit 23 und eine zweite Erkennungseinheit 24. In der ersten Ausführungsform sind die Lichtsteuerungseinheit 22, die erste Erkennungseinheit 23 und die zweite Erkennungseinheit 24 durch ECUs implementiert, die voneinander unabhängig sind. Zu beachten ist, dass zwei oder mehr aus der Lichtsteuerungseinheit 22, der ersten Erkennungseinheit 23 und der zweiten Erkennungseinheit 24 durch eine ECU implementiert werden können.
  • Zusätzlich zu der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 sind an dem Fahrzeug 100 auch eine Ferninfrarotkamera 31, eine Kamera 32 für sichtbares Licht, fahrzeuginterne Sensoren 33, ein LED-Treiber 34, eine Markierungsleuchte 35, eine Motorsteuerungsvorrichtung 36, ein Horizontaltreiber 37, ein Vertikaltreiber 38, ein Horizontalschrittmotor 39 und ein Vertikalschrittmotor 40 an dem Fahrzeug montiert.
  • Bezug nehmend auf 2, wird eine Konfiguration der Lichtsteuerungseinheit 22 gemäß der ersten Ausführungsform beschrieben.
  • Die Lichtsteuerungseinheit 22 beinhaltet als funktionale Komponenten eine Pixelbasisprognoseeinheit 41, eine erste Winkelberechnungseinheit 42, eine Fahrzeugbasisprognoseeinheit 43, eine zweite Winkelberechnungseinheit 44, eine Fahrzeugbewegungsprognoseeinheit 45, eine Abblendlichterkennungseinheit 46, eine Kollisionsprognoseeinheit 47 und eine Steuerungsausführungseinheit 48. Die in der Lichtsteuerungseinheit 22 enthaltenen funktionalen Komponenten werden durch Software realisiert.
  • Ein Speicher ist an der ECU montiert, der die Lichtsteuerungseinheit 22 realisiert, und Programme zum Realisieren der Funktionen der funktionalen Komponenten sind im Speicher gespeichert. Diese Programme werden von einem Prozessor gelesen, der eine integrierte Schaltung (Integrated Circuit, IC) ist, die Verarbeitung ausführt, und werden von dem Prozessor ausgeführt. Dies realisiert die Funktionen der in der Lichtsteuerungseinheit 22 enthaltenen funktionalen Komponenten.
  • Der Speicher realisiert die Funktionen einer ersten Parameterspeichereinheit 421 und einer zweiten Parameterspeichereinheit 441.
  • Die Funktionen der ersten Erkennungseinheit 23 und der zweiten Erkennungseinheit 24 werden ebenfalls von Software realisiert, wie im Fall der Funktionen der funktionalen Komponenten der Lichtsteuerungseinheit 22.
  • Zu beachten ist, dass die Funktionen der Lichtsteuerungseinheit 22, der ersten Erkennungseinheit 23 und der zweiten Erkennungseinheit 24 anstelle von Software durch Hardware, beispielsweise eine ASIC oder ein FPGA, realisiert werden können. Die Hardware, beispielsweise der Prozessor, die ASIC und der FPGA, ist eine Verarbeitungsschaltung. Das heißt, die Funktionen der Lichtsteuerungseinheit 22, der ersten Erkennungseinheit 23 und der zweiten Erkennungseinheit 24 können durch die Verarbeitungsschaltung realisiert werden.
  • *** Beschreibung des Betriebs ***
  • Bezug nehmend auf die 3 bis 9, wird der Betrieb der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der ersten Ausführungsform beschrieben.
  • Der Betrieb der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der ersten Ausführungsform korrespondiert mit einem Fahrzeugbeleuchtungssteuerungsverfahren gemäß der ersten Ausführungsform. Der Betrieb der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der ersten Ausführungsform korrespondiert auch mit Prozessen eines Fahrzeugbeleuchtungssteuerungsprogramms gemäß der ersten Ausführungsform.
  • In der ersten Ausführungsform wird angenommen, dass ein Zielobjekt ein Fußgänger ist. Das Zielobjekt ist jedoch nicht auf den Fußgänger begrenzt und kann von anderem Typ sein, wie beispielsweise ein Fahrrad, ein Tier und ein Fahrzeug während eines Parkvorgangs.
  • Bezug nehmend auf die 3 bis 5 werden mathematische Definitionen gemäß der ersten Ausführungsform beschrieben.
  • Wie in 3 veranschaulicht, ist ein durch die Ferninfrarotkamera 31 erlangtes Bildkoordinatensystem 50 so, dass eine horizontale Achse, die positiv nach rechts ist, eine U-Achse ist, und eine vertikale Achse, die positiv in einer Abwärtsrichtung ist, eine V-Achse ist. Wenn ein Bild mit horizontalen M-Pixeln und vertikalen N-Pixeln erlangt wird, ist eine Pixelposition in der linken oberen Ecke repräsentiert als (1, 1), eine Pixelposition in der rechten unteren Ecke ist repräsentiert als (M, N), und jegliche Pixelposition im Bereich von 1 ≤ u ≤ M und 1 ≤ v ≤ N ist repräsentiert als (u, v).
  • Der Erkennungsbereich eines Fußgängers 51, der ein von der Ferninfrarotkamera 31 abgebildetes Zielobjekt ist, ist als ein Erkennungsrahmen 52 repräsentiert. Eine linke obere Pixelposition 53 des Erkennungsrahmens 52 ist repräsentiert als (Utl, Vtl), und eine rechte untere Pixelposition 54 ist repräsentiert als (Ubr, Vbr). Zentrumskoordinaten 55 des Erkennungsrahmens 52 sind ((Utl+Ubr)/2, (Vtl+Vbr)/2).
  • Ein Bildkoordinatensystem, erlangt durch die Kamera 32 für sichtbares Licht, ist ebenfalls in der gleichen Weise definiert wie das Bildkoordinatensystem 50, erlangt von der Ferninfrarotkamera 31. Dementsprechend werden die gleichen Variablen auch für das von der Kamera 32 für sichtbares Licht erlangte Bildkoordinatensystem verwendet.
  • Wie in 4 veranschaulicht, ist ein Fahrzeugkoordinatensystem 60 so, dass eine Fahrtrichtung des Fahrzeugs 100 eine Zw-Achse ist, und eine Xw-Achse und eine Yw-Achse sind unter Verwendung der Linke-Hand-Regel definiert. Die Koordinaten des Fußgängers im Fahrzeugkoordinatensystem 60 zu einem bestimmten Zeitpunkt T = t sind repräsentiert als (xwp(t), ywp(t), zwp(t)). Die Koordinaten des Fahrzeugs 100 im Fahrzeugkoordinatensystem 60 zu einem bestimmten Zeitpunkt T = t sind repräsentiert als (xwc(t), ywc(t), zwc(t)).
  • Wie in 5 veranschaulicht, ist ein Lichtkoordinatensystem 70 so, dass eine Beleuchtungsrichtung von Licht eine ZI-Achse ist, und eine XI-Achse und eine YI-Achse sind unter Verwendung der Linke-Hand-Regel definiert. Die Koordinaten des Fußgängers im Lichtkoordinatensystem 70 zu dem bestimmten Zeitpunkt T = t sind repräsentiert als (xlp(t), ylp(t), zlp(t)). Die Koordinaten des Fahrzeugs 100 im Lichtkoordinatensystem 70 zu dem bestimmten Zeitpunkt T = t sind repräsentiert als (xlc(t), wlc(t), zlc(t)).
  • Bezug nehmend auf 6, wird der Betrieb der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der ersten Ausführungsform beschrieben.
  • (Schritt S1: Erster Erkennungsprozess)
  • Die erste Erkennungseinheit 23 erkennt einen Fußgänger, der ein Zielobjekt ist, präsent außerhalb eines Beleuchtungsbereichs eines Abblendlichts des Fahrzeugs 100. Das heißt, die erste Erkennungseinheit 23 erkennt einen Fußgänger, präsent in der Entfernung vor dem Fahrzeug 100 außerhalb der Reichweite des Abblendlichts und folglich von einem Fahrer unter Verwendung der Ferninfrarotkamera 31 nicht visuell erkennbar. Die Entfernung außerhalb der Reichweite des Abblendlichts ist beispielsweise ein Bereich von 40 Metern oder mehr von dem Fahrzeug 100 entfernt. Die erste Erkennungseinheit 23 erkennt hier einen Fußgänger in einem Bereich innerhalb von 120 Metern vom Fahrzeug 100.
  • Konkret ist die Ferninfrarotkamera 31 eine Kamera, die eine Wärmequelle als Video erfassen kann. Die Ferninfrarotkamera 31 tastet eine Temperaturverteilung mit einem Sensor ab und gibt die Temperaturverteilung als Videodaten aus.
  • Die erste Erkennungseinheit 23 nimmt als Eingang den Videodatenausgang von der Ferninfrarotkamera 31 und führt eine Kamerasignalverarbeitung, beispielsweise Abstufungsverarbeitung, unter Verwendung einer Schaltung wie einer anwendungsspezifischen integrierten Schaltung (Application Specific Integrated Circuit, ASIC) oder eines feldprogrammierbaren Logikgatters (Field-Programmable Gate Array, FPGA) aus. Aus einem Standbild berechnet die erste Erkennungseinheit 23 Merkmale in dem Bild unter Verwendung eines Systems auf einem Chip (System on a Chip, SoC) für präventive automobile Sicherheit und wendet eine Stützvektormaschine auf die Merkmale an, um festzustellen, ob ein Fußgänger präsent ist. Dann berechnet die erste Erkennungseinheit 23 die Positionen von Pixeln, die in dem Standbild als der Fußgänger festgestellt wurden, und gibt die linke obere Pixelposition 53 (Utl, Vtl) und die rechte untere Pixelposition 54 (Ubr, Vbr) des Erkennungsrahmens 52 in dem Bildkoordinatensystem 50 aus.
  • Zu beachten ist, dass ein Verfahren zum Erkennen eines Fußgängers ein jegliches Verfahren sein kann. Konkret kann ein Verfahren zum Extrahieren von Merkmalen und ein Verfahren zum Feststellen der Präsenz eines Fußgängers basierend auf den Merkmalen ein jegliches Verfahren sein. Die Pixelpositionen, die ausgegeben werden, können andere Positionen wie die Zentrumskoordinaten 55 des Fußgängers sein, anstelle der linken oberen Pixelposition 53 und der rechten unteren Pixelposition 54.
  • (Schritt S2: Pixelbasisprognoseprozess)
  • Die Pixelbasisprognoseeinheit 41 der Lichtsteuerungseinheit 22 prognostiziert die Pixelpositionen eines Ziels des Fußgängers zu einem Zeitpunkt nach einem bestimmten Zeitraum, basiert auf dem Pixelpositionsausgang im Schritt S1. Die Pixelbasisprognoseeinheit 41 berechnet hier die Pixelpositionen {(lu(t+p|t), lv(t+p|t)), p = 1, ..., 50, p = 1, ..., 50} von Zielen des Fußgängers zu Zeitpunkten nach 0,1 [s] bis 5 [s] unter Verwendung eines Kalman-Filters.
  • Konkret berechnet die Pixelbasisprognoseeinheit 41 die Zentrumskoordinaten 55 ((Utl+Ubr)/2, (Vtl+Vbr)/2) basierend auf der linken oberen Pixelposition 53 (Utl, Vtl) und der rechten unteren Pixelposition 54 (Ubr, Vbr) des Erkennungsrahmens 52. Die Pixelbasisprognoseeinheit 41 nimmt als Eingang die Zentrumskoordinaten 55 und berechnet horizontale Ziele des Fußgängers zu Zeitpunkten nach 0,1 [s] bis 5 [s] unter Verwendung des Kalman-Filters.
  • Zu beachten ist, dass ein Verfahren zum Berechnen der Pixelpositionen der Ziele nicht auf ein Verfahren unter Verwendung des Kalman-Filters beschränkt ist und andere Verfahren infrage kommen.
  • Ein Verfahren zum Prognostizieren einer Pixelposition unter Verwendung des Kalman-Filters wird beschrieben.
  • Eine Position ist repräsentiert als „I“, eine Geschwindigkeit ist repräsentiert als „v“ und eine Beschleunigung ist repräsentiert als „a“. Die Position auf einem Bild, die Geschwindigkeit und die Beschleunigung zum Zeitpunkt t sind die Position (lu(t), lv(t)), die Geschwindigkeit (vu(t)), vv(t)) bzw. die Beschleunigung (au(t), av(t)). Ein Statusvektor x(t) ist definiert durch x(t) = [lu(t), lv(t), vu(t), vv(t), au(t), av(t)].
  • Ein Statusraummodell ist x(t+1) = Fx(t) + Gξ(t), wobei F eine Statusübergangsmatrix ist, G ist eine Übergangsmatrix von Systemrauschen und ξ(t) ist normales weißes Rauschen mit Mittel 0 und Kovarianz Q. Ein Beobachtungsmodell der Pixelpositionen des erkannten Fußgängers ist y(t) = Hx(t) + η(t), wobei H eine Beobachtungsmatrix ist, und η(t) ist normales weißes Rauschen mit Mittel 0 und Kovarianz R.
  • Durch Vorgeben der Anfangswerte von x(1 | 0) = x0 und P(1 | 0) = P0 werden die folgenden Prognoseschätzungswerte und Filterungsschätzungswerte bestimmt für t =1, ..., N. Zu beachten ist, dass ein Mittelwert, den x(t) annehmen kann, geschätzt und als x0 gegeben ist, und dass ein Kovarianzwert, den x(t) annehmen kann, geschätzt und als P0 gegeben ist. K ( t ) = P ( t | t 1 ) H { T } { HP ( t | t 1 ) H { T } + R } { 1 }
    Figure DE112018007190T5_0001
    x ( t | t ) = x ( t | t 1 ) + K ( t ) { y ( t ) Hx ( t | t 1 ) }
    Figure DE112018007190T5_0002
    P ( t | t ) = P ( t | t 1 ) KHP ( t | t 1 )
    Figure DE112018007190T5_0003
    x ( t + 1 | t ) = Fx ( t | t )
    Figure DE112018007190T5_0004
    P ( t + 1 | t ) = FP ( t | t ) F { T } + GQG { T }
    Figure DE112018007190T5_0005
  • In den Gleichungen repräsentiert „^“ Exponentiation. X^Y repräsentiert beispielsweise XY. X^{T} repräsentiert jedoch die Transponierte einer Matrix X.
  • F ist die Matrix von 6 × 6 und ist auf der Grundannahme modelliert, dass sich die Pixelpositionen des erkannten Fußgängers linear mit konstanter Beschleunigung bewegen und definiert sind als F = [10 Δt0 ((Δt)^{2})/20; 0 10 Δt 0 ((Δt)^{2})/2; 0 0 10Δt 0; 0 0 0 01 Δt; 0 00 0 10; 00 00 01]. In der Matrix, repräsentiert „;“ einen Zeilenumbruch.
  • Für Systemrauschen wird angenommen, dass die Elemente des Statusvektors nicht miteinander korreliert sind, und G ist als eine Identitätsmatrix von 6 × 6 definiert.
  • Die Pixelbasisprognoseeinheit 41 gibt nur die Pixelposition ((Utl+Ubr)/2, (Vtl+Vbr)/2) des Fußgängers aus. Folglich ist die Beobachtungsmatrix H definiert als H = [10000 0; 01000 0; 00000 0; 00000 0; 00000 0; 0000 0 0].
  • Wenn der Ausgang der Erkennungseinheit 21 eine Periode von 0,1 [s] hat, ist Δt = 0,1 [s] gegeben, und konkrete Werte der Matrix F werden bestimmt.
  • Separat vom Kalman-Filter wird die Beziehung x(t+p | t) = F^{p} × (t | t) bestimmt. Basierend auf Δt = 0,1 [s] korrespondieren Zeitpunkte nach 0,1 [s], 0,2 [s], ..., 5 [s] mit p = 1, 2, ..., 50. Folglich kann der Statusvektor unter Verwendung der vorstehenden Formel für alle 0,1 [s] bis 5 Sekunden später prognostiziert werden.
  • Dann können, basierend auf Statusvektoren x(t+1 | t), ..., (t+50 | t) zu Zeitpunkten nach 0,1 [s] bis 5 [s], horizontale Pixelpositionen lu(t+1 | t), ..., lu(t+50 | t) zu Zeitpunkten nach 0,1 [s] bis 5 [s] berechnet werden.
  • (Schritt S3: Erster Beleuchtungsprozess)
  • Die erste Winkelberechnungseinheit 42 der Lichtsteuerungseinheit 22 berechnet einen horizontalen Winkel θ(t+p | t) einer Richtung, in welcher der Fußgänger präsent ist, mit Bezug auf die Fahrtrichtung des Fahrzeugs 100. Dann steuert die Steuerungsausführungseinheit 48 die Markierungsleuchte 35 basierend auf dem berechneten horizontalen Winkel θ(t+p |t), um Licht in der Richtung zu emittieren, in welcher der Fußgänger präsent ist.
  • Die Markierungsleuchte 35 ist ein Licht, das verglichen mit dem Abblendlicht einen engeren Bereich über eine längere Entfernung beleuchten kann und ein Verändern der Beleuchtungsrichtung gestattet. Das Fahrzeug 100 kann mit nicht nur einer Markierungsleuchte 35 versehen sein, sondern auch einer Vielzahl von Markierungsleuchten 35. Wenn eine Vielzahl von Markierungsleuchten 35 vorgesehen sind, kann es gestattet sein, die Luminanz, Farbe, Beleuchtungsrichtung und Ähnliches einer jeden Markierungsleuchte separat zu steuern. Die Markierungsleuchte 35 ist hier als ein Beispiel eine LED, und die Beleuchtungsrichtung von Licht wird durch den Horizontalschrittmotor 39 und den Vertikalschrittmotor 40 verändert.
  • Konkret nimmt die erste Winkelberechnungseinheit 42 als Eingang die Pixelpositionen (lu(t+1 | t), Iv(t+1 | t)), ..., (lu(t+50 | t), lv(t+50 | t)) der horizontalen Ziele des Fußgängers zu Zeitpunkten nach 0,1 [s] bis 5 [s], berechnet im Schritt S2, und berechnet horizontale Winkel θ(t+1 | t)), ..., θ(t+50 | t) der Markierungsleuchte 35 im Lichtkoordinatensystem 70 zu Zeitpunkten nach 0,1 [s] bis 5 [s]. Die erste Winkelberechnungseinheit 42 gibt die horizontalen Winkel θ(t+1 | t)), ..., θ(t+50 | t) zu Zeitpunkten nach 0,1 [s] bis 5 [s] an die Lichtsteuerungseinheit 22 aus.
  • Die erste Winkelberechnungseinheit 42 bestimmt im Voraus eine Beziehung (lineare Gleichung) der horizontalen Winkel der Markierungsleuchte 35 in Bezug auf die horizontalen Pixelpositionen eines Bildes, das von der Ferninfrarotkamera 31 erlangt wurde, und speichert die Beziehung als einen Kalibrierungsparameter in der ersten Parameterspeichereinheit 421. Die erste Winkelberechnungseinheit 42 berechnet die horizontalen Winkel der Markierungsleuchte 7 entsprechend den horizontalen Pixelpositionen basierend auf diesem Kalibrierungsparameter.
  • Der Kalibrierungsparameter wird beschrieben. Beispielsweise, wie in 7 veranschaulicht, misst die erste Winkelberechnungseinheit 42 vorab Horizontalpositionen u (-30 Grad), u (-20 Grad), u (-10 Grad), u (0 Grad), u (10 Grad), u (20 Grad), und u (30 Grad) in den Bildkoordinaten der Ferninfrarotkamera 31 entsprechend horizontalen Winkeln von -30 Grad, -20 Grad, -10 Grad, 0 Grad, 10 Grad, 20 Grad und 30 Grad der Markierungsleuchte 35 und speichert sie als eine Tabelle in der ersten Parameterspeichereinheit 421. Diese Tabelle ist der Kalibrierungsparameter. Die erste Winkelberechnungseinheit 42 stellt fest, in welchen Abschnitt der Tabelle die Zentrumskoordinaten 55 ((Utl+Ubr)/2, (Vtl+Vbr)/2), berechnet basierend auf der Pixelposition (lu(t+p | t), lv(t+p|t)), fallen. Dann stellt die erste Winkelberechnungseinheit 42 den Winkel korrespondierend mit den Zentrumskoordinaten 55 ((Utl+Ubr)/2, (Vtl+Vbr)/2) in diesem Abschnitt als den horizontalen Winkel der Markierungsleuchte 35 unter Verwendung der Lineargleichung fest.
  • Zu beachten ist, dass es einen Fall geben kann, in dem die Beziehung der horizontalen Winkel der Markierungsleuchte 35 in Bezug auf die horizontalen Pixelpositionen eines von der Ferninfrarotkamera 31 erlangten Bildes nicht linear ist. In diesem Fall können die horizontalen Winkel der Markierungsleuchte 35 durch Generieren einer Tabelle mit vielen Abtastpunkten mit hoher Genauigkeit berechnet werden. Die Abtastpunkte können durch ein Polynom approximiert werden, und die horizontalen Winkel der Markierungsleuchte 35 können auf der Grundlage des Polynoms berechnet werden.
  • Die Steuerungsausführungseinheit 48 wählt einen der 50 horizontalen Winkel zu Zeitpunkten nach 0,1 bis 5 Sekunden aus, wobei die Verarbeitungszeit von der Berechnung der horizontalen Winkel bis zur Emission von Licht von der Markierungsleuchte 35 zu dem Fußgänger berücksichtigt wird. Die Steuerungsausführungseinheit 48 gibt an den Horizontaltreiber 37 ein Motorsteuerungssignal aus, um die Markierungsleuchte 35 zu veranlassen, in dem ausgewählten horizontalen Winkel gedreht zu werden. Das Motorsteuerungssignal ist ein Signal, das eine Drehrichtung und eine Impulsbreite angibt. Die Steuerungsausführungseinheit 48 gibt auch ein Treibersteuerungssignal an den LED-Treiber 34 aus.
  • Wenn das Motorsteuerungssignal eingegeben ist, gibt der Horizontaltreiber 37 ein Impulssignal an den Horizontalschrittmotor 39 basierend auf dem Motorsteuerungssignal aus. Der Horizontalschrittmotor 39 dreht die Markierungsleuchte 35 in der horizontalen Richtung, basierend auf dem Impulssignal. Wenn das Treibersteuerungssignal eingegangen ist, wendet der LED-Treiber 34 auf die Markierungsleuchte 35 eine 5-V-Spannung an. Wenn die 5-V-Spannung angewendet wird, leuchtet die Markierungsleuchte 35 auf.
  • Das heißt, die Markierungsleuchte 35 emittiert Licht in dem ausgewählten horizontalen Winkel in der Richtung, in welcher der Fußgänger präsent ist.
  • (Schritt S4: Zweiter Erkennungsprozess)
  • Die zweite Erkennungseinheit 24 erkennt den Fußgänger, der das Zielobjekt ist, präsent in dem von der Markierungsleuchte 35 beleuchteten Bereich, unter Verwendung der Kamera 32 für sichtbares Licht. Das heißt, das Emittieren von Licht auf den Fußgänger durch die Markierungsleuchte 35 in Schritt S3 gestattet dem Fußgänger, durch die Kamera 32 für sichtbares Licht abgebildet zu werden. Folglich bildet die zweite Kameraeinheit 24 den von der Markierungsleuchte 35 beleuchteten Bereich unter Verwendung der Kamera 32 für sichtbares Licht ab und erkennt den Fußgänger.
  • Konkret gibt die Kamera 32 für sichtbares Licht Videodaten aus, die durch Abbildung des von der Markierungsleuchte 35 beleuchteten Bereichs erlangt wurden. Zu dieser Zeit führt die Kamera 32 für sichtbares Licht nach dem Einstellen der Expositionszeit und Korrigieren der Abstufung durch die Kamerasignalverarbeitungshardware, montiert an einer eingebauten ASIC oder einem eingebauten FGPA, Bildgebung aus.
  • Die zweite Erkennungseinheit 24 nimmt als Eingang die von der Kamera 32 für sichtbares Licht ausgegebenen Videodaten und berechnet aus einem Standbild Merkmale in dem Bild, wobei das SoC für präventive automobile Sicherheit verwendet wird, und wendet dann die Stützvektormaschine auf die Merkmale an, um festzustellen, ob ein Fußgänger präsent ist. Die zweite Erkennungseinheit 24 berechnet die Positionen von Pixeln, die in dem Standbild als der Fußgänger festgestellt wurden, um die linke obere Pixelposition 53 (Utl, Vtl) und die rechte untere Pixelposition 54 (Ubr, Vbr) des Erkennungsrahmens 52 in dem Bildkoordinatensystem 50 zu identifizieren. Die zweite Erkennungseinheit 24 berechnet die Zentrumskoordinaten 55 basierend auf der linken oberen Pixelposition 53 (Utl, Vtl) und der rechten unteren Pixelposition 54 (Ubr, Vbr). Basierend auf den Zentrumskoordinaten 55 berechnet die zweite Erkennungseinheit 24 die Koordinatenwerte (xwp(t), ywp(t), zwp(t)) des Fußgängers in dem Fahrzeugkoordinatensystem 60 mit der Position des Fahrzeugs 100 zu dem gegebenen Zeitpunkt T = t als den Ursprung und gibt diese aus.
  • Zu beachten ist, dass ein Verfahren zum Erkennen eines Fußgängers wie im Schritt S1 ein jegliches Verfahren sein kann.
  • (Schritt S5A: Fahrzeugbasisprognoseprozess)
  • Die Fahrzeugbasisprognoseeinheit 43 der Lichtsteuerungseinheit 22 prognostiziert die Koordinatenwerte des Ziels des Fußgängers zu einem Zeitpunkt nach einem bestimmten Zeitraum, basierend auf den Koordinatenwerten des Fußgängerausgangs im Schritt S4. Die Fahrzeugbasisprognoseeinheit 43 berechnet hier die Koordinaten {(xwp(t+p | t), ywp(t+p | t), zwp(t+p | t)), p = 1, ..., 50} der Ziele des Fußgängers in dem Fahrzeugkoordinatensystem 60 zu Zeitpunkten nach 0,1 [s] bis 5 [s] mit Bezug auf einen gegebene Zeitpunkt t unter Verwendung des Kalman-Filters.
  • Ein Verfahren zum Prognostizieren der Koordinaten unter Verwendung des Kalman-Filters kann mit im Wesentlichen dem gleichen Algorithmus wie jenem des Verfahrens zum Prognostizieren der Pixelpositionen unter Verwendung des Kalman-Filters im Schritt S2 erlangt werden. Statusvektoren können mit einem berücksichtigten physikalischen Modell definiert werden.
  • (Schritt S5B: Fahrzeugbewegungsprognoseprozess)
  • Die Fahrzeugbewegungsprognoseeinheit 45 der Lichtsteuerungseinheit 22 erlangt eine Fahrgeschwindigkeit V(t) [m/s], eine Gierrate (Gierwinkelgeschwindigkeit) r(t) [°/s] und einen Lenkwinkel δ(t) [°] des Fahrzeugs 100 zu der gegebenen Zeit t von den fahrzeuginternen Sensoren 33. Die fahrzeuginternen Sensoren 33 sind Sensoren verschiedener Typen, die an dem Fahrzeug 100 montiert sind. Die Fahrzeugbewegungsprognoseeinheit 45 nimmt als Eingang die Fahrgeschwindigkeit V(t), die Gierrate r(t) und den Lenkwinkel δ(t) und berechnet einen Wenderadius p(t) = (1-m/(2·l^(2))·((lf·Kf-lr·Kr)/Kf·Kr) (V(t))^(2)))·I/δ(t).
  • Zu beachten ist, dass m [kg] träge Masse ist, I [m] ist eine Radbasislänge, Kf ist die Seitenführungskraft eines Vorderrades, Kr ist die Seitenführungskraft eines Hinterrades, If [m] ist der Abstand zwischen dem Schwerpunkt des Fahrzeugs und einer Vorderachse, und Ir [m] ist der Abstand zwischen dem Schwerpunkt des Fahrzeugs und einer Hinterachse und ist eine Konstante zur Berechnung des Wenderadius beim Prognostizieren der Bewegung des Fahrzeugs 100.
  • Die Fahrzeugbewegungsprognoseeinheit 45 berechnet eine Länge L(t, t+p) = V(t) × 0,1[s] × p eines Kreisbogens entlang des Radius p(t) für p = 1, ..., 50 mit Bezug auf den gegebenen Zeitpunkt t. Als ein Ergebnis erlangt die Fahrzeugbewegungsprognoseeinheit 45 als prognostizierte Werte eine Bahnkurve der Positionen des Fahrzeugs entlang des Wenderadius p (t) zu Zeitpunkten bis zu 5 Sekunden später.
  • Die Fahrzeugbewegungsprognoseeinheit 45 berechnet Wendewinkel (t, t+p) = (360 [°] × L(t, t+p)) / (2×π×ρ(t)) zu diesen Zeitpunkten. Dann berechnet die Fahrzeugbewegungsprognoseeinheit 45 prognostizierte Bewegungspositionen (xwc(t, t+p), zwc(t, t+p)) in dem Fahrzeugkoordinatensystem 60 zum Zeitpunkt t für p = 1, ..., 50 anhand von xwc(t, t+p) = -p(t) + p(t)cos(ψ(t, t+p)) und zwc(t, t+p) = p(t)sin(ψ(t, t+p)), wenn die Gierrate r(t) positiv ist, und anhand von xwc(t, t+p) = p(t) - p(t)cos(ψ(t, t+p)) und zwc(t, t+p) = p(t)sin(ψ(t, t+p)), wenn die Gierrate r(t) negativ ist.
  • Es wird hier angenommen, dass die Höhe des Fahrzeugs 100 von der Straße fest ist und ywc als eine Konstante ausgegeben wird.
  • Zu beachten ist, dass die Fahrzeugbewegungsprognoseeinheit 45 die prognostizierten Werte mit Bezug auf die Zeit t berechnen kann, wobei berücksichtigt wird, dass sich das Fahrzeug 100 aufgrund der Federung entsprechend den Erhebungen und Vertiefungen der Straße oder desgleichen auf und ab bewegen kann. In diesem Fall kann die Fahrzeugbewegungsprognoseeinheit 45 ywc(t, t+p) berechnen und ausgeben. Dies beinhaltet jedoch die Einführung eines physikalischen Modells der Federung zur Prognose, was kompliziert ist, sodass hier der feste Wert verwendet wird.
  • (Schritt S5C: Abblendlichtfeststellungsprozess)
  • Die Abblendlichterkennungseinheit 46 der Lichtsteuerungseinheit 22 stellt fest, ob der Fußgänger in den Beleuchtungsbereich des Abblendlichts eingetreten ist.
  • Konkret erlangt die Abblendlichterkennungseinheit 46 Videodaten, die durch Abbildung des Bereichs vor dem Fahrzeug 100 durch die Kamera 32 für sichtbares Licht erlangt wurden. Wie in 8 veranschaulicht, teilt die Abblendlichterkennungseinheit 46 Bilddaten zu dem gegebenen Zeitpunkt t aus den Videodaten in eine Vielzahl von Blöcken. Beispielsweise teilt die Abblendlichterkennungseinheit 46 die Bilddaten in Blöcke von 40 Pixeln x 40 Pixeln. Die Abblendlichterkennungseinheit 46 berechnet für jeden Block den Durchschnittswert der Luminanzwerte von in diesem Block enthaltenen Pixeln als den Blockdurchschnitt.
  • Dann identifiziert die Abblendlichterkennungseinheit 46 einen Block, der Pixel entsprechend der Position des Fußgängers, erkannt in dem jüngst ausgeführten Schritt S4, enthält. Die Abblendlichterkennungseinheit 46 stellt fest, ob der Blockdurchschnitt des identifizierten Blocks höher als ein Schwellenwert ist. Dann stellt die Abblendlichterkennungseinheit 46 auch fest, ob die Durchschnitte aller Blöcke, die den identifizierten Block umgeben, niedriger als der Schwellenwert sind. Wenn der Blockdurchschnitt des identifizierten Blocks höher als der Schwellenwert ist und die Blockdurchschnitte aller Blöcke, die den identifizierten Block umgeben, nicht niedriger als der Schwellenwert sind, stellt die Abblendlichterkennungseinheit 46 fest, dass der Fußgänger in den Beleuchtungsbereich des Abblendlichts eingetreten ist.
  • (Schritt S6A: Winkelberechnungsprozess)
  • Die zweite Winkelberechnungseinheit 44 der Lichtsteuerungseinheit 22 wandelt die 50 Sätze der Koordinaten (xwp(t, t+p), ywp(t, t+p), zwp(t, t+p)) des Fußgängers in dem Fahrzeugkoordinatensystem 60 zu Zeitpunkten nach 0,1 bis 5 Sekunden und die 50 Sätze der Koordinaten (xwc(t, t+p), ywc(t, t+p), zwc(t, t+p)) des Fahrzeugs 100 in dem Fahrzeugkoordinatensystem 60 zu Zeitpunkten nach 0,1 bis 5 Sekunden in Koordinaten des Lichtkoordinatensystems 70 um.
  • Die zweite Winkelberechnungseinheit 44 misst vorab Kalibrierungsparameter zur Umrechnung zwischen den Koordinaten (xwp(t+p |t), ywp(t+p |t), zwp(t+p | t)) des Fußgängers in dem Fahrzeugkoordinatensystem 60 und den Koordinaten (xlp(t+p | t), ylp(t+p | t), zlp(t+p | t)) des Fußgängers in den Lichtkoordinaten und speichert die Kalibrierungsparameter in der zweiten Parameterspeichereinheit 441. Die Kalibrierungsparameter sind Rotation (r11, r12, r13, r21, r22, r23, r31, r32, r33) und Translation (t1, t2, t3) zwischen den zwei Koordinatensystemen.
  • Die zweite Winkelberechnungseinheit 44 kann die Koordinaten des Fußgängers in dem Fahrzeugkoordinatensystem 60 in die Koordinaten des Fußgängers in den Lichtkoordinaten durch Berechnung von [xlp(t+p |t); ylp(t+p |t); zlp(t+p | t) ; 1] = [r11 r12 r13 t1; r21 r22 r23 t2; r31 r32 r33 t3; 0 0 0 1] x [xwp(t+p | t); ywp(t+p | t); zwp(t+p | t); 1] konvertieren.
  • Analog konvertiert die zweite Winkelberechnungseinheit 44 die Koordinaten (xwc(t+p | t), ywc(t+p | t), zwc(t+p | t)) des Fahrzeugs 100 im Fahrzeugkoordinatensystem 60 in die Koordinaten (xlc(t+p | t), ylc(t+p | t), zlc(t+p | t)) des Fahrzeugs 100 in den Lichtkoordinaten.
  • Die zweite Winkelberechnungseinheit 44 berechnet einen horizontalen Winkel θ und einen vertikalen Winkel Φ basierend auf den Koordinaten (xlp(t+p | t), ylp(t+p |t), zlp(t+p | t)) des Fußgängers im Lichtkoordinatensystem 70 und den Koordinaten (xlc(t+p | t), ylc(t+p | t), zlc(t+p | t)) des Fahrzeugs 100 im Lichtkoordinatensystem 70. Konkret berechnet die zweite Winkelberechnungseinheit 44 den horizontalen Winkel θ durch θ(t+p, t) = atan({xlp(t+p | t) - xlc(t+p | t)} / {zlp(t+p | t)-zlc(t+p | t)}). Die zweite Winkelberechnungseinheit 44 berechnet den vertikalen Winkel θ durch θ(t+p, t) = atan({ylp(t+p | t) - ylc(t+p | t)} / {zlp(t+p | t)-zlc(t+p | t)}).
  • Zu beachten ist, dass θ(t+p, t) den horizontalen Winkel zu einem Zeitpunkt nach einem Zeitraum p ab dem Zeitpunkt t angibt und Φ(t+p, t) den vertikalen Winkel zu dem Zeitpunkt nach dem Zeitraum p ab dem Zeitpunkt t angibt.
  • (Schritt S6B: Kollisionspositionsprognoseprozess)
  • Die Kollisionsprognoseeinheit 47 stellt fest, ob in Bezug auf den Fußgänger und das Fahrzeug 100 prognostiziert wird, dass sie sich zu derselben Zeit zu derselben Position bewegen, basierend auf der prognostizierten Position des Fußgängers, berechnet in Schritt S5A, und der prognostizierten Position des Fahrzeugs 100, berechnet im Schritt S5B. Der Begriff „zu derselben Zeit“ ist nicht auf exakt dieselbe Zeit begrenzt, sondern umfasst auch eine bestimmte Bandbreite von Zeit wie eine Sekunde, beispielsweise. Ähnlich ist der Begriff „dieselbe Position“ nicht auf exakt dieselbe Position begrenzt, sondern umfasst einen Bereich mit einem bestimmten Raum, wie 3 Quadratmeter. Wenn festgestellt wird, dass von dem Fußgänger und dem Fahrzeug 100 prognostiziert wird, dass sie sich zu derselben Zeit zu derselben Position bewegen, stellt die Kollisionsprognoseeinheit 47 fest, dass es eine Wahrscheinlichkeit gibt, dass der Fußgänger und das Fahrzeug 100 kollidieren werden.
  • Dann identifiziert die Kollisionsprognoseeinheit 47 dieselbe Position, die vorstehend als eine Kollisionsposition beschrieben wurde, wo der Fußgänger und das Fahrzeug 100 kollidieren werden. Die zweite Winkelberechnungseinheit 44 berechnet die horizontalen Winkel θ und die vertikalen Winkel ϕ der Kollisionsposition mit Bezug auf die Fahrtrichtung des Fahrzeugs 100 zu Zeitpunkten nach 0,1 bis 5 Sekunden. Das Verfahren zum Berechnen der horizontalen Winkel θ und der vertikalen Winkel ϕ ist dasselbe wie jenes in Schritt S6A.
  • (Schritt S7: Zweiter Beleuchtungsprozess)
  • Die Steuerungsausführungseinheit 48 steuert die Markierungsleuchte 35 basierend auf den horizontalen Winkeln θ und den vertikalen Winkeln ϕ, berechnet in Schritt S6A, dem Ergebnis der Feststellung im Schritt S6B und dem Ergebnis der Feststellung im Schritt S5C. Die Steuerungsausführungseinheit 48 verändert die Steuerung in Abhängigkeit davon, ob festgestellt wurde, dass eine Wahrscheinlichkeit von Kollision besteht, oder ob im Schritt S6B festgestellt wurde, dass keine Wahrscheinlichkeit von Kollision besteht.
  • Beschrieben wird die Steuerung, wenn festgestellt wird, dass eine Wahrscheinlichkeit von Kollision besteht.
  • Die Steuerungsausführungseinheit 48 steuert die Markierungsleuchte 35, um Licht in der Richtung der Kollisionsposition und in der Richtung, in welcher der Fußgänger präsent ist, zu emittieren. Zu diesem Zeitpunkt ändert die Steuerungsausführungseinheit 48 das von der Markierungsleuchte 35 emittierte Licht entsprechend einem bestimmten Muster. Nach einem bestimmten Zeitraum steuert die Steuerungsausführungseinheit 48 die Markierungsleuchte 35, um Licht nur in der Richtung zu emittieren, in welcher der Fußgänger präsent ist.
  • Konkret wählt die Steuerungsausführungseinheit 48 eines von den 50 Paaren von dem horizontalen Winkel θ und dem vertikalen Winkel ϕ zu Zeitpunkten nach 0,1 bis 5 Sekunden aus, für jede aus der Kollisionsposition und der Position des Fußgängers. Zu dieser Zeit wählt die Steuerungsausführungseinheit 48 ein Paar von dem horizontalen Winkel θ und dem vertikalen Winkel ϕ aus, wobei die Verarbeitungszeit von der Ausführung von Schritt S7 bis zur Emission von Licht von der Markierungsleuchte 35 berücksichtigt wird. Die Steuerungsausführungseinheit 48 gibt an den Horizontaltreiber 37 ein Motorsteuerungssignal aus, um die Markierungsleuchte 35 zu veranlassen, in dem horizontalen Winkel θ des ausgewählten Paares gedreht zu werden, und gibt an den Vertikaltreiber 38 ein Motorsteuerungssignal aus, um die Markierungsleuchte 35 zu veranlassen, in dem vertikalen Winkel ϕ des ausgewählten Paares gedreht zu werden, mit Bezug auf jede von der Kollisionsposition und der Position des Fußgängers. Die Steuerungsausführungseinheit 48 gibt auch ein Treibersteuerungssignal an den LED-Treiber 34 aus.
  • Wenn das Motorsteuerungssignal eingegeben ist, gibt der Horizontaltreiber 37 ein Impulssignal an den Horizontalschrittmotor 39 basierend auf dem Motorsteuerungssignal aus. Der Horizontalschrittmotor 39 dreht die Markierungsleuchte 35 in der horizontalen Richtung, basierend auf dem Impulssignal. Ähnlich gibt der Vertikaltreiber 38, wenn das Motorsteuerungssignal eingegeben ist, ein Impulssignal an den Vertikalschrittmotor 40 basierend auf dem Motorsteuerungssignal aus. Der Vertikalschrittmotor 40 dreht die Markierungsleuchte 35 in der vertikalen Richtung, basierend auf dem Impulssignal. Zu dieser Zeit drehen der Horizontalschrittmotor 39 und der Vertikalschrittmotor 40 einige Lichtquellen der Markierungsleuchte 35 in der Richtung der Kollisionsposition und drehen die übrigen Lichtquellen in der Richtung des Fußgängers. Wenn das Treibersteuerungssignal eingegangen ist, wendet der LED-Treiber 34 auf die Markierungsleuchte 35 eine 5-V-Spannung an.
  • Nachdem ein bestimmter Zeitraum verstrichen ist, wählt die Steuerungsausführungseinheit 48 eines von den Paaren des horizontalen Winkels θ und des vertikalen Winkels ϕ nur in Bezug auf die Kollisionsposition aus und steuert dann die Markierungsleuchte 35, Licht nur in der Richtung zu emittieren, in welcher der Fußgänger präsent ist.
  • Bis ein bestimmter Zeitraum verstreicht, kann die Steuerungsausführungseinheit 48 den LED-Treiber 34 antreiben, die Markierungsleuchte 35 zu veranlassen, Licht zu emittieren, um den Bereich von dem Fahrzeug 100 bis zur Kollisionsposition abzutasten. Bis ein bestimmter Zeitraum verstreicht, kann die Steuerungsausführungseinheit 48 die Markierungsleuchte 35 veranlassen, Licht an die Kollisionsposition zu emittieren, sodass sich die Farbe des Lichts graduell ändert, beispielsweise von blau zu rot. Bis ein bestimmter Zeitraum verstreicht, kann die Steuerungsausführungseinheit 48 die Markierungsleuchte 35 veranlassen, Licht an die Kollisionsposition zu emittieren, sodass sich die Intensität des Lichts graduell ändert.
  • Beschrieben wird die Steuerung, wenn festgestellt wird, dass keine Wahrscheinlichkeit einer Kollision besteht.
  • Die Steuerungsausführungseinheit 48 steuert die Markierungsleuchte 35, Licht in der Richtung zu emittieren, in welcher der Fußgänger präsent ist, und stoppt die Emission von Licht, wenn der Fußgänger in den Beleuchtungsbereich des Abblendlichts eingetreten ist. Wenn Licht emittiert wird, kann die Steuerungsausführungseinheit 48 das von der Markierungsleuchte 35 emittierte Licht entsprechend einem bestimmten Muster ändern.
  • Konkret wählt die Steuerungsausführungseinheit 48 eines von den 50 Paaren von dem horizontalen Winkel θ und dem vertikalen Winkel ϕ zu Zeitpunkten nach 0,1 bis 5 Sekunden aus, für jede Position des Fußgängers. Zu dieser Zeit wählt die Steuerungsausführungseinheit 48 ein Paar von dem horizontalen Winkel θ und dem vertikalen Winkel ϕ aus, wobei die Verarbeitungszeit von der Ausführung von Schritt S7 bis zur Emission von Licht von der Markierungsleuchte 35 berücksichtigt wird. Die Steuerungsausführungseinheit 48 gibt an den Horizontaltreiber 37 ein Motorsteuerungssignal aus, um die Markierungsleuchte 35 zu veranlassen, in dem horizontalen Winkel θ des ausgewählten Paares gedreht zu werden, und gibt an den Vertikaltreiber 38 ein Motorsteuerungssignal aus, um die Markierungsleuchte 35 zu veranlassen, in dem vertikalen Winkel ϕ des ausgewählten Paares gedreht zu werden. Die Steuerungsausführungseinheit 48 gibt auch ein Treibersteuerungssignal an den LED-Treiber 34 aus.
  • Wenn das Motorsteuerungssignal eingegeben ist, gibt der Horizontaltreiber 37 ein Impulssignal an den Horizontalschrittmotor 39 basierend auf dem Motorsteuerungssignal aus. Der Horizontalschrittmotor 39 dreht die Markierungsleuchte 35 in der horizontalen Richtung, basierend auf dem Impulssignal. Ähnlich gibt der Vertikaltreiber 38, wenn das Motorsteuerungssignal eingegeben ist, ein Impulssignal an den Vertikalschrittmotor 40 basierend auf dem Motorsteuerungssignal aus. Der Vertikalschrittmotor 40 dreht die Markierungsleuchte 35 in der vertikalen Richtung, basierend auf dem Impulssignal. Wenn das Treibersteuerungssignal eingegangen ist, wendet der LED-Treiber 34 auf die Markierungsleuchte 35 eine 5-V-Spannung an.
  • Wenn im Schritt S5C festgestellt wird, dass der Fußgänger in den Beleuchtungsbereich des Abblendlichts eingetreten ist, gibt die Steuerungsausführungseinheit 48 an den LED-Treiber 34 ein Treibersteuerungssignal aus, das angibt, dass die Emission von Licht zu stoppen ist. Wenn das Treibersteuerungssignal eingegangen ist, wendet der LED-Treiber 34 auf die Markierungsleuchte 35 eine 0-V-Spannung an. Dies stoppt die Emission von Licht von der Markierungsleuchte 35.
  • Im Schritt S7, bis im Schritt S5C festgestellt wird, dass der Fußgänger in den Beleuchtungsbereich des Abblendlichts eingetreten ist, kann die Steuerungsausführungseinheit 48 den LED-Treiber 34 antreiben, um die Markierungsleuchte 35 zu veranlassen, Licht einer Farbtemperatur in Abhängigkeit von der Entfernung vom Fahrzeug 100 zu dem Fußgänger zu emittieren. Die Steuerungsausführungseinheit 48 kann die Farbe des Lichts graduell von blau zu rot ändern, wenn die Entfernung kürzer wird. Die Steuerungsausführungseinheit 48 kann die Markierungsleuchte 35 veranlassen, Licht mit einer Intensität in Abhängigkeit von der Entfernung zu emittieren.
  • Die Entfernung vom Fahrzeug 100 zum Fußgänger kann basierend auf der Position des Fahrzeugs 100 und der Position des Fußgängers berechnet werden. Zu dieser Zeit kann die Entfernung unter Verwendung der Position des Fahrzeugs 100 und der Position des Fußgängers in dem Fahrzeugkoordinatensystem 60 berechnet werden, oder die Entfernung kann unter Verwendung der Position des Fahrzeugs 100 und der Position des Fußgängers im Lichtkoordinatensystem 70 berechnet werden.
  • Beispielsweise, wie in 9 veranschaulicht, veranlasst die Steuerungsausführungseinheit 48 die Markierungsleuchte 35, Licht in der Reihenfolge (1), (2) und (3) zu emittieren, um den Bereich vom Fahrzeug 100 bis zur Kollisionsposition abzutasten. Gleichzeitig veranlasst die Steuerungsausführungseinheit 48 die Markierungsleuchte 35, Licht in den Bereich zu emittieren, in dem der Fußgänger präsent ist, wie durch (4) und (5) angegeben. Wenn sich der Fußgänger bewegt, wie durch (6) angegeben, veranlasst die Steuerungsausführungseinheit 48 die Markierungsleuchte 35, Licht an die Position zu emittieren, in die sich der Fußgänger bewegte. Wenn der Fußgänger in den durch (7) angegebenen Beleuchtungsbereich des Abblendlichts eingetreten ist, stoppt die Steuerungsausführungseinheit 48 die Emission von Licht.
  • *** Wirkungen der ersten Ausführungsform ***
  • Wie vorstehend beschrieben, erkennt die Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der ersten Ausführungsform einen außerhalb des Beleuchtungsbereichs des Abblendlichts präsenten Fußgänger und emittiert durch die Markierungsleuchte 35 Licht in den Bereich, in dem der Fußgänger präsent ist. Dies gestattet dem Fahrer, ein Zielobjekt in der Entfernung zu erkennen, das in einer Situation, wo nur das Abblendlicht verwendet wird, nicht erkannt werden kann.
  • Indem er mit Licht von der Markierungsleuchte 35 beleuchtet wird, kann der Fußgänger sicher sein, dass dem Fahrer die Existenz des Fußgängers bewusst ist.
  • Wenn der Fußgänger in den Beleuchtungsbereich des Abblendlichts eingetreten ist, stoppt die Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der ersten Ausführungsform die Emission von Licht durch die Markierungsleuchte 35. Dies kann verhindern, dass der Fahrer Aufmerksamkeit dem Licht von der Markierungsleuchte 35 widmet und die Aufmerksamkeit für den Fußgänger verringert. Es ist auch möglich, den Verbrauch von Energie zu reduzieren, die für das Emittieren von Licht und das Antreiben des Horizontalschrittmotors 39 und des Vertikalschrittmotors 40 erforderlich ist.
  • Die Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der ersten Ausführungsform erkennt einen Fußgänger, der in dem von der Markierungsleuchte 35 beleuchteten Bereich präsent ist, unter Verwendung der Kamera 32 für sichtbares Licht. Durch Erkennen des Fußgängers mit der Kamera 32 für sichtbares Licht kann die Position, in welcher der Fußgänger präsent ist, identifiziert werden, und zwar nicht nur in der horizontalen Richtung, sondern auch in der vertikalen Richtung. Dies gestattet, dass Licht zu dem Fußgänger mit höherer Genauigkeit emittiert wird.
  • Auch eine Steuerung wie Emittieren von Licht zu einer Position unterhalb des Gesichts des Fußgängers kann erwogen werden. Dies kann verhindern, dass der Fußgänger geblendet wird.
  • Die Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der ersten Ausführungsform verändert mindestens eine aus einer Farbe von durch die Markierungsleuchte 35 emittiertem Licht und der Intensität von durch die Markierungsleuchte 35 emittiertem Licht, abhängig von der Entfernung zwischen dem Fahrzeug 100 und dem Fußgänger. Dies gestattet dem Fahrer, problemlos den Abstand von dem Fahrzeug 100 zu dem Fußgänger zu erkennen.
  • Die Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der ersten Ausführungsform prognostiziert eine Kollisionsposition und emittiert durch die Markierungsleuchte 35 Licht zu der Kollisionsposition. Dies gestattet dem Fahrer und dem Fußgänger, gewarnt zu sein.
  • *** Weitere Konfigurationen ***
  • <Erste Variante>
  • In der ersten Ausführungsform stoppt die Steuerungsausführungseinheit 48 die Emission von Licht durch die Markierungsleuchte 35, wenn der Fußgänger in den Beleuchtungsbereich des Abblendlichts eingetreten ist. Wenn der Fußgänger jedoch in den Beleuchtungsbereich des Abblendlichts eingetreten ist, kann die Steuerungsausführungseinheit 48 die Intensität des Lichts von der Markierungsleuchte 35 reduzieren. Dies verhindert, dass der Fahrer durch das Licht von der Markierungsleuchte 35 verwirrt wird und kann die Erkennung der Position, an welcher der Fußgänger für den Fahrer präsent ist, erleichtern.
  • <Zweite Variante>
  • In der ersten Ausführungsform wird die Hardware des Horizontaltreibers 37 und des Vertikaltreibers 38 verwendet, um die Richtung der Markierungsleuchte 35 zu steuern. Die Steuerungsausführungseinheit 48 kann jedoch die Richtung der Markierungsleuchte 35 durch Software steuern.
  • Zweite Ausführungsform
  • Eine zweite Ausführungsform unterscheidet sich dadurch von der ersten Ausführungsform, dass anstelle der Kamera 32 für sichtbares Licht ein Distanzsensor 321, etwa ein Laserscanner, verwendet wird. In der zweiten Ausführungsform wird dieser Unterschied beschrieben, und die Beschreibung der gleichen Abschnitte wird weggelassen.
  • *** Beschreibung der Konfiguration ***
  • Bezug nehmend auf 10, wird eine Konfiguration der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der zweiten Ausführungsform beschrieben.
  • Unterschiede von der in 1 veranschaulichten Konfiguration sind, dass an dem Fahrzeug 100 anstelle der Kamera 32 für sichtbares Licht der Distanzsensor 321 montiert ist und dass die Erkennungseinheit 21 eine dritte Parameterspeichereinheit 241 und eine vierte Parameterspeichereinheit 242 umfasst.
  • Der Distanzsensor 321 ist ein Sensor, der eine Entfernung unter Verwendung eines Lasers misst und Distanzdaten ausgibt. Ein konkretes Beispiel des Distanzsensors 321 ist ein Laserscanner wie ein LiDAR (Light Detection and Ranging). In der zweiten Ausführungsform wird davon ausgegangen, dass der Distanzsensor 321 einen Laser in den Bereich rings um dem Fahrzeug 100 emittiert, an einem Reflexionspunkt reflektiertes Licht empfängt, um die Entfernung zu dem Reflexionspunkt zu berechnen, und Distanzdaten ausgibt, die die berechnete Entfernung zu dem Reflexionspunkt angeben.
  • Bezug nehmend auf 11 wird eine Konfiguration einer Lichtsteuerungseinheit 22 gemäß der zweiten Ausführungsform beschrieben.
  • Die Lichtsteuerungseinheit 22 unterscheidet sich darin von der in 2 veranschaulichten Konfiguration, dass die Pixelbasisprognoseeinheit 41, die erste Winkelberechnungseinheit 42 und die erste Parameterspeichereinheit 421 nicht enthalten sind und eine fünfte Parameterspeichereinheit 461 enthalten ist.
  • *** Beschreibung des Betriebs ***
  • Bezug nehmend auf die 12 bis 15 wird der Betrieb der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der zweiten Ausführungsform beschrieben.
  • Der Betrieb der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der zweiten Ausführungsform korrespondiert mit einem Fahrzeugbeleuchtungssteuerungsverfahren gemäß der zweiten Ausführungsform. Der Betrieb der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der zweiten Ausführungsform korrespondiert auch mit Prozessen eines Fahrzeugbeleuchtungssteuerungsprogramms gemäß der zweiten Ausführungsform.
  • Bezug nehmend auf 12 werden mathematische Definitionen gemäß der zweiten Ausführungsform beschrieben.
  • Wie in 12 veranschaulicht, ist ein Distanzsensorkoordinatensystem 80 so, dass eine Beleuchtungsrichtung eines Lasers bei 0 Grad eine ZL-Achse ist und eine XL-Achse und eine YL-Achse unter Verwendung des linksseitigen Systems definiert sind. Die Koordinaten eines Fußgängers im Distanzsensorkoordinatensystem 80 zu dem bestimmten Zeitpunkt T = t sind repräsentiert als (xLp(t), yLp(t), zLp(t)). Die Koordinaten des Fahrzeugs 100 im Distanzsensorkoordinatensystem 80 zu dem bestimmten Zeitpunkt T = t sind repräsentiert als (xLc(t), wLc(t), zLc(t)).
  • Bezug nehmend auf 13, wird der Betrieb der Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der zweiten Ausführungsform beschrieben.
  • Der Prozess von Schritt S11 ist der gleiche wie der Prozess von Schritt S1 in 6. Schritt S13B ist der gleiche wie Schritt S5B in 6. Die Schritte S14A und S14B sind die gleichen wie die Schritte S6A und S6B in 6.
  • (Schritt S12: Zweiter Erkennungsprozess)
  • Die zweite Erkennungseinheit 24 misst die Entfernung zu dem Fußgänger, der das Zielobjekt ist, das außerhalb des Beleuchtungsbereichs des Abblendlichts des Fahrzeugs 100 präsent ist, basierend auf Distanzdatenausgabe von dem Distanzsensor 231.
  • Konkret konvertiert die zweite Erkennungseinheit 24 zuerst die Pixelpositionen des Fußgängers in dem Bildkoordinatensystem 50, ausgegeben im Schritt S1, in Positionen in dem Distanzsensorkoordinatensystem 80. Das heißt, wie in 14 veranschaulicht, die zweite Erkennungseinheit 24 konvertiert eine linke obere Pixelposition 53 (Utl, Vtl) eines Erkennungsrahmens 52 eines Fußgängers 56 in dem Bildkoordinatensystem 50 in einen horizontalen Winkel α(Utl) und einen vertikalen Winkel β(Vtl) des Distanzsensors 231, und konvertiert eine untere rechte Pixelposition 54 (Ubr, Vbr) in einen horizontalen Winkel a(Ubr) und einen vertikalen Winkel β(Vbr) des Distanzsensors 231.
  • Die zweite Erkennungseinheit 24 hat in der dritten Parameterspeichereinheit 241 Beleuchtungsrichtungen (α(u, v), β(u, v)) des Distanzsensors 231 entsprechend jeglicher vorbestimmter Koordinaten (u, v) in dem Bildkoordinatensystem 50 der Ferninfrarotkamera 31 als eine Tabelle gespeichert. Die zweite Erkennungseinheit 24 verweist auf die in der dritten Parameterspeichereinheit 241 gespeicherte Tabelle, um die Beleuchtungsrichtung (a(u, v), β(u, v)) des Distanzsensors 231 entsprechend der Pixelposition 53 (Utl, Vtl) und der unteren rechten Pixelposition 54 (Ubr, Vbr), die im Schritt S1 ausgegeben werden, zu identifizieren.
  • In der dritten Parameterspeichereinheit 241 können Beleuchtungsrichtungen (a(u, v), β(u, v)), entsprechend allen Pixelpositionen von 1 <= u <= U und 1 <= v <= V, als eine Tabelle gespeichert werden. Beleuchtungsrichtungen (a(u, v), β(u, v)), beispielsweise entsprechend Pixelpositionen in festen Intervallen, können als eine Tabelle gespeichert werden. Wenn Beleuchtungsrichtungen (a(u, v), β(u, v)) entsprechend Pixelpositionen in festen Intervallen gespeichert werden, kann eine Beleuchtungsrichtung (α(u,v), β(u,v)) entsprechend einer Pixelposition, die nicht gespeichert ist, durch Ausführen linearer Interpolation unter Verwendung der Beleuchtungsrichtungen (α(u,v), β(u,v)) entsprechend den gespeicherten Pixelpositionen berechnet werden. Ein Verfahren zum Erstellen der Tabelle ist nicht auf ein bestimmtes Verfahren begrenzt.
  • Nachfolgend extrahiert die zweite Erkennungseinheit 24 aus den Distanzdaten, die von dem Distanzsensor 231 ausgegeben wurden, Distanzdaten, die Laser betreffen, die in den Bereich von dem identifizierten horizontalen Winkel a(Utl) zu dem identifizierten horizontalen Winkel α(Ubr) und den Bereich von dem identifizierten vertikalen Winkel β(Vtl) zu dem identifizierten horizontalen Winkel β(Vbr) des Distanzsensors 231 emittiert wurden. Das heißt, die zweite Erkennungseinheit 24 extrahiert Distanzdaten, die Laser betreffen, die in den Bereich emittiert wurden, in dem der im Schritt S11 erkannte Fußgänger präsent ist.
  • Dann identifiziert die zweite Erkennungseinheit 24 eine Position mit einer hohen Laserreflexionsintensität aus den extrahierten Distanzdaten. Die zweite Erkennungseinheit 24 identifiziert die Koordinaten (xLp(t), yLp(t), zLp(t)) des Fußgängers basierend auf der Entfernung zu der identifizierten Position und dem Laserbeleuchtungswinkel entsprechend der identifizierten Position. Ein Verfahren zum Identifizieren der Koordinaten des Fußgängers basierend auf den extrahierten Distanzdaten ist nicht auf ein bestimmtes Verfahren begrenzt. Beispielsweise können Teile von Distanzdaten ersetzt werden durch einen Durchschnittswert, und dann können die Koordinaten des Fußgängers identifiziert werden.
  • Schließlich konvertiert die zweite Erkennungseinheit 24 die identifizierten Koordinaten (xLp(t), yLp(t), zLp(t)) des Fußgängers in dem Distanzsensorkoordinatensystem 80 in Koordinaten (xwp(t), ywp(t), zwp(t)) in dem Fahrzeugkoordinatensystem 60 und gibt die Koordinaten (xwp(t), ywp(t), zwp(t)) aus.
  • Die zweite Erkennungseinheit 24 misst vorab Kalibrierungsparameter zur Umrechnung zwischen den Koordinaten (xwp(t), ywp(t), zwp(t)) des Fußgängers in dem Fahrzeugkoordinatensystem 60 und den Koordinaten (xLp(t), yLp(t), zLp(t)) des Fußgängers in dem Distanzsensorkoordinatensystem 80 und speichert die Kalibrierungsparameter in der vierten Parameterspeichereinheit 242. Die Kalibrierungsparameter sind repräsentiert durch Rotation (r11, r12, r13, r21, r22, r23, r31, r32, r33) und Translation (t1, t2, t3) zwischen den zwei Koordinatensystemen. Die zweite Erkennungseinheit 24 konvertiert die Koordinaten des Fußgängers in dem Distanzsensorkoordinatensystem 80 in die Koordinaten (xwp(t), ywp(t), zwp(t)) des Fußgängers in dem Fahrzeugkoordinatensystem 60 durch Berechnung von [xwp(t); ywp(t); zwp(t); 1] = [r11 r12 r13 t1; r21 r22 r23 t2; r31 r32 r33 t3; 0 0 0 1] x [xLp(t); yLp(t); zLp(t); 1].
  • (Schritt S13A: Entfernungsbasisprognoseprozess)
  • Wie im Schritt S5A von 6 prognostiziert die Fahrzeugbasisprognoseeinheit 43 der Lichtsteuerungseinheit 22 die Koordinatenwerte des Ziels des Fußgängers zu einem Zeitpunkt nach einem bestimmten Zeitraum, basierend auf den Koordinatenwerten des Fußgängerausgangs im Schritt S12.
  • (Schritt S13C: Abblendlichtfeststellungsprozess)
  • Die Abblendlichterkennungseinheit 46 der Lichtsteuerungseinheit 22 stellt fest, ob der Fußgänger in den Beleuchtungsbereich des Abblendlichts eingetreten ist.
  • Konkret hat die Abblendlichterkennungseinheit 46 in der fünften Parameterspeichereinheit 461 den in dem Fahrzeugkoordinatensystem 60 erkannt, den das Abblendlicht erreicht. Beispielsweise wird davon ausgegangen, dass das Abblendlicht in den Bereich emittiert wird, wie in 15 veranschaulicht. In diesem Fall werden die Minimal- und Maximalwerte der Xw-Achse alle 1,0 m der Zw-Achse als der Beleuchtungsbereich des Abblendlichts in der fünften Parameterspeichereinheit 461 gespeichert. Die Abblendlichterkennungseinheit 46 stellt fest, ob der Fußgänger in den Beleuchtungsbereich des Abblendlichts eingetreten ist, indem der in der fünften Parameterspeichereinheit 461 gespeicherte Bereich, den das Abblendlicht erreicht, mit den im jüngst ausgeführten Schritt S12 ausgegebenen Koordinaten (xwp(t), ywp(t), zwp(t)) des Fußgängers verglichen wird.
  • (Schritt S15: Zweiter Beleuchtungsprozess)
  • Die Steuerungsausführungseinheit 48 steuert die Markierungsleuchte 35 basierend auf den horizontalen Winkeln θ und den vertikalen Winkeln ϕ, berechnet in Schritt S14A, dem Ergebnis der Feststellung im Schritt S14B und dem Ergebnis der Feststellung im Schritt S14C.
  • Die konkrete Steuerung ist die gleiche wie die Steuerung in Schritt S7 von 6.
  • *** Wirkungen der zweiten Ausführungsform ***
  • Wie vorstehend beschrieben, identifiziert die Fahrzeugbeleuchtungssteuerungsvorrichtung 10 gemäß der ersten Ausführungsform die Position eines außerhalb des Beleuchtungsbereichs des Abblendlichts präsenten Fußgängers unter Verwendung des Distanzsensors 321 und beleuchtet durch die Markierungsleuchte 35 den Bereich, in dem der Fußgänger präsent ist. Dies gestattet dem Fahrer, ein Zielobjekt in der Entfernung zu erkennen, das in einer Situation, wo nur das Abblendlicht verwendet wird, nicht erkannt werden kann.
  • Insbesondere wird in der ersten Ausführungsform die Position des Fußgängers durch Emittieren von Licht durch die Markierungsleuchte 35 und dann Erkennen des Fußgängers durch die Kamera 32 für sichtbares Licht identifiziert. Im Vergleich hierzu kann in der zweiten Ausführungsform die Position des Fußgängers ohne Emittieren von Licht durch die Markierungsleuchte 35 identifiziert werden. Folglich können durch einen, verglichen mit der ersten Ausführungsform, einfacheren Prozess die gleichen Wirkungen wie jene der ersten Ausführungsform erreicht werden.
  • Bezugszeichenliste
  • 10
    Fahrzeugbeleuchtungssteuerungsvorrichtung,
    21
    Erkennungseinheit,
    22
    Lichtsteuerungseinheit,
    23
    erste Erkennungseinheit,
    24
    zweite Erkennungseinheit,
    31
    Ferninfrarotkamera,
    32
    Kamera für sichtbares Licht,
    33
    fahrzeuginterner Sensor,
    34
    LED-Treiber,
    35
    Markierungsleuchte,
    36
    Motorsteuerungsvorrichtung,
    37
    Horizontaltreiber,
    38
    Vertikaltreiber,
    39
    Horizontalschrittmotor,
    40
    Vertikalschrittmotor,
    41
    Pixelbasisprognoseeinheit,
    42
    erste Winkelberechnungseinheit,
    421
    erste Parameterspeichereinheit,
    43
    Fahrzeugbasisprognoseeinheit,
    44
    zweite Winkelberechnungseinheit,
    441
    zweite Parameterspeichereinheit,
    45
    Fahrzeugbewegungsprognoseeinheit,
    46
    Abblendlichterkennungseinheit,
    47
    Kollisionsprognoseeinheit,
    48
    Steuerungsausführungseinheit,
    50
    Bildkoordinatensystem,
    60
    Fahrzeugkoordinatensystem,
    70
    Lichtkoordinatensystem,
    100
    Fahrzeug
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2016110853 A [0003]

Claims (7)

  1. Fahrzeugbeleuchtungssteuerungsvorrichtung, umfassend: eine erste Erkennungseinheit zum Erkennen eines Zielobjekts, präsent außerhalb eines Beleuchtungsbereichs eines Abblendlichts eines Fahrzeugs, unter Verwendung einer Ferninfrarotkamera; eine zweite Erkennungseinheit zum Erkennen einer Position des von der ersten Erkennungseinheit erkannten Zielobjekts, unter Verwendung eines Distanzsensors, der eine Entfernung mit einem Laser misst; und eine Lichtsteuerungseinheit zum Beleuchten der Position des von der zweiten Erkennungseinheit erkannten Zielobjekts, mit einer Markierungsleuchte, die, wenn verglichen mit dem Abblendlicht, einen Bereich in einer größeren Entfernung beleuchten kann.
  2. Fahrzeugbeleuchtungssteuerungsvorrichtung nach Anspruch 1, wobei die Lichtsteuerungseinheit die Beleuchtung mit der Markierungsleuchte stoppt, wenn das Zielobjekt in den Beleuchtungsbereich des Abblendlichts eingetreten ist.
  3. Fahrzeugbeleuchtungssteuerungsvorrichtung nach Anspruch 1, wobei die Lichtsteuerungseinheit eine Intensität von Beleuchtung mit der Markierungsleuchte reduziert, wenn das Zielobjekt in den Beleuchtungsbereich des Abblendlichts eingetreten ist.
  4. Fahrzeugbeleuchtungssteuerungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei die Lichtsteuerungseinheit mindestens eine aus einer Farbe von durch die Markierungsleuchte emittiertem Licht und einer Intensität von durch die Markierungsleuchte emittiertem Licht verändert, abhängig von einer Entfernung zwischen dem Fahrzeug und dem Zielobjekt.
  5. Fahrzeugbeleuchtungssteuerungsvorrichtung nach einem der Ansprüche 1 bis 4, wobei die Lichtsteuerungseinheit eine Kollisionsposition prognostiziert, wo die Wahrscheinlichkeit einer Kollision zwischen dem Fahrzeug und dem Zielobjekt besteht, und die Kollisionsposition mit der Markierungsleuchte beleuchtet.
  6. Fahrzeugbeleuchtungssteuerungsverfahren, umfassend: Erkennen eines Zielobjekts, präsent außerhalb eines Beleuchtungsbereichs eines Abblendlichts eines Fahrzeugs, unter Verwendung einer Ferninfrarotkamera, durch eine erste Erkennungseinheit; Erkennen einer Position des von der ersten Erkennungseinheit erkannten Zielobjekts, unter Verwendung eines Distanzsensors, der eine Entfernung mit einem Laser misst; durch eine zweite Erkennungseinheit; und Beleuchten der erkannten Position des Zielobjekts mit einer Markierungsleuchte, die, verglichen mit dem Abblendlicht, einen Bereich in einer größeren Entfernung beleuchten kann, durch eine Lichtsteuerungseinheit.
  7. Fahrzeugbeleuchtungssteuerungsprogramm, um einen Computer zu veranlassen, auszuführen: ein erster Erkennungsprozess zum Erkennen eines Zielobjekts, präsent außerhalb eines Beleuchtungsbereichs eines Abblendlichts eines Fahrzeugs, unter Verwendung einer Ferninfrarotkamera; einen zweiten Erkennungsprozess zum Erkennen einer Position des von dem ersten Erkennungsprozess erkannten Zielobjekts, unter Verwendung eines Distanzsensors, der eine Entfernung mit einem Laser misst; und ein Lichtsteuerungsprozess zum Beleuchten der Position des von dem zweiten Erkennungsprozess erkannten Zielobjekts, mit einer Markierungsleuchte, die, verglichen mit dem Abblendlicht, einen Bereich in einer größeren Entfernung beleuchten kann.
DE112018007190.1T 2018-03-29 2018-03-29 Fahrzeugbeleuchtungssteuerungsvorrichtung,fahrzeugbeleuchtungssteuerungsverfahren undfahrzeugbeleuchtungssteuerungsprogramm Granted DE112018007190T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/013137 WO2019186864A1 (ja) 2018-03-29 2018-03-29 車両照明制御装置、車両照明制御方法及び車両照明制御プログラム

Publications (1)

Publication Number Publication Date
DE112018007190T5 true DE112018007190T5 (de) 2020-12-10

Family

ID=66730648

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018007190.1T Granted DE112018007190T5 (de) 2018-03-29 2018-03-29 Fahrzeugbeleuchtungssteuerungsvorrichtung,fahrzeugbeleuchtungssteuerungsverfahren undfahrzeugbeleuchtungssteuerungsprogramm

Country Status (5)

Country Link
US (1) US11332063B2 (de)
JP (1) JP6526350B1 (de)
CN (1) CN111902315B (de)
DE (1) DE112018007190T5 (de)
WO (1) WO2019186864A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6526351B1 (ja) * 2018-03-29 2019-06-05 三菱電機株式会社 車両照明制御装置、車両照明制御方法及び車両照明制御プログラム
US11396986B2 (en) 2019-05-23 2022-07-26 Valeo North America, Inc. Apparatus and method for masking residual visible light from an infrared emission source
FR3104675B1 (fr) * 2019-12-16 2021-11-26 Valeo Vision Procédé de contrôle d’un système d’éclairage d’un véhicule automobile

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5843014A (en) 1995-03-24 1998-12-01 Alza Corporation Display for an electrotransport delivery device
EP1499129B1 (de) * 2002-04-25 2011-12-28 Panasonic Corporation Objektdetektionseinrichtung, objektdetektionsserver und objektdetektionsverfahren
JP2004095433A (ja) * 2002-09-02 2004-03-25 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP4437712B2 (ja) 2004-07-07 2010-03-24 株式会社小糸製作所 車両用照明システム
JP2006185410A (ja) * 2004-12-02 2006-07-13 Nissan Motor Co Ltd 夜間移動体報知装置及び夜間移動体報知方法
JP2006176020A (ja) * 2004-12-22 2006-07-06 Nissan Motor Co Ltd 歩行者報知装置及び方法
JP2007030739A (ja) 2005-07-28 2007-02-08 Fujitsu Ten Ltd 車載灯具制御装置および車載灯具制御方法
JP2007099235A (ja) 2005-10-07 2007-04-19 Nissan Motor Co Ltd 切り替え制御システム
JP4705923B2 (ja) * 2007-01-23 2011-06-22 パナソニック株式会社 暗視撮像装置、ヘッドライトモジュール、車両及び暗視撮像装置の制御方法
JP4835374B2 (ja) 2006-10-19 2011-12-14 トヨタ自動車株式会社 車両用照明装置
JP5262057B2 (ja) 2006-11-17 2013-08-14 株式会社豊田中央研究所 照射装置
JP2008226140A (ja) * 2007-03-15 2008-09-25 Mazda Motor Corp 車両の運転支援装置
JP2008230333A (ja) 2007-03-19 2008-10-02 Mazda Motor Corp 車両の運転支援装置
JP4964195B2 (ja) 2008-07-10 2012-06-27 パナソニック株式会社 車両用照明装置
JP5051468B2 (ja) * 2008-12-25 2012-10-17 トヨタ自動車株式会社 センサ校正装置、及び、センサ校正方法
JP2012151058A (ja) 2011-01-21 2012-08-09 Koito Mfg Co Ltd シェード駆動ユニット
JP5370413B2 (ja) 2011-06-06 2013-12-18 株式会社デンソー 認識対象検出装置
JP5907407B2 (ja) 2011-12-05 2016-04-26 スタンレー電気株式会社 車両用前照灯
JP5831302B2 (ja) * 2012-03-08 2015-12-09 トヨタ自動車株式会社 多光式ヘッドライト
JP6107079B2 (ja) * 2012-11-21 2017-04-05 富士通株式会社 報知制御方法、報知制御装置および報知制御プログラム
JP5643373B2 (ja) 2013-04-18 2014-12-17 株式会社Screenホールディングス 空間光変調器
KR20140137577A (ko) * 2013-05-23 2014-12-03 한국전자통신연구원 차량의 주변환경 정보를 제공하는 장치 및 그 방법
JP2015033939A (ja) 2013-08-09 2015-02-19 スタンレー電気株式会社 車両用前照灯の点灯制御装置、車両用前照灯システム
JP2016110853A (ja) 2014-12-08 2016-06-20 株式会社小糸製作所 車両用前照灯
EP3329420A1 (de) * 2015-07-28 2018-06-06 Apple Inc. System und verfahren für licht- und bildprojektion
US20170106793A1 (en) * 2015-10-19 2017-04-20 Ford Global Technologies, Llc Vehicle lighting system with dynamic beam pattern
JP2017165178A (ja) 2016-03-15 2017-09-21 トヨタ自動車株式会社 車両用照明装置
JP6311768B1 (ja) * 2016-10-24 2018-04-18 マツダ株式会社 車両用ヘッドライト制御装置
JP6288208B1 (ja) 2016-10-24 2018-03-07 マツダ株式会社 車両用ヘッドライト制御装置
US10677897B2 (en) * 2017-04-14 2020-06-09 Luminar Technologies, Inc. Combining lidar and camera data

Also Published As

Publication number Publication date
JP6526350B1 (ja) 2019-06-05
JPWO2019186864A1 (ja) 2020-04-30
WO2019186864A1 (ja) 2019-10-03
CN111902315B (zh) 2023-04-28
CN111902315A (zh) 2020-11-06
US11332063B2 (en) 2022-05-17
US20200398737A1 (en) 2020-12-24

Similar Documents

Publication Publication Date Title
DE102013102144B4 (de) Vorrichtung zum Steuern von Fahrzeugscheinwerfern
DE102007000420B4 (de) Fahrzeuginterne Einrichtung zum Erfassen von Fahrzeugen und Vorrichtung zum Steuern von Scheinwerfern durch Verwenden der Einrichtung
EP3329462B1 (de) Verfahren zum identifizieren eines objekts in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102017206228A1 (de) Fahrzeug und Verfahren zum Steuern desselben
DE102009025545A1 (de) Verfahren und Vorrichtung zum Erkennen von Bremslichtsystemen
DE102014212162A1 (de) Frontscheinwerfersteuerungsvorrichtung
DE102011077038A1 (de) Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs
DE112018007190T5 (de) Fahrzeugbeleuchtungssteuerungsvorrichtung,fahrzeugbeleuchtungssteuerungsverfahren undfahrzeugbeleuchtungssteuerungsprogramm
DE112013001424T5 (de) Objekterkennungsvorrichtung
EP2562044B1 (de) Verfahren zur Steuerung einer Lichtaussendung eines Scheinwerfers eines Fahrzeugs
DE102016003296A1 (de) Kraftfahrzeug mit wenigstens einem Scheinwerfer
EP3391282A1 (de) Verfahren zum identifizieren eines objektes in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
EP3818466B1 (de) Schnelle erkennung gefährlicher oder gefährdeter objekte im umfeld eines fahrzeugs
DE102011081412B4 (de) Verfahren und Vorrichtung zur Anpassung einer Lichtaussendung von zumindest einem Scheinwerfer eines Fahrzeugs
DE112012003611T5 (de) Fahrzeugscheinwerfersteuersystem
DE112018007625T5 (de) Fahrzeuggenutzte rückseitige warnvorrichtung und fahrzeuggenutztes rückseitiges warnverfahren
DE112018007189T5 (de) Fahrzeugbeleuchtungssteuerungsvorrichtung, fahrzeugbeleuchtungssteuerungsverfahren undfahrzeugbeleuchtungssteuerungsprogramm
DE102016201304A1 (de) Vorrichtung und Verfahren zum Erfassen eines Randsteins in einer Umgebung eines Fahrzeugs sowie System zur Randsteinkontrolle für ein Fahrzeug
EP2080684B1 (de) Verfahren und Vorrichtung zum Erfassen eines vorbeifahrenden Fahrzeuges bei Dunkelheit
DE10053315A1 (de) Verfahren zum Detektieren von Verkehrszeichen und Vorrichtung zu dessen Ausführung
DE102017117614A1 (de) Verfahren zum trajektorienbasierten Bestimmen eines Auswertebereiches in einem Bild einer Fahrzeugkamera
EP2131308A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines in mindestens einem Bild einer Abbildung eines Bereichs vor einem Fahrzeug detektierten Objekts
EP1962245B1 (de) Verfahren und Vorrichtung zum Ermitteln des Bewegungszustands von Objekten
DE102020117060A1 (de) Vorrichtung und Verfahren zur Umfelderfassung eines Fahrzeugs
DE102017221465A1 (de) Verfahren und Vorrichtung zum Detektieren eines lichtaussendenden Objekts an einem Verkehrsknotenpunkt für ein Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication
R018 Grant decision by examination section/examining division