-
HINTERGRUND
-
Technisches Gebiet
-
Die vorliegende Offenbarung bezieht sich auf ein Verfahren zur Fahrzeugdetektion und ein System dafür. Genauer gesagt, bezieht sich die vorliegende Offenbarung auf ein Verfahren zur Fahrzeugdetektion, ein Verfahren zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität und ein System dafür.
-
Beschreibung des einschlägigen Stands der Technik
-
Ein Auffahrwarnalgorithmus nutzt ein Verfahren zur Fahrspurlinienidentifizierung, um eine Fahrspurlinie eines Bildes zu identifizieren, und beurteilt dann gemäß einem Verfahren zur Vorderfahrzeugidentifizierung, ob ein relativer Abstand zwischen einem fahrenden Fahrzeug und einem Vorderfahrzeug sicher ist oder nicht.
-
Bei einem konventionellen Verfahren zur Vorderfahrzeugidentifizierung wird ein Klassifikator verwendet, um nach Training mehrere relevante Parameter zu ermitteln, und dann werden die relevanten Parameter dazu ausgelegt, das Vorderfahrzeug zu identifizieren, wie zum Beispiel Neuronalnetzalgorithmen und Deep-Learning-Algorithmen. Das konventionelle Verfahren zur Vorderfahrzeugidentifizierung kann das Vorderfahrzeug identifizieren, jedoch ist die Komplexität des konventionellen Verfahrens zur Vorderfahrzeugidentifizierung hoch. Außerdem sind wegen des schwachen Lichts in der Nacht im Bild weniger Merkmale des Vorderfahrzeugs, so dass sich ein geringerer Detektionswirkungsgrad ergibt.
-
Daher sind ein Verfahren zur Fahrzeugdetektion, ein Verfahren zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität und ein System dafür mit den Merkmalen geringer Komplexität, Detektion in Echtzeit und hoher Genauigkeit kommerziell wünschenswert.
-
ZUSAMMENFASSUNG
-
Gemäß einem Aspekt der vorliegenden Offenbarung beinhaltet ein Verfahren zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität einen Highlight-Detektionsschritt, einen Fahrzeugleuchtenbeurteilungsschritt, einen Filterschritt für den optischen Fluss und einen Abstandsschätzschritt. Der Highlight-Detektionsschritt dient dazu, ein Bild durch eine Kamera zu erfassen und eine Recheneinheit dazu anzusteuern, das Bild zu berechnen und dann einen Highlight-Punkt des Bildes zu detektieren. Der Highlight-Punkt enthält mehrere Highlight-Pixel, und die Kamera und die Recheneinheit sind an einem fahrenden Fahrzeug angeordnet. Der Fahrzeugleuchtenbeurteilungsschritt dient dazu, die Recheneinheit dazu anzusteuern, einen Kennzeichnungsalgorithmus für in Verbindung stehende Bereiche durchzuführen, um die Highlight-Pixel, die miteinander verbunden sind, als einen Wert in Verbindung stehender Bereiche zu kennzeichnen, und dann einen Flächenfilteralgorithmus durchzuführen, um eine Fläche der miteinander verbundenen Highlight-Pixel zu analysieren und gemäß einer Größe der Fläche zu beurteilen, ob die miteinander verbundenen Highlight-Pixel eine Fahrzeugleuchte sind oder nicht. Der Filterschritt für den optischen Fluss dient dazu, die Recheneinheit dazu anzusteuern, einen Algorithmus für den optischen Fluss durchzuführen, um eine Geschwindigkeit der Fahrzeugleuchte zu ermitteln, und dann die Fahrzeugleuchte zu filtern, die mit der Geschwindigkeit bewegt wird, die kleiner als eine vorbestimmte Geschwindigkeit ist. Der Abstandsschätzschritt dient dazu, die Recheneinheit dazu anzusteuern, einen Koordinatenumwandlungsalgorithmus durchzuführen, um einen Abstand zwischen der Fahrzeugleuchte und der Kamera zu schätzen.
-
Gemäß einer Ausführungsform beinhaltet der Highlight-Detektionsschritt einen Histogrammabgleichsschritt und einen Helligkeitsmerkmalsextraktionsschritt. Der Histogrammabgleichsschritt dient dazu, eine Anzahl von Vorkommen jedes von mehreren Graustufenwerten des Bildes zu zählen und die Graustufenwerte zu ändern, um mehrere abgeglichene Graustufenwerte gemäß der Anzahl von Vorkommen zu generieren. Der Helligkeitsmerkmalsextraktionsschritt dient dazu, einen Graustufenhelligkeitsschwellenwert einzustellen und jedes der Highlight-Pixel, dessen Helligkeitswert höher als der Graustufenhelligkeitsschwellenwert ist, zu extrahieren.
-
Gemäß einer Ausführungsform beinhaltet der Histogrammabgleichsschritt eine kumulative Verteilungsfunktion zum Ändern der Graustufenwerte. Die kumulative Verteilungsfunktion beinhaltet die Graustufenwerte, die Anzahl der Vorkommen, eine Graustufe und die abgeglichenen Graustufenwerte. Die Graustufenwerte werden als i dargestellt. Die Anzahl von Vorkommen wird als n
i dargestellt. Die Graustufe wird als L dargestellt. Die abgeglichenen Graustufenwerte werden als T
i, dargestellt, und die kumulative Verteilungsfunktion wird wie folgt beschrieben:
-
Gemäß einer Ausführungsform beurteilt die Recheneinheit gemäß einer Farbe der Highlight-Pixel im Highlight-Detektionsschritt, ob die Highlight-Pixel die Fahrzeugleuchte sind oder nicht. Wenn die Farbe der Highlight-Pixel rot ist, bestimmt die Recheneinheit, dass die Highlight-Pixel die Fahrzeugleuchte sind, die ein Rücklicht ist. Wenn die Farbe der Highlight-Pixel weiß ist, bestimmt die Recheneinheit, dass die Highlight-Pixel die Fahrzeugleuchte sind, die ein Vorderlicht ist.
-
Gemäß einer Ausführungsform werden die Highlight-Pixel im Fahrzeugleuchtenbeurteilungsschritt in mehrere Highlight-Pixelgruppen aufgeteilt. Die Highlight-Pixel jeder der Highlight-Pixelgruppen sind miteinander verbunden. Die Recheneinheit ist dazu ausgelegt, den Kennzeichnungsalgorithmus für in Verbindung stehende Bereiche durchzuführen, um die Highlight-Pixelgruppen jeweils als mehrere Werte in Verbindung stehender Bereiche zu kennzeichnen, und dann ist die Recheneinheit dazu ausgelegt, den Flächenfilteralgorithmus durchzuführen, um die Fläche jeder der Highlight-Pixelgruppen zu analysieren und gemäß der Größe der Fläche zu beurteilen, ob jede der Highlight-Pixelgruppen die Fahrzeugleuchte ist oder nicht.
-
Gemäß einer Ausführungsform ist die Recheneinheit im Fahrzeugleuchtenbeurteilungsschritt dazu ausgelegt, einen Analysealgorithmus für geometrische Proportionen durchzuführen, um eine geometrische Proportion der Highlight-Pixel zu analysieren, die als der Wert in Verbindung stehender Bereiche gekennzeichnet sind, und dann gemäß der geometrischen Proportion zu beurteilen, ob die Highlight-Pixel, die als der Wert in Verbindung stehender Bereiche gekennzeichnet sind, die Fahrzeugleuchte sind oder nicht.
-
Gemäß einem anderen Aspekt der vorliegenden Offenbarung enthält ein System zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität eine Kamera und eine Recheneinheit. Die Kamera ist an einem fahrenden Fahrzeug angeordnet und dazu ausgelegt, ein Bild zu erfassen. Die Recheneinheit ist am fahrenden Fahrzeug angeordnet und enthält ein Highlight-Detektionsmodul, ein Fahrzeugleuchtenbeurteilungsmodul, ein Filtermodul für den optischen Fluss und ein Abstandsschätzmodul. Das Highlight-Detektionsmodul ist über Signale mit der Kamera verbunden. Das Highlight-Detektionsmodul ist dazu ausgelegt, das Bild zu berechnen und dann einen Highlight-Punkt des Bildes zu detektieren, wobei der Highlight-Punkt mehrere Highlight-Pixel enthält. Das Fahrzeugleuchtenbeurteilungsmodul ist über Signale mit dem Highlight-Detektionsmodul verbunden. Das Fahrzeugleuchtenbeurteilungsmodul ist dazu ausgelegt, einen Kennzeichnungsalgorithmus für in Verbindung stehende Bereiche durchzuführen, um die Highlight-Pixel, die miteinander verbunden sind, als einen Wert in Verbindung stehender Bereiche zu kennzeichnen. Das Fahrzeugleuchtenbeurteilungsmodul ist dazu ausgelegt, dann einen Flächenfilteralgorithmus durchzuführen, um eine Fläche der miteinander verbundenen Highlight-Pixel zu analysieren und gemäß einer Größe der Fläche zu beurteilen, ob die miteinander verbundenen Highlight-Pixel eine Fahrzeugleuchte sind oder nicht. Das Filtermodul für den optischen Fluss ist über Signale mit dem Fahrzeugleuchtenbeurteilungsmodul verbunden. Das Filtermodul für den optischen Fluss ist dazu ausgelegt, einen Algorithmus für den optischen Fluss durchzuführen, um eine Geschwindigkeit der Fahrzeugleuchte zu ermitteln, und dann die Fahrzeugleuchte zu filtern, die mit der Geschwindigkeit bewegt wird, die geringer als eine vorbestimmte Geschwindigkeit ist. Das Abstandsschätzmodul ist über Signale mit dem Filtermodul für den optischen Fluss verbunden. Das Abstandsschätzmodul ist dazu ausgelegt, einen Koordinatenumwandlungsalgorithmus durchzuführen, um einen Abstand zwischen der Fahrzeugleuchte und der Kamera zu schätzen.
-
Gemäß einer Ausführungsform ist das Highlight-Detektionsmodul dazu ausgelegt, eine Anzahl von Vorkommen jedes von mehreren Graustufenwerten des Bildes zu zählen und die Graustufenwerte zu ändern, um mehrere abgeglichene Graustufenwerte gemäß der Anzahl von Vorkommen zu generieren. Das Highlight-Detektionsmodul ist dazu ausgelegt, einen Graustufenhelligkeitsschwellenwert einzustellen und jedes der Highlight-Pixel, dessen Helligkeitswert höher als der Graustufenhelligkeitsschwellenwert ist, zu extrahieren.
-
Gemäß einer Ausführungsform ist das Highlight-Detektionsmodul dazu ausgelegt, eine kumulative Verteilungsfunktion zum Ändern der Graustufenwerte durchzuführen. Die kumulative Verteilungsfunktion beinhaltet die Graustufenwerte, die Anzahl der Vorkommen, eine Graustufe und die abgeglichenen Graustufenwerte. Die Graustufenwerte werden als i dargestellt. Die Anzahl von Vorkommen wird als n
i dargestellt. Die Graustufe wird als L dargestellt. Die abgeglichenen Graustufenwerte werden als T
i, dargestellt, und die kumulative Verteilungsfunktion wird wie folgt beschrieben:
-
Gemäß einer Ausführungsform beurteilt die Recheneinheit gemäß einer Farbe der Highlight-Pixel, ob die Highlight-Pixel die Fahrzeugleuchte sind oder nicht. Wenn die Farbe der Highlight-Pixel rot ist, bestimmt die Recheneinheit, dass die Highlight-Pixel die Fahrzeugleuchte sind, die ein Rücklicht ist. Wenn die Farbe der Highlight-Pixel weiß ist, bestimmt die Recheneinheit, dass die Highlight-Pixel die Fahrzeugleuchte sind, die ein Vorderlicht ist.
-
Gemäß einer Ausführungsform werden die Highlight-Pixel in mehrere Highlight-Pixelgruppen aufgeteilt. Die Highlight-Pixel jeder der Highlight-Pixelgruppen sind miteinander verbunden. Das Fahrzeugleuchtenbeurteilungsmodul ist dazu ausgelegt, den Kennzeichnungsalgorithmus für in Verbindung stehende Bereiche durchzuführen, um die Highlight-Pixelgruppen jeweils als mehrere Werte in Verbindung stehender Bereiche zu kennzeichnen, und dann ist das Fahrzeugleuchtenbeurteilungsmodul dazu ausgelegt, den Flächenfilteralgorithmus durchzuführen, um die Fläche jeder der Highlight-Pixelgruppen zu analysieren und gemäß der Größe der Fläche zu beurteilen, ob jede der Highlight-Pixelgruppen die Fahrzeugleuchte ist oder nicht.
-
Gemäß einer Ausführungsform ist das Fahrzeugleuchtenbeurteilungsmodul dazu ausgelegt, einen Analysealgorithmus für geometrische Proportionen durchzuführen, um eine geometrische Proportion der Highlight-Pixel zu analysieren, die als der Wert in Verbindung stehender Bereiche gekennzeichnet sind, und dann gemäß der geometrischen Proportion zu beurteilen, ob die Highlight-Pixel, die als der Wert in Verbindung stehender Bereiche gekennzeichnet sind, die Fahrzeugleuchte sind oder nicht.
-
Gemäß einem weiteren anderen Aspekt der vorliegenden Offenbarung beinhaltet ein Verfahren zur Fahrzeugdetektion zum Detektieren eines Vorderfahrzeugs eines Bildes einen Bildanalyseschritt und einen Fahrzeugdetektionsschritt. Der Bildanalyseschritt dient dazu, ein Bild durch eine Kamera zu erfassen und eine Recheneinheit dazu anzusteuern, einen Himmelshelligkeitswert eines Himmelsbereichs des Bildes zu analysieren und einen vorbestimmten Helligkeitswert mit dem Himmelshelligkeitswert zu vergleichen, um zu beurteilen, ob das Bild am Tag oder bei Nacht aufgenommen wurder. Die Kamera und die Recheneinheit sind an einem fahrenden Fahrzeug angeordnet. Der Fahrzeugdetektionsschritt dient dazu, die Recheneinheit dazu anzusteuern, einen Fahrzeugdetektionsschritt am Tag oder einen Fahrzeugdetektionsschritt bei Nacht durchzuführen. Wenn das Bild vom Tag ist, wird der Fahrzeugdetektionsschritt am Tag durchgeführt. Wenn das Bild aus der Nacht ist, wird der Fahrzeugdetektionsschritt bei Nacht durchgeführt. Der Fahrzeugdetektionsschritt am Tag dient dazu, einen Abstand zwischen dem Vorderfahrzeug und der Kamera gemäß einem Auffahrwarnalgorithmus zu detektieren. Der Fahrzeugdetektionsschritt bei Nacht beinhaltet einen Highlight-Detektionsschritt, einen Fahrzeugleuchtenbeurteilungsschritt, einen Filterschritt für den optischen Fluss und einen Abstandsschätzschritt. Der Highlight-Detektionsschritt dient dazu, die Recheneinheit dazu anzusteuern, das Bild zu berechnen und dann einen Highlight-Punkt des Bildes zu detektieren, und der Highlight-Punkt enthält mehrere Highlight-Pixel. Der Fahrzeugleuchtenbeurteilungsschritt dient dazu, die Recheneinheit dazu anzusteuern, einen Kennzeichnungsalgorithmus für in Verbindung stehende Bereiche durchzuführen, um die Highlight-Pixel, die miteinander verbunden sind, als einen Wert in Verbindung stehender Bereiche zu kennzeichnen, und dann einen Flächenfilteralgorithmus durchzuführen, um eine Fläche der miteinander verbundenen Highlight-Pixel zu analysieren und gemäß einer Größe der Fläche zu beurteilen, ob die miteinander verbundenen Highlight-Pixel eine Fahrzeugleuchte sind oder nicht. Der Filterschritt für den optischen Fluss dient dazu, die Recheneinheit dazu anzusteuern, einen Algorithmus für den optischen Fluss durchzuführen, um eine Geschwindigkeit der Fahrzeugleuchte zu ermitteln, und dann die Fahrzeugleuchte zu filtern, die mit der Geschwindigkeit bewegt wird, die kleiner als eine vorbestimmte Geschwindigkeit ist. Der Abstandsschätzschritt dient dazu, die Recheneinheit dazu anzusteuern, einen Koordinatenumwandlungsalgorithmus durchzuführen, um einen Abstand zwischen der Fahrzeugleuchte und der Kamera zu schätzen.
-
Gemäß einer Ausführungsform befindet sich der Himmelsbereich im Bildanalyseschritt über einem vorbestimmten Horizont. Die Recheneinheit ist dazu ausgelegt, zu bestimmen, dass das Bild vom Tage ist, wenn der Himmelshelligkeitswert größer als oder gleich dem vorbestimmten Helligkeitswert ist. Die Recheneinheit ist dazu ausgelegt, zu bestimmen, dass das Bild aus der Nacht ist, wenn der Himmelshelligkeitswert kleiner als der vorbestimmte Helligkeitswert ist.
-
Gemäß einer Ausführungsform beinhaltet der Highlight-Detektionsschritt einen Histogrammabgleichsschritt und einen Helligkeitsmerkmalsextraktionsschritt. Der Histogrammabgleichsschritt dient dazu, eine Anzahl von Vorkommen jedes von mehreren Graustufenwerten des Bildes zu zählen und die Graustufenwerte zu ändern, um mehrere abgeglichene Graustufenwerte gemäß der Anzahl von Vorkommen zu generieren. Der Helligkeitsmerkmalsextraktionsschritt dient dazu, einen Graustufenhelligkeitsschwellenwert einzustellen und jedes der Highlight-Pixel, dessen Helligkeitswert höher als der Graustufenhelligkeitsschwellenwert ist, zu extrahieren.
-
Gemäß einer Ausführungsform beinhaltet der Histogrammabgleichsschritt eine kumulative Verteilungsfunktion zum Ändern der Graustufenwerte. Die kumulative Verteilungsfunktion beinhaltet die Graustufenwerte, die Anzahl der Vorkommen, eine Graustufe und die abgeglichenen Graustufenwerte. Die Graustufenwerte werden als i dargestellt. Die Anzahl von Vorkommen wird als n
i dargestellt. Die Graustufe wird als L dargestellt. Die abgeglichenen Graustufenwerte werden als T
i, dargestellt, und die kumulative Verteilungsfunktion wird wie folgt beschrieben:
-
Gemäß einer Ausführungsform beurteilt die Recheneinheit gemäß einer Farbe der Highlight-Pixel im Highlight-Detektionsschritt, ob die Highlight-Pixel die Fahrzeugleuchte sind oder nicht. Wenn die Farbe der Highlight-Pixel rot ist, bestimmt die Recheneinheit, dass die Highlight-Pixel die Fahrzeugleuchte sind, die ein Rücklicht ist. Wenn die Farbe der Highlight-Pixel weiß ist, bestimmt die Recheneinheit, dass die Highlight-Pixel die Fahrzeugleuchte sind, die ein Vorderlicht ist.
-
Gemäß einer Ausführungsform werden die Highlight-Pixel im Fahrzeugleuchtenbeurteilungsschritt in mehrere Highlight-Pixelgruppen aufgeteilt. Die Highlight-Pixel jeder der Highlight-Pixelgruppen sind miteinander verbunden. Die Recheneinheit ist dazu ausgelegt, den Kennzeichnungsalgorithmus für in Verbindung stehende Bereiche durchzuführen, um die Highlight-Pixelgruppen jeweils als mehrere Werte in Verbindung stehender Bereiche zu kennzeichnen, und dann ist die Recheneinheit dazu ausgelegt, den Flächenfilteralgorithmus durchzuführen, um die Fläche jeder der Highlight-Pixelgruppen zu analysieren und gemäß der Größe der Fläche zu beurteilen, ob jede der Highlight-Pixelgruppen die Fahrzeugleuchte ist oder nicht.
-
Gemäß einer Ausführungsform ist die Recheneinheit im Fahrzeugleuchtenbeurteilungsschritt dazu ausgelegt, einen Analysealgorithmus für geometrische Proportionen durchzuführen, um eine geometrische Proportion der Highlight-Pixel zu analysieren, die als der Wert in Verbindung stehender Bereiche gekennzeichnet sind, und dann gemäß der geometrischen Proportion zu beurteilen, ob die Highlight-Pixel, die als der Wert in Verbindung stehender Bereiche gekennzeichnet sind, die Fahrzeugleuchte sind oder nicht.
-
Figurenliste
-
Die vorliegende Offenbarung kann besser verstanden werden, indem die folgende ausführliche Beschreibung der Ausführungsform gelesen wird, wobei auf die zugehörigen Zeichnungen wie folgt Bezug genommen wird:
- 1 zeigt ein Flussdiagramm eines Verfahrens zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität gemäß einer Ausführungsform der vorliegenden Offenbarung.
- 2 zeigt eine schematische Ansicht eines fahrenden Fahrzeugs und eines Vorderfahrzeugs aus 1.
- 3 zeigt ein Flussdiagramm eines Verfahrens zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität gemäß einer anderen Ausführungsform der vorliegenden Offenbarung.
- 4 zeigt eine schematische Ansicht eines Histogrammabgleichsschritts aus 3.
- 5 zeigt eine schematische Ansicht eines Kennzeichnungsalgorithmus für in Verbindung stehende Bereiche aus 3.
- 6 zeigt eine schematische Ansicht eines Flächenfilteralgorithmus aus 3.
- 7 zeigt ein Bild, das von einer Kamera in einem Highlight-Detektionsschritt des Verfahrens zur Fahrzeugdetektion bei Nacht aus 3 erfasst worden ist.
- 8 zeigt ein Graustufenbild, das durch Transformation des Bildes aus 7 generiert worden ist.
- 9 zeigt ein abgeglichenes Bild, das durch Durchführen eines Histogrammabgleichsschritts am Graustufenbild aus 8 generiert worden ist.
- 10 zeigt ein Helligkeitsfilterbild, das durch Durchführen eines Helligkeitsmerkmalsextraktionsschritts am abgeglichenen Bild aus 9 generiert worden ist.
- 11 zeigt ein Kennzeichnungsbild für in Verbindung stehende Bereiche, das durch Durchführen eines Kennzeichnungsalgorithmus für in Verbindung stehende Bereiche am Helligkeitsfilterbild aus 10 generiert worden ist.
- 12 zeigt ein Fahrzeugleuchtenkandidatenbild, das durch Durchführen eines Analysealgorithmus für geometrische Proportionen und des Flächenfilteralgorithmus am Kennzeichnungsbild für in Verbindung stehende Bereiche aus 11 generiert worden ist.
- 13A zeigt ein Abstandsschätzbild, das durch Durchführen eines Filterschritts für den optischen Fluss und eines Abstandsschätzschritts am Fahrzeugleuchtenkandidatenbild aus 12 generiert worden ist.
- 13B zeigt eine Tiefe einer linken Fahrzeugleuchte des Abstandsschätzbilds aus 13A.
- 13C zeigt eine Tiefe einer rechten Fahrzeugleuchte des Abstandsschätzbilds aus 13A.
- 14 zeigt ein Blockdiagramm eines Systems zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität gemäß einer weiteren anderen Ausführungsform der vorliegenden Offenbarung.
- 15 zeigt ein Flussdiagramm eines Verfahrens zur Fahrzeugdetektion gemäß einer weiteren anderen Ausführungsform der vorliegenden Offenbarung.
-
AUSFÜHRLICHE BESCHREIBUNG
-
Die Ausführungsform wird mit den Zeichnungen beschrieben. Der Übersichtlichkeit halber werden nachstehend einige praktische Details beschrieben. Allerdings sei angemerkt, dass die vorliegende Offenbarung nicht durch die praktischen Details beschränkt werden soll, das heißt, in einigen Ausführungsformen sind die praktischen Details nicht erforderlich. Um die Zeichnungen zu vereinfachen, werden zusätzlich einige konventionelle Strukturen und Elemente einfach veranschaulicht, und wiederholte Elemente können durch die gleichen Kennzeichnungen dargestellt sein.
-
Es versteht sich, dass, wenn ein Element (oder Mechanismus oder Modul) als auf einem anderen Element „angeordnet“ oder mit einem anderen Element „verbunden“ bezeichnet wird, es direkt auf dem anderen Element angeordnet oder direkt mit dem anderen Element verbunden sein kann oder dass es indirekt auf dem anderen Element angeordnet oder indirekt mit dem anderen Element verbunden sein kann, das heißt, zwischengeschaltete Elemente können vorhanden sein. Wenn dagegen ein Element als „direkt angeordnet“ auf einem anderen Element oder als mit einem anderen Element „direkt verbunden“ bezeichnet wird, sind keine zwischengeschalteten Elemente vorhanden. Zusätzlich werden die Begriffe erster, zweiter, dritter usw. hier verwendet, um verschiedene Elemente oder Komponenten zu beschreiben, diese Elemente oder Komponenten sollten nicht durch diese Begriffe eingeschränkt werden. Folglich könnte ein nachstehend erörtertes erstes Element oder eine erste Komponente als ein zweites Element oder eine zweite Komponente bezeichnet werden.
-
1 zeigt ein Flussdiagramm eines Verfahrens 100 zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität gemäß einer Ausführungsform der vorliegenden Offenbarung. 2 zeigt eine schematische Ansicht eines fahrenden Fahrzeugs 110a und eines Vorderfahrzeugs 110b aus 1. Das Verfahren 100 zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität dient dazu, einen Abstand Y zwischen der Kamera 300 des fahrenden Fahrzeugs 110a und der Fahrzeugleuchte des Vorderfahrzeugs 110b bei Nacht zu detektieren. Das Verfahren 100 zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität beinhaltet einen Highlight-Detektionsschritt S12, einen Fahrzeugleuchtenbeurteilungsschritt S14, einen Filterschritt S16 für den optischen Fluss und einen Abstandsschätzschritt S18.
-
Der Highlight-Detektionsschritt S12 dient dazu, ein Bild durch eine Kamera 300 zu erfassen und eine Recheneinheit 400 dazu anzusteuern, das Bild zu berechnen und dann einen Highlight-Punkt des Bildes zu detektieren. Der Highlight-Punkt enthält mehrere Highlight-Pixel, und die Kamera 300 und die Recheneinheit 400 sind am fahrenden Fahrzeug 110a angeordnet. Der Fahrzeugleuchtenbeurteilungsschritt S14 dient dazu, die Recheneinheit 400 dazu anzusteuern, einen Kennzeichnungsalgorithmus für in Verbindung stehende Bereiche durchzuführen, um die Highlight-Pixel, die miteinander verbunden sind, als einen Wert in Verbindung stehender Bereiche zu kennzeichnen, und dann einen Flächenfilteralgorithmus durchzuführen, um eine Fläche der miteinander verbundenen Highlight-Pixel zu analysieren und gemäß einer Größe der Fläche zu beurteilen, ob die miteinander verbundenen Highlight-Pixel eine Fahrzeugleuchte sind oder nicht. Der Filterschritt S16 für den optischen Fluss dient dazu, die Recheneinheit 400 dazu anzusteuern, einen Algorithmus für den optischen Fluss durchzuführen, um eine Geschwindigkeit Vb der Fahrzeugleuchte zu ermitteln, und dann die Fahrzeugleuchte zu filtern, die mit der Geschwindigkeit Vb bewegt wird, die kleiner als eine vorbestimmte Geschwindigkeit ist. Das fahrende Fahrzeug 110a wird mit einer Geschwindigkeit Va bewegt. Das Vorderfahrzeug 110b wird mit der Geschwindigkeit Vb bewegt. Der Abstandsschätzschritt S18 dient dazu, die Recheneinheit 400 dazu anzusteuern, einen Koordinatenumwandlungsalgorithmus durchzuführen, um den Abstand Y zwischen der Kamera 300 und der Fahrzeugleuchte (z. B. einer Heckleuchte des Vorderfahrzeugs 110b) zu ermitteln, die mit der Geschwindigkeit Vb bewegt wird, die größer als oder gleich der vorbestimmten Geschwindigkeit ist. Daher nutzt das Verfahren 100 zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität der vorliegenden Offenbarung Bildverarbeitungstechniken, um den Highlight-Punkt des Bildes zu detektieren, und der Algorithmus für den optischen Fluss wird verwendet, um Störsignale, die sich außerhalb einer eigentlichen Fahrspur befinden, zu beseitigen, um so eine genaue Position der Fahrzeugleuchte in Echtzeit zu ermitteln. Zusätzlich können die Bildverarbeitungstechniken der vorliegenden Offenbarung die Rechenkomplexität stark reduzieren und sind einfacher als konventionelle Klassifikatoren (z. B. eine radiale Basisfunktion (RBF) oder eine Support Vector Machine (SVM)), um so eine Datenverarbeitungsgeschwindigkeit zu verbessern. Das Vorderfahrzeug 110b der vorliegenden Offenbarung ist ein Kraftwagen, ist aber nicht darauf beschränkt. Das Vorderfahrzeug 110b kann ein Motorrad oder irgendein anderes Fahrzeug sein, das die Fahrzeugleuchte aufweist.
-
3 zeigt ein Flussdiagramm eines Verfahrens 100a zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität gemäß einer anderen Ausführungsform der vorliegenden Offenbarung. 4 zeigt eine schematische Ansicht eines Histogrammabgleichsschritts S222 aus 3. 5 zeigt eine schematische Ansicht eines Kennzeichnungsalgorithmus S242 für in Verbindung stehende Bereiche aus 3. 6 zeigt eine schematische Ansicht eines Flächenfilteralgorithmus S244 aus 3. 7 zeigt ein Bild 120, das von einer Kamera 300 in einem Highlight-Detektionsschritt S22 des Verfahrens 100a zur Fahrzeugdetektion bei Nacht aus 3 erfasst worden ist. 8 zeigt ein Graustufenbild 130, das durch Transformation des Bildes 120 aus 7 generiert worden ist. 9 zeigt ein abgeglichenes Bild 140, das durch Durchführen eines Histogrammabgleichsschritts S222 am Graustufenbild 130 aus 8 generiert worden ist. 10 zeigt ein Helligkeitsfilterbild 150, das durch Durchführen eines Helligkeitsmerkmalsextraktionsschritts S224 am abgeglichenen Bild 140 aus 9 generiert worden ist. 11 zeigt ein Kennzeichnungsbild 160 für in Verbindung stehende Bereiche, das durch Durchführen eines Kennzeichnungsalgorithmus S242 für in Verbindung stehende Bereiche am Helligkeitsfilterbild 150 aus 10 generiert worden ist. 12 zeigt ein Fahrzeugleuchtenkandidatenbild 170, das durch Durchführen eines Flächenfilteralgorithmus S244 und eines Analysealgorithmus S246 für geometrische Proportionen am Kennzeichnungsbild 160 für in Verbindung stehende Bereiche aus 11 generiert worden ist. 13A zeigt ein Abstandsschätzbild 190, das durch Durchführen eines Filterschritts S26 für den optischen Fluss und eines Abstandsschätzschritts S28 am Fahrzeugleuchtenkandidatenbild 170 aus 12 generiert worden ist. 13B zeigt eine Tiefe (X, Y) einer linken Fahrzeugleuchte 192 des Abstandsschätzbilds 190 aus 13A. 13C zeigt eine Tiefe (X, Y) einer rechten Fahrzeugleuchte 194 des Abstandsschätzbilds 190 aus 13A. Das Verfahren 100a zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität dient dazu, einen Abstand Y zwischen der Kamera 300 des fahrenden Fahrzeugs 110a und der Fahrzeugleuchte des Vorderfahrzeugs 110b bei Nacht zu detektieren. Das Verfahren 100a zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität beinhaltet einen Highlight-Detektionsschritt S22, einen Fahrzeugleuchtenbeurteilungsschritt S24, einen Filterschritt S26 für den optischen Fluss und einen Abstandsschätzschritt S28.
-
Der Highlight-Detektionsschritt
S22 dient dazu, das Bild
120 durch die Kamera
300 zu erfassen und eine Recheneinheit
400 dazu anzusteuern, das Bild
120 zu berechnen und dann einen Highlight-Punkt des Bildes
120 zu detektieren. Der Highlight-Punkt enthält mehrere Highlight-Pixel, und die Kamera
300 und die Recheneinheit
400 sind am fahrenden Fahrzeug
110a angeordnet. Im Einzelnen beinhaltet der Highlight-Detektionsschritt
S22 den Histogrammabgleichsschritt
S222 und den Helligkeitsmerkmalsextraktionsschritt
S224. Der Histogrammabgleichsschritt
S222 dient dazu, eine Anzahl von Vorkommen n
i jedes von mehreren Graustufenwerten i des Bildes
120 zu zählen und die Graustufenwerte i zu ändern, um mehrere abgeglichene Graustufenwerte T
i gemäß der Anzahl von Vorkommen n
i zu generieren. Der Helligkeitsmerkmalsextraktionsschritt
S224 dient dazu, einen Graustufenhelligkeitsschwellenwert T
1 einzustellen und jedes der Highlight-Pixel, dessen Helligkeitswert größer als der Graustufenhelligkeitsschwellenwert T
1 ist, zu extrahieren. Zusätzlich enthält der Histogrammabgleichsschritt
S222 eine statistische Histogrammverteilung, eine Wahrscheinlichkeitsdichtefunktion, eine kumulative Verteilungsfunktion und eine Lookup-Tabellenabbildungsfunktion. Die statistische Histogrammverteilung dient dazu, die Anzahl von Vorkommen n
i jedes von mehreren Graustufenwerten i des Graustufenbildes
130 zu zählen. Das Graustufenbild
130 wird durch Transformation des Bildes
120 generiert. Die Wahrscheinlichkeitsdichtefunktion dient dazu, eine Wahrscheinlichkeitsdichte n
i / n der Anzahl von Vorkommen n
i zu berechnen. Die kumulative Verteilungsfunktion dient dazu, die Graustufenwerte i zu ändern, um die abgeglichenen Graustufenwerte T
i zu generieren. Die Lookup-Tabellenabbildungsfunktion dient dazu, die abgeglichenen Graustufenwerte T
i auf eine nächste ganze Zahl L TI abzurunden. Die kumulative Verteilungsfunktion beinhaltet die Graustufenwerte i, die Anzahl von Vorkommen n
i, eine Graustufe L und die abgeglichenen Graustufenwerte T
i. Die kumulative Verteilungsfunktion wird wie folgt beschrieben:
-
Zum Beispiel listet die Tabelle 1 Ergebniswerte auf, die sequentiell durch die statistische Histogrammverteilung, die Wahrscheinlichkeitsdichtefunktion, die kumulative Verteilungsfunktion und die Lookup-Tabellenabbildungsfunktion gemäß einem 4-Bit-Graustufenbild 130 erzeugt worden sind.
4 zeigt eine schematische Ansicht der Anzahl von Vorkommen n
i jedes der Graustufenwerte i der Tabelle 1 im Histogrammabgleichsschritt
S222. In der Tabelle 1 und aus
4 kann der Histogrammabgleichsschritt
S222 der vorliegenden Offenbarung ermöglichen, dass die Verteilung der Graustufenwerte i mehr verteilt ist.
Tabelle 1
i | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 |
ni | 15 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
ni/n | 0,042 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
Ti | 0,63 | 0,63 | 0,63 | 0,63 | 0,63 | 0,63 | 0,63 | 0,63 |
LTI | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 1 |
i | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 |
ni | 0 | 70 | 110 | 45 | 80 | 40 | 0 | 0 |
ni/n | 0 | 0,194 | 0,306 | 0,125 | 0,222 | 0,111 | 0 | 0 |
Ti | 0,63 | 3,54 | 8,13 | 10,01 | 13,34 | 15 | 15 | 15 |
LTI | 1 | 4 | 8 | 10 | 13 | 15 | 15 | 15 |
-
Im Highlight-Detektionsschritt S22 beurteilt die Recheneinheit 400 gemäß einer Farbe der Highlight-Pixel, ob die Highlight-Pixel die Fahrzeugleuchte sind oder nicht. Außerdem kann der Highlight-Detektionsschritt S22 beurteilen, ob die Fahrzeugleuchte ein Vorderlicht oder ein Rücklicht ist. Wenn die Farbe der Highlight-Pixel rot ist, bestimmt die Recheneinheit 400, dass die Highlight-Pixel die Fahrzeugleuchte sind, die ein Rücklicht ist. Wenn die Farbe der Highlight-Pixel weiß ist, bestimmt die Recheneinheit 400, dass die Highlight-Pixel die Fahrzeugleuchte sind, die ein Vorderlicht ist.
-
Der Fahrzeugleuchtenbeurteilungsschritt S24 dient dazu, die Recheneinheit 400 dazu anzusteuern, den Kennzeichnungsalgorithmus S242 für in Verbindung stehende Bereiche durchzuführen, um die Highlight-Pixel, die miteinander verbunden sind, als einen Wert in Verbindung stehender Bereiche zu kennzeichnen, und dann den Flächenfilteralgorithmus S244 durchzuführen, um eine Fläche der miteinander verbundenen Highlight-Pixel zu analysieren und gemäß einer Größe der Fläche zu beurteilen, ob die miteinander verbundenen Highlight-Pixel eine Fahrzeugleuchte sind oder nicht. Der Kennzeichnungsalgorithmus S242 für in Verbindung stehende Bereiche dient dazu, die im Helligkeitsfilterbild 150 miteinander verbundenen Highlight-Pixel als einen Wert in Verbindung stehender Bereiche zu kennzeichnen, die somit als ein in Verbindung stehender Bereich betrachtet werden. Dann wird das Kennzeichnungsbild 160 für in Verbindung stehende Bereiche generiert, wie in der 5 gezeigt wird. Der Flächenfilteralgorithmus S244 dient dazu, die Fläche der miteinander verbundenen Highlight-Pixel zu filtern, die kleiner als ein vorbestimmter Flächenschwellenwert ist. Falls die Fläche der miteinander verbundenen Highlight-Pixel größer als oder gleich dem vorbestimmten Flächenschwellenwert ist, bestimmt die Recheneinheit 400, dass die miteinander verbundenen Highlight-Pixel die Fahrzeugleuchte sind und beibehalten werden müssen. Falls hingegen die Fläche der miteinander verbundenen Highlight-Pixel kleiner als der vorbestimmte Flächenschwellenwert ist, bestimmt die Recheneinheit 400, dass die miteinander verbundenen Highlight-Pixel nicht die Fahrzeugleuchte sind und entfernt werden müssen, wie in aus 6 gezeigt wird.
-
In einer Ausführungsform können die Highlight-Pixel in mehrere Highlight-Pixelgruppen aufgeteilt werden, und die Highlight-Pixel jeder der Highlight-Pixelgruppen werden miteinander im Fahrzeugleuchtenbeurteilungsschritt S24 verbunden. Die Recheneinheit 400 kann dazu ausgelegt sein, den Kennzeichnungsalgorithmus S242 für in Verbindung stehende Bereiche durchzuführen, um die Highlight-Pixelgruppen jeweils als mehrere Werte in Verbindung stehender Bereiche zu kennzeichnen, und dann ist die Recheneinheit 400 dazu ausgelegt, den Flächenfilteralgorithmus S244 durchzuführen, um die Fläche jeder der Highlight-Pixelgruppen zu analysieren und gemäß der Größe der Fläche zu beurteilen, ob jede der Highlight-Pixelgruppen die Fahrzeugleuchte ist oder nicht. Daher kann der Fahrzeugleuchtenbeurteilungsschritt S24 der vorliegenden Offenbarung die Highlight-Punkte, die unterschiedliche Positionen aufweisen, beurteilen.
-
In einer Ausführungsform kann die Recheneinheit 400 dazu ausgelegt sein, einen Analysealgorithmus S246 für geometrische Proportionen durchzuführen, um eine geometrische Proportion der Highlight-Pixel zu analysieren, die im Fahrzeugleuchtenbeurteilungsschritt S24 als Wert in Verbindung stehender Bereiche gekennzeichnet sind, und dann gemäß der geometrischen Proportion zu beurteilen, ob die als der Wert in Verbindung stehender Bereiche gekennzeichneten Highlight-Pixel die Fahrzeugleuchte sind oder nicht. Genauer gesagt: Falls die geometrische Proportion der Highlight-Pixel, die als der Wert in Verbindung stehender Bereiche gekennzeichnet sind, kleiner als oder gleich einer vorbestimmten geometrischen Proportion ist, bestimmt die Recheneinheit 400, dass die Highlight-Pixel, die als der Wert in Verbindung stehender Bereiche gekennzeichnet sind, die Fahrzeugleuchte sind und beibehalten werden müssen. Falls dagegen die geometrische Proportion der Highlight-Pixel, die als der Wert in Verbindung stehender Bereiche gekennzeichnet sind, größer als die vorbestimmte geometrische Proportion ist, bestimmt die Recheneinheit 400, dass die Highlight-Pixel, die als der Wert in Verbindung stehender Bereiche gekennzeichnet sind, nicht die Fahrzeugleuchte sind und entfernt werden müssen.
-
Der Filterschritt
S26 für den optischen Fluss dient dazu, die Recheneinheit
400 dazu anzusteuern, einen Algorithmus
S262 für den optischen Fluss durchzuführen, um eine Geschwindigkeit
Vb der Fahrzeugleuchte zu ermitteln, und dann die Fahrzeugleuchte zu filtern, die mit der Geschwindigkeit
Vb bewegt wird, die kleiner als eine vorbestimmte Geschwindigkeit ist. Genauer gesagt: Der Filterschritt
S26 für den optischen Fluss beinhaltet den Algorithmus
S262 für den optischen Fluss und einen Fahrzeugleuchtenfilterschritt
S264. Der Algorithmus
S262 für den optischen Fluss ist als ein Helligkeitsgradient jedes Pixels in sequentiellen Bildebenen definiert. Wenn die Fahrzeugleuchte im Raum auf die sequentiellen Bildebenen projiziert wird, ist der Helligkeitsgradient jedes Pixels konstant. Mit anderen Worten: In zwei benachbarten Bildebenen wird ein Pixel (Pi, Pj) zu unterschiedlichen Positionen bewegt, und der Helligkeitsgradient des Pixels ist konstant und kann wie folgt beschrieben werden:
-
Wobei I die Helligkeit darstellt, und i, j jeweilige Positionskoordinaten des Pixels (Pi, Pj) darstellen. t stellt die Zeit dar. δi, δj stellen jeweilige Bewegungsvektoren des Pixels (Pi, Pj) dar. δt stellt die Zeitabweichung dar. Unter einer Bedingung des konstanten Helligkeitsgradienten des Pixels kann der optische Fluss (d. h. die Geschwindigkeit
Vb der Fahrzeugleuchte), der durch eine Taylor-Reihenentwicklung und eine Differenzialgleichung generiert wird, wie folgt beschrieben werden:
-
Wobei u, v die Geschwindigkeiten in einer horizontalen Richtung bzw. in einer vertikalen Richtung darstellen. Zusätzlich dient der Fahrzeugleuchtenfilterschritt S264 zum Beurteilen, ob die im Fahrzeugleuchtenbeurteilungsschritt S24 beibehaltene Fahrzeugleuchte gemäß der Geschwindigkeit Vb der Fahrzeugleuchte und einer vorbestimmten statischen Geschwindigkeit eine dynamische Lichtcharakteristik aufweist oder nicht. Falls die Geschwindigkeit Vb der Fahrzeugleuchte kleiner als oder gleich der vorbestimmten statischen Geschwindigkeit ist, bestimmt die Recheneinheit 400, dass die Fahrzeugleuchte ein Störsignal ist und keine dynamische Lichtcharakteristik aufweist und dass die Fahrzeugleuchte entfernt werden muss. Falls dagegen die Geschwindigkeit Vb der Fahrzeugleuchte größer als die vorbestimmte statische Geschwindigkeit ist, bestimmt die Recheneinheit 400, dass die Fahrzeugleuchte die dynamische Lichtcharakteristik aufweist und dass die Fahrzeugleuchte beibehalten werden muss. Des Weiteren wird das fahrende Fahrzeug 110a mit einer Geschwindigkeit Va bewegt. Das Vorderfahrzeug 110b wird mit der Geschwindigkeit Vb bewegt. Die Kamera 300 und die Recheneinheit 400, die am fahrenden Fahrzeug 110a angeordnet sind, sind dazu ausgelegt, die Fahrzeugleuchte des Vorderfahrzeugs 110b zu detektieren. Falls die Geschwindigkeit Va und die Geschwindigkeit Vb bekannt sind, kann die Recheneinheit 400 gemäß einer relativen Geschwindigkeit zwischen der Geschwindigkeit Va und der Geschwindigkeit Vb beurteilen, ob die Fahrzeugleuchte des Vorderfahrzeugs 110b das Vorderlicht oder das Rücklicht ist. Falls die relative Geschwindigkeit größer als eine vorbestimmte Bewegungsgeschwindigkeit ist, bestimmt die Recheneinheit 400, dass die Fahrzeugleuchte das Vorderlicht ist. Falls dagegen die relative Geschwindigkeit kleiner als oder gleich der vorbestimmten Bewegungsgeschwindigkeit ist, bestimmt die Recheneinheit 400, dass die Fahrzeugleuchte das Rücklicht ist.
-
Der Abstandsschätzschritt S28 dient dazu, die Recheneinheit 400 dazu anzusteuern, einen Koordinatenumwandlungsalgorithmus durchzuführen, um den Abstand Y zwischen der Kamera 300 und der Fahrzeugleuchte, die mit der Geschwindigkeit Vb bewegt wird, die größer als oder gleich der vorbestimmten Geschwindigkeit ist, zu schätzen. Der Koordinatenumwandlungsalgorithmus dient dazu, die Positionskoordinaten der Fahrzeugleuchte, die die dynamische Lichtcharakteristik aufweist, in die Tiefe (X, Y) der Fahrzeugleuchte des Vorderfahrzeugs 110b gemäß einer Höhe der Kamera 300, einer Koordinate eines Fluchtpunkts einer Straße, einem X-Achsen-Proportionalkoeffizienten des Fokuspunkts der Kamera 300 und eines y-Achsen-Proportionalkoeffizienten des Fokuspunkts der Kamera 300 umzuwandeln. X stellt den Abstand in einer x-Achsenrichtung zwischen der Fahrzeugleuchte und einer virtuellen y-Achse vor der Kamera 300 dar. Y stellt den Abstand in einer y-Achsenrichtung zwischen der Fahrzeugleuchte und einer virtuellen x-Achse vor der Kamera 300 dar. Der Koordinatenumwandlungsalgorithmus kann unter Verwendung konventioneller Techniken durchgeführt werden, was hier nicht ausführlich beschrieben wird.
-
14 zeigt ein Blockdiagramm eines Systems 200 zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität gemäß einer weiteren anderen Ausführungsform der vorliegenden Offenbarung. In den 1, 2, 3, 7 und 14 kann das System 200 zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität verwendet werden, um die Verfahren 100, 100a zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität durchzuführen. Das System 200 zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität enthält eine Kamera 300 und eine Recheneinheit 400.
-
Die Kamera 300 ist an einem fahrenden Fahrzeug 110a angeordnet und dazu ausgelegt, ein Bild 120 zu erfassen. Ein Winkel- und Lichtaufnahmewirkungsgrad der Kamera 300 kann gemäß mehreren Umgebungsparametern eingestellt werden. Zu den Umgebungsparametern zählen eine Umgebungshelligkeit und eine Tag-/Nachtdetektion.
-
Die Recheneinheit 400 ist am fahrenden Fahrzeug 110a angeordnet und enthält ein Highlight-Detektionsmodul 410, ein Fahrzeugleuchtenbeurteilungsmodul 420, ein Filtermodul 430 für den optischen Fluss und ein Abstandsschätzmodul 440. Das Highlight-Detektionsmodul 410 ist über Signale mit der Kamera 300 verbunden. Das Highlight-Detektionsmodul 410 ist dazu ausgelegt, das Bild 120 zu berechnen und dann einen Highlight-Punkt des Bildes 120 zu detektieren, wobei der Highlight-Punkt mehrere Highlight-Pixel enthält. Das Highlight-Detektionsmodul 410 wird verwendet, um die Highlight-Detektionsschritte S12, S22 durchzuführen. Das Fahrzeugleuchtenbeurteilungsmodul 420 ist über Signale mit dem Highlight-Detektionsmodul 410 verbunden. Das Fahrzeugleuchtenbeurteilungsmodul 420 ist dazu ausgelegt, einen Kennzeichnungsalgorithmus S242 für in Verbindung stehende Bereiche durchzuführen, um die Highlight-Pixel, die miteinander verbunden sind, als einen Wert in Verbindung stehender Bereiche zu kennzeichnen. Das Fahrzeugleuchtenbeurteilungsmodul 420 ist dazu ausgelegt, dann einen Flächenfilteralgorithmus S244 durchzuführen, um eine Fläche der miteinander verbundenen Highlight-Pixel zu analysieren und gemäß einer Größe der Fläche zu beurteilen, ob die miteinander verbundenen Highlight-Pixel eine Fahrzeugleuchte sind oder nicht. Das Fahrzeugleuchtenbeurteilungsmodul 420 wird verwendet, um die Fahrzeugleuchtenbeurteilungsschritte S14, S24 durchzuführen. Das Filtermodul 430 für den optischen Fluss ist über Signale mit dem Fahrzeugleuchtenbeurteilungsmodul 420 verbunden. Das Filtermodul 430 für den optischen Fluss ist dazu ausgelegt, einen Algorithmus S262 für den optischen Fluss durchzuführen, um eine Geschwindigkeit Vb der Fahrzeugleuchte zu ermitteln, und dann die Fahrzeugleuchte zu filtern, die mit der Geschwindigkeit Vb bewegt wird, die geringer als eine vorbestimmte Geschwindigkeit ist. Das Filtermodul 430 für den optischen Fluss wird verwendet, um die Filterschritte S16, S26 für den optischen Fluss durchzuführen. Das Abstandsschätzmodul 440 ist über Signale mit dem Filtermodul 430 für den optischen Fluss verbunden. Das Abstandsschätzmodul 440 ist dazu ausgelegt, einen Koordinatenumwandlungsalgorithmus durchzuführen, um einen Abstand Y zwischen der Fahrzeugleuchte und der Kamera 300 zu schätzen. Das Abstandsschätzmodul 440 wird verwendet, um die Abstandsschätzschritte S18, S28 durchzuführen. Zusätzlich kann die Recheneinheit 400 ein Personal Computer, eine elektronische Steuereinheit (ECU, Electronic Control Unit), ein Mikroprozessor oder andere elektronische Controller zur Verwendung in einem fahrenden Fahrzeug 110a sein. In einer Ausführungsform nutzt das Punktwolkenverarbeitungsmodul 140 die elektronische Steuereinheit zur Verarbeitung. Daher nutzt das System 200 zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität der vorliegenden Offenbarung die Verfahren 100, 100a zur Fahrzeugdetektion bei Nacht, um die Rechenkomplexität stark zu reduzieren, und ist einfacher als konventionelle Klassifikatoren, um so eine Datenverarbeitungsgeschwindigkeit zu verbessern.
-
15 zeigt ein Flussdiagramm eines Verfahrens 500 zur Fahrzeugdetektion gemäß noch einer weiteren anderen Ausführungsform der vorliegenden Offenbarung. In den 1, 2, 3, 7, und 15 dient das Fahrzeugdetektionsverfahren 500 zum Detektieren eines Vorderfahrzeugs 110b eines Bildes und beinhaltet einen Bildanalyseschritt 510 und einen Fahrzeugdetektionsschritt 520.
-
Der Bildanalyseschritt 510 dient dazu, ein Bild durch eine Kamera 300 zu erfassen und eine Recheneinheit 400 dazu anzusteuern, einen Himmelshelligkeitswert eines Himmelsbereichs des Bildes zu analysieren und einen vorbestimmten Helligkeitswert mit dem Himmelshelligkeitswert zu vergleichen, um zu beurteilen, ob das Bild vom Tage oder aus der Nacht ist. Die Kamera 300 und die Recheneinheit 400 sind an einem fahrenden Fahrzeug 110a angeordnet.
-
Der Fahrzeugdetektionsschritt 520 dient dazu, die Recheneinheit 400 dazu anzusteuern, einen Schritt 600 der Fahrzeugdetektion am Tag oder einen Schritt 700 der Fahrzeugdetektion bei Nacht durchzuführen. Wenn das Bild vom Tag ist, wird der Schritt 600 der Fahrzeugdetektion am Tag durchgeführt. Wenn das Bild aus der Nacht ist, wird der Schritt 700 der Fahrzeugdetektion bei Nacht durchgeführt. Genauer gesagt: Der Schritt 600 der Fahrzeugdetektion am Tag dient dazu, einen Abstand Y zwischen dem Vorderfahrzeug 110b und der Kamera 300 gemäß einem Auffahrwarn- (Forward Collision Warning, FCW-) Algorithmus 610 zu detektieren. Der Auffahrwarnalgorithmus 610 nutzt ein Verfahren zur Fahrspurlinienidentifizierung, um eine Fahrspurlinie des Bildes zu identifizieren, und beurteilt dann gemäß einem Verfahren zur Vorderfahrzeugidentifizierung, ob ein relativer Abstand zwischen dem fahrenden Fahrzeug 110a und dem Vorderfahrzeug 110b sicher ist oder nicht. Das Verfahren zur Vorderfahrzeugidentifizierung verwendet eine Kantendetektion, um Merkmale des Vorderfahrzeugs 110b aus dem Bild zu ermitteln, wie zum Beispiel eine Schattenkante des Fahrzeugs (eine horizontale Kante) und zwei symmetrische Kanten des Fahrzeugs (zwei vertikale Kanten). Die Merkmale des Vorderfahrzeugs 110b können durch die Kantendetektion ermittelt werden, damit sie als ein Objekt klassifiziert werden. Das Objekt weist eine Objektbreite und eine Objekthöhe auf. Dann werden die Objektbreite und die Objekthöhe verwendet, um zu beurteilen, ob das Objekt ein Fahrzeug ist oder nicht, und mehrere Pixelpositionen des Vorderfahrzeugs 110b im Bild zu bestimmen. Schließlich kann ein Abstand zwischen dem fahrenden Fahrzeug 110a und dem Vorderfahrzeug 110b über ein Vorderabstandsschätzmodell geschätzt werden. Das Verfahren zur Fahrspurlinienidentifizierung und das Vorderabstandsschätzmodell können unter Verwendung konventioneller Techniken durchgeführt werden, die hier nicht ausführlich beschrieben werden. Außerdem beinhaltet der Schritt 700 zur Fahrzeugdetektion bei Nacht einen Highlight-Detektionsschritt S12, einen Fahrzeugleuchtenbeurteilungsschritt S14, einen Filterschritt S16 für den optischen Fluss und einen Abstandsschätzschritt S18. In aus 15 sind die Einzelheiten des Highlight-Detektionsschritts S12, des Fahrzeugleuchtenbeurteilungsschritts S14, des Filterschritts S16 für den optischen Fluss und des Abstandsschätzschritts S18 die gleichen wie die Ausführungsformen aus 1 und werden hier nicht erneut beschrieben. Dementsprechend können der Schritt 600 zur Fahrzeugdetektion am Tag und der Schritt 700 zur Fahrzeugdetektion bei Nacht des Verfahrens 500 zur Fahrzeugdetektion der vorliegenden Offenbarung adaptiv gemäß dem Bild ausgewählt werden, so dass sofort eine genauere Position der Fahrzeugleuchte am Tag oder in der Nacht ermittelt werden kann.
-
Gemäß den oben erwähnten Ausführungsformen und Beispielen werden die Vorteile der vorliegenden Offenbarung wie folgt beschrieben.
- 1. Das Verfahren zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität der vorliegenden Offenbarung nutzt Bildverarbeitungstechniken, um den Highlight-Punkt des Bildes zu detektieren, und der Algorithmus für den optischen Fluss wird verwendet, um Störsignale, die sich außerhalb einer eigentlichen Fahrspur befinden, zu beseitigen, um so eine genaue Position der Fahrzeugleuchte in Echtzeit zu ermitteln.
- 2. Das System zur Fahrzeugdetektion bei Nacht auf Basis von dynamischer Lichtintensität der vorliegenden Offenbarung nutzt das Verfahren zur Fahrzeugdetektion bei Nacht, um die Rechenkomplexität stark zu reduzieren, und ist einfacher als konventionelle Klassifikatoren, um so eine Datenverarbeitungsgeschwindigkeit zu verbessern.
- 3. Der Schritt zur Fahrzeugdetektion am Tag und der Schritt zur Fahrzeugdetektion bei Nacht des Verfahrens zur Fahrzeugdetektion der vorliegenden Offenbarung können adaptiv gemäß dem Bild ausgewählt werden, so dass sofort eine genauere Position der Fahrzeugleuchte am Tag oder in der Nacht ermittelt werden kann.
- 4. Das Vorderfahrzeug der vorliegenden Offenbarung ist ein Kraftwagen, ist aber nicht darauf beschränkt. Das Vorderfahrzeug kann ein Motorrad oder irgendein anderes Fahrzeug sein, das die Fahrzeugleuchte aufweist, um die Anwendbarkeit stark zu erhöhen.