DE102013214468A1 - Objektdetektionseinrichtung und -verfahren für ein Fahrzeug - Google Patents

Objektdetektionseinrichtung und -verfahren für ein Fahrzeug Download PDF

Info

Publication number
DE102013214468A1
DE102013214468A1 DE102013214468.7A DE102013214468A DE102013214468A1 DE 102013214468 A1 DE102013214468 A1 DE 102013214468A1 DE 102013214468 A DE102013214468 A DE 102013214468A DE 102013214468 A1 DE102013214468 A1 DE 102013214468A1
Authority
DE
Germany
Prior art keywords
values
wavelength
object detection
pixel data
raw data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102013214468.7A
Other languages
English (en)
Inventor
Sung Jin SEO
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Mobis Co Ltd
Original Assignee
Hyundai Mobis Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Mobis Co Ltd filed Critical Hyundai Mobis Co Ltd
Publication of DE102013214468A1 publication Critical patent/DE102013214468A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

Es ist eine Objektdetektionseinrichtung vorgesehen, bei der ein normaler Kamerasensor verwendet wird zum Einstellen einer Detektionsempfindlichkeit gegenüber einem Objekt (Fußgänger oder Tier) selbst in einem urbanen Bereich, in dem die Streureflexion einer Lichtquelle stark ist. Die Objektdetektionseinrichtung überwindet die Einschränkungen einer dem Stand der Technik entsprechenden Objektdetektionseinrichtung, bei der eine Wärmebildkamera verwendet wird, die nicht in der Lage ist, eine Detektionsempfindlichkeit gegenüber einem Hindernis (Fußgänger oder Tier) in einem urbanen Bereich einzustellen, in dem die Streureflexion einer Lichtquelle stark ist.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung beansprucht Priorität gemäß U.S.C. § 119 der Koreaischen Patentanmeldung Nr. 10-2012-0089498 , eingereicht am 16. August 2012, deren gesamter Inhalt hiermit zum Gegenstand der vorliegenden Offenbarung gemacht ist.
  • TECHNISCHES SACHGEBIET
  • Die vorliegende Offenbarung betrifft ein(e) Objektdetektionseinrichtung und -verfahren für Fahrzeuge, insbesondere eine Objektdetektionseinrichtung, bei der ein normaler Kamerasensor verwendet wird und ein Detektionsverfahren zum Einstellen einer Detektionsempfindlichkeit gegenüber einem Objekt (Fußgänger oder Tier) selbst in einem urbanen Bereich, in dem die Streureflexion einer Lichtquelle stark ist.
  • HINTERGRUND
  • Im Wesentlichen erfassen Wärmebildkameras, bei denen fernes Infrarot-(far-infrared FIR-)Licht verwendet wird, keinen Bereich mit sichtbarem Licht, sondern erfassen einen fernen Infrarotbereich. Das heißt, dass die Wärmebildkamera eine Infrarot-Wärmeenergie erfasst, die von einem Subjekt erzeugt wird, und das Erfassungsergebnis als ein Wärmebild erhält. Aufgrund dieser Charakteristik können die Wärmebildkameras verwendet werden, um eine Person mit einer Körpertemperatur zu erfassen.
  • Seit kurzer Zeit wird eine Fußgängerdetektionseinrichtung, bei der eine FIR-Kamera verwendet wird, in Fahrzeugen eingesetzt. Die in einem Fahrzeug eingesetzte FIR-Kamera muss eine konsistente Detektionsleistung unabhängig von einer aktuellen Fahrumgebung des Fahrzeugs bieten. Das heißt, dass die in einem Fahrzeug eingesetzte FIR-Kamera eine konsistente Detektionsleistung bieten muss selbst in einem urbanen Bereich, in dem eine Streureflexion aufgrund von Umgebungslichtquellen stark ist, oder in einem außerstädtischen Bereich, in dem eine Streureflexion aufgrund von Umgebungslichtquellen nicht stark ist.
  • Daher ist eine Funktion des Einstellens einer Detektionsempfindlichkeit grundsätzlich einer in einem Fahrzeug eingesetzten, dem Stand der Technik entsprechende FIR-Kamera hinzugefügt, damit diese eine konsistente Detektionsleistung bietet. Mit der Empfindlichkeitseinstellfunktion wird die Einstellgröße einer Abstrahltemperaturdifferenz zwischen Objekten für eine Wärmebildaufnahme eingestellt, wodurch die Detektionsempfindlichkeit eingestellt wird.
  • Es gibt jedoch eine Beschränkung beim Einstellen der Detektionsempfindlichkeit in einem urbanen Bereich, in dem die Streureflexion von Licht, das von einem Gebäude in der Umgebung emittiert wird, die Streureflexion von Licht, das von einer Anschlagtafel, die an einem Gebäude in der Umgebung angebracht ist, emittiert wird und insbesondere die Streureflexion von Licht von vorderen und hinteren Fahrzeugen stark ist. Ferner sind FIR-Kameras eine teure Ausrüstung, wie aber vorstehend beschrieben ist, können die FIR-Kameras eine dem Preis entsprechende Detektionsleistung, die ein Benutzer wünscht, in einem urbanen Bereich, in dem eine Streureflexion stark ist, nicht auf zufriedenstellende Weise erbringen.
  • Ferner ist es möglich, einen Fußgänger mit einer Komplementär-Metalloxid-Silizium-(complementary metal-oxid-silicon CMOS-)Kamera, die relativ kostengünstiger ist als FIR-Kameras, zu detektieren. CMOS-Kameras erhalten jedoch kein Bild eines Subjekts, sondern erfassen eine Infrarot-Wärmeenergie, die von dem Subjekt erzeugt wird, und weisen somit keine Empfindlichkeitseinstellfunktion auf, bei der die Abstrahltemperaturdifferenz eines Subjekts verwendet wird. Das heißt, dass in einem urbanen Bereich, in dem eine Streureflexion stark ist, diese insbesondere nicht in der Lage sind, nachts einen Fußgänger zu detektieren und, wie bei FIR-Kameras, ist es schwierig, eindeutig zu bestimmen, ob ein Objekt ein Fußgänger oder ein Tier ist.
  • ZUSAMMENFASSENDER ÜBERBLICK
  • Entsprechend stellt die vorliegende Offenbarung eine Objektdetektionseinrichtung zum genauen Detektieren eines Subjekts selbst in einem urbanen Bereich, in dem aufgrund einer Anzahl von Lichtquellen eine Streureflexion stark ist, bereit.
  • Die vorliegende Offenbarung schafft ferner ein Objektdetektionsverfahren, bei dem die Objektdetektionseinrichtung verwendet wird.
  • Bei einem allgemeinen Aspekt umfasst eine Objektdetektionseinrichtung, die ein Ausgangsbild ausgibt mit keinem anderen in einem Hintergrund hinzugefügten Licht-Bild als einem Objekt, wenn das Objekt aus einem das Objekt enthaltenen Bild extrahiert wird. einen Sensor, der Licht mit einem spezifischen Wellenlängenband zum Ausgeben einer Vielzahl von Rohdaten, die dem erfassten Licht entsprechen, erfasst; eine Pixeldaten-Extraktionseinrichtung, die eine Vielzahl von Pixeldaten aus der Vielzahl von Rohdaten extrahiert, wobei die Pixeldaten-Extraktionseinrichtung Transmissivitäten für das Wellenlängenband jedes der Rohdaten analysiert und die Vielzahl von Pixeldaten, die aus R-, G- und B-Werten gebildet sind, aus den jeweiligen Rohdaten mit der analysierten Transmissivität extrahiert; eine Referenzwellenlängenwert-Extraktionseinrichtung, die eine arithmetische Operation an den R-, G- und B-Werten durchführt, um Korrekturwellenlängenwerte für Pixeldaten zu berechnen, die berechneten Korrekturwellenlängenwerte vergleicht und einen der Korrekturwellenlängenwerte als einen Referenzwellenlängenwert entsprechend dem Analyseergebnis extrahiert; und einen Datenselektor, der die Vielzahl von Pixeldaten empfängt, Pixeldaten mit einem Wellenlängenwert, der größer ist als der Referenzwellenlängenwert, selektiv aus der Vielzahl von Pixeldaten ausgibt und eine Detektionsempfindlichkeit des Sensors einstellt.
  • Bei einem weiteren allgemeinen Aspekt umfasst ein Objektdetektionsverfahren: Erfassen von Licht mit einem spezifischen Wellenlängenband mittels eines Sensors zum Ausgeben einer Vielzahl von Rohdaten, die dem erfassten Licht entsprechen; Extrahieren einer Vielzahl von Pixeldaten aus der Vielzahl von Rohdaten, wobei Transmissivitäten für das Wellenlängenband jedes der Rohdaten analysiert werden und die Vielzahl von Pixeldaten, die aus R-, G- und B-Werten gebildet sind, aus den jeweiligen Rohdaten mit der analysierten Transmissivität extrahiert werden; Durchführen einer arithmetischen Operation an den R-, G- und B-Werten, um Korrekturwellenlängenwerte für Pixeldaten zu berechnen; Vergleichen der berechneten Korrekturwellenlängenwerte und Extrahieren eines der Korrekturwellenlängenwerte als einen Referenzwellenlängenwert entsprechend dem Analyseergebnis; und Auswählen von Pixeldaten mit einem Wellenlängenwert, der größer ist als der Referenzwellenlängenwert, aus der Vielzahl von Pixeldaten, um eine Detektionsempfindlichkeit des Sensors auf der Basis der Referenzwellenlängenwerte einzustellen.
  • Weitere Merkmale und Aspekte werden anhand der folgenden detaillierten Beschreibung, der Zeichnungen und der Patentansprüche offensichtlich.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Blockschaltbild mit Darstellung von Hauptelementen einer Objektdetektionseinrichtung nach einer Ausführungsform der vorliegenden Erfindung.
  • 2 zeigt ein Ablaufdiagramm mit Darstellung eines Objektdetektionsverfahrens nach einer Ausführungsform der vorliegenden Erfindung.
  • 3 zeigt ein Diagramm, das schematisch eine Operation zum Setzen eines Referenzwellenlängenwerts "L" bei Operation S224 in 2 darstellt.
  • DETAILLIERTE BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
  • Ausführungsbeispiele der vorliegenden Erfindung, die von Fachleuten leicht ausgeführt werden können, werden nun mit Bezug auf die beiliegenden Zeichnungen näher erläutert. Die vorliegende Erfindung kann jedoch in vielen unterschiedlichen Formen ausgeführt werden und darf nicht als auf die hier dargestellten Ausführungsformen beschränkt angesehen werden. In den beiliegenden Zeichnungen ist ein Teil, der für die Beschreibung der vorliegenden Erfindung irrelevant ist, aus Gründen der Klarheit weggelassen worden. Gleiche Bezugszeichen beziehen sich durchgehend auf gleiche Elemente.
  • Hinsichtlich dieser nachstehend beschriebenen Offenbarung sei darauf hingewiesen, dass dann, wenn beschrieben ist, dass ein Teil einige Elemente umfasst (oder aufweist oder besitzt), es nur diese Elemente umfassen (oder aufweisen oder besitzen) kann oder andere Elemente neben diesen Elementen umfassen (oder aufweisen oder besitzen) kann, wenn keine besondere Einschränkung vorgesehen ist. Ferner bezeichnet jeder der Ausdrücke wie z. B. "...einheit", "...teil" und "...einrichtung", die in der Beschreibung dargestellt sind, ein Element zum Durchführen von mindestens einer Funktion oder Operation und kann in Hardware, Software oder der Kombination aus Hardware und Software implementiert sein.
  • 1 zeigt ein Blockschaltbild mit Darstellung von Hauptelementen einer Objektdetektionseinrichtung nach einer Ausführungsform der vorliegenden Erfindung.
  • Wie in 1 gezeigt ist, wird bei einer Objektdetektionseinrichtung 100 nach einer Ausführungsform der vorliegenden Erfindung eine Detektionsempfindlichkeit gegenüber einem Objekt (Fußgänger oder Tier) selbst in einer Umgebung eingestellt, wie z. B. einem urbanen Bereich, in dem eine Vielzahl von Lichtquellen nahe dem zu detektierenden Objekt angeordnet ist. Die Objektdetektionseinrichtung 100 gibt ein Ausgangsbild aus mit keinem anderen in einem Hintergrund hinzugefügten Licht-Bild als einem Objekt, wenn sie das Objekt aus einem das Objekt enthaltenen Bild extrahiert.
  • Zu diesem Zweck weist die Objektdetektionseinrichtung 100 einen Sensor 110, eine Pixeldaten-Extraktionseinrichtung 120, eine Referenzwellenlängenwert-Extraktionseinrichtung 130, einen Datenselektor 140 und einen Bildgenerator 150 auf.
  • Der Sensor 110 ist ein Bildsensor, der Objekt-(oder Subjekt-)Informationen erfasst und die erfassten Informationen in ein elektrisches Bildsignal umwandelt. Der Sensor 110 erfasst Licht mit einem spezifischen Wellenlängenband von 300 nm bis 1500 nm und erzeugt eine Vielzahl von Rohdaten, die dem erfassten Licht entsprechen. In erster Linie kann anstelle der bestehenden teuren Wärmebildkamera ein kostengünstiger normaler Kamerasensor, der Licht mit einem spezifischen Wellenlängenband erfasst, verwendet werden. Zum Beispiel kann ein Ladungskopplungsvorrichtungs-(charge-coupled device CCD-)Bildsensor oder ein CMOS-Bildsensor verwendet werden. Der CMOS-Bildsensor ist mit einer Vielzahl von Lichtempfangselementen ausgestaltet, die Licht aufnehmen, das durch eine Linse einfällt. Jedes der Lichtempfangselemente ist als eine Zelle klassifiziert, und Licht, das auf jede Zelle auffällt, wird in ein elektrisches Signal umgewandelt. Das umgewandelte elektrische Signal wird schließlich in unverarbeitete Rohdaten umgewandelt und zum Extrahieren von Rot-(R-), Grün-(G-) und Blau-(B-)Farbkomponenten ausgegeben. Hierbei wird ein Stück von Rohdaten in Einheiten einer Zelle erzeugt, und wenn die Lichtempfangselemente jeweils als eine Anzahl n von Zellen klassifiziert sind, werden n Stücke Rohdaten RAW1 bis RAWn (wobei n eine natürliche Zahl von größer eins ist) erzeugt.
  • Die Pixeldaten-Extraktionseinrichtung 120 empfängt n Stücke Rohdaten RAW1 bis RAWn von dem Sensor 110 und extrahiert n Stücke Pixeldaten R1G1B1 bis RnGnBn, die jeweils den n Stücken Rohdaten RAW1 bis RAWn entsprechen. Die Pixeldaten-Extraktionseinrichtung 120 analysiert die Transmissivität jedes der Rohdaten RAW1 bis RAWn in einem Wellenlängenband von 300 nm bis 1500 nm, berechnet die Quantenausbeute (quantum efficiency QE) bei der analysierten Transmissivität und extrahiert Pixeldaten (einschließlich eines R-Komponentenwerts, eines G-Komponentenwerts und eines B-Komponentenwerts) aus jedem der Rohdaten RAW1 bis RAWn auf der Basis der berechneten QE.
  • Die Referenzwellenlängenwert-Extraktionseinrichtung 130 berechnet die R-, G- und B-Komponentenwerte durch Durchführen einer arithmetischen Operation und berechnet eine Vielzahl von Korrekturwellenlängenwerten Z, die für jedes der Pixeldaten R1G1B1 bis RnGnBn korrigiert worden sind. Hierbei ist jeder der Korrekturwellenlängenwerte Z so definiert, dass er ein Wellenlängenband anzeigt, in dem die Empfindlichkeit jedes der R-, G- und B-Komponentenwerte in einem entsprechenden Pixel am höchsten ist. Der korrigierte Wellenlängenwert wird durch eine arithmetische Operation erhalten, die von der folgenden Gleichung (1) wiedergegeben ist, welche durch mehrere von dem Anmelder durchgeführte Experimente erhalten worden ist. Die Referenzwellenlängenwert-Extraktionseinrichtung 130 extrahiert den größten Wert der berechneten Korrekturwellenlängenwerte Z (Zi, 1 ≤ i ≤ n) als einen Referenzwellenlängenwert L. Zi = k1Ri + k2Gi + k3Bi (1) wobei Zi einen i. Korrekturwellenlängenwert bezeichnet, Ri ein i. R-Komponentenwert ist, Gi ein i. G-Komponentenwert ist, Bi ein i. B-Komponentenwert ist, i einen Bereich von 1 ≤ i ≤ n umfasst, k1 als 0,257 klassifiziert ist, k2 als 0,573 klassifiziert ist und k3 als 0,127 klassifiziert ist.
  • Zum Durchführen der arithmetischen Operation, die als Gleichung (1) wiedergegeben ist, weist die Referenzwellenlängenwert-Extraktionseinrichtung 130 eine Korrekturwellenlängenwert-Berechnungseinheit 132, eine Variablen-Speichereinheit 134 und eine Maximalwellenlängenwert-Extraktionseinheit 136 auf.
  • Die Korrekturwellenlängenwert-Berechnungseinheit 132 führt einen Algorithmus aus, der als Gleichung (1) wiedergegeben ist. Die Korrekturwellenlängenwert-Berechnungseinheit 132 empfängt die Pixeldaten R1G1B1 bis RnGnBn von der Pixeldaten-Extraktionseinrichtung 120 und erste bis dritte Variablen k1 bis k3 von der Variablen-Speichereinheit 134, und durch entsprechendes Multiplizieren der R-, G- und B-Komponentenwerte (die jedes der Pixeldaten bilden) mit den ersten bis dritten Variablen berechnet die Korrekturwellenlängenwert-Berechnungseinheit 132 die Korrekturwellenlängenwerte "Z1(= k1R1 + k2G1 + k3B1) ~ Zn(= k1Rn + k2Gn + k3Bn)". Die Variablen-Speichereinheit 134 kann eine Art von nichtflüchtigem Speicher sein, der die gespeicherten ersten bis dritten Variablen k1 bis k3 in Reaktion auf die Anforderung der Korrekturwellenlängenwert-Berechnungseinheit 132 zu der Korrekturwellenlängenwert-Berechnungseinheit 132 überträgt. Die Maximalwellenlängenwert-Extraktionseinheit 136 nimmt die Korrekturwellenlängenwerte "Z1(= k1R1 + k2G1 + k3B1) ~ Zn(= k1Rn + k2Gn + k3Bn)" auf, die von der Korrekturwellenlängenwert-Berechnungseinheit 132 berechnet worden sind, extrahiert den größten Wert der aufgenommenen Korrekturwellenlängenwerte als einen Korrekturwellenlängenwert Zamax und gibt den extrahierten Korrekturwellenlängenwert "L = Zamax" als den Referenzwellenlängenwert "L = Zamax" aus. Der ausgegebene Referenzwellenlängenwert L wird an den Datenselektor 140 übertragen.
  • Der Datenselektor 140 empfängt den Referenzwellenlängenwert L von der Maximalwellenlängenwert-Extraktionseinheit 136 der Referenzwellenlängenwert-Extraktionseinrichtung 130 und empfängt die Pixeldaten R1G1B1 bis RnGnBn von der Pixeldaten-Extraktionseinrichtung 120. Der Datenselektor 140 gibt selektiv eine Vielzahl von Pixeldaten mit einem Wellenlängenband, das größer ist als der Referenzwellenlängenwert L, an den Bilddatengenerator 150 aus und blockiert die Ausgabe von Pixeldaten (mit einem Wellenlängenband, das kleiner als der oder gleich dem Referenzwellenlängenwert L ist) an den Bilddatengenerator 150.
  • Der Bildgenerator 150 erzeugt ein finales Ausgabebild, das gebildet ist aus einer Vielzahl von Pixeldaten mit einem Wellenlängenband, das größer ist als der Referenzwellenlängenwert L, die von dem Datenselektor 150 ausgewählt worden sind, und gibt dieses aus.
  • Wie oben beschrieben ist, überwindet beim üblichen Erfassen der Wärme eines Objekts und Einstellen der Detektionsempfindlichkeit gegenüber dem Objekt (Fußgänger oder Tier) die Objektdetektionseinrichtung 100 nach der vorliegenden Erfindung eine Einschränkung, bei der es unmöglich ist, die Detektionsempfindlichkeit zum Detektieren des Objekts in einer Umgebung einzustellen, in der eine Anzahl von wärmeerzeugenden Vorrichtungen (zum Beispiel vorausfahrende Fahrzeuge, hinten fahrende Fahrzeuge, Umgebungslicht etc.) wie in einem urbanen Bereich vorhanden ist, und kann das Objekt unter Verwendung eines kostengünstigen normalen Kamerasensors, wie z. B. eines CMOS-Bildsensors, ohne Verwendung einer teuren Wärmebildkamera detektieren.
  • 2 zeigt ein Ablaufdiagramm mit Darstellung eines Objektdetektionsverfahrens, bei dem die Objektdetektionseinrichtung von 1 verwendet wird.
  • Wie in 2 gezeigt ist, nimmt die Objektdetektionseinrichtung bei Operation S212 Licht mit einem Bereich von 300 nm bis 1500 nm mit einem normalen Kamerasensor, wie z. B. einem CMOS-Bildsensor oder einem CCD-Bildsensor, auf.
  • Anschließend wandelt die Objektdetektionseinrichtung bei Operation S214 das aufgenommene Licht in Rohdaten um und analysiert bei Operation S216 Transmissivitäten für die Wellenlänge der umgewandelten Rohdaten.
  • Anschließend berechnet die Objektdetektionseinrichtung bei Operation S218 eine QE mittels der analysierten Transmissivitäten für die Wellenlänge und extrahiert eine Vielzahl von Pixeldaten, die aus R-, G-und B-Komponentenwerten gebildet sind, auf der Basis der berechneten QE.
  • Anschließend ersetzt die Objektdetektionseinrichtung bei Operation S220 die R-, G- und B-Komponentenwerte, die bei Operation S218 extrahiert worden sind, in der Gleichung (1), um die Korrekturwellenlängenwerte Z1 bis Zn für Daten jedes Pixels zu berechnen. Anschließend extrahiert die Objektdetektionseinrichtung bei Operation S222 den Korrekturwellenlängenwert Zmax, der dem größten Wert der berechneten Korrekturwellenlängenwerte Z1 bis Zn entspricht.
  • Anschließend setzt die Objektdetektionseinrichtung bei Operation S224 den Korrekturwellenlängenwert Zmax, der bei Operation S222 extrahiert worden ist, als den Referenzwellenlängenwert L und vergleicht bei Operation S226 den Referenzwellenlängenwert L mit einem Wellenlängenband von Pixeldaten.
  • Anschließend werden bei Operation S228 Pixeldaten mit einem Wellenlängenband, das größer ist als der Referenzwellenlängenwert L, als finale Bilddaten gesetzt, die ein Ausgabebild bilden. Ferner werden bei Operation S230 Pixeldaten mit einem Wellenlängenband, das kleiner als der oder gleich dem Referenzwellenlängenwert L ist, nicht als die finalen Bilddaten verwendet, die das Ausgabebild bilden, und werden fallengelassen.
  • 3 zeigt ein Diagramm, das schematisch eine Operation zum Setzen eines Referenzwellenlängenwerts "L" bei Operation S224 in 2 darstellt. In 3 zeigt die Abszissenachse eine Wellenlänge an, und die Ordinatenachse zeigt die QEs von R-, G- und B-Komponentenwerten an.
  • Wie in 3 gezeigt ist, wird bei einem normalen Kamerasensor, bei dem die Eingangskennlinie (QE) eines Bilds analysiert wird, ein Punkt, an dem die QEs von R-, G- und B-Komponentenwerten gleichmäßig hoch sind, zum Referenzwellenlängenwert L der vorliegenden Erfindung. Bei dem dargestellten Diagramm liegt der höchste QE-Wert (≒ 21,912) an einem Punkt von 770 nm. Entsprechend ist der Referenzwellenlängenwert L auf 770 nm gesetzt.
  • Nach der vorliegenden Erfindung ist die Objektdetektionseinrichtung vorgesehen, bei der ein normaler Kamerasensor verwendet wird, der eine Detektionsempfindlichkeit gegenüber einem Objekt (Fußgänger oder Tier) selbst in einer Umgebung einstellen kann, in der die Streureflexion aufgrund einer Anzahl von Lichtquellen stark ist, wodurch die Einschränkungen einer dem Stand der Technik entsprechenden Objektdetektionseinrichtung überwunden werden, bei der eine Wärmebildkamera verwendet wird, die nicht in der Lage ist, eine Detektionsempfindlichkeit gegenüber einem Objekt (Fußgänger oder Tier) in einem urbanen Bereich einzustellen, in dem die Streureflexion einer Lichtquelle stark ist.
  • Ferner können durch Auslegen der Objektdetektionseinrichtung unter Verwendung einer kostengünstigen normalen Kamera die Herstellkosten beträchtlich reduziert werden.
  • Vorstehend ist eine Anzahl von Ausführungsbeispielen beschrieben worden. Es sei jedoch darauf hingewiesen, dass verschiedene Modifikationen durchgeführt werden können. Zum Beispiel können geeignete Ergebnisse erzielt werden, wenn die beschriebenen Techniken in einer anderen Reihenfolge durchgeführt werden und/oder wenn Komponenten in einem beschriebenen System, Architektur, Vorrichtung oder Schaltung auf andere Weise kombiniert und/oder durch andere Komponenten oder deren Äquivalente ersetzt oder ergänzt werden. Entsprechend fallen andere Implementierungen in den Schutzumfang der nachfolgenden Patentansprüche.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 10-2012-0089498 [0001]

Claims (11)

  1. Objektdetektionseinrichtung, die ein Ausgangsbild ausgibt mit keinem anderen in einem Hintergrund hinzugefügten Licht-Bild als einem Objekt, wenn das Objekt aus einem das Objekt enthaltenen Bild extrahiert wird, und die aufweist: einen Sensor, der Licht mit einem spezifischen Wellenlängenband zum Ausgeben einer Vielzahl von Rohdaten, die dem erfassten Licht entsprechen, erfasst; eine Pixeldaten-Extraktionseinrichtung, die eine Vielzahl von Pixeldaten aus der Vielzahl von Rohdaten extrahiert, wobei die Pixeldaten-Extraktionseinrichtung Transmissivitäten für das Wellenlängenband jedes der Rohdaten analysiert und die Vielzahl von Pixeldaten, die aus R-, G- und B-Werten gebildet sind, aus den jeweiligen Rohdaten mit der analysierten Transmissivität extrahiert; eine Referenzwellenlängenwert-Extraktionseinrichtung, die eine arithmetische Operation an den R-, G- und B-Werten durchführt, um Korrekturwellenlängenwerte für Pixeldaten zu berechnen, die berechneten Korrekturwellenlängenwerte vergleicht und einen der Korrekturwellenlängenwerte als einen Referenzwellenlängenwert entsprechend dem Analyseergebnis extrahiert; und einen Datenselektor, der die Vielzahl von Pixeldaten empfängt, Pixeldaten mit einem Wellenlängenwert, der größer ist als der Referenzwellenlängenwert, selektiv aus der Vielzahl von Pixeldaten ausgibt und eine Detektionsempfindlichkeit des Sensors einstellt.
  2. Objektdetektionseinrichtung nach Anspruch 1, bei der der Sensor das spezifische Wellenlängenband von 300 nm bis 1500 nm erfasst.
  3. Objektdetektionseinrichtung nach Anspruch 1, bei dem der Sensor ein CMOS-Bildsensor ist.
  4. Objektdetektionseinrichtung nach Anspruch 1, bei dem die Referenzwellenlängenwert-Extraktionseinrichtung aufweist: eine Korrekturwellenlängenwert-Berechnungseinheit, die jeweils die R-, G- und B-Werte mit ersten bis dritten Variablen multipliziert, um die Korrekturwellenlängenwerte der Rohdaten zu berechnen, wobei die R-, G- und B-Werte aus den jeweiligen Rohdaten extrahiert werden; und eine Maximalwellenlängenwert-Extraktionseinheit, die einen größten Wert der Korrekturwellenlängenwerte als den Referenzwellenlängenwert extrahiert.
  5. Objektdetektionseinrichtung nach Anspruch 4, bei der die Referenzwellenlängenwert-Extraktionseinrichtung ferner eine Variablen-Speichereinheit aufweist, die die ersten bis dritten Variablen speichert.
  6. Objektdetektionseinrichtung nach Anspruch 5, bei der die erste Variable 0,257 ist, die zweite Variable 0,573 ist, und die dritte Variable 0,127 ist.
  7. Objektdetektionsverfahren, das umfasst: Erfassen von Licht mit einem spezifischen Wellenlängenband mittels eines Sensors zum Ausgeben einer Vielzahl von Rohdaten, die dem erfassten Licht entsprechen; Extrahieren einer Vielzahl von Pixeldaten aus der Vielzahl von Rohdaten, wobei Transmissivitäten für das Wellenlängenband jedes der Rohdaten analysiert werden und die Vielzahl von Pixeldaten, die aus R-, G- und B-Werten gebildet sind, aus den jeweiligen Rohdaten mit der analysierten Transmissivität extrahiert werden; Durchführen einer arithmetischen Operation an den R-, G- und B-Werten, um Korrekturwellenlängenwerte für Pixeldaten zu berechnen; Vergleichen der berechneten Korrekturwellenlängenwerte und Extrahieren eines der Korrekturwellenlängenwerte als einen Referenzwellenlängenwert entsprechend dem Analyseergebnis; und Auswählen von Pixeldaten mit einem Wellenlängenwert, der größer ist als der Referenzwellenlängenwert, aus der Vielzahl von Pixeldaten, um eine Detektionsempfindlichkeit des Sensors auf der Basis der Referenzwellenlängenwerte einzustellen.
  8. Objektdetektionsverfahren nach Anspruch 7, bei dem das Durchführen der arithmetischen Operation das jeweilige Multiplizieren der R-, G- und B-Werte mit ersten bis dritten Variablen umfasst, um die Korrekturwellenlängenwerte der Rohdaten zu berechnen, wobei die R-, G- und B-Werte aus den jeweiligen Rohdaten extrahiert werden.
  9. Objektdetektionsverfahren nach Anspruch 8, bei dem die erste Variable 0,257 ist, die zweite Variable 0,573 ist, und die dritte Variable 0,127 ist.
  10. Objektdetektionsverfahren nach Anspruch 7, bei dem das Extrahieren eines der Korrekturwellenlängenwerte das Extrahieren eines größten Werts der Korrekturwellenlängenwerte als den Referenzwellenlängenwert umfasst.
  11. Objektdetektionsverfahren nach Anspruch 7, bei dem das Erfassen von Licht das Erfassen des spezifischen Wellenlängenbands von 300 nm bis 1500 nm mittels eines Sensors umfasst.
DE102013214468.7A 2012-08-16 2013-07-24 Objektdetektionseinrichtung und -verfahren für ein Fahrzeug Ceased DE102013214468A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0089498 2012-08-16
KR1020120089498A KR101410215B1 (ko) 2012-08-16 2012-08-16 차량용 객체 검출 장치 및 이의 방법

Publications (1)

Publication Number Publication Date
DE102013214468A1 true DE102013214468A1 (de) 2014-02-20

Family

ID=50029708

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013214468.7A Ceased DE102013214468A1 (de) 2012-08-16 2013-07-24 Objektdetektionseinrichtung und -verfahren für ein Fahrzeug

Country Status (3)

Country Link
US (1) US9223053B2 (de)
KR (1) KR101410215B1 (de)
DE (1) DE102013214468A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015172831A1 (en) * 2014-05-15 2015-11-19 Husqvarna Ab Automatic sensitivity adjustment in object detection system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018092934A1 (ko) 2016-11-17 2018-05-24 주식회사 토비스 나이트 비젼 시스템
WO2018110724A1 (ko) 2016-12-13 2018-06-21 주식회사 토비스 열에너지 정보를 표시하는 나이트 비젼 시스템 및 그 제어방법
JP2018151352A (ja) * 2017-03-15 2018-09-27 オムロン株式会社 光センサおよびセンサシステム
GB201808980D0 (en) * 2018-06-01 2018-07-18 Secr Defence Method and apparatus for detecting pulsed radiation
CN109782775B (zh) * 2019-03-13 2020-04-14 刘乐 一种基于热图像的汽车避障系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120089498A (ko) 2010-12-06 2012-08-13 현대자동차주식회사 운전자의 차속에 따른 시야각 및 조향 성향을 반영한 차선 유지 보조 시스템

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4488245A (en) * 1982-04-06 1984-12-11 Loge/Interpretation Systems Inc. Method and means for color detection and modification
JP2002362302A (ja) 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置
JP3817174B2 (ja) 2001-12-28 2006-08-30 矢崎総業株式会社 車両用画像修整装置及び夜間運転視界支援装置
JP4804422B2 (ja) * 2007-05-31 2011-11-02 オリンパス株式会社 信号処理装置、信号処理プログラム
TWI479878B (zh) * 2007-12-26 2015-04-01 Altek Corp Correction of pseudo - color pixels in digital image
KR20090102259A (ko) * 2008-03-25 2009-09-30 엠텍비젼 주식회사 카메라 동작 제어 장치 및 방법
KR20100056143A (ko) * 2008-11-19 2010-05-27 (주)투미르 영역별 처리기법을 이용한 동작객체 검출방법
JP5218910B2 (ja) 2009-01-09 2013-06-26 トヨタ自動車株式会社 ナイトビジョンシステム
DE112009004829T5 (de) * 2009-05-29 2012-07-19 Toyota Jidosha K.K. Vorrichtung zum messen eines spektrums eines bewegbaren körpers
KR101299104B1 (ko) 2009-09-08 2013-08-28 주식회사 만도 보행자 검출 장치 및 그 방법
JP5060580B2 (ja) * 2010-04-09 2012-10-31 トヨタ自動車株式会社 スペクトル測定装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120089498A (ko) 2010-12-06 2012-08-13 현대자동차주식회사 운전자의 차속에 따른 시야각 및 조향 성향을 반영한 차선 유지 보조 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015172831A1 (en) * 2014-05-15 2015-11-19 Husqvarna Ab Automatic sensitivity adjustment in object detection system

Also Published As

Publication number Publication date
US20140048688A1 (en) 2014-02-20
US9223053B2 (en) 2015-12-29
CN103595936A (zh) 2014-02-19
KR101410215B1 (ko) 2014-06-19
KR20140023537A (ko) 2014-02-27

Similar Documents

Publication Publication Date Title
DE102011088393B4 (de) Bestimmen einer Gesamtzahl an Personen in einem IR-Bild, das mittels eines IR-Bilderzeugungssystems gewonnen wird
DE102013214468A1 (de) Objektdetektionseinrichtung und -verfahren für ein Fahrzeug
DE112008001990B4 (de) Belichtungssteuerung für ein Bildgebungssystem
DE112017007579T5 (de) Verfahren und System zum automatischen Kolorieren von Nachtsichtbildern
EP3291172B1 (de) Verfahren zur ermittlung von ergebnisbilddaten
DE102014104613A1 (de) Objekterfassungsvorrichtung
EP3147823A2 (de) Vorrichtung und verfahren zur direkten optischen bildaufnahme von dokumenten und / oder lebenden hautbereichen ohne abbildende optische elemente
DE102019114533A1 (de) Erkennung von visible-light-communication-quellen über einen hohen dynamikbereich
DE102012206078A1 (de) Bestimmung einer Anzahl von Objekten in einem IR-Bild
EP1610270A2 (de) Verfahren zur qualitativen Beurteilung eines Materials mit mindestens einem Erkennungsmerkmal
DE102013019138A1 (de) Verfahren zum Erkennen eines verdeckten Zustands einer Kamera, Kamerasystem und Kraftfahrzeug
DE102014002134A1 (de) Vorrichtung zur Erkennung einer Beleuchtungsumgebung eines Fahrzeugs und Steuerungsverfahren davon
DE102010003039A1 (de) Farbsättigungskorrektur
DE102012020301A1 (de) Verfahren, Vorrichtung und Erzeugnis zum Erkennen lächelnder Gesichter
DE112009004707T5 (de) Räumlich variierende Spektralantwort-Kalibrierungsdaten
DE102013115000A1 (de) Blendungsminderung für dynamischen Rückspiegel
DE102013106037A1 (de) Bildgebungsvorrichtung, welche ein Festmusterrauschen unterdrückt, das durch einen Bildgebungssensor der Vorrichtung erzeugt wird
DE102014102011B4 (de) System und Verfahren zum Erzeugen eines Bildes mit einem breiten dynamischen Bereich
DE102012200930A1 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze vor einem Hintergrund
DE102017110896A1 (de) Redundanter Videopfad für ein Fahrzeug-Rückfahrkamerasystem
DE102010002312A1 (de) Verfahren und Vorrichtung zur Analyse eines Bildes einer Bilderfassungseinrichtung für ein Fahrzeug
WO2016087202A1 (de) Bildverarbeitung mittels kreuzkorrelation
DE102018000047A1 (de) Optische Spektren messende Einrichtung und optische Spektren messendes Verfahren
DE102022119259A1 (de) Weissabgleich und Farbkorrektur für Fahrzeuginnenkamera
EP3688660A1 (de) Verfahren zur erkennung eines blattrandes, verfahren zur gezielten behandlung von pflanzen mit einem blattbehandlungsmittel und verwendung eines eventbasierten bildsensors zur erkennung eines blattrandes

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final