DE102018125930B4 - Kamerabildgeber-Binning-Technik - Google Patents

Kamerabildgeber-Binning-Technik Download PDF

Info

Publication number
DE102018125930B4
DE102018125930B4 DE102018125930.1A DE102018125930A DE102018125930B4 DE 102018125930 B4 DE102018125930 B4 DE 102018125930B4 DE 102018125930 A DE102018125930 A DE 102018125930A DE 102018125930 B4 DE102018125930 B4 DE 102018125930B4
Authority
DE
Germany
Prior art keywords
pixels
vehicle
light pattern
camera
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018125930.1A
Other languages
English (en)
Other versions
DE102018125930A1 (de
Inventor
Mohannad Murad
Joseph G. Machak
Donald R. Gignac
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102018125930A1 publication Critical patent/DE102018125930A1/de
Application granted granted Critical
Publication of DE102018125930B4 publication Critical patent/DE102018125930B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/406Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components using wireless transmission
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum Steuern von Kamerabildern für eine Kamera (102) eines Fahrzeugs (100), wobei das Verfahren Folgendes umfasst:Bestimmen eines Lichtmusters in der Nähe des Fahrzeugs (100); undselektives Zusammenfassen von Pixeln der Kamerabilder basierend auf dem Lichtmuster, wobei das selektive Zusammenfassen von Pixeln umfasst, dass erste Pixel der Pixel für ein bestimmtes Bild oder einen Teil davon zusammengefasst werden, wobei jedoch zweite Pixel der Pixel für das bestimmte Bild auf Grundlage der Lichtmuster nicht zusammengefasst werden,wobei der Schritt des Bestimmens des Lichtmusters umfasst:Bestimmen eines oder mehrerer heller Bereiche für das Lichtmuster, wobei der eine oder die mehreren hellen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die größer als ein vorbestimmter Schwellenwert ist; undBestimmen eines oder mehrerer dunkler Bereiche für das Lichtmuster, wobei der eine oder die mehreren dunklen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die kleiner als der vorbestimmte Schwellenwert ist; undder Schritt des selektiven Zusammenfassens von Pixeln der Kamerabilder für jedes Kamerabild umfasst:Zusammenfassen der ersten Pixel in eine oder mehrere zusammengefasste Pixelgruppen für einen oder mehrere erste Abschnitte des Kamerabilds, die den dunklen Bereichen entsprechen; undNicht-Zusammenfassen der zweiten Pixel für einen oder mehrere zweite Abschnitte des Kamerabildes, die den hellen Bereichen entsprechen.

Description

  • TECHNISCHES GEBIET
  • Das technische Gebiet bezieht sich im Allgemeinen auf das Gebiet von Fahrzeugen und insbesondere auf Verfahren und Systeme zum Steuern der Kameras in einem Fahrzeug.
  • EINLEITUNG
  • Viele Fahrzeuge enthalten eine oder mehrere Kameras, die Ansichten in der Nähe des Fahrzeugs bereitstellen. Unter bestimmten Umständen können die Kameras jedoch Teil eines Systems sein, das in bestimmten Situationen nicht immer optimale Bilder liefert.
  • Dementsprechend ist es wünschenswert, verbesserte Verfahren und Systeme zum Steuern von Kameras in Fahrzeugen bereitzustellen. Ferner werden andere wünschenswerte Merkmale und Eigenschaften aus der nachfolgenden detaillierten Beschreibung von beispielhaften Ausführungsformen und den beigefügten Ansprüchen in Verbindung mit den begleitenden Zeichnungen ersichtlich.
  • Die US 2011/0267 495 A1 beschreibt ein Verfahren zum Steuern von Bildern einer Videokamera. Bei dem Verfahren wird zunächst die Umgebungshelligkeit in einem Bild bestimmt. Liegt die Umgebungshelligkeit über einem bestimmten Grenzwert, so wird das Bild unverändert ausgegeben. Liegt die Umgebungshelligkeit dagegen unter dem Grenzwert, so werden die Pixel des Bildes in Blöcken zusammengefasst und in der zusammengefassten Form ausgegeben. Basierend auf der Umgebungshelligkeit werden somit die Pixel des gesamten Bildes entweder in unveränderter Form oder in zusammengefasster Form ausgegeben.
  • Die DE 10 2011 089 629 A1 beschreibt eine Lichtlaufzeitkamera mit einem Lichtlaufzeitsensor umfassend ein Array aus Laufzeitpixeln, wobei mehrere Laufzeitpixel in Abhängigkeit eines erkannten Objektes zu Pixelblöcken zusammenfassbar sind.
  • KURZDARSTELLUNG
  • Gemäß beispielhaften Ausführungsformen wird ein Verfahren zum Steuern von Kamerabildern einer Kamera eines Fahrzeugs bereitgestellt. In verschiedenen Ausführungsformen umfasst das Verfahren (i) Bestimmen eines Lichtmusters in der Nähe des Fahrzeugs, und (ii) selektives Zusammenfassen (engl. Binning) von Pixeln der Kamerabilder auf Grundlage des Lichtmusters, wobei das selektive Zusammenfassen von Pixeln das Zusammenfassen erster Pixel für ein bestimmtes Bild oder einen Teil davon umfasst, aber das Nicht-Zusammengefasst-Belassen von zweiten Pixeln für das bestimmte Bild basierend auf dem Lichtmuster. Der Schritt des Bestimmens des Lichtmusters umfasst Folgendes: (a) Bestimmen eines oder mehrerer heller Bereiche des Lichtmusters, wobei der eine oder die mehreren hellen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die größer als ein vorbestimmter Schwellenwert ist, und (b) Bestimmen eines oder mehrerer dunkler Bereiche des Lichtmusters, wobei der eine oder die mehreren dunklen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die kleiner als der vorbestimmte Schwellenwert ist, und der Schritt des selektiven Zusammenfassens von Pixeln der Kamerabilder umfasst für jedes Kamerabild Folgendes: (a) Zusammenfassen der Pixel in eine oder mehrere zusammengefasste Pixelgruppen für einen oder mehrere erste Abschnitte des Kamerabilds, die den dunklen Bereichen entsprechen, und (b) keine Zusammenfassung der Pixel für einen oder mehrere zweite Abschnitte des Kamerabildes, die den hellen Bereichen entsprechen.
  • In bestimmten Ausführungsformen umfasst das Verfahren auch das Bestimmen des Grades der Dunkelheit für jeden der dunklen Bereiche, und für jeden bestimmten dunklen Bereich wird die Größe der einen oder mehreren zusammengefassten Pixelgruppen für den bestimmten dunklen Bereich, basierend auf dem Grad der Dunkelheit für den bestimmten dunklen Bereich, bestimmt.
  • In bestimmten Ausführungsformen umfasst das Fahrzeug auch einen Lichtsensor, und der Schritt des Bestimmens des Lichtmusters umfasst das Bestimmen des Lichtmusters basierend auf Messungen des Lichtsensors.
  • In bestimmten Ausführungsformen umfasst das Fahrzeug auch eine Ortungsvorrichtung, und der Schritt des Bestimmens des Lichtmusters umfasst das Bestimmen des Lichtmusters auf Grundlage von Informationen über einen Standort des Fahrzeugs, wie dieser über die Ortungsvorrichtung erhalten wird.
  • In bestimmten Ausführungsformen umfasst das Fahrzeug auch ein Beleuchtungssystem, und der Schritt des Bestimmens des Lichtmusters umfasst das Bestimmen des Lichtmusters basierend auf dem bekannten Betrieb des Beleuchtungssystems.
  • In bestimmten Ausführungsformen umfasst das Fahrzeug auch ein Beleuchtungssystem, und der Schritt des Bestimmens des Lichtmusters umfasst das Bestimmen des Lichtmusters basierend auf Daten von einem Lichtsensor, Daten von einem Ortungssensor und dem bekannten Betrieb des Beleuchtungssystems.
  • Gemäß einer anderen beispielhaften Ausführungsform wird ein System zum Steuern von Kamerabildern für eine Kamera bereitgestellt. In verschiedenen Ausführungsformen umfasst das System eine Eingabeeinheit und einen Prozessor. Die Eingabeeinheit ist konfiguriert, um Daten bezüglich eines Lichtmusters in der Nähe der Kamera zu erhalten. Der Prozessor konfiguriert ist, um mindestens Folgendes zu unterstützen: (i) Bestimmen des Lichtmusters in der Nähe des Fahrzeugs unter Verwendung der Daten, und (ii) Bereitstellen von Anweisungen zum selektiven Zusammenfassen von Pixeln der Kamerabilder basierend auf dem Lichtmuster, wobei das selektive Zusammenfassen von Pixeln das Zusammenfassen erster Pixel zusammen für ein bestimmtes Bild oder eines Teils davon umfasst, es wird jedoch keine Zusammenfassung der zweiten Pixel für das bestimmte Bild, basierend auf dem Lichtmuster, durchgeführt.
  • Der Prozessor ist außerdem so konfiguriert, zumindest Folgendes zu unterstützen: (i) Bestimmen eines oder mehrerer heller Bereiche des Lichtmusters, wobei der eine oder die mehreren hellen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die größer als ein vorbestimmter Schwellenwert ist, (ii) Bestimmen eines oder mehrerer dunkler Bereiche für das Lichtmuster, wobei der eine oder die mehreren dunklen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die kleiner als der vorbestimmte Schwellenwert ist, und (iii) Bereitstellen von Anweisungen für das selektive Zusammenfassen von Pixeln der Kamerabilder durch, für jedes Kamerabild: (a) Zusammenfassen der Pixel in eine oder mehrere zusammengefasste Pixelgruppen für einen oder mehrere erste Abschnitte des Kamerabilds, die den dunklen Bereichen entsprechen, und (b) keine Zusammenfassung der Pixel für einen oder mehrere zweite Abschnitte des Kamerabildes, die den hellen Bereichen entsprechen.
  • In bestimmten Ausführungsformen ist der Prozessor außerdem so konfiguriert, dass dieser zumindest Folgendes unterstützt: Bestimmen eines Grads der Dunkelheit für jeden der dunklen Bereiche und für jeden bestimmten dunklen Bereich Bestimmen der Größe der einen oder der mehreren zusammengefassten Pixelgruppen für den bestimmten dunklen Bereich basierend auf dem Grad der Dunkelheit des bestimmten dunklen Bereichs.
  • In bestimmten Ausführungsformen umfasst die Eingabeeinheit auch einen Lichtsensor, und der Prozessor ist konfiguriert, um zumindest das Bestimmen des Lichtmusters, basierend auf Messungen des Lichtsensors, zu unterstützen.
  • In bestimmten Ausführungsformen ist die Kamera auch in einem Fahrzeug eingebaut, die Eingabeeinheit umfasst eine Fahrzeugortungsvorrichtung für das Fahrzeug, und der Prozessor ist konfiguriert, um zumindest das Bestimmen des Lichtmusters, basierend auf Informationen über einen Standort des Fahrzeugs, wie dieser über die Fahrzeugortungsvorrichtung erhalten wird, zu unterstützen.
  • Auch in bestimmten Ausführungsformen ist die Kamera in einem Fahrzeug mit einem Beleuchtungssystem implementiert, und der Prozessor ist konfiguriert, um zumindest das Bestimmen des Lichtmusters basierend auf dem bekannten Betrieb des Beleuchtungssystems zu unterstützen.
  • In bestimmten Ausführungsformen umfasst die Eingabeeinheit ferner einen Lichtsensor und einen Ortungssensor, die Kamera ist in einem Fahrzeug mit einem Beleuchtungssystem eingebaut, und der Prozessor ist konfiguriert, um zumindest das Bestimmen des Lichtmusters, basierend auf Daten von dem Lichtsensor, Daten von dem Ortungssensor und einem bekannten Betrieb des Beleuchtungssystems, zu unterstützen.
  • Gemäß einer weiteren exemplarischen Ausführungsform wird ein Fahrzeug bereitgestellt. In verschiedenen Ausführungsformen umfasst das Fahrzeug eine Kamera, eine Eingabeeinheit und einen Prozessor. Die Eingabeeinheit ist konfiguriert, um Daten bezüglich eines Lichtmusters in der Nähe des Fahrzeugs zu erhalten. Der Prozessor ist konfiguriert, um mindestens Folgendes zu unterstützen: (i) Bestimmen des Lichtmusters in der Nähe des Fahrzeugs unter Verwendung der Daten, und (ii) Bereitstellen von Anweisungen zum selektiven Zusammenfassen von Pixeln der Kamerabilder basierend auf dem Lichtmuster, wobei das selektive Zusammenfassen von Pixeln das Zusammenfassen erster Pixel zusammen für ein bestimmtes Bild oder eines Teils davon umfasst, es wird jedoch keine Zusammenfassung der zweiten Pixel für das bestimmte Bild, basierend auf dem Lichtmuster, durchgeführt. Der Prozessor ist außerdem so konfiguriert, zumindest Folgendes zu unterstützen: (i) Bestimmen eines oder mehrerer heller Bereiche des Lichtmusters, wobei der eine oder die mehreren hellen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die größer als ein vorbestimmter Schwellenwert ist, (ii) Bestimmen eines oder mehrerer dunkler Bereiche für das Lichtmuster, wobei der eine oder die mehreren dunklen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die kleiner als der vorbestimmte Schwellenwert ist, und (iii) Bereitstellen von Anweisungen für das selektive Zusammenfassen von Pixeln der Kamerabilder durch, für jedes Kamerabild: (a) Zusammenfassen der Pixel in eine oder mehrere zusammengefasste Pixelgruppen für einen oder mehrere erste Abschnitte des Kamerabilds, die den dunklen Bereichen entsprechen, und (b) keine Zusammenfassung der Pixel für einen oder mehrere zweite Abschnitte des Kamerabildes, die den hellen Bereichen entsprechen.
  • In bestimmten Ausführungsformen umfasst die Eingabeeinheit auch einen Lichtsensor, und der Prozessor ist konfiguriert, um zumindest das Bestimmen des Lichtmusters, basierend auf Messungen des Lichtsensors, zu unterstützen.
  • In bestimmten Ausführungsformen umfasst die Eingabeeinheit ferner eine Fahrzeugortungsvorrichtung, und der Prozessor ist konfiguriert, um zumindest das Bestimmen des Lichtmusters, basierend auf Informationen über einen Standort des Fahrzeugs, wie dieser über die Fahrzeugortungsvorrichtung erhalten wird, zu unterstützen.
  • In bestimmten Ausführungsformen umfasst das Fahrzeug auch ein Beleuchtungssystem, und der Prozessor ist konfiguriert, um zumindest das Bestimmen des Lichtmusters basierend auf dem bekannten Betrieb des Beleuchtungssystems zu unterstützen.
  • In bestimmten Ausführungsformen umfasst die Eingabeeinheit ferner einen Lichtsensor und einen Ortungssensor, und der Prozessor ist konfiguriert, um zumindest das Bestimmen des Lichtmusters, basierend auf Daten von dem Lichtsensor, Daten von dem Ortungssensor und einem bekannten Betrieb des Beleuchtungssystems, zu unterstützen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die vorliegende Offenbarung wird im Folgenden in Verbindung mit den nachstehenden Zeichnungsfiguren beschrieben, worin gleiche Bezugszeichen gleiche Elemente bezeichnen und worin gilt:
    • 1 ist ein Funktionsblockdiagramm eines Fahrzeugs, das eine Kamera und ein Steuersystem gemäß beispielhaften Ausführungsformen enthält;
    • 2 ist ein Flussdiagramm eines Prozesses zum Steuern einer Kamera eines Fahrzeugs und kann in Verbindung mit dem Fahrzeug, der Kamera und dem Steuersystem von 1 gemäß beispielhaften Ausführungsformen implementiert werden;
    • 3 zeigt eine Darstellung eines beispielhaften Kamerabildrahmens, der teilweise zusammengefasst ist und der in Verbindung mit dem Prozess von 2 und dem Kamera- und Steuersystem von 1 gemäß beispielhaften Ausführungsformen implementiert werden kann;
    • 4 zeigt eine Darstellung einer Ansicht außerhalb eines Fahrzeugs, einschließlich eines dunklen Bereichs und eines hellen Bereichs, und die in Verbindung mit dem Verfahren von 2 und dem Kamera- und Steuersystem von 1 gemäß beispielhaften Ausführungsformen implementiert werden kann;
    • 5 zeigt eine Darstellung eines beispielhaften Kamerabildrahmens für die Ansicht von 5, einschließlich eines ersten Teils mit zusammengefassten Pixeln für den dunklen Bereich der Ansicht, und eines zweiten Teils mit nicht zusammengefassten Pixeln für den hellen Bereich des Fahrzeugs, das in Verbindung mit dem Verfahren von 2 und dem Kamera- und Steuersystem von 1 gemäß beispielhaften Ausführungsformen implementiert werden kann;
    • 6 zeigt eine Darstellung einer Ansicht außerhalb eines Fahrzeugs einschließlich eines dunklen Bereichs und eines hellen Bereichs, wie diese für einen Fahrer innerhalb des Fahrzeugs sichtbar sind, zusammen mit einem Warnsystem, das einen Fußgänger neben dem Fahrzeug darstellt, und das in Verbindung mit dem Verfahren von 2 und dem Kamera- und Steuersystem von 1 gemäß beispielhaften Ausführungsformen, implementiert werden kann;
    • 7 zeigt eine Draufsicht auf die Ansicht von 6 mit einer Ansicht, wie diese von oberhalb des Fahrzeugs sichtbar sein würde, gemäß beispielhaften Ausführungsformen; und
    • 8 zeigt eine Darstellung eines beispielhaften Kamerabildrahmens für die Ansicht von 6 und 7, die einen ersten Teil mit zusammengefassten Pixeln für den dunklen Bereich der Ansicht und einen zweiten Teil mit nicht zusammengefassten Pixeln für den hellen Bereich des Fahrzeugs enthalten, und der in Verbindung mit dem Verfahren von 2 und das Kamera- und Steuersystem von 1, gemäß beispielhaften Ausführungsformen, implementiert werden kann.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende ausführliche Beschreibung ist ihrer Art nach lediglich exemplarisch und soll die Offenbarung oder die Anwendung und Verwendungen derselben in keiner Weise einschränken. Darüber hinaus besteht keinerlei Verpflichtung zur Einschränkung auf eine der im vorstehenden Hintergrund oder in der folgenden ausführlichen Beschreibung dargestellten Theorien.
  • 1 veranschaulicht ein Fahrzeug 100 gemäß einer exemplarischen Ausführungsform. Wie nachfolgend ausführlicher beschrieben wird, umfasst das Fahrzeug 100 eine oder mehrere Kameras 102, ein Steuersystem 104 und eine Anzeige 106.
  • In verschiedenen Ausführungsformen umfasst das Fahrzeug 100 ein Automobil. Das Fahrzeug 100 kann eines von einer Reihe von verschiedenen Typen von Automobilen sein, wie zum Beispiel eine Limousine, ein Kombi, ein Lastwagen oder eine Geländelimousine (SUV), und kann einen Zweiradantrieb (2WD) (d. h., Heckantrieb oder Frontantrieb), Vierradantrieb (4WD) oder Allradantrieb (AWD) und/oder verschiedene andere Fahrzeugtypen in bestimmten Ausführungsformen. In bestimmten Ausführungsformen kann das Fahrzeug 100 auch ein Motorrad oder ein anderes Fahrzeug oder ein anderes System umfassen, das ein Kamerabild mit einem festen Referenzpunkt aufweist.
  • In verschiedenen Ausführungsformen umfasst das Fahrzeug 100 eine Karosserie 140, die auf einem Chassis 150 angeordnet ist. Die Karosserie 140 umschließt im Wesentlichen die anderen Komponenten des Fahrzeugs 100. Die Karosserie 140 und das Fahrgestell 150 können gemeinsam einen Rahmen bilden. Das Fahrzeug 100 umfasst auch eine Vielzahl von Rädern 160. Die Räder 160 sind jeweils mit dem Fahrgestell 150 in der Nähe einer jeweiligen Ecke der Karosserie 140 drehbar gekoppelt, um die Bewegung des Fahrzeugs 100 zu unterstützen. In einer Ausführungsvariante umfasst das Fahrzeug 100 vier Räder 160, obwohl dies in anderen Ausführungsformen (zum Beispiel für Lastkraftwagen und bestimmte andere Fahrzeuge) unterschiedlich sein kann.
  • Ein Antriebssystem 170 ist auf dem Fahrgestell 150 montiert und treibt die Räder 160 an. Das Antriebssystem 170 umfasst vorzugsweise ein Antriebssystem. In bestimmten exemplarischen Ausführungsformen umfasst das Antriebssystem 170 einen Verbrennungsmotor und/oder einen Elektromotor/Generator, der mit einem Getriebe gekoppelt ist. In bestimmten Ausführungsformen kann das Antriebssystem 170 variieren und/oder es können zwei oder mehr Antriebssysteme 170 verwendet werden. Als ein Beispiel kann das Fahrzeug 100 weiterhin ein beliebiges, oder eine Kombination von mehreren, aus einer Anzahl unterschiedlicher Antriebssysteme umfassen, beispielsweise einen mit Benzin oder Diesel betriebenen Verbrennungsmotor, einen „Flexfuel“-Motor (FFV) (d. h. Verwendung von einer Mischung aus Benzin und Ethanol), einen mit einer gasförmigen Verbindung (z. B. Wasserstoff oder Erdgas) betriebenen Motor, einen Verbrennungs-/Elektro-Hybridmotor und einen Elektromotor.
  • In verschiedenen Ausführungsformen umfasst das Fahrzeug 100 auch ein oder mehrere andere Systeme 105. Zum Beispiel umfassen in bestimmten Ausführungsformen die anderen Systeme 105 ein oder mehrere Beleuchtungssysteme (z. B. ein Scheinwerfersystem und/oder andere äußere, innere und/oder andere Licht- oder Beleuchtungssysteme), die die Lichtbedingungen innerhalb oder außerhalb des Fahrzeugs 100 beeinflussen.
  • Wie in 1 gezeigt, können die Kameras 102 in verschiedenen Ausführungsformen an einer beliebigen Anzahl von Orten innerhalb des oder an dem Fahrzeug(s) 100 angeordnet sein. Zum Beispiel können die Kameras 102 an oder in Richtung der Vorderseite des Fahrzeugs 100, der Rückseite des Fahrzeugs, der Fahrer- und/oder Beifahrerseite des Fahrzeugs 100 und/oder irgendeiner Anzahl anderer Orte innerhalb oder an dem Fahrzeug 100 angeordnet sein.
  • Wie in 1 gezeigt, umfasst in verschiedenen Ausführungsformen jede Kamera 102 einen jeweiligen Bildgeber 103. In verschiedenen Ausführungsformen ist der Bildgeber 103 als Teil der Kamera 102 eingebaut. Auch in bestimmten Ausführungsformen umfasst der Bildgeber 103 einen eingebauten Bildsensor und/oder einen eingebauten Lichtsensor zum Bestimmen einer Spannung verschiedener Pixel und Gruppen von Pixeln für Kamerabilder der Kamera 102.
  • Die Kameras 102 liefern Bilder von Ansichten des Nahbereichs des Fahrzeugs 100 (z. B. von Ansichten außerhalb und/oder innerhalb des Fahrzeugs 100). In verschiedenen Ausführungsformen sehen die Kamerabilder eine Betrachtung auf einer oder mehreren Anzeigen 106 vor, die innerhalb des Fahrzeugs 100 (d. h., innerhalb der Karosserie 140 des Fahrzeugs 100) angeordnet sind, und/oder stellen Bilder für eine oder mehrere andere Fahrzeugeinheiten und/oder Systeme, zum Beispiel für Anwendungen der Bildverarbeitung wie Fußgängererkennung oder Objekterkennung usw., bereit. In bestimmten Ausführungsformen ist die Anzeige 106 Teil einer Mittelkonsole des Fahrzeugs 100. In verschiedenen Ausführungsformen kann die Anzeige 106 Teil einer Radioanzeige, einer Navigationsanzeige und/oder einer anderen Anzeige sein, beispielsweise als Teil oder in der Nähe der Mittelkonsole. In bestimmten anderen Ausführungsformen kann die Anzeige 106 Teil einer oder mehrerer anderer Fahrzeug 100-Komponenten sein, wie beispielsweise eines Rückspiegels. In einer exemplarischen Ausführungsform umfasst die Anzeige 106 einen Flüssigkristallanzeige-(LCD)-Bildschirm oder einen Leuchtdioden-(LED)-Bildschirm. Dies kann jedoch in anderen Ausführungsformen variieren. In bestimmten Ausführungsformen stellen die Kameras 102 auch andere Bilder und/oder andere Informationen für das Fahrzeug 100 bereit (z. B. Informationen für ein Fahrzeugsteuersystem zur Verwendung bei der Fahrzeugsteuerung). In verschiedenen Ausführungsformen können die Kamerabilder Standbilder und/oder Videobilder umfassen.
  • In verschiedenen Ausführungsformen können die Kameras 102 auch Kamerabilder (z. B. Standbildkameras und/oder Videokamerabilder) einer beliebigen Anzahl von verschiedenen Ansichten von außerhalb des Fahrzeugs (z. B. vor dem Fahrzeug 100, hinter dem Fahrzeug 100, außerhalb der Fahrerseite des Fahrzeugs 100, außerhalb der Beifahrerseite des Fahrzeugs 100, oberhalb des Fahrzeugs 100, unterhalb des Fahrzeugs 100), innerhalb des Fahrzeugs 100, verschiedenen Winkeln dazwischen und/oder Kombinationen davon usw., bereitstellen.
  • Die Kameras 102 werden über ein Steuersystem 104 gesteuert, wie in 1 abgebildet. In verschiedenen Ausführungsformen steuert die Steuerung 104 das selektive Zusammenfassen von Pixeln der Kameras 102 für den Bildgeber 103 der Kamera 102 auf Grundlage von Lichtmustern in der Nähe des Fahrzeugs 100, beispielsweise wie nachfolgend in Verbindung mit dem Prozess 200 von 2 sowie die Darstellungen der 3-8 erläutert. In verschiedenen Ausführungsformen stellt die Steuerung 104 auch andere Funktionalitäten für die Kameras 102, wie die Verarbeitung der Kamerabilder, Anweisungen zum Anzeigen der Bilder usw. bereit. Wie in 1 dargestellt, kann in bestimmten Ausführungsformen ein einzelnes Steuersystem 104 solche Funktionen für jede der Kameras 102 des Fahrzeugs 100 durchführen. Bei bestimmten anderen Ausführungsformen können mehrere Steuersysteme 104 für unterschiedliche jeweilige Kameras 102 genutzt werden. Zusätzlich kann in bestimmten Ausführungsformen ein Steuersystem 104 mit einer jeweiligen Kamera 102 gekoppelt sein, und bei anderen Ausführungsformen kann das Steuersystem 104 Teil einer jeweiligen Kamera 102 (beispielsweise, als Teil eines Bildgebers 103 hierfür) sein.
  • Wie ebenfalls in 1 dargestellt, ist das Steuersystem 104 in verschiedenen Ausführungsformen über eine Kommunikationsverbindung 109 mit der Kamera 102 gekoppelt und empfängt über die Kommunikationsverbindung 109 Kamerabilder von der Kamera 102. In bestimmten Ausführungsformen umfasst die Kommunikationsverbindung 109 eine oder mehrere drahtgebundene Verbindungen, wie beispielsweise ein oder mehrere Kabel (z. B. Koaxialkabel und/oder ein oder mehrere andere Kabeltypen). In weiteren Ausführungsformen kann die Kommunikationsverbindung 109 eine oder mehrere drahtlose Verbindungen umfassen, z. B. durch Verwendung einer Sende-/Empfangsvorrichtung (nicht in 1 abgebildet). In noch anderen Ausführungsformen kann, wie vorstehend erwähnt, das Steuersystem 104 (und/oder bestimmte Komponenten davon) Teil der Kamera 102 sein.
  • Wie in 1 abgebildet, umfasst das Steuerungssystem 104 einen oder mehrere Sensoren 108, eine oder mehrere Ortungsvorrichtungen 110 und eine Steuerung 112. In bestimmten Ausführungsformen kann das Steuersystem 104 auch eine oder mehrere der Kameras 102 (z. B. einen Bildgeber (oder einen Bildsignalprozessor (ISP) 103) umfassen und/oder Teil von diesen sein und/oder eine oder mehrere Komponenten von diesen sein.
  • Der eine oder die mehreren Sensoren 108 erzeugen Sensordaten und stellen die Sensordaten für die Steuerung 112 zur Verarbeitung bereit. Wie in 1 abgebildet, umfasst die Sensoranordnung 108 einen oder mehrere Gangsensoren 114 und Lichtsensoren 115.
  • In verschiedenen Ausführungsformen erfassen die Lichtsensoren 114 Lichtbedingungen außerhalb und/oder innerhalb des Fahrzeugs 100. In verschiedenen Ausführungsformen erhalten die Lichtsensoren 114 Daten, die anzeigen, ob verschiedene Bereiche, die in Kamerabildern der Kameras 102 zur Verwendung durch die Steuerung 112 beim selektiven Zusammenfassen von Pixeln für die Kamerabilder der Kameras 102 enthalten sind oder enthalten sein sollen, „helle Bereiche“ oder „dunkle Bereiche“ sind (basierend auf der Lichtintensität in dem bestimmten Bereich). In bestimmten Ausführungsformen messen die Lichtsensoren 114 Licht für Bereiche außerhalb des Fahrzeugs 100, die in Kamerabildern der Kameras 102 (z. B. für nach außen gerichtete Kameras) enthalten sein sollen. In bestimmten Ausführungsformen messen die Lichtsensoren 114 auch Licht für Bereiche innerhalb des Fahrzeugs 100, die in Kamerabildern der Kameras 102 enthalten sein sollen (z. B. für nach innen gerichtete Kameras). In bestimmten Ausführungsformen sind die Lichtsensoren 114 Teil der Kamera 102.
  • In verschiedenen Ausführungsformen messen die Bildsensoren 115 die Spannung verschiedener Pixel eines Kamerabilds (z. B. eines Kamerabildrahmens). In bestimmten Ausführungsformen sind die Bildsensoren 115 Teil der Kamera 102 (z. B. als Teil des Bildgebers 103 davon).
  • Die eine oder die mehreren Ortungsvorrichtungen 110 erzeugen Standortdaten und stellen die Standortdaten für die Steuerung 112 zur Verarbeitung bereit. Wie in 1 gezeigt, umfassen die eine oder die mehreren Ortungsvorrichtungen 110 einen Empfänger 116 (z. B. eine Sende-/Empfangsvorrichtung) zum Erhalten von Informationen bezüglich eines Ortes, an dem das Fahrzeug 100 fährt. In bestimmten Ausführungsformen ist der Empfänger 116 Teil eines satellitenbasierten Ortungssystems, beispielsweise eines globalen Positionierungssystems (GPS). In bestimmten anderen Ausführungsformen können die Empfänger 116 an einer oder mehreren anderen Arten von Kommunikation teilnehmen (z. B. Mobilfunk- und/oder andere drahtlose Fahrzeug-zu-Fahrzeug-Kommunikation, Fahrzeug-zu-Infrastruktur-Kommunikation usw.). In bestimmten Ausführungsformen können ein oder mehrere Empfänger 116 auch Systemdaten von dem einen oder den mehreren anderen Systemen 105 (z. B. einem Fahrzeugscheinwerfersystem oder anderen Beleuchtungssystemen) von 1 erhalten.
  • In verschiedenen Ausführungsformen ist die Steuerung 112 mit den Kameras 102 (z. B. den Bildgebern 103 von diesen) sowie mit dem einen oder den mehreren Sensoren 108 und den Ortungsvorrichtungen 110 und einem oder mehreren anderen Systemen 105 (z. B. einem Fahrzeugscheinwerfersystem), einem Fahrzeuginnenraum-Beleuchtungssystem und/oder einem oder mehreren anderen Fahrzeugleuchtensystemen) gekoppelt. In verschiedenen Ausführungsformen steuert die Steuerung 112 auch den Betrieb der Kamera 102 und des Bildgebers 103 von dieser.
  • In verschiedenen Ausführungsformen fasst die Steuerung 112 bestimmte Pixel der Kamerabilder der Kamera 102, basierend darauf, ob verschiedene Bereiche, die in den Kamerabildern enthalten sein sollen, „helle Bereiche“ oder „dunkle Bereiche“ sind (z. B. hinsichtlich der Lichtintensität), zusammen, z. B. basierend auf Daten, die von den Sensoren 108 geliefert werden, beispielsweise durch Spannungsmessungen der Pixel, wie diese durch den Bildsensor 115 gemessen werden, und/oder Lichtbedingungen, die durch die Lichtsensoren 114 gemessen werden, Ortungsvorrichtungen 110 (z. B. ein Tunnel, dem bestimmten Lichtbedingungen zugeordnet sind, die unter Verwendung der Daten von dem Empfänger 116 identifiziert wurden) und/oder einem oder mehreren anderen Fahrzeugsystemen 105 (z. B. durch einen bekannten Betrieb eines Fahrzeugscheinwerfersystems, eines Fahrzeuginnenbeleuchtungssystems und/oder anderen Fahrzeugscheinwerfersystemen, die beispielsweise eine bekannte Projektion von Licht vor, hinter oder auf einer oder mehreren Seiten des Fahrzeugs durch ein Fahrzeuglichtsystem umfassen).
  • Wie in 1 dargestellt, umfasst die Steuerung 112 ein Computersystem. In bestimmten Ausführungsformen kann die Steuerung 112 auch eine oder mehrere Kameras 102, Sensoren 108, Ortungsvorrichtungen 110, andere Fahrzeugsysteme 105 und/oder Komponenten von diesen umfassen. Darüber hinaus ist zu erkennen, dass sich die Steuerung 112 ansonsten von der Ausführungsform, die in 1 dargestellt ist, unterscheiden kann. So kann beispielsweise die Steuerung 112 mit einem oder mehreren Ferncomputersystemen und/oder anderen Steuerungssystemen gekoppelt sein oder diese anderweitig verwenden, z. B. als Teil eines oder mehrerer der vorstehend genannten Vorrichtungen und Systeme des Fahrzeugs 100.
  • In der abgebildeten Ausführungsform umfasst das Computersystem der Steuerung 112 einen Prozessor 118, einen Speicher 120, eine Schnittstelle 122, eine Speichervorrichtung 124 und einen Bus 126. Der Prozessor 118 führt die Rechen- und Steuerfunktionen der Steuerung 112 aus und kann jede Art von Prozessor oder mehrere Prozessoren, einzelne integrierte Schaltkreise wie beispielsweise einen Mikroprozessor oder jegliche geeignete Anzahl von integrierten Schaltkreisvorrichtungen und/oder Leiterplatten umfassen, die zusammenwirken, um die Funktionen einer Verarbeitungseinheit auszuführen. Während des Betriebs führt der Prozessor 118 ein oder mehrere Programme 128 aus, die im Speicher 120 enthalten sind, und steuert damit den allgemeinen Betrieb der Steuerung 112 und des Computersystems der Steuerung 112 generell durch Ausführen der hierin beschriebenen Prozesse, wie beispielsweise den Prozess 200, der nachstehend in Verbindung mit 2 und der Implementierung in Verbindung mit den 3-8 beschrieben wird.
  • Der Speicher 120 kann jeder Typ eines geeigneten Speichers sein. So kann beispielsweise der Speicher 120 verschiedene Typen von dynamischem Random Access Memory (DRAM), wie SDRAM, verschiedene Typen von statischem RAM (SRAM) und die verschiedenen nichtflüchtigen Datenspeicherarten (PROM, EPROM und Flash) umfassen. In bestimmten Beispielen befindet sich der Speicher 120 auf dem gleichen Computerchip wie der Prozessor 118 und/oder ist ortsgleich damit angeordnet. In der dargestellten Ausführungsform speichert der Speicher 120 das vorstehend genannte Programm 128 zusammen mit einem oder mehreren gespeicherten Werten 130.
  • Der Bus 126 dient zur Übertragung von Programmen, Daten, Status und anderen Informationen oder Signalen zwischen den verschiedenen Komponenten des Computersystems der Steuerung 112. Die Schnittstelle 122 ermöglicht die Kommunikation mit dem Computersystem der Steuerung 112, beispielsweise von einem Systemtreiber und/oder einem anderen Computersystem, und kann unter Verwendung eines geeigneten Verfahrens und einer geeigneten Vorrichtung umgesetzt werden. In einer Ausführungsform erhält die Schnittstelle 122 verschiedene Daten von den Kameras 102, Sensoren 108, Ortungsvorrichtungen 110 und anderen Fahrzeugsystemen 105 bezüglich des Lichtmusters, und der Prozessor 118 bestimmt das Lichtmuster basierend auf den Daten.
  • In verschiedenen Ausführungsformen kann die Schnittstelle 122 zusammen mit den Sensoren 108, Ortungsvorrichtungen 110, Kameras 102 (z. B. dem Bildgeber 103 und/oder einem Sensor davon) und/oder anderen Fahrzeugsystemen 105 als eine oder mehrere Eingabeeinheiten bezeichnet werden, die solche Daten ermitteln, damit der Prozessor 118 das Lichtmuster im Nahbereich des Fahrzeugs 100 bestimmen kann. Die Schnittstelle 122 kann eine oder mehrere Netzwerkschnittstellen umfassen, um mit anderen Systemen oder Komponenten zu kommunizieren. Die Schnittstelle 122 kann zudem eine oder mehrere Netzwerkschnittstelle(n) zur Kommunikation mit Technikern und/oder eine oder mehrere Speicherschnittstellen zur Verbindung mit Speichervorrichtungen (wie beispielsweise die Speichervorrichtung 124) umfassen.
  • Bei dem Speichergerät 124 kann es sich um jegliche geeignete Art von Speichervorrichtung, darunter auch um Direktzugriffsspeichervorrichtungen, wie z. B. Festplattenlaufwerke, Flashsysteme, Diskettenlaufwerke und optische Speicherplatten, handeln. In einer beispielhaften Ausführungsform umfasst die Speichervorrichtung 124 ein Programmprodukt, von dem der Speicher 120 ein Programm 128 empfangen kann, das eine oder mehrere Ausführungsformen von einem oder mehreren Prozessen der vorliegenden Offenbarung ausführt, wie die Schritte des Prozesses 300 (und aller Unterprozesse desselben), die nachfolgend mit Bezug auf die 3 beschrieben sind. In einer weiteren beispielhaften Ausführungsform kann das Programmprodukt direkt in dem Speicher 120 und/oder auf einer Speicherplatte (z. B. Speicherplatte 132) gespeichert sein und darauf zugegriffen werden, wie nachfolgend erläutert.
  • Der Bus 126 kann aus allen zur Verbindung von Computersystemen und Komponenten geeigneten physischen oder logischen Mitteln bestehen. Dies schließt ohne Einschränkung auch direkt verdrahtete Verbindungen, Faseroptik, sowie Infrarot- und Drahtlosbustechnologien ein. Während des Betriebs wird das Programm 128 im Speicher 120 abgelegt und vom Prozessor 118 ausgeführt.
  • Obwohl diese exemplarische Ausführungsform im Kontext eines voll funktionierenden Computersystems beschrieben wird, versteht es sich, dass Fachleute auf diesem Gebiet erkennen werden, dass die Mechanismen der vorliegenden Offenbarung als ein Programmprodukt mit einer oder mehreren Arten von nichtflüchtigen computerlesbaren Signalträgermedien verbreitet werden können, die dazu dienen, das Programm und die zugehörigen Befehle zu speichern und deren Verbreitung auszuführen, z. B. ein nichtflüchtiges computerlesbares Medium, welches das Programm und Computerbefehle enthält, die darin gespeichert sind, um einen Computerprozessor (wie den Prozessor 118) zu veranlassen, das Programm auszuführen. Ein derartiges Programmprodukt kann vielerlei Formen annehmen, wobei die vorliegende Offenbarung in gleicher Weise, unabhängig von der spezifischen für die Verbreitung verwendeten Art von computerlesbarem Signalträgermedium, Anwendung findet. Zu den Beispielen für Signalträgermedien gehören: beschreibbare Medien, wie beispielsweise Disketten, Festplatten, Speicherkarten und optische Speicherplatten, sowie Übertragungsmedien, wie beispielsweise digitale und analoge Kommunikationsverbindungen. Es versteht sich, dass cloudbasierte Speicherung und/oder andere Techniken in bestimmten Ausführungsformen auch zur Anwendung kommen können. Ebenso versteht es sich, dass das Computersystem der Steuerung 112 sich auch anderweitig von der in 1 dargestellten Ausführungsform unterscheiden kann, beispielsweise darin, dass das Computersystem der Steuerung 112 mit einem oder mehreren Ferncomputersystemen und/oder anderen Steuerungssystemen verbunden sein oder diese anderweitig nutzen kann.
  • 2 ist ein Flussdiagramm eines Prozesses zum Steuern einer Kamera eines Fahrzeugs gemäß einer beispielhaften Ausführungsform. Der Prozess 200 kann in Verbindung mit dem Fahrzeug 100, der Kamera 102, dem Steuerungssystem 104 und der Anzeige 106 von 1 gemäß einer beispielhaften Ausführungsform implementiert werden.
  • Wie in 2 dargestellt, beginnt das Verfahren 200 mit Schritt 202. In bestimmten Ausführungsformen beginnt der Prozess 200, wenn ein Fahr- oder Zündzyklus eines Fahrzeugs beginnt, wenn sich beispielsweise ein Fahrer dem Fahrzeug nähert oder in das Fahrzeug 100 einsteigt oder wenn der Fahrer das Fahrzeug einschaltet und/oder eine Zündung dafür betätigt (z. B. durch Betätigen eines Schlüssels, mit einem Fernbedienungsschlüssel oder Starttaste usw.). In bestimmten anderen Ausführungsformen beginnt der Prozess 200, wenn die Kameras 102 aktiviert werden (z. B. wenn das Fahrzeug 100 mit eingeschalteten Kameras 102 betrieben wird usw.). In bestimmten Ausführungsformen werden die Schritte des Prozesses 200 während des Betriebs des Fahrzeugs kontinuierlich durchgeführt.
  • In verschiedenen Ausführungsformen werden Lichtsensordaten erhalten (Schritt 204). In bestimmten Ausführungsformen werden Sensordaten von den Lichtsensoren 114 von 1 in Bezug auf die Lichtbedingungen innerhalb des Fahrzeugs 100 und außerhalb/um das Fahrzeug 100 herum erhalten, einschließlich Bereichen, die wahrscheinlich in Kamerabildern der Kameras 102 enthalten sind. In verschiedenen Ausführungsformen werden die Lichtsensordaten auch dem Prozessor 118 von 1 zur Verarbeitung bereitgestellt.
  • In verschiedenen Ausführungsformen werden Systemdaten erhalten (Schritt 205). In bestimmten Ausführungsformen werden Systemdaten von einem oder mehreren anderen Systemen 105 von 1 erhalten, wie z. B. einem Scheinwerfersystem, Innenbeleuchtungssystem und/oder einem anderen Fahrzeuglichtsystem (z. B. ein bekannter Betrieb desselben), die die Lichtbedingungen innerhalb oder außerhalb des Fahrzeugs 100 beeinflussen. Zum Beispiel umfassen Systemdaten in bestimmten Ausführungsformen Betriebsdaten für das Scheinwerfersystem, das Innenbeleuchtungssystem und/oder andere Beleuchtungssysteme, die bekannte oder erwartete Lichtmuster in der Nähe des Fahrzeugs 100 (z. B. innerhalb oder außerhalb des Fahrzeugs 100) umfassen, basierend auf dem Betrieb (z. B. basierend auf Betriebsanweisungen für) solcher Systeme 105 in Bezug auf Bereiche, die wahrscheinlich in Kamerabildern der Kameras 102 enthalten sind. In bestimmten Ausführungsformen werden Systemdaten über die Schnittstelle 122 und/oder einen oder mehrere Empfänger 116 von 1 empfangen. In verschiedenen Ausführungsformen werden Systemdaten auch dem Prozessor 118 von 1 für die Verarbeitung zur Verfügung gestellt.
  • In verschiedenen Ausführungsformen werden Standortdaten erhalten (Schritt 206). In verschiedenen Ausführungsformen werden die Standortdaten von der/den Ortungsvorrichtung(en) 110 von 1 in Bezug auf einen aktuellen Standort des Fahrzeugs in Bezug auf eine oder mehrere physische Strukturen oder Objekte, die Lichtmuster in oder um das Fahrzeug 100 herum beeinflussen können, erhalten. In bestimmten Ausführungsformen werden Ortsdaten über den Empfänger 116 von 1 erhalten z. B. als dessen Teil oder von einem satellitenbasierten Ortungssystem (z. B. einem GPS-System) und/oder einem oder mehreren anderen Kommunikationssystemen (z. B. über Fahrzeug-zu-Fahrzeug- und/oder Fahrzeug-zu-Infrastrukturkommunikation). In bestimmten Ausführungsformen können ferner die physischen Strukturen oder Objekte, nur als Beispiel, Straßenlaternen, Tunnel, Brücken, Berge, Hochhäuser, andere Gebäude, große Felsformationen, Vegetation, Bäume und/oder andere physische Strukturen oder Objekte umfassen, die Lichtmuster innerhalb oder außerhalb des Fahrzeugs 100 beeinflussen können. Wenn sich beispielsweise ein Fahrzeug 100 nähert, durch einen Tunnel fährt oder in einen Tunnel einfährt, können bestimmte Bereiche innerhalb oder außerhalb des Fahrzeugs 100 zu verschiedenen Zeitpunkten heller oder dunkler sein. Als ein zusätzliches Beispiel, wenn sich eine Bergkette, ein Hochhaus, eine Vegetation oder dergleichen auf einer bestimmten Seite des Fahrzeugs 100 befindet, kann dies Lichtmuster in verschiedenen Bereichen innerhalb oder in der Umgebung des Fahrzeugs 100 usw. beeinflussen. Als ein weiteres Beispiel, wenn sich Straßenleuchten auf einer bestimmten Seite des Fahrzeugs 100 befinden, kann dies auch Lichtmuster in verschiedenen Bereichen innerhalb oder in der Umgebung des Fahrzeugs 100 usw. beeinflussen. In verschiedenen Ausführungsformen werden Standortdaten auch für den Prozessor 118 von 1 zur Verarbeitung bereitgestellt.
  • In bestimmten Ausführungsformen werden anfängliche Kamerabilder und diesbezügliche Daten erhalten (Schritt 208). In verschiedenen Ausführungsformen werden anfängliche Kamerabilder von einer oder mehreren der Kameras 102 von 1 bei Schritt 208, zusammen mit anfänglichen Spannungsinformationen und/oder Messungen der verschiedenen Pixel der Kamerabilder, wie diese durch einen oder mehrere Bildsensoren 115 von 1 gemessen werden, erhalten. In verschiedenen Ausführungsformen werden diese Informationen (z. B. die Spannungsinformation) dem Prozessor 118 von 1 zur Verarbeitung, zur Verwendung beim selektiven Zusammenfassen von Pixeln in nachfolgenden Kamerabildern (z. B. in nachfolgenden Rahmen) zur Verfügung gestellt.
  • Lichtmuster werden für das Fahrzeug 100 bestimmt (Schritt 210). In verschiedenen Ausführungsformen kann der Prozessor 118 von 1 ein oder mehrere Lichtmuster im Nahbereich des Fahrzeugs 100, basierend auf Sensordaten von Schritt 204, Systemdaten von Schritt 205, Standortdaten von Schritt 206 und/oder den Anfangskamerabilddaten von Schritt 208, bestimmen. In verschiedenen Ausführungsformen umfassen die Lichtmuster, die in Schritt 210 bestimmt werden, Lichtmuster (z. B. relative Lichtintensitätsmuster) an verschiedenen Stellen (hierin auch als Regionen oder Bereiche bezeichnet) innerhalb oder außerhalb des Fahrzeugs 100, die wahrscheinlich in Kamerabildern, die von einer oder mehreren Kameras 102 des Fahrzeugs 100 erfasst werden, enthalten sind.
  • Zum Beispiel würde in bestimmten Ausführungsformen, in denen eine Kamera 102 in das Fahrzeug 100 gerichtet ist, um Bilder von innerhalb des Fahrzeugs 100 zu erfassen, ein Lichtmuster für den Bereich innerhalb des Fahrzeugs 100, der wahrscheinlich von den Kamerabildern von der Kamera 102 erfasst wird, bestimmt. In ähnlicher Weise würden in bestimmten Ausführungsformen, in denen Kameras 102 außerhalb des Fahrzeugs 100 in eine oder mehrere Richtungen zeigen, um Bilder außerhalb des Fahrzeugs 100 zu erfassen, Lichtmuster für jede der Bereiche außerhalb des Fahrzeugs 100 bestimmt, von denen wahrscheinlich die Kamerabilder von den Kameras 102 (z. B. in jeder der Richtungen, in die die Kameras 102 in bestimmten Ausführungsformen zeigen) erfasst werden.
  • Es wird bestimmt, ob irgendwelche der Bereiche dunkle Bereiche sind (Schritt 212). In bestimmten Ausführungsformen wird für jede Kamera 102 eine separate Bestimmung vorgenommen, ob mindestens einer der Bereiche, von denen erwartet wird, dass diese von Kamerabildern der bestimmten Kamera 102 erfasst werden, dunkel ist. In bestimmten Ausführungsformen werden diese Bestimmungen durch den Prozessor 118 von 1 vorgenommen. In bestimmten Ausführungsformen wird auch ein Bereich als „dunkler Bereich“ bestimmt, wenn eine Lichtintensität für den Bereich kleiner als ein vorbestimmter Schwellenwert ist - mittels des Lichtmusters von Schritt 210 (d. h., unter Verwendung der Lichtsensordaten von Schritt 204, Systemdaten von Schritt 205, Standortdaten von Schritt 206 und/oder Anfangsbilddaten von Schritt 208). Umgekehrt wird in bestimmten Ausführungsformen ein Bereich mittels des Lichtmusters von Schritt 210 als ein „heller Bereich“ bestimmt, wenn eine Lichtintensität für den Bereich größer als ein vorbestimmter Schwellenwert ist.
  • Wenn in Schritt 212 festgestellt wird, dass keiner der Bereiche „dunkle Bereiche“ sind, wird keine Zusammenfassung durchgeführt (Schritt 214). Insbesondere wird in bestimmten Ausführungsformen für eine bestimmte Kamera 102, in der keine „dunklen Bereiche“ in den Kamerabildern der Kamera 102 enthalten sind (d. h., alle Bereiche für diese Kamera 102 sind „helle Bereiche“), während des Schritts 214 für die Bilder dieser bestimmten Kamera 102 kein Zusammenfassen durchgeführt. Darüber hinaus bleiben bei Schritt 214 alle Pixel für diese bestimmte Kamera 102 nicht zusammengefasst. Insbesondere ist in verschiedenen Ausführungsformen kein Zusammenfassen aufgrund der „hellen Bereiche“ erforderlich, und daher wird eine höhere Auflösung erhalten, indem die Pixel nicht zusammengefasst werden. Zusätzlich werden in verschiedenen Ausführungsformen im Anschluss an Schritt 214 die nicht zusammengefassten Kamerabilder erhalten und verarbeitet und werden zur Betrachtung auf einer oder mehreren Anzeigen 106 des Fahrzeugs 100 gemäß Anweisungen, die von dem Prozessor 118 bereitgestellt werden (Schritt 216), bereitgestellt. Der Prozess fährt daraufhin mit Schritt 228 fort, der nachfolgend näher erläutert wird.
  • Umgekehrt wird, wenn in Schritt 211 bestimmt wird, dass mindestens einer der Bereiche dunkel ist, eine Bestimmung vorgenommen, ob irgendwelche der Bereiche helle Bereiche sind (Schritt 217). In bestimmten Ausführungsformen wird für jede Kamera 102 eine gesonderte Bestimmung vorgenommen, ob mindestens einer der Bereiche, von denen erwartet wird, dass diese von Kamerabildern der bestimmten Kamera 102 erfasst wurden, ein heller Bereich ist. In bestimmten Ausführungsformen werden diese Bestimmungen durch den Prozessor 118 von 1 vorgenommen.
  • Wenn in Schritt 217 bestimmt wird, dass keiner der Bereiche ein heller Bereich ist, wird ein vollständiges Zusammenfassen durchgeführt (Schritte 218-220). Insbesondere wird in bestimmten Ausführungsformen für eine bestimmte Kamera 102, bei der erwartet wird, dass keine „hellen Bereiche“ in den Kamerabildern der Kamera 102 enthalten sind (d. h., alle Bereiche für diese Kamera 102 „dunkle Bereiche“ sind), während der Schritte 218-220 ein Zusammenfassen aller (oder im Wesentlichen aller) Pixel der Bilder dieser bestimmten Kamera 102 durchgeführt. In verschiedenen Ausführungsformen ermöglicht dies eine verbesserte Handhabung der Kamerabilder in der Dunkelheit, da die zusammengefassten Pixelzusammengefassungen größer als ein einzelnes Pixel sind, was zu einem erhöhten Spannungspegel für die Fotodioden führt, sodass ein Benutzer hellere Kamerabilder sehen kann.
  • Insbesondere wird in bestimmten Ausführungsformen in Schritt 218 ein Dunkelheitsgrad für jeden dunklen Bereich basierend auf dem Lichtmuster ermittelt. In verschiedenen Ausführungsformen werden die Bewertungen von dem Prozessor 118 von 1 basierend auf dem Lichtmuster von Schritt 210 durchgeführt.
  • In bestimmten Ausführungsformen wird in Schritt 219 auch ein Zusammenfassungsbetrag für jeden dunklen Bereich, basierend auf dem Grad der Dunkelheit für den bestimmten dunklen Bereich, ausgewählt. In verschiedenen Ausführungsformen werden Bereiche, die als relativ „weniger dunkel“ betrachtet werden (z. B. mit einer Lichtintensität, die kleiner als ein erster vorbestimmter Schwellenwert ist, aber nicht kleiner als ein zweiter vorbestimmter Schwellenwert, der als ein „sehr dunkler“ Bereich bezeichnet würde, als ein „dunkler“ Bereich charakterisiert) zusammengefassten Pixelgruppen einer ersten Größe zugewiesen, die geringer ist, als eine zweite Größe für zusammengefasste Pixelgruppen eines „sehr dunklen“ Bereichs (z. B. mit einer Lichtintensität, die kleiner als der zweite vorbestimmte Schwellenwert ist). Zum Beispiel können in bestimmten Ausführungsformen einem „weniger dunklen“ Bereich 2x2-Gruppen zusammengefasster Pixel zugewiesen werden, während einem „sehr dunklen“ Bereich 4x4-Gruppen zusammengefasster Pixel zugewiesen werden können usw. (die Anzahlen und Größen können in verschiedenen Ausführungsformen unterschiedlich sein). In verschiedenen Ausführungsformen wird die Auswahl (oder Zuweisung) der Größe der zusammengefassten Pixelgruppen durch den Prozessor 118 von 1 bestimmt.
  • In verschiedenen Ausführungsformen wird das Zusammenfassen auch in Schritt 220 durchgeführt. Insbesondere wird in bestimmten Ausführungsformen für eine bestimmte Kamera 102, in der erwartet wird, dass keine „hellen Bereiche“ in den Kamerabildern der Kamera 102 enthalten sind (d. h., alle Bereiche für diese Kamera 102 sind „dunkle Bereiche“), dann wird während des Schrittes 220 ein Zusammenfassen aller (oder im Wesentlichen aller) Pixel der Bilder dieser bestimmten Kamera 102 durchgeführt. In verschiedenen Ausführungsformen wird ferner während Schritt 220 für jeden der dunklen Bereiche die Größe der zusammengefassten Pixelgruppen basierend auf dem Dunkelheitsgrad jedes Bereiches bestimmt (z. B. weisen in bestimmten Ausführungsformen „sehr dunkle“ Bereiche zusammengefasste Bereiche mit einer größeren Größe auf, als weniger dunkle „Bereiche usw.).
  • Zusätzlich werden in verschiedenen Ausführungsformen im Anschluss an Schritt 220 die vollständig zusammengefassten Kamerabilder erhalten sowie verarbeitet und werden zur Betrachtung auf einer oder mehreren Anzeigen 106 des Fahrzeugs 100 gemäß Anweisungen, die von dem Prozessor 118 bereitgestellt werden (Schritt 221), bereitgestellt. Der Prozess fährt daraufhin mit Schritt 228 fort, der nachfolgend näher erläutert wird.
  • Umgekehrt wird, wenn in Schritt 217 bestimmt wird, dass wenigstens einer der Bereiche ein dunkler Bereich ist, eine partielle (oder selektive) Zusammenfassung durchgeführt (Schritte 222-224). Insbesondere wird in bestimmten Ausführungsformen für eine bestimmte Kamera 102, für die erwartet wird, dass sowohl einige „helle Bereiche“ als auch einige „dunkle Bereiche“ in den Kamerabildern der Kamera 102 enthalten sind, während der Schritte 222-224 ein selektives Zusammenfassen einiger, aber nicht aller Pixel der Bilder dieser bestimmten Kamera 102, durchgeführt. Insbesondere wird in bestimmten Ausführungsformen für jeden Bildrahmen dieser Kamera 102 ein Zusammenfassen für die „dunklen Bereiche“, jedoch nicht für die „hellen Bereiche“ des Bildrahmens durchgeführt. Dies ermöglicht in verschiedenen Ausführungsformen eine verbesserte Handhabung der Kamerabilder in der Dunkelheit für die „dunklen Bereiche“, während gleichzeitig eine verbesserte Auflösung für die Kamerabilder für die „hellen Bereiche“ beibehalten wird.
  • Insbesondere wird in bestimmten Ausführungsformen in Schritt 222 (ähnlich wie in Schritt 218 vorstehend beschrieben) ein Dunkelheitsgrad für jeden dunklen Bereich basierend auf dem Lichtmuster bewertet. In verschiedenen Ausführungsformen werden die Bewertungen von dem Prozessor 118 von 1 basierend auf dem Lichtmuster von Schritt 210 durchgeführt.
  • In bestimmten Ausführungsformen wird in Schritt 223 (ähnlich dem vorstehend beschriebenen Schritt 219) ein Zusammenfassungsbetrag für jeden dunklen Bereich, basierend auf dem Grad der Dunkelheit für den bestimmten dunklen Bereich, ausgewählt. In verschiedenen Ausführungsformen werden Bereiche, die als relativ „weniger dunkel“ betrachtet werden (z. B. mit einer Lichtintensität, die kleiner als ein erster vorbestimmter Schwellenwert ist, aber nicht kleiner als ein zweiter vorbestimmter Schwellenwert, der als ein „sehr dunkler“ Bereich bezeichnet würde, als ein „dunkler“ Bereich charakterisiert) zusammengefassten Pixelgruppen einer ersten Größe zugewiesen, die geringer ist, als eine zweite Größe für zusammengefasste Pixelgruppen eines „sehr dunklen“ Bereichs (z. B. mit einer Lichtintensität, die kleiner als der zweite vorbestimmte Schwellenwert ist). Zum Beispiel können in bestimmten Ausführungsformen einem „weniger dunklen“ Bereich 2x2-Gruppen zusammengefasster Pixel zugewiesen werden, während einem „sehr dunklen“ Bereich 4x4-Gruppen zusammengefasster Pixel zugewiesen werden können usw. (die Anzahlen und Größen können in verschiedenen Ausführungsformen unterschiedlich sein). In verschiedenen Ausführungsformen wird die Auswahl (oder Zuweisung) der Größe der zusammengefassten Pixelgruppen durch den Prozessor 118 von 1 bestimmt.
  • In verschiedenen Ausführungsformen wird das selektive Zusammenfassen auch in Schritt 224 durchgeführt. Insbesondere wird in verschiedenen Ausführungsformen für eine bestimmte Kamera 102, in der erwartet wird, dass sowohl einige „helle Bereiche“ als auch einige „dunkle Bereiche“ in den Kamerabildern der Kamera 102 enthalten sind, während des Schritts 224 ein selektives Zusammenfassen für einige, aber nicht aller Pixel der Bilder dieser bestimmten Kamera 102 durchgeführt. Insbesondere wird in bestimmten Ausführungsformen für jeden Bildrahmen dieser Kamera 102 ein Zusammenfassen für die „dunklen Bereiche“, jedoch nicht für die „hellen Bereiche“ des Bildrahmens durchgeführt. In verschiedenen Ausführungsformen wird ferner während des Schrittes 224 für jeden der dunklen Bereiche die Größe der zusammengefassten Pixelgruppen basierend auf dem Dunkelheitsgrad für jeden Bereich bestimmt (z. B. haben in bestimmten Ausführungsformen „sehr dunkle“ Bereiche zusammengefasste Bereiche mit einer größeren Größe als weniger dunkle „Bereiche usw.).
  • Zusätzlich werden in verschiedenen Ausführungsformen im Anschluss an Schritt 224 die teilweise zusammengefassten Kamerabilder erhalten sowie verarbeitet und werden zur Betrachtung auf einer oder mehreren Anzeigen 106 des Fahrzeugs 100 gemäß Anweisungen, die von dem Prozessor 118 bereitgestellt werden (Schritt 226), bereitgestellt. Der Prozess fährt daraufhin mit Schritt 228 fort, der nachfolgend näher erläutert wird.
  • 3-8 zeigen verschiedene veranschaulichende Beispiele bestimmter Schritte des Prozesses 200 von 2, wenn ein selektives Zusammenfassen in Schritt 224 implementiert wird. Dies gilt insbesondere dann, wenn bestimmte Bereiche „dunkle Bereiche“ und bestimmte andere Bereiche „helle Bereiche“ sind (beispielsweise für eine bestimmte Kamera 102).
  • Zuerst zeigt 3 eine Veranschaulichung eines beispielhaften Kamerabildrahmens 300, der teilweise gemäß beispielhaften Ausführungsformen zusammengefasst ist. Der Bildrahmen 300 von 3 kann in Verbindung mit dem Prozess 200 von 2, der Kamera 102 und dem Steuersystem 104 von 1 gemäß beispielhaften Ausführungsformen implementiert werden.
  • Insbesondere in dem Beispiel von 3 enthält der Rahmen 300 eine Anzahl von Pixeln 301. In dem beispielhaften Rahmen 300 von 3 ist eine 16x16-Pixelanordnung 301 vorgesehen (d. h., für 256 Gesamtpixel). Einige der Pixel 301 sind zusammengefasst, während andere der Pixel 301 nicht zusammengefasst sind. In der dargestellten Ausführungsform können mehrere Zusammenfassungsbereiche 302, 304 für das Zusammenfassen der Pixel 301 für den Rahmen 300 verwendet werden. In anderen Ausführungsformen kann auch eine einzelne Anzahl von Zusammenfassungsbereichen oder mehr als zwei Zusammenfassungsbereichen verwendet werden. Wie ebenfalls in 3 dargestellt ist, sind die Pixel 301, die nicht in den Bereichen 302, 304 zusammengefasst sind, Teil eines nicht zusammengefassten Bereiches 306 für den Rahmen 300.
  • Wie in 3 dargestellt ist, werden in bestimmten Ausführungsformen benachbarte Pixel 301 als Teil der zusammengefassten Bereiche 302, 304 zusammengefasst. In bestimmten Ausführungsformen müssen die Pixel 301 nicht benachbart sein, um zusammengefasst zu werden. Zum Beispiel können in bestimmten Ausführungsformen die Pixel 301 relativ nahe beieinander sein (z. B. durch nur einige wenige andere Pixel 301 oder weniger getrennt), um Kandidaten für das Zusammenfassen zu sein. In bestimmten Ausführungsformen werden Pixel 301 einer ähnlichen Farbe (z. B. der gleichen Farbe) zusammengefasst.
  • Im Beispiel von 3 enthält der erste Zusammenfassungsbereich 302 sechs zusammengefasste Pixelgruppen 308. Jeder zusammengefasste Pixelsatz 308 des ersten Bereichs 302 weist vier Pixel 301 auf, die in der dargestellten Ausführungsform für einen 2x2-zusammengefassten Pixelsatz 308 zusammengefasst sind. Auch in dem Beispiel von 3 enthält der zweite Zusammenfassungsbereich 302 zwei zusammengefasste Pixelsätze 310. In diesem speziellen Beispiel weist jeder zusammengefasste Pixelsatz 310 des zweiten Bereichs 304 16 Pixel 301 auf, die in der dargestellten Ausführungsform für einen 4x4-Pixelsatz 310 zusammengefasst sind. Dies kann jedoch in anderen Beispielen variieren. Zum Beispiel kann in verschiedenen Ausführungsformen der erste Zusammenfassungsbereich 302 eine beliebige Kombination von 2x2-Blöcken umfassen, der zweite Zusammenfassungsbereich 304 kann eine beliebige Kombination von 4x4-Blöcken umfassen usw. In verschiedenen Ausführungsformen könnte auch eine beliebige Anzahl unterschiedlicher Größen und/oder Formen vorhanden sein, um das Zusammenfassen zu erzielen.
  • In verschiedenen Ausführungsformen entsprechen die ersten und zweiten zusammengefassten Bereiche 302, 304 Bereichen, die als „dunkle Bereiche“ bestimmt sind (z. B. für welche eine Lichtintensität kleiner als ein vorbestimmter Schwellenwert bestimmt wird). Umgekehrt entspricht in verschiedenen Ausführungsformen der nicht zusammengefasste Bereich 306 Bereichen, die als „helle Bereiche“ bestimmt sind (z. B. für die bestimmt wird, dass eine Lichtintensität größer als ein vorbestimmter Schwellenwert ist). Es versteht sich, dass die Anzahl und Art der verschiedenen zusammengefassten und nicht zusammengefassten Bereiche in anderen Beispielen und/oder in anderen Ausführungsformen variieren kann.
  • Auch in verschiedenen Ausführungsformen kann für die verschiedenen „dunklen Bereiche“ die Größe der zusammengefassten Pixelgruppen für die verschiedenen Bereiche, basierend auf der relativen Dunkelheit der verschiedenen dunklen Bereiche, variieren. Zum Beispiel kann in verschiedenen Ausführungsformen, ähnlich zu den vorstehenden Diskussionen bezüglich des Prozesses 200 von 2, ein „weniger dunkler“ Bereich die 2x2-Zusammenfassungsgruppe 308 des ersten Bereiches 302 von 3 umfassen, wohingegen ein „sehr dunkler“ Bereich den 4x4-zusammengefassten Pixelsatz 310 des zweiten Bereichs von 4 umfassen kann usw. (auch gemäß den vorstehenden Erörterungen versteht sich, dass die bestimmte Anzahl und/oder Größe der zusammengefassten Pixelgruppen in verschiedenen Ausführungsformen variieren kann).
  • 4 zeigt eine Darstellung einer Ansicht 400 außerhalb eines Fahrzeugs mit einem „dunklen Bereich“ 402 und einem „hellen Bereich“ 404 gemäß beispielhaften Ausführungsformen. Die Ansicht 400 von 4 kann in Verbindung mit dem Prozess 200 von 2 implementiert werden wie auch die Kamera 102 und das Steuersystem 104 von 1 gemäß beispielhaften Ausführungsformen. In verschiedenen Ausführungsformen umfasst die Ansicht 400 von 4 eine Ansicht vor dem Fahrzeug 100, wenn das Fahrzeug 100 entlang einer Straße 405 gefahren wird. In verschiedenen Ausführungsformen umfasst die beispielhafte Ansicht 400 von 4 den „dunklen Bereich“ 402 in einem oberen Teil der Ansicht 400 und den „hellen Bereich“ 404 in einem unteren Teil der Ansicht 400. In verschiedenen Ausführungsformen verfügt der „dunkle Bereich“ 402 über eine Lichtintensität, die kleiner als ein vorbestimmter Schwellenwert ist, und der „helle Bereich“ 404 weist eine Lichtintensität auf, die größer als der vorbestimmte Schwellenwert ist.
  • In der dargestellten Ausführungsform stellt ein Beleuchtungssystem des Fahrzeugs 100 (z. B. über ein Scheinwerfersystem und/oder ein anderes Beleuchtungssystem der anderen Systeme 105 von 1) Licht für den „hellen Bereich“ 404 vor dem Fahrzeug 100, von der Straße 405 bis zu einer bestimmten Höhe, bereit, wodurch Licht für den „hellen Bereich“ 404 bereitgestellt wird. In der dargestellten Ausführungsform umfasst der „dunkle Bereich“ 402 ebenfalls einen Bereich oberhalb der Reichweite der Scheinwerfer und/oder anderer Lichter, was zu einer dunkleren Ansicht führt. In verschiedenen Ausführungsformen können die „hellen Bereiche“ und „dunklen Bereiche“ durch bekannte oder erwartete Projektionsmuster des Lichts eines Scheinwerfersystems und/oder eines anderen Lichtsystems des Fahrzeugs 100 bestimmt werden. In anderen Ausführungsformen können die „hellen Bereiche“ und „dunklen Bereiche“, basierend auf Messungen der Spannung von Pixeln anfänglicher Kamerabilder, bestimmt werden, wie diese durch die Bildsensoren 115 gemessen werden.
  • 5 zeigt eine Darstellung eines beispielhaften Kamerabildrahmens 500 für die Ansicht 400 von 4, gemäß beispielhaften Ausführungsformen. Dementsprechend kann in verschiedenen Ausführungsformen der Kamerabildrahmen 500 von 5 in Verbindung mit dem Prozess 200 von 2 und der Kamera 102 und dem Steuersystem 104 von 1 implementiert werden.
  • Wie in 5 dargestellt, enthält der Rahmen 500 einen zusammengefassten Bereich 502 und einen nicht zusammengefassten Bereich 504. In verschiedenen Ausführungsformen wird der zusammengefasste Bereich 502 für Teile des Bildes/Bildrahmens verwendet, die dem „dunklen Bereich“ 402 von 4 entsprechen. In verschiedenen Ausführungsformen wird der nicht zusammengefasste Bereich 504 auch für Teile des Bildes/Bildrahmens verwendet, die dem „hellen Bereich“ 404 von 4. entsprechen.
  • In verschiedenen Ausführungsformen umfasst der zusammengefasste Bereich 502 die Pixel 510, die in Gruppen zusammengefasst sind. Insbesondere in dem Beispiel von 5 enthält der zusammengefasste Bereich 502 acht zusammengefasste Pixelsätze 512. Jeder zusammengefasste Pixelsatz 512 des zusammengefassten Bereichs 502 weist vier Pixel 510 auf, die in der dargestellten Ausführungsform für einen zusammengefassten 2x2-Pixelsatz 512 zusammengefasst sind. In verschiedenen Ausführungsformen können Anzahl, Größe und/oder Konfiguration der Pixel 510 und/oder der zusammengefassten Pixelsätze 512 variieren. In verschiedenen Ausführungsformen sorgen zusammengefasste Pixelsätze 512 für eine robustere Betrachtung von Bildern im „dunklen Bereich“ 402 von 4, z. B. durch Erhöhen der effektiven Pixelgröße und Spannung für Bilder, die dem „dunklen Bereich“ 402 entsprechen.
  • In verschiedenen Ausführungsformen umfasst der nicht zusammengefasste Bereich 504 ferner die Pixel 520, die nicht in Gruppen zusammengefasst sind. Insbesondere, wie in dem Beispiel von 5 dargestellt, umfasst der nicht zusammengefasste Bereich 504 eine 3x8-Anordnung von Pixeln 520, die nicht zusammengefasst sind. In verschiedenen Ausführungsformen können die Anzahl und/oder die Platzierung der nicht zusammengefassten Pixel 520 variieren. In verschiedenen Ausführungsformen sorgt der nicht zusammengefasste Bereich für eine erhöhte Auflösung von Bildern in dem „hellen Bereich“ 404 von 4.
  • Wie vorstehend angemerkt, versteht es sich, dass die Konfigurationen des zusammengefassten Bereichs 502 und des nicht zusammengefassten Bereichs 504 des Bildrahmens 500 aus 5 in anderen Ausführungsformen variieren können. Während darüber hinaus der zusammengefasste Bereich 502 und der nicht zusammengefasste Bereich 504 so dargestellt sind, dass diese in der Größe identisch sind, versteht es sich, dass dies in verschiedenen Ausführungsformen in ähnlicher Weise variieren kann (z. B. kann dies basierend auf der relativen Größe des „Dunklen Bereiches“ 402 und „hellen Bereiches“ 404 von 4 usw. variieren).
  • 6 zeigt eine Darstellung einer Ansicht 600 außerhalb eines Fahrzeugs, wie diese von einem Fahrer oder einem anderen Insassen innerhalb des Fahrzeugs 100 gemäß beispielhaften Ausführungsformen gesehen wird. In verschiedenen Ausführungsformen umfasst die Ansicht 600 einen „hellen Bereich“ 604 in der Mitte, von der Straße 605 bis zu einer bestimmten Höhe (z. B. entsprechend der Abdeckung der Fahrzeugscheinwerfer), umgeben von „dunklen Bereichen“ 602 an den Seiten sowie oberhalb des „hellen Bereichs“ 604. In verschiedenen Ausführungsformen verfügt der „helle Bereich“ 604 über eine Lichtintensität, die größer als ein vorbestimmter Schwellenwert ist, und die „dunklen Bereiche“ 602 weisen Lichtintensitäten auf, die größer als der vorbestimmte Schwellenwert sind. Die Ansicht 600 von 6 kann in Verbindung mit dem Prozess 200 von 2 und der Kamera 102 sowie dem Steuersystem 104 von 1 gemäß beispielhaften Ausführungsformen implementiert werden.
  • In der dargestellten Ausführungsform liefern Beleuchtungen des Fahrzeugs 100 (z. B. über ein Scheinwerfersystem und/oder andere Lichtsysteme der anderen Systeme 105 von 1) Licht für den „hellen Bereich“ 604 vor dem Fahrzeug 100 entlang eines Teils der Straße, der durch das Fahrzeug 100, von der Höhe der Straße 605 bis zu einer bestimmten Höhe, zentriert ist. Auch in der dargestellten Ausführungsform umfassen die „dunklen Bereiche“ 602 Bereiche rechts von, links von und über dem „hellen Bereich“ 604 und (d. h., rechts von, links von und über der Konzentration von Licht der Fahrzeugscheinwerfer und/oder anderer Beleuchtungen). In verschiedenen Ausführungsformen können die „hellen Bereiche“ und „dunklen Bereiche“ mittels bekannter oder erwarteter Projektionsmuster des Lichts eines Scheinwerfersystems des Fahrzeugs 100 bestimmt werden. In anderen Ausführungsformen können die „hellen Bereiche“ und „dunklen Bereiche“, basierend auf Messungen der Spannung von Pixeln anfänglicher Kamerabilder, bestimmt werden, wie diese durch die Bildsensoren 115 gemessen werden. In der dargestellten Ausführungsform ist ebenfalls eine Anzeige 606 dargestellt, die einen Fußgänger 608 auf einer Seite des Fahrzeugs 100 zeigt.
  • 7 zeigt eine Darstellung einer Ansicht 700 außerhalb eines Fahrzeugs, die dem Szenario von 6 entspricht. Dies erfolgt jedoch in einer Draufsicht auf das Fahrzeug 100, das, gemäß einer beispielhaften Ausführungsform, als eine Straße 705 entlangfahrend dargestellt ist. In verschiedenen Ausführungsformen umfasst die Ansicht 700 einen „hellen Bereich“ 704 direkt vor dem Fahrzeug 100, der dem „hellen Bereich“ 604 von 6 entspricht. In verschiedenen Ausführungsformen umfasst die Ansicht 700 auch „dunkle Bereiche“ 702 an den Seiten des „hellen Bereichs“ 704 (und würde auch einen nicht dargestellten „dunklen Bereich“ 702 über dem „hellen Bereich“ 704 enthalten) mit den „dunklen Bereichen“ 702, die den „dunklen Bereichen“ 602 von 6 entsprechen. In 7 ist ebenfalls ein Fußgänger 708 (z. B. entsprechend dem Fußgänger 608 von 6) dargestellt, der in einem „dunklen Bereich“ 702 neben dem Fahrzeug 100 angeordnet ist.
  • 8 zeigt eine Darstellung eines beispielhaften Kamerabildrahmens 800 für die Ansichten 600, 700 der 6 und 7 gemäß beispielhaften Ausführungsformen. Dementsprechend kann in verschiedenen Ausführungsformen der Kamerabildrahmen 800 von 8 in Verbindung mit dem Prozess 200 von 2 und der Kamera 102 sowie dem Steuersystem 104 von 1 implementiert werden.
  • Wie in 8 dargestellt, umfasst der Rahmen 800 zusammengefasste Bereiche 802 und einen nicht zusammengefassten Bereich 804. In verschiedenen Ausführungsformen werden die zusammengefassten Bereiche 802 für Teile des Bildes/Bildrahmens verwendet, die den „dunklen Bereichen“ 602, 702 der 6 und 7 entsprechen. In verschiedenen Ausführungsformen wird der nicht zusammengefasste Bereich 804 auch für Teile des Bildes/Bildrahmens verwendet, die den „hellen Bereichen“ 604, 704 der 6 und 7 entsprechen.
  • In verschiedenen Ausführungsformen enthalten die zusammengefassten Bereiche 802 die Pixel 810, die in Gruppen zusammengefasst sind. Insbesondere in dem Beispiel von 8 enthalten die zusammengefassten Bereiche 802 vierundzwanzig zusammengefasste Pixelsätze 812. Jeder zusammengefasste Pixelsatz 812 der zusammengefassten Bereiche 802 weist vier Pixel 810 auf, die in der dargestellten Ausführungsform in einem zusammengefassten 2x2-Pixelsatz 812 zusammengefasst sind. In verschiedenen Ausführungsformen können Anzahl, Größe und/oder Konfiguration der Pixel 810 und/oder der zusammengefassten Pixelsätze 812 variieren. In verschiedenen Ausführungsformen sorgen die zusammengefassten Pixelsätze 812 für eine robustere Betrachtung von Bildern in den „dunklen Bereichen“ 602, 702 der 6 und 7, z. B. durch Erhöhen der effektiven Pixelgröße und Spannung für Bilder, die den „dunklen Bereichen“ 602, 702 entsprechend.
  • In verschiedenen Ausführungsformen umfasst der nicht zusammengefasste Bereich 804 die Pixel 820, die nicht in Gruppen zusammengefasst sind. Insbesondere umfasst der nicht zusammengefasste Bereich 804 in dem Beispiel von 8 eine 3x6-Matrize von Pixeln 820, die nicht zusammengefasst sind. Dies kann jedoch in verschiedenen Ausführungsformen variieren. In verschiedenen Ausführungsformen kann die Anzahl und/oder Platzierung der nicht zusammengefassten Pixel 820 variieren. In verschiedenen Ausführungsformen sorgt der nicht zusammengefasste Bereich für eine erhöhte Auflösung von Bildern in den „hellen Bereichen“ 604, 704 der 6 und 7. Wie vorstehend angemerkt, ist zu erkennen, dass die Konfigurationen der zusammengefassten Bereiche 802 und des nicht zusammengefassten Bereichs 804 des Rahmens 800 von 8 in anderen Ausführungsformen variieren können.
  • Während 4-8 veranschaulichende Beispiele für bestimmte Ausführungsformen mit Bereichen vor dem Fahrzeug darstellen, die teilweise von Fahrzeugleuchten (z. B. Scheinwerfern) beleuchtet werden, versteht es sich, dass die hierin offenbarten Techniken in ähnlicher Weise in anderen Kontakten implementiert werden können. Zum Beispiel kann das selektive Pixel-Zusammenfassen in ähnlicher Weise für andere Beleuchtungssysteme des Fahrzeugs 100 implementiert werden, zum Beispiel mittels eines Innenbeleuchtungssystems, das einige Teile oder die Gesamtheit einer Fahrgastzelle eines Fahrzeugs beleuchtet und/oder Beleuchtungssysteme anderer Fahrzeugen in der Nähe oder andere Objekte, z. B. von Gebäuden, Straßenlaternen usw. Als ein zusätzliches Beispiel, wenn sich das Fahrzeug 100 durch einen Tunnel, eine Bergkette, eine Innenstadt, einen Wald usw. mit differentiellen Lichtmustern, die das Fahrzeug 100 umgeben (z. B. wie mittels Lichtsensordaten, Fahrzeugstandortdaten, Spannung von anfänglichen Kamerabildern usw. bestimmt) fahrend nähert, dann kann in ähnlicher Weise ein selektives Zusammenfassen bestimmter Pixel der Kamerabildrahmen implementiert werden.
  • Mit Bezug zurück auf 2 wird während Schritt 228 eine Bestimmung durchgeführt, ob das Fahrzeug 100 immer noch unter Verwendung einer oder mehrerer Kameras 102 arbeitet. In verschiedenen Ausführungsformen erfolgt diese Bestimmung durch den Prozessor 118 von 1. In bestimmten Ausführungsformen würde das Fahrzeug 100 immer noch auf eine Weise arbeiten, die eine oder mehrere Kameras 102 verwendet, wenn das Fahrzeug 100 fährt (z. B. der Motor noch eingeschaltet ist), der aktuelle Zündzyklus andauert und/oder die Kameras 102 immer noch eingeschaltet sind. In bestimmten Ausführungsformen würde das Fahrzeug 100 auch nicht in einer Weise betrieben werden, die eine oder mehrere Kameras 102 verwendet, wenn das Fahrzeug 100 nicht mehr läuft (z. B. der Motor ausgeschaltet wurde), der aktuelle Zündzyklus abgelaufen ist und/oder Kameras 102 ausgeschaltet wurden.
  • Wenn in verschiedenen Ausführungsformen bei Schritt 228 bestimmt wird, dass das Fahrzeug 100 immer noch unter Verwendung einer oder mehrerer Kameras 102 arbeitet, kehrt der Prozess zu Schritt 204 zurück, und der Prozess wird in einer neuen Iteration mit einer neuen Iteration des Schritts 204 mit aktualisierten Daten, Bestimmungen und Aktionen fortgesetzt. In verschiedenen Ausführungsformen werden auf diese Weise neue Daten kontinuierlich während des Betriebs des Fahrzeugs 100 aktualisiert. In verschiedenen Ausführungsformen wird das Zusammenfassen auch dynamisch von Bildrahmen zu Bildrahmen in Abhängigkeit von der Dynamik der Szenerie und von Änderungen an Lichtmustern zwischen nachfolgenden Bildern angepasst.
  • Umgekehrt wird in verschiedenen Ausführungsformen, wenn in Schritt 228 bestimmt wird, dass das Fahrzeug 100 nicht mehr in einer Weise arbeitet, die eine oder mehrere Kameras 102 verwendet, der Prozess beendet (Schritt 230).
  • Dementsprechend sehen die hierin beschriebenen Systeme, Fahrzeuge und Verfahren das Steuern der Kamerabilder von Kameras eines Fahrzeugs vor. Gemäß verschiedenen Ausführungsformen werden die Pixel der Kamerabilder, basierend auf Lichtbedingungen innerhalb oder in der Nähe des Fahrzeugs, selektiv zusammengefasst. Insbesondere werden in verschiedenen Ausführungsformen für „dunkle Bereiche“, die in den Kamerabildern enthalten sind, die Pixel zusammengefasst, um dadurch die Handhabung und Betrachtung für die diesen Bereichen entsprechenden Bildbereiche zu verbessern. Auch in verschiedenen Ausführungsformen werden für „helle Bereiche“, die in den Kamerabildern enthalten sind, die Pixel nicht zusammengefasst, um dadurch eine erhöhte Auflösung für die diesen Bereichen entsprechenden Bildbereiche bereitzustellen. In verschiedenen Ausführungsformen wird jeder Kamerabildrahmen auf diese Weise selektiv zusammengefasst, um dadurch zusammengefasste und nicht zusammengefasste Bereiche innerhalb jedes Bildrahmens zu umfassen, der sowohl „helle Bereiche“ als auch „dunkle Bereiche“ in oder um das Fahrzeug herum abdeckt.
  • Die Systeme, Fahrzeuge und Verfahren sorgen so für potenziell verbesserte Kamerabilder, die von den Benutzern des Fahrzeugs eingesehen werden können. Beispielsweise kann der Betrachter solche Bereiche mit „hellen Bereichen“ mit einer Lichtintensität, die größer als ein vorbestimmter Schwellenwert ist, mit einer größeren Auflösung aufgrund des Nicht-Zusammenfassens von Pixeln in diesen Bereichen (d. h., resultierend in einer relativ großen Anzahl von Pixeln für größere Auflösung) betrachten. Umgekehrt kann der Betrachter für „dunkle Bereiche“ mit einer Lichtintensität, die kleiner als ein vorbestimmter Schwellenwert ist, solche Bereiche aufgrund des Zusammenfassens der Pixel in diesen „dunklen Bereichen“ leichter betrachten (z. B. mit größerer Helligkeit im Kamerabild), da beispielsweise die zusammengefassten Pixelzusammenfassungen größer als ein einzelnes Pixel sind, was zu einem erhöhten Spannungspegel der Fotodioden führt. Es versteht sich, dass die offenbarten Systeme, Fahrzeuge und Verfahren von denjenigen abweichen können, die in den Figuren dargestellt und hierin beschrieben sind. Beispielsweise können das Fahrzeug 100, die Kamera 102, das Steuerungssystem 104, die Anzeigen 106 und/oder verschiedene Komponenten derselben von den in 1 dargestellten und in Verbindung mit diesen beschriebenen in verschiedenen Ausführungsformen abweichen. In ähnlicher Weise versteht es sich, dass die Schritte des Prozesses 200 von den in 2 dargestellten Schritten abweichen können und/oder dass verschiedene Schritte des Prozesses 200 gleichzeitig und/oder in einer anderen Reihenfolge als in 2 in verschiedenen Ausführungsformen, auftreten können. Es ist ebenso zu verstehen, dass die Illustrationen und Beispiele der 3-8 sich in verschiedenen Ausführungsformen unterscheiden können.
  • Während mindestens eine exemplarische Ausführungsform in der vorstehenden ausführlichen Beschreibung dargestellt wurde, versteht es sich, dass es eine große Anzahl an Varianten gibt. Es versteht sich weiterhin, dass die exemplarische Ausführungsform oder die exemplarischen Ausführungsformen lediglich Beispiele sind und den Umfang, die Anwendbarkeit oder die Konfiguration dieser Offenbarung in keiner Weise einschränken sollen. Die vorstehende ausführliche Beschreibung stellt Fachleuten auf dem Gebiet vielmehr einen zweckmäßigen Plan zur Implementierung der exemplarischen Ausführungsform bzw. der exemplarischen Ausführungsformen zur Verfügung. Es versteht sich, dass verschiedene Veränderungen an der Funktion und der Anordnung von Elementen vorgenommen werden können, ohne vom Umfang der Offenbarung, wie er in den beigefügten Ansprüchen und deren rechtlichen Entsprechungen aufgeführt ist, abzuweichen.

Claims (8)

  1. Verfahren zum Steuern von Kamerabildern für eine Kamera (102) eines Fahrzeugs (100), wobei das Verfahren Folgendes umfasst: Bestimmen eines Lichtmusters in der Nähe des Fahrzeugs (100); und selektives Zusammenfassen von Pixeln der Kamerabilder basierend auf dem Lichtmuster, wobei das selektive Zusammenfassen von Pixeln umfasst, dass erste Pixel der Pixel für ein bestimmtes Bild oder einen Teil davon zusammengefasst werden, wobei jedoch zweite Pixel der Pixel für das bestimmte Bild auf Grundlage der Lichtmuster nicht zusammengefasst werden, wobei der Schritt des Bestimmens des Lichtmusters umfasst: Bestimmen eines oder mehrerer heller Bereiche für das Lichtmuster, wobei der eine oder die mehreren hellen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die größer als ein vorbestimmter Schwellenwert ist; und Bestimmen eines oder mehrerer dunkler Bereiche für das Lichtmuster, wobei der eine oder die mehreren dunklen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die kleiner als der vorbestimmte Schwellenwert ist; und der Schritt des selektiven Zusammenfassens von Pixeln der Kamerabilder für jedes Kamerabild umfasst: Zusammenfassen der ersten Pixel in eine oder mehrere zusammengefasste Pixelgruppen für einen oder mehrere erste Abschnitte des Kamerabilds, die den dunklen Bereichen entsprechen; und Nicht-Zusammenfassen der zweiten Pixel für einen oder mehrere zweite Abschnitte des Kamerabildes, die den hellen Bereichen entsprechen.
  2. Verfahren nach Anspruch 1, des Weiteren umfassend: Bestimmen eines Grads der Dunkelheit für jeden der dunklen Bereiche; wobei für jeden bestimmten dunklen Bereich die Größe der einen oder mehreren zusammengefassten Pixelgruppen für den bestimmten dunklen Bereich, basierend auf dem Grad der Dunkelheit für den bestimmten dunklen Bereich, bestimmt wird.
  3. Verfahren nach Anspruch 1, wobei: das Fahrzeug (100) einen Lichtsensor (114) umfasst; und der Schritt des Bestimmens des Lichtmusters umfasst das Bestimmen der Lichtmuster basierend auf Messungen des Lichtsensors (114).
  4. Verfahren nach Anspruch 1, wobei: das Fahrzeug (100) eine Ortungsvorrichtung (110) umfasst; und der Schritt des Bestimmens des Lichtmusters das Bestimmen des Lichtmusters auf Grundlage von Informationen über einen Standort des Fahrzeugs (100) umfasst, wie dieser über die Ortungsvorrichtung (110) erhalten wird.
  5. Verfahren nach Anspruch 1, wobei: das Fahrzeug (100) ein Beleuchtungssystem umfasst; und der Schritt des Bestimmens des Lichtmusters das Bestimmen des Lichtmusters basierend auf dem bekannten Betrieb des Beleuchtungssystems (105) umfasst.
  6. Verfahren nach Anspruch 1, wobei: das Fahrzeug (100) ein Beleuchtungssystem (105) umfasst; und der Schritt des Bestimmens des Lichtmusters das Bestimmen des Lichtmusters basierend auf Daten von einem Lichtsensor (114), Daten von einem Ortungssensor (110) und bekanntem Betrieb des Beleuchtungssystems (105) umfasst.
  7. System zur Steuerung von Kamerabildern, wobei das System Folgendes umfasst: eine Eingabeeinheit (122), konfiguriert um Daten bezüglich eines Lichtmusters in der Nähe des Fahrzeugs (100) zu erhalten; und ein Prozessor (118), konfiguriert um zumindest Folgendes zu unterstützen: Bestimmen des Lichtmusters in der Nähe des Fahrzeugs (100) unter Verwendung der Daten; und Bereitstellen von Anweisungen zum selektiven Zusammenfassen von Pixeln der Kamerabilder basierend auf dem Lichtmuster, wobei selektives Zusammenfassen von Pixeln umfasst, dass erste Pixel zusammen für ein bestimmtes Bild oder einen Teil davon zusammengefasst werden, während jedoch zweite Pixel für das bestimmte Bild basierend auf dem Lichtmuster nicht zusammengefasst belassen werden, wobei der Prozessor (118) weiterhin konfiguriert ist, um zumindest Folgendes zu unterstützen: Bestimmen von einem oder mehreren hellen Bereichen für das Lichtmuster, wobei der eine oder die mehreren hellen Bereiche jeweils eine Lichtintensität aufweisen, die größer als ein vorbestimmter Schwellenwert ist; Bestimmen von einem oder mehreren dunklen Bereichen für das Lichtmuster, wobei der eine oder die mehreren dunklen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die kleiner als der vorbestimmte Schwellenwert ist; und Bereitstellung von Anweisungen für das selektive Zusammenfassen von Pixeln der Kamerabilder durch, für jedes Kamerabild: Zusammenfassen der ersten Pixel in eine oder mehrere zusammengefasste Pixelgruppen für einen oder mehrere erste Abschnitte des Kamerabilds, die den dunklen Bereichen entsprechen; und Nicht-Zusammenfassen der zweiten Pixel für einen oder mehrere zweite Abschnitte des Kamerabildes, die den hellen Bereichen entsprechen.
  8. Fahrzeug (100), umfassend: eine Kamera (102); eine Eingabeeinheit (122), konfiguriert zum Erhalten von Daten bezüglich eines Lichtmusters in der Nähe des Fahrzeugs (100); und ein Prozessor (118), konfiguriert zum Unterstützen von zumindest: Bestimmen des Lichtmusters in der Nähe des Fahrzeugs (100) unter Verwendung der Daten; Bereitstellen von Anweisungen zum selektiven Zusammenfassen von Pixeln der Kamerabilder basierend auf dem Lichtmuster, wobei selektives Zusammenfassen von Pixeln das Zusammenfassen erster Pixel für ein bestimmtes Bild oder einen Teil davon umfasst, wobei jedoch zweite Pixel für das bestimmte Bild basierend auf dem Lichtmuster nicht zusammengefasst belassen werden; Bestimmen von einem oder mehreren hellen Bereichen für das Lichtmuster, wobei der eine oder die mehreren hellen Bereiche jeweils eine Lichtintensität aufweisen, die größer als ein vorbestimmter Schwellenwert ist; Bestimmen von einem oder mehreren dunklen Bereichen für das Lichtmuster, wobei der eine oder die mehreren dunklen Bereiche jeweils eine jeweilige Lichtintensität aufweisen, die kleiner als der vorbestimmte Schwellenwert ist; und Bereitstellung von Anweisungen für das selektive Zusammenfassen von Pixeln der Kamerabilder durch, für jedes Kamerabild: Zusammenfassen der ersten Pixel in eine oder mehrere zusammengefasste Pixelgruppen für einen oder mehrere erste Abschnitte des Kamerabilds, die den dunklen Bereichen entsprechen; und Nicht-Zusammenfassen der zweiten Pixel für einen oder mehrere zweite Abschnitte des Kamerabildes, die den hellen Bereichen entsprechen.
DE102018125930.1A 2017-10-20 2018-10-18 Kamerabildgeber-Binning-Technik Active DE102018125930B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/789,563 2017-10-20
US15/789,563 US10594958B2 (en) 2017-10-20 2017-10-20 Camera imager binning technique

Publications (2)

Publication Number Publication Date
DE102018125930A1 DE102018125930A1 (de) 2019-04-25
DE102018125930B4 true DE102018125930B4 (de) 2024-03-14

Family

ID=65996542

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018125930.1A Active DE102018125930B4 (de) 2017-10-20 2018-10-18 Kamerabildgeber-Binning-Technik

Country Status (3)

Country Link
US (1) US10594958B2 (de)
CN (1) CN109698904A (de)
DE (1) DE102018125930B4 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10872261B2 (en) * 2018-12-03 2020-12-22 Qualcomm Incorporated Dynamic binning of sensor pixels
US11377023B2 (en) * 2020-09-24 2022-07-05 GM Global Technology Operations LLC Proactive headlight tracking for vehicle auto high beam assist
DE102022211112A1 (de) 2022-10-20 2024-04-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bestimmen von Markern für eine Position und/oder Orientierung eines mobilen Geräts in einer Umgebung

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060187324A1 (en) 2005-02-22 2006-08-24 Qian Lin Reduction of motion-induced blur in images
US20110267495A1 (en) 2010-04-29 2011-11-03 Lee Warren Atkinson Automatic Pixel Binning
DE102011089629A1 (de) 2010-12-22 2012-06-28 PMD Technologie GmbH Lichtlaufzeitkamera
DE102011100350A1 (de) 2011-05-03 2012-11-08 Conti Temic Microelectronic Gmbh Bildsensor mit einstellbarer Auflösung
US8948537B2 (en) 2007-07-30 2015-02-03 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
WO2016067280A1 (en) 2014-10-27 2016-05-06 Brightway Vision Ltd. High dynamic range imaging of environment with a high intensity reflecting/transmitting source
DE102015208889A1 (de) 2015-05-13 2016-11-17 Conti Temic Microelectronic Gmbh Kameravorrichtung und Verfahren zum Abbilden eines Umfeldes für ein Kraftfahrzeug

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0680196B1 (de) * 1994-04-29 2000-07-12 Adobe Systems Inc. Verfahren zur Erzeugung einer Schwellenmatrix
JP2008072501A (ja) * 2006-09-14 2008-03-27 Ricoh Co Ltd 撮像装置、撮像方法、プログラムおよび記録媒体
EP3975138A1 (de) * 2008-10-06 2022-03-30 Mobileye Vision Technologies Ltd. Bündelung von fahrerassistenzsystemen
CN101754028B (zh) * 2008-12-22 2012-01-04 华晶科技股份有限公司 提高影像分辨率的方法
JP5901854B2 (ja) * 2013-12-05 2016-04-13 オリンパス株式会社 撮像装置
CN104952121B (zh) * 2015-04-30 2018-04-13 广州视声光电有限公司 一种行车记录仪
WO2017088127A1 (zh) * 2015-11-25 2017-06-01 华为技术有限公司 一种拍照方法、拍照装置和终端
CN107128239A (zh) * 2016-02-29 2017-09-05 长城汽车股份有限公司 车辆、车辆的照明系统及其控制方法
CN107172363A (zh) * 2017-04-07 2017-09-15 深圳市金立通信设备有限公司 一种图像处理方法及终端

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060187324A1 (en) 2005-02-22 2006-08-24 Qian Lin Reduction of motion-induced blur in images
US8948537B2 (en) 2007-07-30 2015-02-03 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
US20110267495A1 (en) 2010-04-29 2011-11-03 Lee Warren Atkinson Automatic Pixel Binning
DE102011089629A1 (de) 2010-12-22 2012-06-28 PMD Technologie GmbH Lichtlaufzeitkamera
DE102011100350A1 (de) 2011-05-03 2012-11-08 Conti Temic Microelectronic Gmbh Bildsensor mit einstellbarer Auflösung
WO2016067280A1 (en) 2014-10-27 2016-05-06 Brightway Vision Ltd. High dynamic range imaging of environment with a high intensity reflecting/transmitting source
US20170234976A1 (en) 2014-10-27 2017-08-17 Brightway Vision Ltd. High Dynamic Range Imaging of Environment with a High Intensity Reflecting/Transmitting Source
DE102015208889A1 (de) 2015-05-13 2016-11-17 Conti Temic Microelectronic Gmbh Kameravorrichtung und Verfahren zum Abbilden eines Umfeldes für ein Kraftfahrzeug

Also Published As

Publication number Publication date
US20190124275A1 (en) 2019-04-25
CN109698904A (zh) 2019-04-30
US10594958B2 (en) 2020-03-17
DE102018125930A1 (de) 2019-04-25

Similar Documents

Publication Publication Date Title
DE102018105951B4 (de) Verfahren zum dynamischen anzeigen von bildern auf einer elektronischen anzeigevorrichtung eines fahrzeugs
DE102017201717B4 (de) Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens
DE102017201852B4 (de) Parkassistenzsystem für ein Fahrzeug und ein Verfahren zu dessen Nutzung
DE102019102716A1 (de) Fahrzeug-anhänger rückfahrsichtsystem und -verfahren
DE102012217733B4 (de) Bildanzeigesystem für eine Rücksichtkamera einer gezogenen Einheit sowie dieses umfassendes Fahrzeug sowie Verfahren
DE102018104857A1 (de) Verfahren und Systeme zum Analysieren von Fahrzeugreifen unter Verwendung von an einem Fahrzeug montierten Kameras
DE102018125930B4 (de) Kamerabildgeber-Binning-Technik
DE102019111521A1 (de) Verfahren und vorrichtung zum erfassen von tiefeninformationen mit kameras von verschiedenen fahrzeugen
DE102018108054A1 (de) Verfahren und systeme zur bestimmung einer kamera-fehlausrichtung
DE102018110419A1 (de) Verwendung von nir-beleuchtungseinrichtungen zum verbessern der fahrzeugkameraleistung bei szenarien mit schwachem licht
DE102015216285A1 (de) Elektronische Steuereinheit und fahrzeuginternes Videosystem
DE102018108060A1 (de) Fahrzeugseitenspiegel-automatisierung
DE102019114355A1 (de) Autokalibrierung für fahrzeugkameras
DE19741896A1 (de) Vorrichtung zur bildlichen Darstellung von Bereichen der Umgebung eines Kraftfahrzeugs
DE102018116106A1 (de) Videoübertragung für ein ankommendes linksabbiegendes fahrzeug
DE102017107646A1 (de) Anzeigevorrichtung für ein Kraftfahrzeug
EP3434523A1 (de) Indirektes sichtsystem für ein fahrzeug
DE102017102041A1 (de) Anzeigevorrichtung
DE102018107738A1 (de) Infrastruktur der Fahrzeugpositionsverifizierung
DE102017122432A1 (de) Verfahren zum Erfassen einer Fahrbahnbeschaffenheit einer Fahrbahn für ein Kraftfahrzeug, Fahrerassistenzsystem sowie Kraftfahrzeug
DE112018000944T5 (de) Fahrzeuganzeigevorrichtung
DE102017124760A1 (de) Fahrzeug mit einer Multifokuskamera
DE102021131701A1 (de) Systeme und verfahren zum erfassen von abgelenktem fahren eines fahrers eines fahrzeugs
DE102017107559A1 (de) Bewertung zum öffnen von fahrzeugtüren
DE102021129887A1 (de) Prädiktive bewertung der fahreraufmerksamkeit

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005347000

Ipc: H04N0025460000

R016 Response to examination communication
R018 Grant decision by examination section/examining division