DE102018201054A1 - System und Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs - Google Patents

System und Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs Download PDF

Info

Publication number
DE102018201054A1
DE102018201054A1 DE102018201054.4A DE102018201054A DE102018201054A1 DE 102018201054 A1 DE102018201054 A1 DE 102018201054A1 DE 102018201054 A DE102018201054 A DE 102018201054A DE 102018201054 A1 DE102018201054 A1 DE 102018201054A1
Authority
DE
Germany
Prior art keywords
image data
vehicle
enhanced
module
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018201054.4A
Other languages
English (en)
Inventor
Pranjal Chakraborty
Rajesh Biswal
Debashis Mukherjee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman International Industries Inc
Original Assignee
Harman International Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harman International Industries Inc filed Critical Harman International Industries Inc
Publication of DE102018201054A1 publication Critical patent/DE102018201054A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die vorliegende Offenbarung betrifft Systeme, Vorrichtungen und Verfahren zur Bilddarstellung zur Fahrerassistenz bei einem Fahrzeug. In einer Ausführungsform beinhaltet ein Verfahren ein Empfangen von Bilddaten, die einen Außenbereich eines Fahrzeugs darstellen, und Verbessern der Bilddaten. Eine Bildverbesserung kann ein Invertieren der Bilddaten und Durchführen eines Enttrübungsvorgangs auf Grundlage der Szenenradianz, Medientransmission und Atmosphärenlicht der Bilddaten beinhalten. Das Verfahren kann ferner Erzeugen rekonstruierter Bilddaten aus den verbesserten Bilddaten durch Durchführen einer dünnen Darstellung der verbesserten Bilddaten zum Entrauschen der verbesserten Bilddaten und Durchführen eines Lernvorgangs zum Identifizieren und Verbessern von interessierenden Objekten in den verbesserten Bilddaten mit der dünnen Darstellung beinhalten. Das Verfahren beinhaltet ferner ein Ausgeben der rekonstruierten Bilddaten an eine Anzeigeeinheit des Fahrzeugs. Es werden Fahrerassistenzsysteme und -vorrichtungen für Fahrzeuge bereitgestellt, um Bilddaten zu verbessern, die von Fahrzeugkameras und am Körper tragbaren Vorrichtungen erfasst werden.

Description

  • GEBIET
  • Die vorliegende Offenbarung betrifft elektronische Vorrichtungen und Anwendungen und insbesondere Verfahren und Konfigurationen zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs.
  • ALLGEMEINER STAND DER TECHNIK
  • Der sichere Betrieb eines Fahrzeugs ist ein Hauptanliegen vieler Fahrzeugführer. Daher haben sich technische Entwicklungen auf Systeme gerichtet, die sich auf Unfallverhütung und einen sicheren Betrieb konzentrieren. Aus technischen Fortschritten sind Assistenzsysteme hervorgegangen, die Warnungen bereitstellen und das Sichtfeld eines Fahrzeugführers ergänzen. Beispielsweise nutzen einige herkömmliche Fahrzeugsysteme Sensoren und Kameras zur Unfallvermeidung sowie für andere Fahrzeugassistenzfunktionen. Einige bestehende Systeme stellen eine Leuchtanzeige von Fahrzeugen in der unmittelbaren Umgebung bereit. Andere beinhalten eine aktive Bremstechnik. Trotz der Entwicklung solcher Systeme besteht ein Bedarf und ein Wunsch nach einer Fahrerunterstützung in Situationen mit schlechter und/oder eingeschränkter Sicht.
  • Der Fahrzeugbetrieb kann durch Lichtverhältnisse und Witterung erschwert sein. Beim Fahren bei schwachem Licht und in der Nacht können Objekte innerhalb eines Fahrwegs eines Fahrzeugs selbst bei Einsatz von Scheinwerfern schwer zu erkennen sein. Überdies können auch Umgebungslichtverhältnisse und gerichtete Lichtquellen von anderen Fahrzeugen die Sicht eines Fahrers behindern. Lichtverhältnisse aufgrund von Sonnenlicht können ebenfalls die Sicht durch eine starke Lichteinwirkung (z. B. Blendung) beim Fahren am Tag verringern oder beeinträchtigen. Neben Lichtverhältnissen können auch Witterungsbedingungen, Feinstaub und Feuchtigkeit die Sicht beeinträchtigen. Optische Bilderfassungsvorrichtungen (z. B. Kameras usw.) und herkömmliche Fahrerassistenzsysteme liefern aufgrund von Lichtverhältnissen, Witterung und anderen Umgebungseigenschaften u. U. keine hinreichenden Informationen.
  • Einige herkömmliche Ansätze nutzen Infrarot(IR)-Kameras, um die Identifizierung von Objekten insbesondere bei Szenarien mit schwachem Licht zu unterstützen. Für diese Systeme kann es jedoch je nach Umgebungstemperatur schwierig sein, bestimmte Arten von Objekten zu identifizieren. Bei einer Verwendung in Hochtemperaturumgebungen können IR-Sensoren unwirksam sein. Des Weiteren kann es sein, dass IR-Systeme nicht genug Details oder keine einheitliche Ausgabe zum Identifizieren von interessierenden Objekten bereitstellen. Weiterhin sind, da IR-Systeme typischerweise für Nachtsicht ausgelegt sind, IR-Systeme nicht dazu ausgelegt, die Sicht bei verschiedenen Licht- und Umgebungsbedingungen zu verbessern. IR-Systeme sind außerdem teuer und ihre Verwendung kann bei bestimmten Anwendungen unrentabel sein.
  • Es besteht ein Wunsch danach, dass Fahrerassistenzsysteme die Sicht bei schwachen Lichtverhältnissen, wie z. B. bei Dämmerung oder in der Nacht, insbesondere bei Straßenabschnitten, die nicht gut beleuchtet sind, verbessern.
  • KURZDARSTELLUNG DER AUSFÜHRUNGSFORMEN
  • Hier werden Verfahren, Vorrichtungen und Systeme zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs offenbart und beansprucht. Eine Ausführungsform richtet sich auf ein Verfahren, das ein Empfangen von Bilddaten, die einen Außenbereich eines Fahrzeugs darstellen, durch ein Fahrerassistenzmodul beinhaltet. Das Verfahren beinhaltet ferner ein Invertieren der Bilddaten durch das Fahrerassistenzmodul, um invertierte Bilddaten zu erzeugen, und Durchführen eines Enttrübungsvorgangs (Dehazing) an invertierten Bilddaten durch das Fahrerassistenzmodul, um verbesserte invertierte Bilddaten des Außenbereichs des Fahrzeugs zu erzeugen, wobei der Enttrübungsvorgang auf Szenenradianz, Medientransmission und Atmosphärenlicht der Bilddaten beruht. Das Verfahren beinhaltet ferner ein Invertieren der verbesserten invertierten Bilddaten durch das Fahrerassistenzmodul, um verbesserte Bilddaten zu erzeugen. Das Verfahren beinhaltet ferner ein Erzeugen rekonstruierter Bilddaten aus den verbesserten Bilddaten durch das Fahrerassistenzmodul, wobei die rekonstruierten Bilddaten durch Durchführen einer dünnen Darstellung der verbesserten Bilddaten zum Entrauschen der verbesserten Bilddaten und Durchführen eines Lernvorgangs zum Identifizieren und Verbessern von interessierenden Objekten in den verbesserten Bilddaten mit der dünnen Darstellung erzeugt werden. Das Verfahren beinhaltet ferner ein Ausgeben der rekonstruierten Bilddaten an eine Anzeigeeinheit des Fahrzeugs durch das Fahrerassistenzmodul.
  • In einer Ausführungsform beinhalten die Bilddaten, welche den Außenbereich des Fahrzeugs darstellen, Videodaten, die von einer nach vorn gerichteten Kamera des Fahrzeugs aufgenommen werden.
  • In einer Ausführungsform beinhalten die Bilddaten, welche den Außenbereich des Fahrzeugs darstellen, Videodaten, die von einer mit einem Fahrer des Fahrzeugs assoziierten, am Körper tragbaren Vorrichtung aufgenommen werden.
  • In einer Ausführungsform beinhaltet das Invertieren eine pixelweise Invertierung ganzer Einzelbilder der Bilddaten.
  • In einer Ausführungsform beinhaltet der Enttrübungsvorgang ein Bestimmen der Szenenradianz für die invertierten Bilddaten auf Grundlage eines Anpassungsparameters für die Medientransmission.
  • In einer Ausführungsform nutzt die dünne Darstellung der verbesserten Bilddaten bestehende Grundelemente für Einzelbilder der Bilddaten oder leitet eine Kombination davon ab, sodass ein Dictionary of Atoms (Darstellungssystem mit Grundelementen) gebildet wird, um einen Rauschpegel für Grundelemente des Einzelbildes zu ändern.
  • In einer Ausführungsform beinhaltet das Durchführen eines Lernvorgangs zum Identifizieren und Verbessern von interessierenden Objekten in den verbesserten Bilddaten mit der dünnen Darstellung eine Identifizierung von Objekten in Einzelbildern, einen Vergleich und eine Anpassung von Objekten in Einzelbildern und eine Auswahl eines oder mehrerer Objekte, die in Einzelbildern der Bilddaten identifiziert werden sollen.
  • In einer Ausführungsform werden die dünne Darstellung und die Lernvorgänge auf Grundlage eines Vergleichs eines mit den Bilddaten assoziierten Tageslichtbildes unter Verwendung einer Position des Fahrzeugs durchgeführt.
  • In einer Ausführungsform beinhaltet das Erzeugen rekonstruierter Bilddaten auf Grundlage der verbesserten Bilddaten ein Stitchen (Zusammensetzen) von entrauschten Bilddaten aus der dünnen Darstellung mit vom Lernmodul identifizierten Objekten.
  • In einer Ausführungsform beinhaltet das Ausgeben der rekonstruierten Bilddaten ein Überlagern mit Konturelementen, die mit für die rekonstruierten Bilddaten identifizierten Objekten assoziiert sind.
  • Eine andere Ausführungsform richtet sich auf ein Fahrerassistenzmodul eines Fahrzeugs, das ein Eingabemodul zum Empfangen von Bilddaten, die einen Außenbereich eines Fahrzeugs darstellen, ein Ausgabemodul und ein Bildverbesserungsmodul beinhaltet. Das Bildverbesserungsmodul beinhaltet einen Prozessor, der dazu konfiguriert ist, die Bilddaten zu invertieren, um invertierte Bilddaten zu erzeugen, und einen Enttrübungsvorgang an invertierten Bilddaten durchzuführen, um verbesserte invertierte Bilddaten des Außenbereichs des Fahrzeugs zu erzeugen, wobei der Enttrübungsvorgang auf Szenenradianz, Medientransmission und Atmosphärenlicht der Bilddaten beruht. Der Prozessor ist ferner dazu konfiguriert, die verbesserten invertierten Bilddaten zu invertieren, um verbesserte Bilddaten zu erzeugen. Der Prozessor ist ferner dazu konfiguriert, rekonstruierte Bilddaten aus den verbesserten Bilddaten zu erzeugen, wobei die rekonstruierten Bilddaten durch Durchführen einer dünnen Darstellung der verbesserten Bilddaten zum Entrauschen der verbesserten Bilddaten und Durchführen eines Lernvorgangs zum Identifizieren und Verbessern von interessierenden Objekten in den verbesserten Bilddaten mit der dünnen Darstellung erzeugt werden. Der Prozessor ist ferner dazu konfiguriert, das Ausgabemodul derart zu steuern, dass es die rekonstruierten Bilddaten an eine Anzeigeeinheit des Fahrzeugs ausgibt.
  • Andere Aspekte, Merkmale und Techniken liegen für den einschlägigen Fachmann angesichts der folgenden detaillierten Beschreibung der Ausführungsformen auf der Hand.
  • Figurenliste
  • Die Merkmale, Aufgaben und Vorteile der vorliegenden Offenbarung gehen aus der unten aufgeführten detaillierten Beschreibung in Verbindung mit den Zeichnungen deutlicher hervor, in denen gleiche Bezugszeichen durchgehend Entsprechendes kennzeichnen und wobei:
    • 1 eine grafische Darstellung eines Systems gemäß einer oder mehreren Ausführungsformen zeigt;
    • 2 ein Verfahren zur Bildverbesserung gemäß einer oder mehreren Ausführungsformen zeigt;
    • 3 eine Darstellung eines Bildverbesserers gemäß einer oder mehreren Ausführungsformen zeigt;
    • 4 eine grafische Darstellung eines Bildverbesserungsverfahrens gemäß einer oder mehreren Ausführungsformen zeigt;
    • 5 eine Systemdarstellung gemäß einer oder mehreren anderen Ausführungsformen zeigt;
    • 6 eine grafische Darstellung einer am Körper tragbaren Einheit gemäß einer oder mehreren Ausführungsformen zeigt;
    • 7 eine grafische Darstellung von Bilddaten gemäß einer oder mehreren Ausführungsformen zeigt;
    • 8 ein Ablaufdiagramm einer Bildverbesserung bei schwachem Licht gemäß einer oder mehreren Ausführungsformen zeigt;
    • 9 eine grafische Darstellung von Deep Learning (tiefgehendem Lernen) gemäß einer oder mehreren Ausführungsformen zeigt; und
    • 10 ein Ablaufdiagramm von Deep Learning gemäß einer oder mehreren Ausführungsformen zeigt.
  • DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • ÜBERBLICK UND TERMINOLOGIE
  • Ein Aspekt der Offenbarung richtet sich auf Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs. In einer Ausführungsform beinhaltet ein Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs eine Invertierung von Bilddaten, Bildenttrübung und Rekonstruktion von Bilddaten zur Anzeige. Hier beschriebene Verfahren können auf optische Nicht-IR-Bildvorrichtungen (z. B. Digitalkameras usw.) angewandt werden, die Bild- und Videoinhalte darstellen. Die Verfahren können eine geordnete Reihe von Funktionen bereitstellen, die von Fahrzeughardware durchgeführt wird, um die Erfassung zu verbessern und den Betrieb eines Fahrzeugassistenzsystems und von Fahrzeugassistenzvorrichtungen zu verbessern. Hier beschriebene Verfahren können sich auf schlechte Sichtverhältnisse infolge eines oder mehrerer aus schwachem Licht, gerichtetem Licht (z. B. Fernlicht usw.), Blendung und Witterungsbedingungen (z. B. Dunst, Nebel, hohe Temperatur usw.) richten. Hier beschriebene Verfahren können von Vorrichtungs- und Systemkonfigurationen eingesetzt werden und können die Verwendung von Lernalgorithmen zum Erzeugen dünner Darstellungen von Bilddaten (z. B. Dictionary Learning) und Deep-Learning-Algorithmen beinhalten.
  • Eine andere Ausführungsform richtet sich auf ein Fahrzeugsystem, das zum Bereitstellen von Fahrerassistenz eingesetzt werden kann. In einer Ausführungsform können Systeme nach vorn gerichtete Bilderfassungsvorrichtungen zum Aufnehmen von Videobilddaten außerhalb eines Fahrzeugs eingesetzt werden. Das System kann ferner dazu konfiguriert sein, Bilddaten zu nutzen, die von einer am Körper tragbaren Vorrichtung aufgenommen werden. Die Handhabung und Verarbeitung von Bildern durch die Vorrichtung kann an eine oder mehrere Anzeigen, darunter u. a. Infotainment-Anzeigen eines Fahrzeugs und/oder Blickfeldanzeigen für einen Fahrer des Fahrzeugs, ausgegeben werden.
  • Eine andere Ausführungsform richtet sich auf ein Bildverbesserungsmodul. Die Vorrichtung kann dazu konfiguriert sein, eine oder mehrere Bildverbesserungsfunktionen durchzuführen. Das Bildverbesserungsmodul sowie die hier beschriebenen Verfahren und Systeme können Standortdaten und zuvor erfasste Tageslichtbilder zur Verbesserung von Bildern bei schwachen Lichtverhältnissen nutzen.
  • Im hier verwendeten Sinne sollen die Ausdrücke „ein“ oder „eine“ eins oder mehr als eins bedeuten. Der Ausdruck „Vielzahl“ soll zwei oder mehr als zwei bedeuten. Der Ausdruck „ein anderes“ ist als zweites oder mehr definiert. Die Ausdrücke „beinhaltend“ und/oder „aufweisend“ sind nicht ausschließlich (z. B. umfassend). Der Ausdruck „oder“ ist im hier verwendeten Sinne als einschließend oder ein beliebiges oder eine beliebige Kombination bedeutend auszulegen. So bedeutet „A, B oder C“ „ein beliebiges der Folgenden: A; B; C; A und B; A und C; B und C; A, B und C“. Eine Ausnahme dieser Definition liegt nur dann vor, wenn sich eine Kombination aus Elementen, Funktionen, Schritten oder Handlungen an sich auf eine Art gegenseitig ausschließt.
  • In dieser Schrift bedeuten Bezugnahmen auf „eine Ausführungsform“, „bestimmte Ausführungsformen“ oder einen ähnlichen Ausdruck, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder Eigenschaft, das bzw. die in Verbindung mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform enthalten ist. So bezieht sich das Auftreten derartiger Formulierungen an verschiedenen Stellen dieser Beschreibung nicht unbedingt immer auf dieselbe Ausführungsform. Des Weiteren können die bestimmten Merkmale, Strukturen oder Eigenschaften auf jede geeignete Weise in einer oder mehreren Ausführungsformen ohne Einschränkung kombiniert werden.
  • AUSFÜHRUNGSBEISPIELE
  • Nun zeigt in Bezug auf die Figuren 1 eine grafische Darstellung eines Systems gemäß einer oder mehreren Ausführungsformen. In einer Ausführungsform ist das System 100 ein Fahrerassistenzsystem für ein Fahrzeug. Das System 100 beinhaltet eine Kamera 105, ein Bildverbesserungsmodul 110 und eine Anzeige 115. In bestimmten Ausführungsformen kann das System 100 eine Blickfeldanzeige 120 beinhalten.
  • Gemäß einer Ausführungsform nimmt die Kamera 105 Videobilddaten außerhalb eines Fahrzeugs, wie z. B. in einem vorderen Bereich eines Fahrzeugs, auf, die mit einer Fahrbahn 120 assoziiert sind. Das Bildverbesserungsmodul 110 ist dazu konfiguriert, von der Kamera 105 aufgenommene Bilddaten zu verbessern und eine Bildausgabe zur Anzeige im Fahrzeug auf der Anzeige 115 oder mit der Blickfeldanzeige 120 darzustellen. Gemäß einer Ausführungsform bezieht sich die Kamera 105 auf eine Digitalkamera, die dazu konfiguriert ist, Bilddaten optisch zu erfassen und aufzunehmen. Beispielhafte Einzelbilderfassungsfrequenzen der Kamera 105 können eine oder mehrere Einzelbilderfassungsfrequenzen, darunter u. a. 60 Hz, 120 Hz, 240 Hz, usw., sein. In anderen Ausführungsformen kann das System 100 Bildinhalte von einer am Körper tragbaren Vorrichtung (in 1 nicht dargestellt) empfangen. Das Bildverbesserungsmodul 110 ist dazu konfiguriert, von einer oder mehreren Kameras, wie z. B. der Kamera 105, erfasste Bilddaten zu verbessern. Gemäß einer Ausführungsform kann das Bildverbesserungsmodul 110 zur Verbesserung von Bilddaten für eines oder mehrere aus schwachem Licht, gerichtetem Licht (z. B. Fernlicht usw.), Blendung und Witterungsbedingungen (z. B. Dunst, Nebel, hohe Temperatur usw.) konfiguriert sein. Das Bildverbesserungsmodul 110 kann dazu konfiguriert sein, Objekte zu erfassen und grafische Elemente darzustellen, um einem Fahrer des Fahrzeugs erfasste Objekte anzuzeigen.
  • Gemäß einer Ausführungsform ist die Anzeige 115 dazu konfiguriert, verbesserte Bilddaten darzustellen. Die Anzeige 115 kann Teil eines Infotainmentsystems eines Fahrzeugs sein. Die Anzeige 120 kann sich auf eine Blickfeldanzeige beziehen und kann eines oder mehrere aus Bilddaten, Objektindikatoren und Darstellungen einer Szene, die von der Kamera 105 erfasst werden, darstellen.
  • Gemäß einer Ausführungsform kann das System 100 dazu konfiguriert sein, feststehende und nicht feststehende (z. B. bewegliche, nicht dauerhafte usw.) Objekte zu erfassen und zu identifizieren. 1 veranschaulicht eine Person 125 mit einer grafischen Darstellung eines beispielhaften Identifikators 126. Der Identifikator 126 bezieht sich auf eine rechteckige Kontur, die als Überlagerung der Position der Person 125 dargestellt ist. Gemäß einer Ausführungsform kann das Bildverbesserungsmodul 110 einen oder mehrere Identifikatoren zu dem verbesserten Bild zur Darstellung durch die Anzeige 115 hinzufügen. Eine Fahrbahn kann eine oder mehrere Gefahren beinhalten, wie z. B. die Gefahr 130, die vom Fahrerassistenzsystem erfasst und identifiziert werden kann. Zu vom Bildverbesserungsmodul 110 erfassten Gefahren können Schlaglöcher, Bremsschwellen, Mittelstreifen usw. gehören.
  • Gemäß einer Ausführungsform kann das Bildverbesserungsmodul 110 dazu konfiguriert sein, feststehende Objekte zu erfassen, die allgemein als 135 dargestellt sind, und kann einen als 140 dargestellten Identifikator darstellen. Bestimmte große Elemente, wie z. B. eine Struktur 145, können ebenfalls vom Bildverbesserungsmodul 110 erfasst und/oder angezeigt werden. In 1 sind rechteckige Formen als Indikatoren abgebildet, es versteht sich jedoch, dass eines oder mehrere aus Schattierung, Färbung, Hervorhebung und Anzeige von grafischen Bildern als Indikatoren eingesetzt werden können.
  • 2 zeigt ein Verfahren zur Bildverbesserung gemäß einer oder mehreren Ausführungsformen. Ein Verfahren 200 kann von einer Vorrichtung, wie z. B. einem Bildverbesserungsmodul (z. B. dem Bildverbesserungsmodul 110) eines Fahrerassistenzsystems eines Fahrzeugs (z. B. des Systems 100) und einer oder mehreren anderen Komponenten, eingesetzt werden, um Angaben von Objekten darzustellen. Gemäß einer Ausführungsform kann das Verfahren 200 dadurch begonnen werden, dass das Bildverbesserungsmodul des Fahrerassistenzsystems bei Block 205 Bilddaten empfängt, die einen Außenbereich eines Fahrzeugs darstellen. Bei Block 205 empfangene Bilddaten können sich auf Videodaten beziehen, die von einer nach vorn gerichteten Kamera des Fahrzeugs aufgenommen wurden. Das Bildverbesserungsmodul kann ausgewählte Einzelbilder oder sämtliche Einzelbilder von empfangenen Bilddaten zur Erfassung von Objekten charakterisieren. Das Verfahren 200 kann sich auf ein einzelnes Einzelbild oder mehrere Einzelbilder der empfangenen Bilddaten richten. In einigen Ausführungsformen können mehrere Einzelbilder parallel verarbeitet werden, um eine Echtzeitanzeige von erfassten Objekten bereitzustellen. In bestimmten Ausführungsformen schließen bei Block 205 empfangene Bilddaten Videodaten ein, die von einer am Körper tragbaren Vorrichtung, die mit einem Fahrer des Fahrzeugs assoziiert ist, aufgenommen werden.
  • Bei Block 210 werden empfangene Bilddaten invertiert, um invertierte Bilddaten zu bilden. In einer Ausführungsform beinhaltet das Invertieren bei Block 210 eine pixelweise Invertierung ganzer Einzelbilder der Bilddaten. Die Invertierung bei Block 210 und im hier verwendeten Sinne bezieht sich auf eine Farbinvertierung von Einzelbildern eines Bildes, sodass Farben von Einzelbildern eines Bildes invertiert sind. Beispielsweise werden weiße Pixel so invertiert, dass sie schwarz werden, und werden schwarze Pixel des Einzelbildes so invertiert, dass sie weiß werden, usw. Gemäß einer Ausführungsform werden Bilddaten invertiert, um dunkle Objekte oder Oberflächen besser zu erkennen.
  • Bei Block 215 führt das Bildverbesserungsmodul einen Enttrübungsvorgang an den invertierten Bilddaten durch, um verbesserte invertierte Bilddaten des Außenbereichs des Fahrzeugs zu erzeugen. Der Enttrübungsvorgang bei Block 215 beruht auf Szenenradianz, Medientransmission und Atmosphärenlicht der Bilddaten. Der Enttrübungsvorgang beinhaltet ein Bestimmen der Szenenradianz für die invertierten Videodaten auf Grundlage eines Anpassungsparameters für die Medientransmission. Auf Grundlage der Enttrübung bei Block 210 kann die Szenenradianz trotz eines oder mehrerer aus schlechten Sichtverhältnissen und Temperatureinwirkung auf Objekte festgestellt werden.
  • Bei Block 220 invertiert das Fahrerassistenzmodul die verbesserten invertierten Bilddaten, um verbesserte Bilddaten zu erzeugen. Bei Block 225 werden rekonstruierte Bilddaten aus den verbesserten Bilddaten erzeugt. Gemäß einer Ausführungsform beinhalten rekonstruierte Bilddaten ein Durchführen einer dünnen Darstellung der verbesserten Bilddaten zum Entrauschen der verbesserten Bilddaten und Durchführen eines Lernvorgangs zum Identifizieren und Verbessern von interessierenden Objekten in den verbesserten Bilddaten mit der dünnen Darstellung. In einer Ausführungsform nutzt die dünne Darstellung der verbesserten Bilddaten bestehende Grundelemente für Einzelbilder der Bilddaten oder leitet eine Kombination davon ab, sodass ein Dictionary of Atoms gebildet wird, um einen Rauschpegel für Grundelemente des Einzelbildes zu ändern. Der Lernvorgang wird durchgeführt, um interessierende Objekte in den verbesserten Bilddaten mit der dünnen Darstellung zu identifizieren und zu verbessern. Der Lernvorgang beinhaltet eine Identifizierung von Objekten in Einzelbildern, einen Vergleich und eine Anpassung von Objekten in Einzelbildern und eine Auswahl eines oder mehrerer Objekte, die in Einzelbildern der Bilddaten identifiziert werden sollen. Die dünne Darstellung und die Lernvorgänge werden auf Grundlage eines Vergleichs von mit den Bilddaten assoziierten Tageslichtbildern unter Verwendung einer Position des Fahrzeugs durchgeführt. Das Erzeugen rekonstruierter Bilddaten bei Block 225 auf Grundlage der verbesserten Bilddaten kann ein Stitchen von entrauschten Bilddaten aus der dünnen Darstellung mit vom Lernmodul identifizierten Objekten beinhalten.
  • Bei Block 230 gibt das Fahrerassistenzmodul die rekonstruierten Bilddaten an eine Anzeigeeinheit des Fahrzeugs aus. Das Ausgeben der rekonstruierten Bilddaten beinhaltet ein Überlagern mit Konturelementen, die mit für die rekonstruierten Bilddaten identifizierten Objekten assoziiert sind. Elemente des Verfahrens 200 können von Fahrerassistenzsystemen und Bildverbesserungsmodulen genutzt werden.
  • 3 zeigt eine Darstellung eines Bildverbesserungsvorgangs gemäß einer oder mehreren Ausführungsformen. Bildverbesserungsfunktionen 300 können in einem Fahrzeug einhalten sein, um Objekte in Situationen mit schlechter Sicht zu erfassen und Fahrer darüber zu benachrichtigen. Merkmale und Vorgänge aus FIG. 3 können eingesetzt werden, um die Qualität von Bilddaten, die von einem Fahrzeugkamerasensor erfasst werden, deutlich zu verbessern. Gemäß einer Ausführungsform empfängt ein Bildverbesserungsmodul 305 Eingangsvideoeinzelbilder über einen Eingang 306. Verbesserte Bilddaten können mittels eines Ausgangs 345 ausgegeben werden.
  • Gemäß einer Ausführungsform invertiert das Bildverbesserungsmodul 305 ein empfangenes Videoeinzelbild bei Block 310. Die Invertierung des Videoeinzelbildes bei 310 kann ein Invertieren der Pixel eines Videoeinzelbildes beinhalten. Gemäß einer Ausführungsform bezieht sich Invertierung auf eine Farbinvertierung, wie z. B. Weiß zu Schwarz und Schwarz zu Weiß. Bei einem farbigen Eingangsbild I(x) (x steht für jedes Pixel) kann die pixelweise Invertierung berechnet werden als: I ( X ) c = 255 I ( X )
    Figure DE102018201054A1_0001
  • Invertierte Bilddaten können dann durch Enttrüben bei Block 315 verbessert werden. Gemäß einer Ausführungsform beruht das Enttrüben bei Block 315 auf einer Dark Channel Prior (A-priori-Wahrscheinlichkeit eines Dunkelkanals), um Videos mit schwacher Beleuchtung und Videos mit hohem Dynamikumfang gemäß Folgendem zu verbessern: J inv ( x ) = ( I inv ( x ) A ) /t ( x ) + A
    Figure DE102018201054A1_0002
    wobei Jinv (x) für die Szenenradianz steht, t(x) für die Medientransmission steht, A für das globale Atmosphärenlicht steht: t(x) = 1,0 - w dunkel(x), und w für einen Parameter zum Anpassen des Wertes von t(x) steht. Gemäß einer Ausführungsform kann w adaptiv sein und kann auf Grundlage der Lichtintensität der Pixelbereiche im Bild berechnet werden. Dies kann nicht nur dazu verwendet werden, das Bild bei schwachem Licht zu verbessern, sondern kann auch verwendet werden, um eine Blendung durch Fernlicht von entgegenkommendem Verkehr zu verringern.
  • Enttrübte Bilddaten werden dann invertiert und zu einem Videoeinzelbild bei Block 320 verbessert. In einer Ausführungsform kann die Invertierung bei Block 320 gemäß Folgendem erreicht werden: J ( X ) = 255 J inv ( x )
    Figure DE102018201054A1_0003
  • Ein Deep-Learning-Modul 325 arbeitet mit einem Dictionary-Learning-Modul 330 zur Rekonstruktion bei Block 340 zusammen. Gemäß einer Ausführungsform identifiziert das Deep-Learning-Modul 325 interessierende Objekte und verbessert Objekte. In einer Ausführungsform nutzt die Objektidentifizierung durch das Deep-Learning-Modul 325 einen oder mehrere Lernalgorithmen (z. B. Deep-Learning-Module), um interessierende Objekte wie Fußgänger/Tiere, Schlaglöcher/Schwellen, Verkehrszeichen, Bordsteinkanten usw. im Sichtfeld einer Fahrzeugkamera oder in Bildern einer am Körper tragbaren Vorrichtung zu finden. Das Objekt wird identifiziert, selbst wenn es aufgrund von schwachem Licht oder Verdeckung teilweise sichtbar ist. Das Deep-Learning-Modul 325 verbessert interessierende Objekte auf Grundlage eines Einzelbildvergleichs. Sobald ein Objekt identifiziert wird, werden weitere Deep-Learning-Algorithmen zum Verbessern des interessierenden Objekts verwendet. Das Objekt und/oder die grafischen Elemente können dann mit den ursprünglichen Bilddaten überlagert werden. Die Objektverbesserung kann eine Vorkenntnis zu statischen Objekten (Verkehrsschildern, Schlaglöchern usw.) aus verfügbaren Tageslichtbildern am selben Standort beinhalten.
  • Das Dictionary-Learning-Modul 330 ist dazu konfiguriert, ein Repräsentationslernen von Bilddaten durchzuführen. In einer Ausführungsform führt das Dictionary-Learning-Modul 330 ein dünnbesetztes Dictionary-Learning durch, um eine dünne Darstellung der Eingangsdaten (auch als Codierung bezeichnet) in Form einer linearen Kombination von Grundelementen sowie dieser Grundelemente selbst zu bestimmen. Die vom Dictionary-Learning-Modul 330 identifizierten Grundelemente können als Atome charakterisiert werden, aus denen das Dictionary besteht. Das Dictionary-Learning-Modul 330 kann ferner bestehende Bilder zu den GPS-Koordinaten (und dem Kurs) verwenden, um ein Dictionary für erfasste Bilddaten zu erstellen. Beispielsweise können Tageslichtbilder 335 bereitgestellt werden, sofern vorhanden. In bestimmten Ausführungsformen kann ein Entrauschen von Einzelbildern eines Bildes unter Verwendung eines Clustering-Algorithmus (z. B. KSVD-Clustering usw.) durchgeführt werden, wenn keine bestehenden Bilder vorhanden sind.
  • Gemäß einer Ausführungsform beziehen sich die Tageslichtbilder 335 auf Bilddaten, die bei unverminderter Sicht je nach dem Standort des Fahrzeugs (z. B. GPS-Daten, Fahrtrichtung) aufgenommen werden. Die Tageslichtbilder 335 können vom Deep-Learning-Modul 325 und Dictionary-Learning-Modul 330 genutzt werden.
  • Ein Rekonstruktionsmodul 340 empfängt die Ausgabe vom Deep-Learning-Modul 325 und Dictionary-Learning-Modul 330. Das Rekonstruktionsmodul 340 rekonstruiert entrauschte Bilddaten vom Dictionary-Learning-Modul 330 durch Stitchen von Objekten vom Deep-Learning-Modul 325. Die rekonstruierten Bilddaten werden dann als Videoeinzelbild 345 ausgegeben, um sie in Echtzeit an den Fahrer bereitzustellen.
  • 4 zeigt eine grafische Darstellung eines Bildverbesserungsverfahrens gemäß einer oder mehreren Ausführungsformen. Gemäß einer Ausführungsform kann das Verfahren 400 von einem Bildverbesserungsmodul eines Fahrerassistenzsystems eingesetzt werden. Das Verfahren 400 kann auf Grundlage eines oder mehrerer Videoeinzelbilder bei Block 405 begonnen werden. Die Bilddaten werden dann durch pixelweise Invertierung bei Block 410 invertiert. Die Invertierung der Bilddaten kann auf Grundlage der Pixelfarbe und/oder monochromatischer Invertierung durchgeführt werden. Bei Block 415 wird eine Dark Channel Prior für das invertierte Bild berechnet. Das Atmosphärenlicht wird dann anhand des invertierten Bildes und des Dunkelkanals bei Block 420 geschätzt. Die Lichtdurchlässigkeit für das erfasste Bild wird unter Verwendung des invertierten Bildes und einer Lichtberechnung bei Block 425 geschätzt.
  • Bei Block 430 fährt das Verfahren 400 mit einem Feststellen der Szenenradianz unter Verwendung des invertierten Bildes, des geschätzten Atmosphärenlichts und der Transmission fort. Bei Block 435 wird das festgestellte Bild dann durch pixelweise Invertierung invertiert. Bei Block 435 festgestellte Bilddaten beziehen sich auf ein verbessertes Bild in Bezug auf die Beseitigung und/oder Korrektur eines oder mehrerer Effekte aus Atmosphärenlicht, Transmission und Enttrübung. Das Verfahren 400 kann dann das Bild weiter durch Dictionary-Learning-Vorgänge und Deep Learning des Bildinhalts verbessern.
  • Bei Entscheidungsblock 440 bestimmt das Verfahren 400, ob Tageslichtansichten verfügbar sind. Tageslichtbilder für einen Standort des Fahrzeugs können bei Block 445 erhalten werden. In bestimmten Ausführungsformen kann eine Fahrzeugkommunikation Tageslichtbilder für Standorte auf Grundlage einer Kommunikation mit einem Netzwerk anfordern. In anderen Ausführungsformen können Tageslichtbilder für bestimmte Routen gespeichert sein. Wenn Tageslichtbilder verfügbar sind (z. B. „JA“-Pfad ab Entscheidungsblock 440), wird ein Dictionary-Learning-Algorithmus bei Block 450 ausgeführt. Wenn keine Tageslichtbilder verfügbar sind (z. B. „NEIN“-Pfad ab Entscheidungsblock 440), wird ein Dictionary-Learning-Algorithmus bei Block 455 ausgeführt, um ein Dictionary zu erstellen. Das Verfahren 400 beinhaltet ferner Ausführen eines oder mehrerer Entrauschungs- und Bildfehlerkorrekturalgorithmen bei Block 465, wodurch verbesserte Bilddaten auf Grundlage des Dictionary Learnings erzeugt werden.
  • Ein Deep-Learning-Modul empfängt Bilddaten vom Block 435 bei Block 460 und identifiziert Objekte in den Bilddaten. In bestimmten Ausführungsformen kann das Deep-Learning-Modul ferner Tageslichtbilder für einen Standort von Block 445 empfangen. Bei Block 470 rekonstruiert das Verfahren 400 Bilddaten aus den Dictionary-Learning- und Deep-Learning-Verbesserungen. Verbesserte Videodaten können dann durch eine Fahrzeuganzeige, wie z. B. eine Frontscheibenanzeige, Blickfeldanzeige (Heads-Up-Display - HUD) oder Anzeige im Allgemeinen, bei Block 475 ausgegeben werden, und das Verfahren endet bei Block 480.
  • 5 zeigt eine Systemdarstellung gemäß einer oder mehreren anderen Ausführungsformen. Das System 500 kann dazu konfiguriert sein, verbesserte Bilddaten gemäß einer oder mehreren Ausführungsformen anzuzeigen. Das System 500 kann ein Fahrerassistenzsystem 505 und eine externe Kamera 515 beinhalten. Die externe Kamera 515 bezieht sich auf eine externe, nach vorn gerichtete Kamera. In bestimmten Ausführungsformen kann das System 500 eine Peripherievorrichtung zur Erfassung von Bilddaten beinhalten. Wenn das System 500 eine Sekundärvorrichtung 520 beinhaltet, kann die externe Kamera 515 eingesetzt werden, wenn der Batteriestand der Sekundärvorrichtung 520 nicht dazu imstande ist, eingebaute Kameras zu betreiben, bei Benutzerpräferenz für eine nach vorn gerichtete Kamera oder wenn eine Tiefenwahrnehmung eines Objekts angefordert wird, kann die externe Kamera 515 mit Kameras der Sekundärvorrichtung 520 verwendet werden.
  • Das Fahrerassistenzsystem 505 kann Teil eines Infotainmentsystems eines Fahrzeugs sein und kann ein GPS-Modul 506 zum Erhalten von Positionsbestimmungs- und Kursdaten eines Fahrzeugs und ein Geschwindigkeitserfassungsmodul 507 zum Bestimmen der Fahrzeuggeschwindigkeit beinhalten. Das GPS-Modul 506 ermöglicht es, dass Fahrzeugpositionsbestimmungsdaten vom Fahrerassistenzsystem 505 empfangen werden. Das Geschwindigkeitserfassungsmodul 507 erfasst die Geschwindigkeit des Fahrzeugs und leitet Geschwindigkeitsinformationen an die Sekundärvorrichtung 520 über eine Kommunikationseinheit 510.
  • Ein Netzwerk-/Kommunikationssuchmodul 508 empfängt GPS-Informationen zum Suchen von Tageslichtansichten derselben Positionen. Die Dictionary-Learning- und Deep-Learning-Module des Bildverbesserungsmoduls 511 nutzen Tageslichtbilder zur Ansichtsrekonstruktion, sofern vorhanden. Das Netzwerk-/Kommunikationssuchmodul 508 kann Positions- und Geschwindigkeitsdaten empfangen, die zur Verbesserung von gesammelten Bilddaten verwendet werden sollen. Darüber hinaus kann das Netzwerk-/Kommunikationssuchmodul 508 Daten von einem externen Netzwerk, wie z. B. einem Mobilfunknetz 509, empfangen.
  • Das Kommunikationsmodul 510 ist dazu konfiguriert, Bilddaten von einer oder mehreren Sekundärvorrichtungen, wie z. B. der Vorrichtung 520, zu empfangen. Das Bildverbesserungsmodul 511 beinhaltet einen Prozessor 512 und einen Speicher 513. Ein Verarbeitungsmodul 514 kann dazu konfiguriert sein, Bilddaten von einer externen Kamera 515 zu empfangen und zu verarbeiten. Beispielsweise kann das Verarbeitungsmodul 514 Einzelbilder speichern und an das Bildverbesserungsmodul 511 bereitstellen. Das Verarbeitungsmodul 514 kann das Video von der Frontkamera verarbeiten und an das Sekundärsystem 520 über das Kommunikationsmodul 510 senden.
  • Ein Projektionsmodul 516 ist dazu konfiguriert, verbesserte Bilddaten an eine Anzeige 517 auszugeben. Die Anzeige 517 ist dazu konfiguriert, von einer externen Kamera 515 oder Sekundärvorrichtung 520 aufgenommene Bilddaten darzustellen.
  • Gemäß einer Ausführungsform beinhaltet das System 500 gegebenenfalls die Sekundärvorrichtung 520. Bei der Sekundärvorrichtung 520 kann es sich um eine am Körper tragbare Vorrichtung, wie z. B. ein intelligentes Brillensystem, handeln. Die Sekundärvorrichtung 520 beinhaltet Kameras 550, 555 (z. B. Kamera 1, Kamera 2), die dazu konfiguriert sind, Bilddaten im Verhältnis zur Sicht eines Fahrzeugführers zu erfassen. Ein Video-Stitcher 560 kombiniert die beiden Ansichten der Kameras 550, 555, um eine zusammengesetzte Ansicht zu erzeugen. Diese zusammengesetzte Ansicht kann eine Sicht des Fahrzeugführers nachbilden. Die Kameras 550, 555 können verwendet werden, um eine Tiefe von erfassten Bildern zu bestimmen. Ein Kommunikationsmodul 565 ermöglicht eine Datenübertragung von der Sekundärvorrichtung 520 zum Fahrerassistenzsystem 505. Die Sekundärvorrichtung 520 kann ferner eine Leistungsquelle 570 beinhalten.
  • 6 zeigt eine grafische Darstellung einer Sekundärvorrichtung gemäß einer oder mehreren Ausführungsformen. Eine Sekundärvorrichtung 600 (z. B. die Sekundärvorrichtung 520) bezieht sich auf einen am Körper tragbaren Bilddetektor, der Echtzeitvideobilddaten bereitstellt. Die Sekundärvorrichtung 600 beinhaltet Kameras 605 und 610, die an einem Brillengestell angebracht sind, um die Ansicht eines Fahrzeugführers aufzunehmen. In bestimmten Ausführungsformen sind die Kameras 605 und 610 zu bis zu 30 fps (Einzelbildern pro Sekunde) fähig. Die Sekundärvorrichtung 600 kann ein Kommunikationsmodul beinhalten, das zur drahtlosen Kommunikation (z. B. WLAN usw.) konfiguriert ist, um eine Datenübertragung an eine Fahrzeugeinheit (z. B. ein Infotainmentsystem) zu ermöglichen. Die Kameras 605 und 610 können eine Echtzeitvideoaufnahme bereitstellen.
  • 7 zeigt eine grafische Darstellung von Bilddaten gemäß einer oder mehreren Ausführungsformen. Gemäß einer Ausführungsform werden eine Bildverbesserungsvorrichtung und Bildverbesserungsverfahren, die hier beschrieben sind, in Bezug auf Einzelbilder erörtert. Es versteht sich, dass die hier beschriebenen Verfahren und Vorrichtungen mit vielen Einzelbildern des Videobildes arbeiten, um verbesserte Bilddaten zu erzeugen, die als Sammlung von verbesserten Einzelbildern dargestellt werden. 7 zeigt eine beispielhafte visuelle Beschreibung der Bildverbesserung. Ein Bild 705 bezieht sich auf von einer Kamera bei schlechter Sicht erfasste Bilddaten. Das Bild 705 kann einen Bereich 720 mit geringem visuellen Detailgrad, der dunkel erscheint, oder mit geringen Pixelunterschieden beinhalten. Gemäß den hier beschriebenen Verfahren und Vorrichtungen kann das Bild 705 durch eines oder mehrere aus Enttrüben und Entrauschen verbessert werden. Verbesserte Bilddaten in Reaktion auf ein Entrauschen können an ein Deep-Learning-Modul bereitstellt werden, um Objekte zu erfassen.
  • Ein Bild 710 stellt eine Objekterfassung mittels Deep Learning dar, wobei ein Objekt 725 im Bereich 720 identifiziert wird. Das Objekt 725 kann auf Grundlage einer oder mehrere Inferenzen für Reihen von Bildern erfasst werden. Auf Grundlage von erfassten Objekten und verbesserten Bildern kann ein Bild 715 dargestellt werden, wobei der Inhalt des Bildes im Ganzen verbessert und entrauscht ist. Darüber hinaus sind Objekte, die im Einzelbild erfasst werden, wie z. B. das Objekt 725, in den Bilddaten enthalten.
  • 8 zeigt ein Ablaufdiagramm einer Bildverbesserung bei schwachem Licht gemäß einer oder mehreren Ausführungsformen. Das Verfahren 800 bezieht sich auf den Betrieb einer Fahrzeugeinheit, einschließlich einer am Körper tragbaren Vorrichtung, wie z. B. einer intelligenten Brille 802, und eine Fahrzeugeinheit 803, einschließlich einer Bildverbesserungseinheit. Eine intelligente Brille 802 beinhaltet ein Bild-Stitcher-Element 805, Kameras 810 und ein am Körper tragbares Kommunikationsmodul 815. Die Fahrzeugeinheit 803 beinhaltet ein Fahrzeugkommunikationsmodul 820, ein Bildverbesserungsmodul 825, ein Online-Suchmodul 830, ein Geschwindigkeitserfassungsmodul 835, eine GPS-Einheit 840, ein Deep-Learning-Modul 845 und eine Projektionseinheit 850.
  • Das Verfahren 800 bezieht sich auf einen beispielhaften Ablauf zur Kommunikation und zum Betrieb einer intelligenten Brille 802 und einer Fahrzeugeinheit 803. Das Verfahren 800 kann durch eine Erfassung von schwachem Licht bei Block 801 begonnen werden. In Reaktion darauf aktiviert der Bild-Stitcher 805 die Kameras 810, dargestellt als 851. Das Geschwindigkeitserfassungsmodul 835 stellt Fahrzeuggeschwindigkeitsinformationen an die Kameras 810 bereit, dargestellt als 852. Der Bild-Stitcher 805 stellt dann die Einzelbildfrequenz (z. B. Einzelbilder pro Sekunde) der Kameras 810 ein, dargestellt als 853. Die Kameras 810 stellen einen Videostrom an den Bild-Stitcher 805 bereit, dargestellt als 854. Der Bild-Stitcher 805 stellt zusammengesetzte Videoeinzelbilder an das am Körper tragbare Kommunikationsmodul 815 bereit, dargestellt als 855.
  • Das am Körper tragbare Kommunikationsmodul 815 überträgt das Video an das Kommunikationsmodul 820, dargestellt als 856, das dann die Daten an das Bildverbesserungsmodul 825 überträgt, dargestellt als 857. Das Verfahren 800 fährt damit fort, dass das Bildverbesserungsmodul 825 Bilddaten an das Deep-Learning-Modul 845 bereitstellt, dargestellt als 858.
  • Ein Dictionary-Modul des Bildverbesserungsmoduls 825 fordert Tagesbilder an, dargestellt als 859. Das Online-Suchmodul 830 fordert GPS-Daten von dem Geschwindigkeitserfassungsmodul 835 an, dargestellt als 860. Die GPS-Daten werden an das Online-Suchmodul 830 zurückgegeben, dargestellt als 861. Tageslichtbilder werden wiederum an das Bildverbesserungsmodul 825 bereitgestellt, dargestellt als 862. Das Bildverbesserungsmodul 825 projiziert dann verbesserte Bilddaten zur Projektionseinheit 850, dargestellt als 863.
  • 9 zeigt eine grafische Darstellung von Deep Learning gemäß einer oder mehreren Ausführungsformen. Ein Verfahren 900 ist eine grafische Darstellung eines Deep-Learning-Prozesses gemäß einer oder mehreren Ausführungsformen. Gemäß einer Ausführungsform wird ein Eingangsbild 905 an ein Deep-Learning-Modul 910 bereitgestellt. Das Deep-Learning-Modul ist dazu konfiguriert, eine oder mehrere Vorgänge am Eingangsbild 905 durchzuführen, um verbesserte Bilder mit einer Identifizierung von interessierende Objekten auszugeben. In einer Ausführungsform gibt das Deep-Learning-Modul 910 ein Bild 915 aus, das sich auf eine Ausgabe eines verbesserten Bildes mit einem hervorgehobenen interessierenden Objekt 916 bezieht. Gemäß einer anderen Ausführungsform gibt das Deep-Learning-Modul 910 ein Bild 920 aus, das sich auf eine Ausgabe eines verbesserten Bildes mit einem hervorgehobenen und eingefärbten interessierenden Objekt 921 bezieht. Wie in 9 dargestellt, beinhalten die Bilder 915 und 920 eine Aufhellung im Vergleich zum Bild 905, die auf mehr als nur einer Helligkeitseinstellung einer Anzeige beruht. Ein oder mehrere hier beschrieben Verbesserungsverfahren können eingesetzt werden, um aufgenommene Bilddaten zur Anzeige und/oder zum Darstellen einer Anzeige von Objekten, die von einer Kamera des Fahrzeugs erfasst werden, zu verbessern.
  • 10 zeigt ein Ablaufdiagramm von Deep Learning gemäß einer oder mehreren Ausführungsformen. Ein Verfahren 1000 kann sich auf den Betrieb eines Deep-Learning-Moduls gemäß einer oder mehreren Ausführungsformen beziehen. Das Verfahren 1000 kann durch Empfangen invertierter und verbesserter Videoeinzelbilder bei Block 1005 begonnen werden. Beispielhafte Vorgänge oder Funktionen eines Deep-Learning-Moduls sind allgemein als 1010 dargestellt, wobei das Deep-Learning-Modul verschiedene Funktionen und Stufen zur Verarbeitung von Bilddaten bereitstellen kann.
  • Gemäß einer Ausführungsform beinhalten die Deep-Learning-Module ein neuronales Faltungsnetz 1015, das mehrere Schichten beinhaltet, die Abschnitte eines invertierten und verbesserten Videoeinzelbildes 1005 verarbeiten. Das neuronale Faltungsnetz 1015 ist dazu konfiguriert, Einzelbilder eines Bildes zu analysieren und maschinelles Lernen an Bildinhalten, einschließlich Pixelvergleich, und Lernprotokolle mit Einzelbildüberlappung zur Unterscheidung von Objekten durchzuführen. Das neuronale Faltungsnetz 1015 kann dazu konfiguriert sein, Ausgaben von Bildsammlungen so zu bearbeiten, dass sich Eingabebereiche überlappen. Die Bildsammlungen können eingesetzt werden, um eine Regressionsschicht 1020 zu erzeugen. Eine bessere Darstellung des ursprünglichen Bildes kann dann für das invertierte und verbesserte Videoeinzelbild 1005 als rekonstruiertes Bild 1050 erzeugt werden. Unter Verwendung einer Regressionsschicht kann das Deep-Learning-Modul die Qualität von Videoeinzelbildern verbessern, um Objekte und Abschnitte des Bildes, die in einem Fahrerassistenzsystem angezeigt werden sollen, wie z. B. eine Fahrbahn, besser zu identifizieren.
  • Gemäß einer anderen Ausführungsform kann ein Deep-Learning-Modul grafische Elemente als eine Anzeige von Objekten und ihrer Position anzeigen. In einer Ausführungsform stellt das Deep-Learning-Modul eine rechteckige Kontur oder einen Begrenzungsrahmen für erfasste Objekte dar. Das neuronale Faltungsnetz 1015 kann dazu konfiguriert sein, das invertierte und verbesserte Videoeinzelbild 1005 zu empfangen und Merkmale in den Einzelbildern zu identifizieren. Eine Objektklassifizierungsschicht 1030 erfasst und klassifiziert Objekte gemäß einem oder mehreren Objekttypen, wie z. B. darzustellende Objekte, zu ignorierende Objekte usw. Eine Objekterfassungsschicht 1035 erzeugt die Anzeigeattribute und Position für grafische Elemente, um erfasste Objekte zu kennzeichnen und/oder hervorzuheben. Gemäß einer Ausführungsform gibt die Objektklassifizierungsschicht 1030 erfasste Objektklassen aus und gibt die Objekterfassungsschicht 1030 Koordinaten von Anzeigeelementen (z. B. Rahmenkoordinaten) zur Objektklasse mit einem Begrenzungsrahmenmodul 1055 aus. Die Begrenzungsrahmen werden dann dem rekonstruierten Bild 1050 hinzugefügt, um ein Bild 1060 mit Begrenzungsrahmen (z. B. farbigen Rahmen, grafischen Elementen usw.) zu bilden, um erfasste Objekte anzugeben.
  • Gemäß einer anderen Ausführungsform kann ein Deep-Learning-Modul Pixelattribute eines Bildes modifizieren, um eine Färbung für erfasste Objekte bereitzustellen. Das erfasste Objekt kann z. B. als in eine Anzeige des Fahrerassistenzsystems mit einer Farbe oder einem Muster, wie z. B. einer hellen Farbe (z. B. Gelb, Grün usw.), eingezeichnet erscheinen. Die Färbung kann dazu beitragen, einen allgemeinen Umriss und ein Bewegungsmuster von erfassten Objekten bereitzustellen. Das neuronale Faltungsnetz 1015 kann dazu konfiguriert sein, das invertierte und verbesserte Videoeinzelbild 1005 zu empfangen und Objektmerkmale in den Einzelbildern zu identifizieren. Je Pixel kann eine Klassifizierungsschicht 1045 dazu konfiguriert sein, Pixel auszugeben, die mit erfassten Objekten klassifiziert sind. Bei Block 1065 kann jedes Pixel in dem Bild gekennzeichnet werden. In bestimmten Ausführungsformen beinhaltet das Kennzeichnen ein Hinzufügen einer Färbung zu Pixeln, die als mit einem erfassten Objekt assoziiert gekennzeichnet werden. Die Färbung wird dann dem Bild 1060 hinzugefügt, um ein Bild 1070 mit gelben Begrenzungsrahmen und eingefärbten Pixeln zu bilden, um erfasste Objekte anzugeben.
  • Während diese Offenbarung unter Bezugnahme auf Ausführungsbeispiele davon näher veranschaulicht und beschrieben wurde, liegt für den Fachmann auf der Hand, dass verschiedene Änderungen an Form und Details vorgenommen werden können, ohne vom Umfang der beanspruchten Ausführungsformen abzuweichen.

Claims (20)

  1. Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs, wobei das Verfahren umfasst: Empfangen von Bilddaten, die einen Außenbereich eines Fahrzeugs darstellen, durch ein Fahrerassistenzmodul; Invertieren der Bilddaten durch das Fahrerassistenzmodul, um invertierte Bilddaten zu bilden; Durchführen eines Enttrübungsvorgangs an invertierten Bilddaten durch das Fahrerassistenzmodul, um verbesserte invertierte Bilddaten des Außenbereichs des Fahrzeugs zu erzeugen, wobei der Enttrübungsvorgang auf Szenenradianz, Medientransmission und Atmosphärenlicht der Bilddaten beruht; Invertieren der verbesserten invertierten Bilddaten durch das Fahrerassistenzmodul, um verbesserte Bilddaten zu erzeugen; Erzeugen rekonstruierter Bilddaten aus den verbesserten Bilddaten durch das Fahrerassistenzmodul, wobei die rekonstruierten Bilddaten erzeugt werden durch Durchführen einer dünnen Darstellung der verbesserten Bilddaten zum Entrauschen der verbesserten Bilddaten und Durchführen eines Lernvorgangs zum Identifizieren und Verbessern von interessierenden Objekte in den verbesserten Bilddaten mit der dünnen Darstellung; und Ausgeben der rekonstruierten Bilddaten an eine Anzeigeeinheit des Fahrzeugs durch das Fahrerassistenzmodul.
  2. Verfahren nach Anspruch 1, wobei die Bilddaten, welche einen Außenbereich eines Fahrzeugs darstellen, Videodaten beinhalten, die von einer nach vorn gerichteten Kamera des Fahrzeugs aufgenommen werden.
  3. Verfahren nach Anspruch 1, wobei die Bilddaten, welche einen Außenbereich eines Fahrzeugs darstellen, Bilddaten beinhalten, die von einer am Körper tragbaren Vorrichtung, die mit einem Fahrer des Fahrzeugs assoziiert ist, aufgenommen werden.
  4. Verfahren nach Anspruch 1, wobei das Invertieren eine pixelweise Invertierung ganzer Einzelbilder der Bilddaten beinhaltet.
  5. Verfahren nach Anspruch 1, wobei der Enttrübungsvorgang ein Bestimmen der Szenenradianz für die invertierten Videodaten auf Grundlage eines Anpassungsparameters für die Medientransmission beinhaltet.
  6. Verfahren nach Anspruch 1, wobei die dünne Darstellung der verbesserten Bilddaten bestehende Grundelemente für Einzelbilder der Bilddaten nutzt oder eine Kombination davon ableitet, sodass ein Dictionary of Atoms gebildet wird, um einen Rauschpegel für Grundelemente des Einzelbildes zu ändern.
  7. Verfahren nach Anspruch 1, wobei das Durchführen eines Lernvorgangs zum Identifizieren und Verbessern von interessierenden Objekten in den verbesserten Bilddaten mit der dünnen Darstellung eine Identifizierung von Objekten in Einzelbildern, einen Vergleich und eine Anpassung von Objekten in Einzelbildern und eine Auswahl eines oder mehrerer Objekte, die in Einzelbildern der Bilddaten identifiziert werden sollen, beinhaltet.
  8. Verfahren nach Anspruch 1, wobei die dünne Darstellung und der Lernvorgang auf Grundlage eines Vergleichs eines mit den Bilddaten assoziierten Tageslichtbildes unter Verwendung einer Position des Fahrzeugs durchgeführt werden.
  9. Verfahren nach Anspruch 1, wobei das Erzeugen rekonstruierter Bilddaten auf Grundlage der verbesserten Bilddaten ein Stitchen von entrauschten Bilddaten aus der dünnen Darstellung mit vom Lernmodul identifizierten Objekten beinhaltet.
  10. Verfahren nach Anspruch 1, wobei das Ausgeben der rekonstruierten Bilddaten ein Überlagern mit Konturelementen, die mit für die rekonstruierten Bilddaten identifizierten Objekten assoziiert sind, beinhaltet.
  11. Fahrerassistenzmodul eines Fahrzeugs, umfassend: ein Eingabemodul zum Empfangen von Bilddaten, die einen Außenbereich eines Fahrzeugs darstellen; ein Ausgabemodul; und ein Bildverbesserungsmodul, das mit dem Eingabemodul und Ausgabemodul gekoppelt ist, wobei das Bildverbesserungsmodul einen Prozessor beinhaltet, der konfiguriert ist zum Invertieren der Bilddaten, um invertierte Bilddaten zu bilden; Durchführen eines Enttrübungsvorgangs an invertierten Bilddaten, um verbesserte invertierte Bilddaten des Außenbereichs des Fahrzeugs zu erzeugen, wobei der Enttrübungsvorgang auf Szenenradianz, Medientransmission und Atmosphärenlicht der Bilddaten beruht; Invertieren der verbesserten invertierten Bilddaten, um verbesserte Bilddaten zu erzeugen; Erzeugen rekonstruierter Bilddaten aus den verbesserten Bilddaten, wobei die rekonstruierten Bilddaten erzeugt werden durch Durchführen einer dünnen Darstellung der verbesserten Bilddaten zum Entrauschen der verbesserten Bilddaten und Durchführen eines Lernvorgangs zum Identifizieren und Verbessern von interessierenden Objekte in den verbesserten Bilddaten mit der dünnen Darstellung; und Steuern des Ausgabemoduls derart, dass es die rekonstruierten Bilddaten an eine Anzeigeeinheit des Fahrzeugs ausgibt.
  12. Vorrichtung nach Anspruch 11, wobei die Bilddaten, welche einen Außenbereich eines Fahrzeugs darstellen, Videodaten beinhalten, die von einer nach vorn gerichteten Kamera des Fahrzeugs aufgenommen werden.
  13. Vorrichtung nach Anspruch 11, wobei die Bilddaten, welche einen Außenbereich eines Fahrzeugs darstellen, Videodaten beinhalten, die von einer am Körper tragbaren Vorrichtung, die mit einem Fahrer des Fahrzeugs assoziiert ist, aufgenommen werden.
  14. Vorrichtung nach Anspruch 11, wobei das Invertieren eine pixelweise Invertierung ganzer Einzelbilder der Bilddaten beinhaltet.
  15. Vorrichtung nach Anspruch 11, wobei der Enttrübungsvorgang ein Bestimmen der Szenenradianz für die invertierten Bilddaten auf Grundlage eines Anpassungsparameters für die Medientransmission beinhaltet.
  16. Vorrichtung nach Anspruch 11, wobei die dünne Darstellung der verbesserten Bilddaten bestehende Grundelemente für Einzelbilder der Bilddaten nutzt oder eine Kombination davon ableitet, sodass ein Dictionary of Atoms gebildet wird, um einen Rauschpegel für Grundelemente des Einzelbildes zu ändern.
  17. Vorrichtung nach Anspruch 11, wobei das Durchführen eines Lernvorgangs zum Identifizieren und Verbessern von interessierenden Objekten in den verbesserten Bilddaten mit der dünnen Darstellung eine Identifizierung von Objekten in Einzelbildern, einen Vergleich und eine Anpassung von Objekten in Einzelbildern und eine Auswahl eines oder mehrerer Objekte, die in Einzelbildern der Bilddaten identifiziert werden sollen, beinhaltet.
  18. Vorrichtung nach Anspruch 11, wobei die dünne Darstellung und der Lernvorgang auf Grundlage eines Vergleichs eines mit den Bilddaten assoziierten Tageslichtbildes unter Verwendung einer Position des Fahrzeugs durchgeführt werden.
  19. Vorrichtung nach Anspruch 11, wobei das Erzeugen rekonstruierter Bilddaten auf Grundlage der verbesserten Bilddaten ein Stitchen von entrauschten Bilddaten aus der dünnen Darstellung mit vom Lernmodul identifizierten Objekten beinhaltet.
  20. Vorrichtung nach Anspruch 11, wobei das Ausgeben der rekonstruierten Bilddaten ein Überlagern mit Konturelementen, die mit für die rekonstruierten Bilddaten identifizierten Objekten assoziiert sind, beinhaltet.
DE102018201054.4A 2017-02-03 2018-01-24 System und Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs Pending DE102018201054A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/424,252 2017-02-03
US15/424,252 US10140690B2 (en) 2017-02-03 2017-02-03 System and method for image presentation by a vehicle driver assist module

Publications (1)

Publication Number Publication Date
DE102018201054A1 true DE102018201054A1 (de) 2018-08-09

Family

ID=62910348

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018201054.4A Pending DE102018201054A1 (de) 2017-02-03 2018-01-24 System und Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs

Country Status (3)

Country Link
US (2) US10140690B2 (de)
CN (1) CN108460734B (de)
DE (1) DE102018201054A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019219756A1 (de) * 2019-12-16 2021-06-17 Volkswagen Aktiengesellschaft Verfahren zur Erzeugung von künstlichen Fahrbahn-Merkmalen, Computerprogramm, Computerlesbarer Datenträger und Vorrichtung zur Erzeugung von künstlichen Fahrbahn-Merkmalen
DE102020213270A1 (de) 2020-10-21 2022-04-21 Conti Temic Microelectronic Gmbh System zur Vermeidung von Unfällen durch Wildwechsel bei Dämmerung und Nacht

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769453B2 (en) * 2017-05-16 2020-09-08 Samsung Electronics Co., Ltd. Electronic device and method of controlling operation of vehicle
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US10528842B2 (en) * 2017-02-06 2020-01-07 Mediatek Inc. Image processing method and image processing system
US10607329B2 (en) 2017-03-13 2020-03-31 Adobe Inc. Illumination estimation from a single image
US10803323B2 (en) * 2017-05-16 2020-10-13 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle
US10606767B2 (en) * 2017-05-19 2020-03-31 Samsung Electronics Co., Ltd. Ethernet-attached SSD for automotive applications
US10609286B2 (en) * 2017-06-13 2020-03-31 Adobe Inc. Extrapolating lighting conditions from a single digital image
US10607122B2 (en) * 2017-12-04 2020-03-31 International Business Machines Corporation Systems and user interfaces for enhancement of data utilized in machine-learning based medical image review
US10671896B2 (en) * 2017-12-04 2020-06-02 International Business Machines Corporation Systems and user interfaces for enhancement of data utilized in machine-learning based medical image review
CN108933930A (zh) * 2018-08-17 2018-12-04 成都跟驰科技有限公司 汽车便携式大视角成像监控系统
US10832046B1 (en) * 2018-10-23 2020-11-10 Architecture Technology Corporation Systems and methods for processing document images
US10757363B2 (en) * 2018-10-30 2020-08-25 GM Global Technology Operations LLC Method and system for reconstructing a vehicle scene at a cloud layer
DE102019201702A1 (de) 2019-02-11 2020-08-13 Conti Temic Microelectronic Gmbh Modulares inpainting Verfahren
TWI713365B (zh) * 2019-07-26 2020-12-11 瑞昱半導體股份有限公司 影像處理電路與相關的影像處理方法
CN110525342A (zh) * 2019-08-30 2019-12-03 的卢技术有限公司 一种基于深度学习的ar-hud车载辅助驾驶方法及其系统
TWI712011B (zh) 2019-12-18 2020-12-01 仁寶電腦工業股份有限公司 安全警示語音提示方法
US11380111B2 (en) 2020-09-29 2022-07-05 Ford Global Technologies, Llc Image colorization for vehicular camera images
CN112140998A (zh) * 2020-10-12 2020-12-29 华南师范大学 一种辅助机动车驾驶的视觉增强去雾系统
US11528435B2 (en) 2020-12-25 2022-12-13 Industrial Technology Research Institute Image dehazing method and image dehazing apparatus using the same
GB202107132D0 (en) * 2021-05-19 2021-06-30 Agco Int Gmbh Residue spread monitoring
CN115706819A (zh) * 2021-08-17 2023-02-17 鸿富锦精密工业(深圳)有限公司 网页视频播放方法、装置、电子设备及存储介质
CN116824542B (zh) * 2023-06-13 2024-07-12 万基泰科工集团数字城市科技有限公司 一种基于深度学习的轻量级雾天车辆检测方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4427001B2 (ja) * 2005-05-13 2010-03-03 オリンパス株式会社 画像処理装置、画像処理プログラム
US7643659B2 (en) * 2005-12-31 2010-01-05 Arcsoft, Inc. Facial feature detection on mobile devices
WO2007083307A2 (en) * 2006-01-18 2007-07-26 Technion - Research & Development Foundation Ltd. System and method for correcting outdoor images for atmospheric haze distortion
KR100849845B1 (ko) * 2006-09-05 2008-08-01 삼성전자주식회사 영상 보정 방법 및 장치
CN101360187B (zh) * 2007-08-03 2010-06-02 鸿富锦精密工业(深圳)有限公司 图像处理方法及图像处理装置
JP5354514B2 (ja) * 2008-03-31 2013-11-27 現代自動車株式会社 脇見運転検出警報システム
US8350933B2 (en) * 2009-04-08 2013-01-08 Yissum Research Development Company Of The Hebrew University Of Jerusalem, Ltd. Method, apparatus and computer program product for single image de-hazing
US8401280B2 (en) * 2009-12-21 2013-03-19 Electronics And Telecommunications Research Institute Device for improving stereo matching results, method of improving stereo matching results using the device, and system for receiving stereo matching results
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
US8340461B2 (en) * 2010-02-01 2012-12-25 Microsoft Corporation Single image haze removal using dark channel priors
WO2012150591A2 (en) * 2011-05-03 2012-11-08 Alon Atsmon Automatic content analysis method and system
US8582915B2 (en) * 2011-06-27 2013-11-12 Wuxi Jinnang Technology Development Ltd. Image enhancement for challenging lighting conditions
CN102968760B (zh) * 2011-08-30 2016-08-17 富士通株式会社 图像去雾方法和系统
US8755628B2 (en) * 2012-09-10 2014-06-17 Google Inc. Image de-hazing by solving transmission value
US8847771B2 (en) * 2013-01-25 2014-09-30 Toyota Motor Engineering & Manufacturing North America, Inc. Method and apparatus for early detection of dynamic attentive states for providing an inattentive warning
EP2892036B1 (de) * 2014-01-06 2017-12-06 Harman International Industries, Incorporated Alarmauslösungskorrelation zwischen kopfmontierten Bilddaten und externer Vorrichtung
KR101646449B1 (ko) * 2015-02-12 2016-08-05 현대자동차주식회사 시선 인식 시스템 및 방법
IL239129A0 (en) * 2015-06-01 2015-11-30 Brightway Vision Ltd Image improvements in car imaging systems

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019219756A1 (de) * 2019-12-16 2021-06-17 Volkswagen Aktiengesellschaft Verfahren zur Erzeugung von künstlichen Fahrbahn-Merkmalen, Computerprogramm, Computerlesbarer Datenträger und Vorrichtung zur Erzeugung von künstlichen Fahrbahn-Merkmalen
DE102020213270A1 (de) 2020-10-21 2022-04-21 Conti Temic Microelectronic Gmbh System zur Vermeidung von Unfällen durch Wildwechsel bei Dämmerung und Nacht

Also Published As

Publication number Publication date
US20190087944A1 (en) 2019-03-21
US20180225808A1 (en) 2018-08-09
US10140690B2 (en) 2018-11-27
US10504214B2 (en) 2019-12-10
CN108460734A (zh) 2018-08-28
CN108460734B (zh) 2023-10-10

Similar Documents

Publication Publication Date Title
DE102018201054A1 (de) System und Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs
DE112018007287T5 (de) Fahrzeugsystem und -verfahren zum erfassen von objekten und einer objektentfernung
EP2427855B1 (de) Verfahren zur darstellung von objekten aus der umgebung eines fahrzeugs auf der anzeige einer anzeigevorrichtung
EP1997093B1 (de) Virtuelles spotlight zur kennzeichnung von interessierenden objekten in bilddaten
DE102011086512B4 (de) Nebeldetektion
DE102018105417A1 (de) Fahrzeugortung unter verwendung von kameras
DE112017007579T5 (de) Verfahren und System zum automatischen Kolorieren von Nachtsichtbildern
DE102017100198A1 (de) Fixierungserzeugung für maschinenlernen
DE102017115318A1 (de) Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität
DE102018111265A1 (de) Fahrzeugumgebungs-abbildungssysteme und -verfahren
EP2289044B1 (de) Bilddatenvisualisierung
DE102011055458A1 (de) Adaptierungstechnik zur Erkennung einer freien Fahrbahn mittels verlässlicher lokaler Modellkalibrierung
DE112018004847T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiles objekt
DE102018212655A1 (de) Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE102014208271A1 (de) Verfahren und Vorrichtung zur bildbasierten Sichtweitenschätzung
DE102018002955A1 (de) Verfahren und steueranordnung zur umgebungswahrnehmung
CN110807352B (zh) 一种用于危险驾驶行为预警的车内外场景视觉分析方法
DE102011055459A1 (de) Adaptierungstechnik zur Erkennung einer freien Fahrbahn mit zusätzlichen Klassifikatoren
DE112021005856T5 (de) Kombinieren von informationen einer kamera für sichtbares licht und einer wärmekamera
DE102006053109B3 (de) Verfahren zur bildhaften Darstellung einer Fahrzeugumgebung und Bilderfassungssystem
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
DE102019127283A1 (de) System und Verfahren zum Erfassen eines Objekts in einer dreidimensionalen Umgebung eines Trägerfahrzeugs
DE102016114693A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Führen des Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102007024641A1 (de) Verfahren und Vorrichtung zur Darstellung einer Fahrzeugumgebung