DE102017124372A1 - Fahrzeugfenster-durchlassgradsteuerungsvorrichtung und -verfahren - Google Patents

Fahrzeugfenster-durchlassgradsteuerungsvorrichtung und -verfahren Download PDF

Info

Publication number
DE102017124372A1
DE102017124372A1 DE102017124372.0A DE102017124372A DE102017124372A1 DE 102017124372 A1 DE102017124372 A1 DE 102017124372A1 DE 102017124372 A DE102017124372 A DE 102017124372A DE 102017124372 A1 DE102017124372 A1 DE 102017124372A1
Authority
DE
Germany
Prior art keywords
vehicle
neural network
artificial neural
transmittance
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017124372.0A
Other languages
English (en)
Inventor
Scott Vincent Myers
Alexandro Walsh
Francois Charette
Lisa Scaria
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102017124372A1 publication Critical patent/DE102017124372A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B32LAYERED PRODUCTS
    • B32BLAYERED PRODUCTS, i.e. PRODUCTS BUILT-UP OF STRATA OF FLAT OR NON-FLAT, e.g. CELLULAR OR HONEYCOMB, FORM
    • B32B17/00Layered products essentially comprising sheet glass, or glass, slag, or like fibres
    • B32B17/06Layered products essentially comprising sheet glass, or glass, slag, or like fibres comprising glass as the main or only constituent of a layer, next to another layer of a specific material
    • B32B17/10Layered products essentially comprising sheet glass, or glass, slag, or like fibres comprising glass as the main or only constituent of a layer, next to another layer of a specific material of synthetic resin
    • B32B17/10005Layered products essentially comprising sheet glass, or glass, slag, or like fibres comprising glass as the main or only constituent of a layer, next to another layer of a specific material of synthetic resin laminated safety glass or glazing
    • B32B17/10165Functional features of the laminated safety glass or glazing
    • B32B17/10431Specific parts for the modulation of light incorporated into the laminated safety glass or glazing
    • B32B17/10467Variable transmission
    • B32B17/10495Variable transmission optoelectronic, i.e. optical valve
    • B32B17/10513Electrochromic layer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J3/00Antiglare equipment associated with windows or windscreens; Sun visors for vehicles
    • B60J3/007Sunglare reduction by coatings, interposed foils in laminar windows, or permanent screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J3/00Antiglare equipment associated with windows or windscreens; Sun visors for vehicles
    • B60J3/04Antiglare equipment associated with windows or windscreens; Sun visors for vehicles adjustable in transparency
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/15Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on an electrochromic effect
    • G02F1/163Operation of electrochromic cells, e.g. electrodeposition cells; Circuit arrangements therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mechanical Engineering (AREA)
  • Nonlinear Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Es wird ein Fahrzeug offenbart, das Systeme zur Einstellung des Durchlassgrads eines oder mehrerer Fenster des Fahrzeugs umfasst. Das Fahrzeug kann eine Kamera umfassen, die Bilder ausgibt, die von einem Fahrzeuginsassen gemacht wurden. Das Fahrzeug kann auch ein künstliches neuronales Netzwerk umfassen, das auf Computerhardware läuft, die sich an Bord des Fahrzeugs befindet. Das künstliche neuronale Netzwerk kann dazu trainiert sein, den Insassen des Fahrzeugs zu klassifizieren, indem die von der Kamera erfassten Bilder als Eingabe benutzt werden. Das Fahrzeug kann ferner eine Steuerung umfassen, die den Durchlassgrad des einen oder der mehreren Fenster basierend auf den durch das künstliche neuronale Netzwerk erstellten Klassifizierungen steuert. Beispielsweise kann die Steuerung, wenn das künstliche neuronale Netzwerk den Insassen als blinzelnd oder die Augen abschirmend klassifiziert, den Durchlassgrad einer Windschutzscheibe, eines Seitenfensters oder einer Kombination derselben reduzieren.

Description

  • STAND DER TECHNIK
  • GEBIET DER ERFINDUNG
  • Diese Erfindung betrifft Fahrzeugsysteme und insbesondere Systeme und Verfahren zur Verwendung bildbasierter Klassifizierungen eines oder mehrerer Insassen eines Fahrzeugs als Grundlage zur Einstellung des Durchlassgrads eines oder mehrerer Fenster des Fahrzeugs.
  • AKTUELLER STAND DER TECHNIK
  • Lichtverhältnisse in einer Umgebung um ein Fahrzeug können sich negativ auf einen Fahrer des Fahrzeugs auswirken. Beispielsweise kann durch die Windschutzscheibe eines Fahrzeugs eintretendes Sonnenlicht die Fähigkeit eines Fahrers beeinträchtigen, zu sehen, was vor dem Fahrzeug liegt. Umgekehrt kann eine Windschutzscheibe oder ein anderes Fahrzeugfenster, das permanent dazu getönt ist, eine beträchtliche Menge an Sonnenlicht herauszufiltern, mehr herausfiltern, als bei schlechten Lichtverhältnissen angemessen ist. Dementsprechend ist ein Fahrzeugsystem und -verfahren erforderlich, das den Fensterdurchlassgrad so einstellt, dass er die unmittelbaren Bedürfnisse des Fahrers oder eines anderen Insassen des Fahrzeugs erfüllt.
  • Figurenliste
  • Um die Vorteile dieser Erfindung leicht verständlich zu machen, wird eine ausführlichere Beschreibung der oben kurz beschriebenen Erfindung unter Bezugnahme auf spezifische Ausführungsformen, die in den angehängten Zeichnungen abgebildet sind, präsentiert. Mit dem Verständnis, dass diese Zeichnungen nur typische Ausführungsformen der Erfindung abbilden und deshalb nicht als deren Umfang einschränkend anzusehen sind, wird die Erfindung mit zusätzlicher Genauigkeit und zusätzlichen Details beschrieben und erläutert, indem die begleitenden Zeichnungen zur Anwendung kommen, in denen Folgendes gilt:
    • 1 ist ein schematisches Diagramm, das eine Ausführungsform eines Fensters mit variablem Durchlassgrad gemäß der vorliegenden Erfindung zeigt;
    • 2 ist ein schematisches Diagramm, das eine Ausführungsform des technologischen Kontexts zeigt, innerhalb dessen ein System zum Steuern des Fensterdurchlassgrads gemäß der vorliegenden Erfindung betrieben werden könnte;
    • 3 ist ein schematisches Ablaufdiagramm, das eine Ausführungsform eines Systems zum Steuern des Fensterdurchlassgrads gemäß der vorliegenden Erfindung zeigt;
    • 4 ist ein schematisches Ablaufdiagramm einer Ausführungsform eines Verfahrens zum Steuern des Fensterdurchlassgrads gemäß der vorliegenden Erfindung;
    • 5 ist ein schematisches Ablaufdiagramm einer alternativen Ausführungsform eines Verfahrens zum Steuern des Fensterdurchlassgrads gemäß der vorliegenden Erfindung;
    • 6 ist ein schematisches Ablaufdiagramm eines Verfahrens gemäß der vorliegenden Erfindung zur Verwendung vergangener Erfahrungen, um auf zukünftige Ereignisse vorzubereiten; und
    • 7 ist ein schematisches Ablaufdiagramm eines Verfahrens gemäß der vorliegenden Erfindung zum Einsatz computerisierter Kenntnisse einer Straße und/oder Fahrumgebung, um auf zukünftige Ereignisse vorzubereiten.
  • DETAILLIERTE BESCHREIBUNG
  • Es versteht sich, dass die Komponenten der vorliegenden Erfindung, wie allgemein beschrieben und in den Figuren veranschaulicht, in vielerlei verschiedenen Konfigurationen angeordnet und gestaltet sein können. Deshalb beabsichtigt die folgende detailliertere Beschreibung der Ausführungsformen der Erfindung, wie sie in den Figuren dargestellt sind, nicht, den Umfang der Erfindung wie beansprucht einzuschränken, sie ist vielmehr repräsentativ für gewisse Beispiele der zurzeit in Betracht gezogenen Ausführungsformen in Übereinstimmung mit der Erfindung. Die gegenwärtig beschriebenen Ausführungsformen lassen sich am besten unter Bezugnahme auf die Zeichnungen verstehen, wobei gleiche Teile mit gleichen Bezugszeichen gekennzeichnet sind.
  • Unter Bezugnahme auf 1 präsentiert die reale Welt eine Vielfalt an Lichtverhältnissen, die sich ständig ändern. Diese Realität schafft beträchtliche Herausforderungen für Fahrer und andere Fahrzeuginsassen. Beispielsweise ist es möglich, dass ein Fahrer einen Moment lang im Schatten fährt und sich seine bzw. ihre Augen auf dieses Lichtverhältnis einstellen. Im nächsten Moment könnte der Fahrer durch seine bzw. ihre Windschutzscheibe direktem Sonnenlicht ausgesetzt sein. Diese plötzliche Veränderung kann es dem Fahrer für einige Sekunden unmöglich machen, die Straße vor ihm klar zu sehen. Überdies ist es möglich, dass der Fahrer, um der plötzlichen Lichtveränderung gerecht zu werden, blinzelt und/oder eine Hand vom Lenkrad nimmt, um seine Augen abzuschirmen, eine Sonnenblende zu senken, eine Sonnenbrille aufzusetzen oder Ähnliches. Deshalb kann ein Fahrer in einem Moment reduzierter Sichtbarkeit auch physisch abgelenkt und/oder dazu gezwungen sein, zusätzliche Handlungen auszuführen.
  • Um diese Schwierigkeiten zu überwinden, kann ein Fahrzeug 10 gemäß der vorliegenden Erfindung mit einem oder mehreren Fenstern 12 (z. B. einer Windschutzscheibe, einem Heckfenster, einem Sonnendach oder Ähnlichem bzw. einer Kombination oder Subkombination derselben) ausgerüstet sein, die einen unterschiedlichen Durchlassgrad und ein Computersystem 14 zur Steuerung des Durchlassgrads des einen oder der mehreren Fenster 12 aufweisen. Der Durchlassgrad kann die Fähigkeit eines Fensters 12 definieren, Strahlenenergie hindurch zu lassen. Der Durchlassgrad kann als Prozentsatz des einfallenden Strahlungsflusses 16 ausgedrückt werden, der durch ein Fenster 12 dringt, um zu einem durchgelassenen Strahlungsfluss 18 zu werden. Demnach entspräche ein Durchlassgrad nahe einhundert Prozent einem Fenster 12 entsprechen, der im Wesentlichen das gesamte einfallende Licht 16 durchlässt, während ein Durchlassgrad nahe Null einem Fenster 12 entspräche, das im Wesentlichen kein einfallendes Licht 16 durchlässt.
  • Ein Fenster 12 mit variablem Durchlassgrad kann innerhalb eines bestimmten Durchlassgradbereichs oder zwischen mehreren Durchlasszuständen selektiv eingestellt oder gesteuert werden. Beispielsweise kann in manchen Ausführungsformen für Licht innerhalb eines bestimmten Spektralbands (z. B. sichtbares Licht, UV-Licht oder Ähnliches bzw. eine Kombination derselben) der Durchlassgradbereich eines Fensters 12 gemäß der vorliegenden Erfindung von einem Maximalwert um 80 % bis zu einem Minimalwert um 0,1 % reichen. In anderen Ausführungsformen kann für Licht innerhalb eines bestimmten Spektralbands (z. B. sichtbares Licht, UV-Licht oder Ähnliches bzw. eine Kombination derselben) der Durchlassgradbereich eines Fensters 12 gemäß der vorliegenden Erfindung von einem Maximalwert um 65 % bis zu einem Minimalwert um 0,1 % reichen. In ausgewählten Ausführungsformen kann der Durchlassgrad eines Fensters 12 gemäß der vorliegenden Erfindung innerhalb seines Durchlassgradbereichs unendlich abstimmbar sein (z. B. durch ein System 14). In anderen Ausführungsformen kann der Durchlassgrad eines Fensters 12 gemäß der vorliegenden Erfindung zwischen separaten Durchlasszuständen gewechselt werden (z. B. durch ein System 14).
  • Ein Fenster 12 kann auf beliebige geeignete Weise variable Durchlassgrade bereitstellen. In ausgewählten Ausführungsformen kann ein Fenster 12 verschiedene Komponenten oder Schichten umfassen, die verschiedene Funktionen ausüben. Beispielsweise kann in manchen Ausführungsformen ein Fenster 12 eine strukturelle Komponente 20 oder strukturelle Schicht 20 und eine Durchlasskomponente 22 oder -schicht 22 umfassen. Eine strukturelle Komponente 20 kann die Strukturfestigkeit eines Fensters 12 bereitstellen. In ausgewählten Ausführungsformen kann eine strukturelle Komponente aus Glas (z. B. laminiertem Glas), einem durchsichtigen Polymermaterial oder Ähnlichem sein bzw. die Vorgenannten umfassen. Eine Durchlasskomponente 22 kann basierend auf den bereitgestellten Eingaben verschiedene Durchlassgrade bereitstellen.
  • In bestimmten Ausführungsformen oder für bestimmte Fenster 12 eines Fahrzeugs 10 kann eine Durchlasskomponente 22 eine elektrochromatische Schicht sein oder umfassen, die Lichtdurchlasseigenschaften als Reaktion auf Veränderungen einer Spannung ändert, die auf sie angelegt werden. Dementsprechend kann ein System 14, indem es eine auf die elektrochromatische Schicht angelegte Spannung steuert, den Durchlassgrad des entsprechenden Fensters 12 steuern. In anderen Ausführungsformen oder für andere Fenster 12 eines Fahrzeugs 10 kann eine Durchlasskomponente 22 ein Suspended Particle Device, Polymer Dispersed Liquid Crystal Device, eine Mikromaske, Nanokristall-Vorrichtung oder Ähnliches sein bzw. umfassen.
  • Zusätzlich zu einer strukturellen Komponente 20 und einer Durchlasskomponente 22 kann ein Fenster 12 gemäß der vorliegenden Erfindung auch eine photovoltaische Komponente 24 oder Schicht 24 umfassen. Beispielsweise kann ein Fenster 12 eine Schicht photovoltaischen Materials (z. B. ein durchsichtiges photovoltaisches Material, ein halbdurchsichtiges photovoltaisches Material, das selbst einen bestimmten Tönungsgrad bereitstellt, oder Ähnliches) umfassen, das sich über das gesamte oder einen Teil des Fensters 12 erstreckt. In ausgewählten Ausführungsformen kann der von einer photovoltaischen Komponente 24 erzeugte elektrische Strom dazu benutzt werden, eine Durchlasskomponente 22 mit Strom zu versorgen. Alternativ oder zusätzlich dazu kann der von der photovoltaischen Komponente 24 erzeugte elektrische Strom als Maß der Lichtmenge benutzt werden, die auf das entsprechende Fenster 12 einfällt. Das bedeutet, dass je mehr Licht und je mehr direktes Licht (d. h. je orthogonaler die Lichtstrahlen im Verhältnis zu dem entsprechenden Fenster 12 sind), umso höher kann die Spannungsausgabe durch die photovoltaische Komponente 24 sein. Demnach kann eine photovoltaische Komponente 24 ein Stromgenerator, ein Lichtsensor oder eine Kombination derselben sein.
  • Die verschiedenen Komponenten eines Fensters 12 können auf eine beliebige geeignete Art angeordnet sein. Beispielsweise kann in einer Ausführungsform eine photovoltaische Komponente 24 auf einer äußeren Fläche einer strukturellen Komponente 20 angeordnet sein, während eine Durchlasskomponente 22 auf einer inneren Fläche einer strukturellen Komponente 20 angeordnet sein kann. Alternativ dazu können eine oder beide einer Durchlasskomponente 22 und einer photovoltaischen Komponente 24 zwischen zwei oder mehr Schichten einer strukturellen Komponente 20 angeordnet (und deshalb durch diese geschützt) sein.
  • Ein System 14 gemäß der vorliegenden Erfindung kann auf eine beliebige geeignete Art mit einer Durchlasskomponente 22 und/oder einer photovoltaischen Komponente 24 verbunden sein. In ausgewählten Ausführungsformen kann ein System 14 mit entgegengesetzten „Busbars“ mit entgegengesetzter Polarität verbunden werden, die auf einer Durchlasskomponente 22 aufgebracht oder anderweitig an ihr befestigt sind, um der Durchlasskomponente 22 eine Spannung anzulegen. Ähnlich kann ein System 14 mit entgegengesetzten Busbars mit entgegengesetzter Polarität verbunden sein, die auf einer photovoltaischen Komponente 24 aufgebracht oder anderweitig an ihr befestigt sind, um eine durch die photovoltaische Komponente 24 erzeugte Spannung zu erfassen. Derartige Busbars können auf der Peripherie eines Fensters 12 angeordnet sein, wo sie nicht sichtbar sind (z. B. innerhalb einer Glasscheibenfassung, einer Fahrzeugtür oder Ähnlichem) oder nur minimal die Sicht in das oder aus dem Fenster 12 oder das Erscheinungsbild des entsprechenden Fahrzeugs 10 beeinträchtigen.
  • Unter Bezugnahme auf 2, in ausgewählten Ausführungsformen, kann ein Fahrzeug 10 ein oder mehrere Sensoren 26 umfassen. Ein System 14 gemäß der vorliegenden Erfindung kann die Ausgaben eines oder mehrerer solcher Sensoren 26 verwenden, um zu ermitteln, wie der Durchlassgrad eines oder mehrerer Fenster 12 am besten zu steuern ist. Die im Fahrzeug 10 beinhalteten Sensoren 26 können eine beliebige geeignete Form annehmen. Beispielsweise kann einer bzw. können mehrere Sensoren 26 Kameras, Lichtsensoren, photovoltaische Komponenten 24, Temperatursensoren oder Ähnliches umfassen. Dementsprechend kann ein System 14 den Durchlassgrad eines oder mehrerer Fenster 12 einstellen, um eine Menge durchgelassenen Strahlungsflusses 18, eine Temperatur innerhalb der Fahrkabine eines entsprechenden Fahrzeugs 10 oder Ähnliches bzw. eine Kombination derselben zu steuern.
  • In ausgewählten Ausführungsformen kann ein System 14 gemäß der vorliegenden Erfindung mehr als den Durchlassgrad eines oder mehrerer Fenster 12 steuern. Beispielsweise kann ein System 14 die Höhe eines oder mehrerer Sitze innerhalb eines Fahrzeugs 10 steuern. Sollten dementsprechend die Daten von einem oder mehrerenSensoren 26 anzeigen, dass ein Insasse (z. B. ein Fahrgast) nicht genügend Schatten von einer Sonnenblende oder Ähnlichem erhält, kann ein System 14 einen entsprechenden Sitz anweisen, einen Insassen ausreichend zu erhöhen, damit seine bzw. ihre Augen von der Sonnenblende ausreichend geschützt werden.
  • In manchen Ausführungsformen können eine oder mehrere Bildsensoren 26 gemäß der vorliegenden Erfindung vorwärts gerichtete Kameras 26a (z. B. Kameras, die auf einen Bereich vor dem Fahrzeug 10 gerichtet sind), rückwärts gerichtete Kameras 26b (z. B. Rückfahrkameras oder Kameras, die auf einen Bereich hinter einem Fahrzeug 10 gerichtet sind), Insassenkameras 26c (z. B. Kameras, die in Richtung eines oder mehrerer eines Fahrers, Fahrgasts, Rücksitzfahrgasts oder Ähnlichem gerichtet sind bzw. Bilder von diesen machen), Point-of-View-Kameras 26d (z. B. Kameras, welche den Blickwinkel eines Fahrers oder anderen Insassen auf und/oder durch eine Windschutzscheibe oder ein anderes Fenster erfassen) oder Ähnliches bzw. eine Kombination oder Subkombination derselben sein.
  • Bilddaten (z. B. Video), die von einem oder mehreren Sensoren 26 erfasst werden, können von einem System 14 als einzelne Bilder oder Frames verarbeitet werden. Beispielsweise können Bilder oder Frames, die von einem oder mehreren Sensoren 26 erfasst werden, in ein künstliches neuronales Netzwerk innerhalb eines Systems 14 eingespeist werden. Das künstliche neuronale Netzwerk kann solche Bilder oder Frames in Erwägung ziehen, wenn es ermittelt, welche Klasse (z. B. welche Insasseneigenschaft) darin repräsentiert ist. Dementsprechend kann ein System 14 den Durchlassgrad eines oder mehrerer Fenster 12 gemäß von einem künstlichen neuronalen Netzwerk erstellten Klassifizierungen steuern.
  • In ausgewählten Ausführungsformen kann ein an künstliches neuronales Netzwerk, das einem System 14 gemäß der vorliegenden Erfindung entspricht, mehrere aufeinanderfolgende, von einem Sensor 26 über einen kurzen Zeitraum erfasste Bilder (z. B. mehrere über einen Zeitraum einiger Sekunden erfasste Bilder) analysieren. Falls eine signifikante Mehrheit der Bilder auf erste Lichtverhältnisse schließen lässt (z. B. durchgelassener Strahlungsfluss 18 über einer Grenze, durchgelassener Strahlungsfluss 18 unter einer Grenze, ein Fahrer blinzelt, ein Fahrer schirmt seine Augen ab, ein Fahrer trägt eine Sonnenbrille oder Ähnliches), ist es wahrscheinlicher, dass ein System 14 ermittelt, dass die ersten Lichtverhältnisse zutreffen.
  • In manchen Ausführungsformen können die von einem künstlichen neuronalen Netzwerk erstellten Klassifizierungen in Echtzeit mit dem Erfassen der Sensordaten, auf denen die Klassifizierung basiert, stattfinden. Das heißt, ein künstliches neuronales Netzwerk kann die Entsprechung bestimmter Sensordaten (z. B. Bilddaten) mit einer oder mehreren Klassen innerhalb eines sehr kurzen Zeitraums nach der Erfassung der bestimmten Sensordaten durch einen oder mehreren Sensoren 26 quantifizieren. In ausgewählten Ausführungsformen kann dieser sehr kurze Zeitraum ungefähr 10 Sekunden oder kürzer, 5 Sekunden oder kürzer, 2 Sekunden oder kürzer, oder Ähnliches sein.
  • In ausgewählten Ausführungsformen können eine oder mehrere von einem System 14 gemäß der vorliegenden Erfindung erstellten Klassifizierungen einem beliebigen bestimmten Merkmal gegenüber, das in einem oder mehreren von einem beliebigen Sensor 26 erfassten Bildern enthalten ist, neutral sein. Das heißt, ein künstliches neuronales Netzwerk innerhalb eines Systems 14 kann nicht in Bilddaten, die einem oder mehreren Sensoren 26 entsprechen, nach einem beliebigen bestimmten Merkmal suchen. Vielmehr kann das künstliche neuronale Netzwerk beurteilen, ob alle empfangenen Bilddaten als Ganzes mehr auf die eine oder eine andere Klasse schließen lassen.
  • Die Neutralität eines Systems 14 gemäß der vorliegenden Erfindung kann signifikante Vorteile bieten. Beispielsweise kann jedes Bild im Istzustand untersucht oder analysiert werden. Das bedeutet, es besteht kein Bedarf, Bilder vorzubearbeiten, damit ein System 14 sachgemäß funktioniert. Ferner ist möglicherweise keine zusätzliche Kalibrierung erforderlich. Überdies kann ein künstliches neuronales Netzwerk ein oder mehrere Bilder in seinem Klassifizierungsprozess benutzen, ohne darauf zu achten, ob ein Sensor 26, der das einen oder die mehreren Bilder erfasst hat, in Bezug auf sein Ziel an einer bestimmten Stelle fixiert war.
  • In ausgewählten Ausführungsformen können Informationen, die bestimmte Lichtverhältnisse charakterisieren, von einem System 14 an Bord des Fahrzeugs 10 an eine Hardware weitergeleitet oder kommuniziert werden, die sich außerhalb des Fahrzeugs 10 befindet. Das heißt, Informationen über Lichtverhältnisse können von Fahrzeug zu Fahrzeug (V2V), von Fahrzeug an Infrastruktur (V2I), von Fahrzeug an alles (V2X) oder Ähnliches bzw. eine Kombination oder Subkombination derselben weitergeleitet werden. Beispielsweise können von einem System 14 an Bord eines Fahrzeugs 10a erzeugte oder erfasste Informationen an ein oder mehrere Fahrzeuge 10b weitergeleitet werden, die in der Nähe sind. Dementsprechend können von einem Fahrzeug 10a erzeugte oder erfasste Informationen von Systemen 14 an Bord eines oder mehrerer Fahrzeuge 10b verwendet (z. B. voll übernommen oder in Erwägung gezogen) werden.
  • In ausgewählten Ausführungsformen können Informationen über Lichtverhältnisse bei 28 direkt von einem Fahrzeug 10a an ein anderes Fahrzeug 10b (zum Beispiel perFunkübertragung) weitergeleitet werden. Alternativ dazu können Informationen über Lichtverhältnisse bei 30 von einem System 14 an Bord des Fahrzeugs 10a in ein Kommunikationssystem 32 gespeist werden (z. B. ein Kommunikationssystem 32, das eine stationäre Telekommunikationsinfrastruktur umfasst). Beispielsweise kann ein System 14 bei 30 Informationen zu den Lichtverhältnissen in ein Mobiltelefonnetzwerk einspeisen, indem es eines oder mehrere Signale an einen Mobilfunkmast 34a sendet. In ausgewählten Ausführungsformen können bei 30 von einem System 14 eingespeiste Informationen durch ein Kommunikationssystem 32 geroutet und bei 36 an entsprechende Systeme 14 eines oder mehrerer anderer Fahrzeuge 10b geliefert werden. Alternativ dazu können bei 30 von einem System 14 in eine Kommunikationssystem 32 gespeiste Informationen bei 38 an ein Computersystem 40 geliefert, vom Computersystem 40 bearbeitet, bei 42 durch das Computersystem 40 zurück ins Kommunikationssystem 32 gespeist und bei 36 an die entsprechenden Systeme 14 eines oder mehrerer anderer Fahrzeuge 10b geliefert werden.
  • Beispielsweise kann in ausgewählten Ausführungsformen ein Kommunikationssystem 32 ein Mobiltelefonnetzwerk beinhalten, das einen ersten Mobilfunkmast 34a in der Nähe eines ersten Fahrzeugs 10a, einen zweiten Mobilfunkmast 34b in der Nähe eines ersten Fahrzeugs 10b und ein Netzwerk 44 umfasst, das den ersten Mobilfunkmast 34a mit dem zweiten Mobilfunkmast 34b verbindet. Ein Computersystem 40 kann ebenfalls an das Netzwerk 44 angeschlossen sein. Dementsprechend werden bei 30 in das Mobilfunknetzwerk durch ein System 14, das dem ersten Fahrzeug 10a entspricht, eingespeiste Informationen von dem Computersystem 40 empfangen werden, damit sie aufgezeichnet und/oder bearbeitet und an eines oder mehrere andere Fahrzeuge 10b oderÄhnliches bzw. eine Kombination oder Subkombinationen derselben verteilt werden kann.
  • Unter Bezugnahme auf 3 kann ein System 14 gemäß der vorliegenden Erfindung Informationen erzeugen oder erfassen, die ein Lichtereignis oder Lichtverhältnisse mithilfe von Signalverarbeitung, Deep Learning oder eine Kombination derselben charakterisieren. Ein System 14 kann dies auf eine beliebige geeignete Weise vollbringen. Beispielsweise kann ein System 14 als Hardware, Software oder eine Kombination derselben ausgeführt werden.
  • In ausgewählten Ausführungsformen kann ein System 14 Computerhardware und Computersoftware umfassen. Die Computerhardware eines Systems 14 kann einen oder mehrere Prozessoren 46, Speicher 48, einen oder mehrere Benutzeroberflächen 50, andere Hardware 52, oder Ähnliches bzw. eine Kombination oder Subkombination derselben umfassen. In manchen Ausführungsformen kann die gesamte oder eine Untergruppe dieser Computerhardware bereits als ein Teil eines Fahrzeugs 10 beinhaltet sein. Das heißt, dass alle oder ein Teil der Computerhardware mehrzweckmäßig sein und Aufgaben ausführen können, die bereits mit dem Betrieb des Fahrzeugs 10 in Verbindung stehen. Alternativ dazu kann ein System 14 gemäß der vorliegenden Erfindung exklusiv dem Steuern des Durchlassgrads eines oder mehrerer Fenster 12 gewidmet sein.
  • Der Speicher 48 eines System 14 gemäß der vorliegenden Erfindung kann mit dem einen oder den mehreren Prozessoren 46 betriebsverbunden sein und die Computersoftware speichern. Dies kann den einen oder die mehreren Prozessoren 46 dazu befähigen, die Computersoftware auszuführen. Demnach kann ein System 14 die Funktionalität oder Merkmale eines Fahrzeugs 10 erhöhen, indem es dem Software hinzufügt und/oderabändert, dem Fahrzeug 10 zusätzliche Hardware hinzufügt, oder eine Kombination derselben.
  • Eine Benutzeroberfläche 50 eines Systems 14 kann es einem Ingenieur, Techniker, Fahrer oder Ähnlichem ermöglichen, mit Aspekten eines Systems 14 zu interagieren, diese ablaufen zu lassen, individuell einzurichten oder zu steuern. Eine Benutzeroberfläche 50 kann es einem Benutzer ermöglichen, manuell den Durchlassgrad eines oder mehrerer Fenster 12 zu steuern (z. B. diesen mit Berührung eines Knopfes schrittweise zu erhöhen oder zu senken), alle Fenster 12 voll abzudunkeln, wenn ein entsprechendes Fahrzeug 10 unbeaufsichtigt hinterlassen wird, alle Fenster 12 während einer Periode voll automatisierten Fahrens voll abzudunkeln oder Ähnliches. In ausgewählten Ausführungsformen kann eine Benutzeroberfläche 50 eines Systems 14 einen oder mehrere Knöpfe, Kleintastaturen, Tastaturen, Tastbildschirme, Zeigevorrichtungen oder Ähnliches bzw. eine Kombination oder Subkombination derselben umfassen. Alternativ oder zusätzlich dazu kann die Benutzeroberfläche 50 einen oder mehrere Kommunikationsanschlüsse umfassen (z. B. Einsteckanschlüsse, kabellose Kommunikationsanschlüsse usw.), über die einer oder mehrere externe Computer oder Vorrichtungen mit einem System 14 oder einer oder mehrerer Komponenten derselben kommunizieren können. Beispielsweise kann eine Benutzeroberfläche 50 einen Kommunikationsanschluss aufweisen, über den eine kabellose Override-Vorrichtung, das mit einem Polizeibeamten oder Ähnlichem verbunden ist, ein System 14 anweist, den Durchlassgrad eines oder mehrerer (z. B. aller) Fenster 12 eines Fahrzeugs 10 während eines Verkehrsstopps, einer Fahrzeuginspektion oder Ähnlichem zu maximieren.
  • In ausgewählten Ausführungsformen kann der Speicher 48 eines Systems 14 (zumindest vorübergehend) Folgendes speichern: Sensordaten 54 (z. B. eines oder mehrere Segmente von Signalausgaben durch einen oder mehrere Sensoren 26, die sich an Bord des Fahrzeugs 10 befinden), Video 56 (z. B. eine oder mehr Videodateien 56), das von einemoder mehreren Sensoren 26 an Bord eines Fahrzeugs 10 erfasst oder aufgenommen wurde, ein oder mehrere Bilddateien 58, die ein oder mehrere Bilder enthalten, definieren oder diesen entsprechen, die von einem oder mehreren Sensoren 26 erfasst oder von einem Video extrahiert wurden, das von einem oder mehreren Sensoren 26 erfasst oder aufgenommen wurde, oder Ähnliches bzw. eine Kombination oder Subkombination derselben.
  • Zusätzlich kann der Speicher 48 ein oder mehrere Softwaremodule speichern. Beispielsweise kann der Speicher 48 ein Signalverarbeitungsmodul 60, Kommunikationsmodul 62, Bildextraktionsmodul 64, neuronales Netzwerkmodul 66, Feedbackmodul 68, Steuermodul 70, andere Daten oder Software 72 oder Ähnliches bzw. eine Kombination oder Subkombination derselben umfassen. Alternativ dazu können eine oder mehrere des Signalverarbeitungsmoduls 60, Kommunikationsmoduls 62, Bildextraktionsmoduls 64, neuronalem Netzwerkmoduls 66, Feedbackmoduls 68 und Steuermodul 70 als Hardware ausgeführt sein oder Hardwarekomponenten umfassen. Demnach kann bzw. können, auch wenn 3 Signalverarbeitungsmodul 60, Kommunikationsmodul 62, Bildextraktionsmodul 64, neuronale Netzwerkmodul 66, Feedbackmodul 68 und Steuermodul 70 als reine Softwaremodule zeigt, die im Speicher 48 gespeichert sind, tatsächlich eines oder mehrere dieser Module 60, 62, 64, 66, 68, 70 Hardware, Software oder Kombinationen derselben sein.
  • Ein Signalverarbeitungsmodul 60 kann ein System 14 befähigen, Signalausgaben von einem oder mehreren Sensoren 26 zu empfangen und zu interpretieren. Beispielsweise ist es möglich, dass die Signalausgabe eines Lichtsensors 26 (z. B. eine photovoltaische Komponente 24 eines Fensters 12, eine Photodiode, ein Fototransistor, eine Kamera, die als Lichtsensor fungiert oder als ein solcher benutzt wird, oder Ähnliches) verstärkt, gefiltert, gesampelt, konvertiert, mit einem oder mehreren Grenzwerten verglichen oderÄhnliches bzw. eine Kombination oder Subkombination desselben durchgeführt werden muss, um nützliche Informationen zu extrahieren oder darauf basierend Entscheidung zu treffen. Dementsprechend kann eine solche Signalverarbeitung nach Bedarf von einem Signalverarbeitungsmodul 60 durchgeführt werden.
  • Ein Kommunikationsmodul 62 kann Daten, wie zum Beispiel eines oder mehrere Segmente von Sensordaten 54, Videodateien 56, Bilddateien 58, Softwarekomponenten (z. B. ein oder mehrere Module 60, 62, 64, 66, 68, 70 oder Updates davon), Informationen, die ein Lichtereignis definieren, Klassifizierungen (z. B. von dem künstlichen neuronalen Netzwerk eines Systems 14 ausgegebene Klassifizierungsinfos) oder Ähnliches bzw. eine Kombination oder Subkombination davon, dazu befähigen, in ein oder aus einem ein System 14 gemäß der vorliegenden Erfindung geleitet zu werden (z. B. 28, 30, 36 via Radiowellen weitergeleitet). Beispielsweise kann ein Kommunikationsmodul 62, das Teil eines Systems 14 bildet, das sich an Bord eines Fahrzeugs 10b befindet, das System 14 zum Empfang oder zur Verwendung von Informationen befähigen, die von einem anderen Fahrzeug 10a erzeugt oder erfasst wurden. Alternative oder zusätzlich dazu kann Kommunikationsmodul 62 ein System 14 zum Empfang eines Updates seines neuronalen Netzwerkmodul 66 befähigen. Dementsprechend können Verbesserungen, die außerhalb eines Fahrzeugs 10 entwickelt wurden, nach Wunsch oder nach Bedarf an Bord gebracht werden.
  • Ein Bildextraktionsmodul 64 kann ein oder mehrere Bilder von Videoaufnahmen extrahieren, die von einem oder mehreren Sensoren 26 erfasst wurden. Beispielsweise kann ein Bildextraktionsmodul 64 ein oder mehrere Bilder (z. B. mehrere Bilder, die über einen Zeitraum einiger Sekunden oder weniger erfasst wurden) von einer Videodatei 56, die im Speicher 48 gespeichert ist, von Videoaufnahmen, die von einem Sensor 26ausgegeben werden, oder Ähnlichem extrahieren. In ausgewählten Ausführungsformen kann ein Bildextraktionsmodul 64 ein oder mehrere Bilder, die dabei extrahiert werden, als Bilddateien 58 im Speicher 48 speichern.
  • Ein neuronales Netzwerkmodul 66 kann ein künstliches neuronales Netzwerk, das zur Ausführung oder Anwendung von Deep Learning programmiert ist, sein, umfassen oder unterstützen. Das vom künstlichen neuronalen Netzwerk ausgeführte oder angewendete Deep Learning kann einen oder mehrere Algorithmen verwenden, um Abstraktionen auf hoher Ebene in Daten auszudrücken, die einem oder mehreren Bildern, anderen Sensordaten und/oder Kombinationen derselben entsprechen, die von dem einen oder mehreren Sensoren 26 erfasst wurden, die mit einem System 14 gemäß der vorliegenden Erfindung verbunden sind. In ausgewählten Ausführungsformen kann dies durch mehrfache Verarbeitungsschichten erzielt werden, die mehrere nichtlineare Transformationen umfassen.
  • Beispielsweise kann ein künstliches neuronales Netzwerk, das einem neuronalen Netzwerkmodul 66 entspricht, aufgeschaltete Rechengrafiken mit Eingabeknoten, verborgenen Schichten und Ausgabeknoten umfassen. Für Klassifizierungen, die Bilder involvieren, können Pixelwerte eines Eingabebilds, das Teil der Klassifizierung ist, Eingabeknoten zugewiesen und dann durch das Netzwerk gespeist werden, wobei sie eine Anzahl nichtlinearer Transformationen passieren. Am Ende des Rechenvorgangs kann der Ausgangsknoten einen Wert ergeben, welcher der Klasse entspricht, die durch das neuronale Netzwerk abgeleitet wurde.
  • Damit ein künstliches neuronales Netzwerk, das einem neuronalen Netzwerkmodul 66 entspricht, zwischen verschiedenen Klassen unterscheiden kann, muss es basierend auf Beispielen trainiert werden. Dementsprechend muss, um ein künstliches neuronalesNetzwerk zu schaffen, das in der Lage ist, eine Vielzahl verschiedener Insasseneigenschaften, Insassenverhaltensweisen, Lichtverhältnisse usw. zu klassifizieren, eine große Sammlung von Beispielbildern und anderen Sensordaten (z. B. Hunderte bis Tausende für jeden Typ und/oder jede Stufe) mit bekannten (z. B. markierten) Eigenschaften, Verhaltensweisen, Zuständen usw. als Trainingsdaten verwendet werden. Demnach kann mithilfe von Rückwärtspropagierung das künstliche neuronale Netzwerk trainiert werden.
  • Ist es einmal trainiert, kann das künstliche neuronale Netzwerk, das einem neuronalen Netzwerkmodul 66 entspricht, eine oder mehrere Eingaben empfangen (z. B. Datenausgaben von einem oder mehreren Sensoren 26 oder letzterem/n entsprechend) und diese Eingaben als eine bestimmte numerische Affinität (z. B. eine prozentuale „Bewertung“) ausweisend klassifizieren, und zwar für jede Klasse, für die das künstliche neuronale Netzwerk trainiert wurde. Dementsprechend kann, wenn ein künstliches neuronales Netzwerk in zwanzig verschiedenen Klassen trainiert wurde, das künstliche neuronale Netzwerk für einen oder mehreren Impuls zwanzig numerische Bewertungen ausgeben. Jede dieser Bewertungen kann auf die Affinität der einen oder mehreren Eingaben (oder auf die physische Realität, die von dem einem oder den mehreren Eingaben reflektiert wird) zu einer unterschiedlichen Klasse schließen lassen.
  • In einer eindeutigen oder klaren Klassifizierung kann die eine oder können die mehreren Eingaben eine starke Affinität zu einer Klasse und eine schwache Affinität zu allen anderen Klassen zeigen. In einer uneindeutigen oder unklaren Klassifizierung kann die eine oder können die mehreren Eingaben keine präferenzielle Affinität zu einer beliebigen bestimmten Klasse zeigen. Beispielsweise kann es eine Höchstbewertung für eine bestimmte Klasse geben, aber diese Bewertung kann nahe an den Bewertungen für andere Klassen liegen.
  • Dementsprechend kann in ausgewählten Ausführungsformen ein neuronales Netzwerkmodul 66 eine oder mehrere Grenzwertvergleiche oder Tests anwenden, um zu ermitteln, ob eine bestimmte Klassifizierung eindeutig oder klar genug ist, als dass man auf diese hin handeln bzw. sich darauf verlassen kann (z. B. ob die Klassifizierung eindeutig oder klar genug ist, als dass sie den Durchlassgrad eines oder mehrerer Fenster 12 abändern kann). Beispielsweise kann ein neuronales Netzwerkmodul 66 eine Klassifizierung testen, um zusehen, ob der Abstand zwischen einer Höchstbewertung und allen anderen Bewertungen einem bestimmten Abstandsgrenzwert entspricht bzw. diesen erfüllt.
  • In bestimmten Ausführungsformen kann ein künstliches neuronales Netzwerk, das ein neuronales Netzwerkmodul 66 bildet, von diesem unterstützt oder darin enthalten ist, an Bord eines Fahrzeugs 10 in einem Trainingsmodus oder einem Implementierungsmodus laufen. Im Trainingsmodus kann ein künstliches neuronales Netzwerk auf mehreren Trainingsbildern oder Sensordaten, die bekannten Klassen entsprechen, trainieren. Im Implementierungsmodus kann ein künstliches neuronales Netzwerk Bilddaten, die von einem oder mehreren Sensoren 26 erfasst wurden (z. B. ein einzelnes Bild, mehrere Bilder, oder mehrere aufeinanderfolgende Bilder, die aus einem Video extrahiert wurden, das von einer Kamera aufgezeichnet wurde), und/oder Sensordaten, die von einem oder mehreren anderen Sensoren 26 erzeugt wurden oder diesen entsprechen (z. B. Lichtsensoren, Thermometer oder Ähnliches), analysieren, um eine entsprechende Umgebung eines Fahrzeugs 10 als eine Umgebung unter den einen oder anderen Lichtverhältnissen für einen gewissen Zeitraum zu klassifizieren (z. B. bis ein nachfolgendes Bild und/oder nachfolgende Sensordaten klassifiziert wurden, oder übereinen Zeitraum von circa 1 Sekunde, 3 Sekunden, 5 Sekunden, 10 Sekunden oder Ähnliches).
  • Dementsprechend kann ein künstliches neuronales Netzwerk, das einem neuronalen Netzwerkmodul 66 entspricht, trainiert werden, während es innerhalb oder auf der Hardware eine Systems 14 läuft, die sich als Teil der Standard- oder wahlweisen Ausrüstung eines Produktionsfahrzeugs 10 an Bord befindet. Alternativ dazu kann ein künstliches neuronales Netzwerk, das einem neuronalen Netzwerkmodul 66 entspricht, trainiert werden, während es innerhalb oder auf der Hardware eines Nichtproduktionssystems 14 läuft (z. B. einem Off-Board-System 14 in einem Computerlabor, einem Nichtproduktionssystem 14, das sich an Bord eines Testfahrzeugs 10 befindet, und zwar speziell für die Zwecke des Trainings, oder Ähnliches), dann „geklont“ oder anderweitig auf ein Produktionssystem 14 kopiert oder in dieses importiert wird, das einen Teil des Produktionsfahrzeugs 10 bildet.
  • In manchen Ausführungsformen kann ein neuronales Netzwerkmodul 66 ein einziges, universelles künstliches neuronales Netzwerk sein, umfassen oder unterstützen. Das universelle künstliche neuronale Netzwerk kann alle verfügbaren oder erwünschten Eingaben empfangen (z. B. alle Daten von einer Reihe Sensoren 26, die mit einem System 14 verbunden sind) und alle Affinitätsbewertungen für alle verschiedenen Klassen ausgeben. In anderen Ausführungsformen kann ein neuronales Netzwerkmodul 66 jedoch mehrere, jobspezifische, künstliche neuronale Netzwerke oder eines oder mehrere künstliche neuronale Netzwerke, die weniger als alle verfügbaren Eingaben verarbeiten, umfassen, beinhalten oder unterstütze.
  • Beispielsweise kann in bestimmten Ausführungsformen ein erstes, bildspezifisches künstliches neuronales Netzwerk Bilddaten klassifizieren, die einem oder mehreren Sensoren 26 entsprechen, während ein oder mehrere Verarbeitungssysteme oder -verfahren auf Daten oder Signale von einem oder mehreren anderen Sensoren 26 angewendet werden können. Demnach kann die Analyse- und Klassifizierungsarbeit, die von einem neuronalen Netzwerkmodul 66 ausgeführt wird, zwischen einem oder mehreren mehrfachen künstlichen neuronalen Netzwerken, anderen Verarbeitungs- oder Analysesystemen (z. B. Signalverarbeitungsmodulen 60) oder Kombinationen derselben aufgeteilt werden.
  • Eine oder mehrere künstliche neuronale Netzwerke gemäß der vorliegenden Erfindung können zum Erkennen von (z. B. Erzeugen von Affinitätsbewertungen für) eine(r) bestimmte(n), im Voraus festgelegte(n) Gruppen von Klassen trainiert werden. Die Anzahl von Klassen innerhalb einer derartigen Gruppe kann von Ausführungsform zu Ausführungsform variieren. In bestimmten Ausführungsformen kann die Anzahl der Klassen relativ niedrig sein. Beispielsweise kann eine Reihe von Klassen aus nur zwei Klassen bestehen (z. B. einer ersten Klasse, bei der zu viel Licht durch ein bestimmtes Fenster 12 oder eine Gruppe von Fenstern 12 tritt, und eine zweite Klasse, bei der nicht genug Licht durch ein bestimmtes Fenster 12 oder eine Gruppe von Fenstern 12 tritt).
  • In anderen Ausführungsformen kann die Anzahl von Klassen in einer Gruppe signifikant höher liegen. Beispielsweise kann eine erste Untergruppe von Klassen innerhalb einer bestimmten Gruppe einem Fahrer, der eine Sonnenbrille trägt, entsprechen (z .B. entspricht mindestens eine Klasse einem Fahrer, der eine Sonnenbrille trägt, und mindestens eine Klasse entspricht einem Fahrer, der keine Sonnenbrille trägt); eine zweite Untergruppe von Klassen innerhalb der Gruppe kann einem Fahrer, der blinzelt, entsprechen (z. B. entspricht mindestens eine Klasse einem Fahrer, der blinzelt, und mindestens eine Klasse entspricht einem Fahrer, der nicht blinzelt; eine dritte Untergruppe von Klassen kann einem Fahrer entsprechen, der sich mit der Hand die Augen abschirmt (z. B. können Klassen in dieser Gruppe einem Fahrer entsprechen, der sich mit der Hand die Augen abschirmt, und mindestens eine Klasse entspricht einem Fahrer, der sich nicht mit der Hand die Augen abschirmt); eine vierte Untergruppe von Klassen entspricht einem bestimmten Level Hautpigmentierung (z. B. mindestens zwei Klassen mit Hautpigmentierung unter einem ersten Level und Hautpigmentierung über einem zweiten Level, der höher als oder gleichwertig wie der erste Level ist); eine fünfte Untergruppe von Klassen innerhalb der Gruppe kann Bandbreiten von Farbwerten in der Kleidung eines Insassen entsprechen (z. B. mindestens zwei Klassen Farbwerte mit einem Wert unter einem ersten Level und einem Wert über einem zweiten Level, der höher als oder gleichwertig wie der erste Level ist); eine sechste Untergruppe von Klassen innerhalb einer bestimmten Gruppe kann dem Alter eines Insassen entsprechen (z. B. entspricht mindestens einen Klasse einem Säugling, der ein Insasse eines Fahrzeugs 10 ist, und mindestens eine Klasse entspricht dem Umstand, dass kein Säugling Insasse des Fahrzeugs 10 ist); eine siebte Untergruppe von Klassen innerhalb der Gruppe kann Bandbreiten einfallender Strahlungsenergie bzw. einfallendem Strahlungsfluss 16 entsprechen (z. B. mindestens zwei Klassen mit einem einfallenden Strahlungsfluss 16 unter einem ersten Level und einem einfallenden Strahlungsfluss über einem zweiten Level, der höher als oder gleichwertig wie der erste Level ist); eine achte Untergruppe von Klassen innerhalb der Gruppe kann Bandbreiten durchgelassener Strahlungsenergie bzw. durchgelassenem Strahlungsfluss 18 entsprechen (z. B. mindestens zwei Klassen mit einem durchgelassenen Strahlungsfluss 18 unter einem ersten Level und einem durchgelassenen Strahlungsfluss über einem zweiten Level, der höher als oder gleichwertig wie der erste Level ist); oder Ähnliches bzw. eine beliebige Kombination oder Unterkombination davon.
  • In ausgewählten Ausführungsformen können verschiedene künstliche neuronale Netzwerke auf verschiedene Untergruppen von Klassen angewendet werden. Beispielsweise kann ein erstes künstliches neuronales Netzwerk Klassifizierungen in Bezug auf eine erste Untergruppe erstellen, ein zweites künstliches neuronales Netzwerk kann Klassifizierungen in Bezug auf eine zweite Untergruppe erstellen usw.
  • Alternativ dazu kann ein einziges künstliches neuronales Netzwerk alle Klassifizierungen in Bezug auf eine bestimmte Gruppe von Klassen vornehmen. In derartigen Ausführungsformen können verschiedene Permutationen der verschiedenen Elemente der verschiedenen Untergruppen die Klasse definieren, für die Bewertungen erzeugt werden. Das heißt, dass die Untergruppen innerhalb einer bestimmten Gruppe sich bis zu einem gewissen Grad überschneiden. Beispielsweise kann es, wenn eine erste Untergruppe von Klassen innerhalb einer bestimmten Gruppe einem Fahrer entspricht, der eine Sonnenbrille trägt, und eine zweite Untergruppe von Klassen innerhalb der Gruppe, einem Fahrer entspricht, der sich mit der Hand die Augen abschirmt, mindestens vier Klassen geben, die von dem künstlichen neuronalen Netzwerk bewertet werden. Zu den vier Klassen können Folgende gehören: (1) trägt keine Sonnenbrille, schirmt die Augen nicht ab; (2) trägt eine Sonnenbrille und schirmt die Augen nicht ab; (3) trägt keine Sonnenbrille und schirmt die Augen ab; und (4) trägt eine Sonnenbrille und schirmt die Augen ab.
  • Die verschiedenen Klassifizierungen, die von einem oder mehreren künstlichen neuronalen Netzwerke gemäß der vorliegenden Erfindung erstellt werden, können so gestaltet werden, dass sie Situationen identifizieren, in denen eine Veränderung des Durchlassgrads eines oder mehrerer Fenster 12 hilfreich oder wünschenswert wäre. Beispielsweise kann unter gegebenen Lichtverhältnissen ein Fahrer, der eine Sonnenbrille trägt, einen höheren Durchlassgrad durch eines oder mehrere Fenster 12 benötigen, als ein Fahrer, der keine Sonnenbrille trägt. Dementsprechend kann ein System 14, wenn künstliches neuronales Netzwerk den Fahrer als Sonnenbrille tragend klassifiziert, weniger aggressiv beim Tönen eines oder mehrerer Fenster 12 vorgehen.
  • Andere Klassifizierungen haben andere Begründungen. Wenn ein Fahrer zum Beispiel blinzelt, kann das ein Hinweis darauf sein, dass ein geringerer Durchlassgrad erforderlich oder wünschenswert ist. Wenn ein Fahrer sich mit der Hand die Augen abschirmt, kann das ein Hinweis darauf sein, dass ein geringerer Durchlassgrad erforderlich oder wünschenswert ist. Wenn ein Insasse eines Fahrzeugs 10 eine helle Hautpigmentierung hat, kann das ein Hinweis darauf sein, dass er oder sie empfindlicher auf UV-Strahlung reagiert und ein geringerer Durchlassgrad erforderlich oder wünschenswert ist. Wenn ein Insasse eines Fahrzeugs 10 dunklere Kleidung trägt, die Strahlungsenergie eher absorbiert als reflektiert, kann das ein Hinweis darauf sein, dass ein geringerer Durchlassgrad erforderlich oder wünschenswert ist. Wenn ein Insasse ein Säugling ist, kann das ein Hinweis darauf sein, dass er oder sie empfindlich auf UV-Strahlung reagiert und dass ein geringerer Durchlassgrad erforderlich oder wünschenswert ist. Wenn mehr einfallende Strahlungsenergie oder Strahlungsfluss ein Fenster 12 erreicht, kann das ein Hinweis darauf sein, dass ein geringerer Durchlassgrad erforderlich oder wünschenswert ist. Wenn mehr durchgelassene Strahlungsenergie oder Strahlungsfluss durch Fenster 12 passiert, kann das ein Hinweis darauf sein, dass ein geringerer Durchlassgrad erforderlich oder wünschenswert ist. Demnach kann ein System 14 eine oder mehrere von einem oder mehreren künstlichen neuronalen Netzwerken erstellte Klassifizierungen verwenden, um eine angemessene Einstellung für den Durchlassgrad eines oder mehrerer Fenster 12 in einer bestimmten Situation oder zu einem bestimmten Zeitpunkt zu ermitteln.
  • In ausgewählten Ausführungsformen kann ein Feedbackmodul 68 in einem System 14 beinhaltet sein, um einem künstlichen neuronalen Netzwerk, das einem neuronalen Netzwerkmodul 66 entspricht, On-board-Training zu ermöglichen. Ein Feedbackmodul 68 kann einem neuronalen Netzwerkmodul 66 Informationen bereitstellen, die anzeigen, welche Klasse oder welcher Zustand welchen Sensordaten entspricht. Demnach kann ein Feedbackmodul 68 ein System 14 dazu befähigen, Trainingsdaten zu erzeugen, auf denen ein entsprechendes neuronales Netzwerk trainiert werden kann (oder um dessen Training zu verbessern).
  • Das heißt, um ein künstliches neuronales Netzwerk zu trainieren, können Trainingsdaten einer bekannten Klasse von dem künstlichen neuronalen Netzwerk analysiert werden. Es ist möglicherweise für ein System 14 nicht genug, dass ein oder mehrere der an Bord vorhandenen Sensoren 26 Sensordaten erfassen. Das System 14 muss möglicherweise auch wissen, welche der Sensordaten einer Klasse entsprechen und welche einer anderen entsprechen. Diese zusätzlichen Informationen können von einem Feedbackmodul 68 erfasst und bereitgestellt werden.
  • Beispielsweise kann das Feedbackmodul 68 bemerken, wenn ein menschlicher Fahrer eine Sonnenblende benutzt, den Beschattungsbereich eines Sonnendachs schließt, ein Fahrzeug 10 dazu anweist, die Tönung eines oder mehrerer Fenster 12 zu verdunkeln, oder Ähnliches. Dementsprechend können Sensordaten, die zu einem Zeitpunkt oder nahe eines Zeitpunkts, wenn eine solche Maßnahme stattfindet, aufgezeichnet oder erfasst werden, „bekannt“ dafür sein, einem „zu hellen“ Zustand zu entsprechen. Ähnlich kann ein Feedbackmodul 68 bemerken, wenn ein menschlicher Fahrer eine Sonnenblende wegklappt, einen Beschattungsbereich eines Sonnendachs öffnet, ein Fahrzeug 10 dazu anweist, die Tönung eines oder mehrerer Fenster 12 zu erhellen, oder Ähnliches. Dementsprechend können Sensordaten, die zu einem Zeitpunkt oder nahe eines Zeitpunkts, wenn eine solche Maßnahme stattfindet, aufgezeichnet oder erfasst werden, „bekannt“ dafür sein, einem „nicht zu hellen“ Zustand zu entsprechen.
  • Ein Steuermodul 70 kann dazu programmiert werden, basierend auf der Verarbeitung, die von einem Signalverarbeitungsmodul 60 ausgeführt wurden, den von einem neuronalen Netzwerkmodul 66 ermittelten Klassifizierungen oder einer Kombination derselben, einen oder mehrere Maßnahmen oder Funktionen anzufragen, zu initiieren oder zu implementieren. Wenn beispielsweise ein Steuermodul 70 aus den Daten, die von einem Signalverarbeitungsmodul 60 ausgegeben werden, ermittelt, dass auf ein Heckfenster 12 einfallende Strahlungsenergie in einem bestimmten Bereich liegt, kann das Steuermodul 70 die Tönung des Heckfensters auf einen Wert einstellen, der diesem bestimmten Bereich entspricht (z. B. diesem zuvor zugeteilt war). Ähnlich kann, wenn ein Steuermodul 70 aus den verschiedenen Affinitätsbewertungen, die von einem neuronalen Netzwerkmodul 66 ausgegeben werden, ermittelt, dass ein Fahrer eine Sonnenbrille trägt, kann ein Steuermodul Änderungen am Durchlassgrad eines oder mehrerer Fenster 12 anfragen, initiieren oder implementieren, die weniger aggressiv sind (z. B. in weniger Tönung resultieren), als wenn die Affinitätsbewertungen anzeigen, dass der Fahrer keine Sonnenbrille trägt.
  • In ausgewählten Ausführungsformen kann ein Steuermodul 70 die Spannung steuern, die den Durchlasskomponenten 22 eines oder mehrerer Fenster 12 geliefert wird. Durch das Steuern der Spannung kann ein Steuermodul 70 den Durchlassgrad der Durchlasskomponenten 22 steuern und damit die Tönung dieser Fenster 12 einstellen. In manchen Ausführungsformen kann ein Steuermodul 70 individuell mehrere Fenster 12 (z. B. alle Fenster) eines Fahrzeugs 10 steuern. Dementsprechend kann ein Steuermodul 70 jeweils eine verschiedene Spannung an den mehreren Fenstern 12 anlegen, um für jedes einen unterschiedlichen Durchlassgrad bzw. eine unterschiedliche Tönung zu erzielen.
  • Alternativ dazu kann ein Steuermodul 70 individuell bestimmte Gruppen oder Klassen von Fenstern 12 steuern. Beispielsweise kann eine Windschutzscheibe eine erste Klasse von Fenstern 12, ein Sonnendach eine zweite Klasse von Fenstern 12 und ein Heckfenster eine dritte Klasse von Fenstern 12 darstellen. Dementsprechend kann der Durchlassgrad der Windschutzscheibe unabhängig von allen anderen Fenstern 12 gesteuert werden, der Durchlassgrad des Sonnendachs unabhängig von allen anderen Fenstern 12 gesteuert werden, und das Heckfenster und die Seitenfenster können zusammen gesteuert werden.
  • In anderen Ausführungsformen können andere Gruppen oder Klassen zugeteilt werden. Beispielsweise kann in ausgewählten Ausführungsformen eine Windschutzscheibe eine erste Klasse von Fenstern 12 darstellen, ein Sonnendach eine zweite Klasse von Fenstern 12 darstellen, ein Heckfenster eine dritte Klasse von Fenstern 12 darstellen, alle Fenster auf der Fahrerseite des Fahrzeugs 10 können eine vierte Klasse von Fenstern 12 darstellen, und alle Fenster auf der Beifahrerseite des Fahrzeugs 10 können eine fünfte Klasse von Fenstern 12 darstellen. Dementsprechend kann der Durchlassgrad der Windschutzscheibe unabhängig von allen anderen Fenstern 12 gesteuert werden, es kann der Durchlassgrad des Sonnendachs unabhängig von allen anderen Fenstern 12 gesteuert werden, es kann der Durchlassgrad des Heckfensters unabhängig von allen anderen Fenstern 12 gesteuert werden, der Durchlassgrad aller Fenster auf der Fahrerseite des Fahrzeugs 10 können zusammen gesteuert werden, und der Durchlassgrad aller Fenster auf der Beifahrerseite des Fahrzeugs 10 können zusammen gesteuert werden.
  • Unter Bezugnahme auf 4 kann in ausgewählten Ausführungsformen das Anwenden bei 74 einer oder mehrerer Klassifizierungsalgorithmen des künstlichen neuronalen Netzwerkes auf Bild- oder andere Sensordaten damit beginnen, dass bei 76 Eingabedaten eingeholt werden. Derartige Eingabedaten können ein oder mehrere nicht klassifizierte Bilder umfassen und, falls gewünscht, andere nicht klassifizierte Sensordaten, die sich auf denselben Zeitraum beziehen (z. B. alle in oder um diesem Zeitraum erfasst wurden). Danach können die Eingabedaten in ein künstliches neuronales Netzwerk eingespeist werden, welches bei 78 Affinitätsbewertungen (z. B. Prognosezuverlässigkeit in Prozent) für jede Klasse einer entsprechenden Gruppe erzeugt.
  • Wenn beispielsweise ein künstliches neuronales Netzwerk dazu trainiert wäre, zwischen zwei Klassen zu unterscheiden, dann könnte das künstliche neuronale Netzwerk bei 78 zwei Affinitätsbewertungen erzeugen. Insbesondere kann das künstliche neuronale Netzwerk einen ersten Prozentsatz ausgeben, der auf die Prognosezuverlässigkeit schließen lässt, dass die Eingabedaten einer ersten Klasse entsprechen, sowie einen zweiten Prozentsatz, der auf die Prognosezuverlässigkeit schließen lässt, dass die Eingabedaten einer zweiten Klasse entsprechen.
  • Danach kann bei 80 ermittelt werden, ob einer oder mehr anwendbare Grenzwerte erreicht wurden. Das heißt, je nach dem Ausmaß der verschiedenen Affinitätsbewertungen (z. B. ob der Prozentsatz für eine Klasse über einem bestimmten Grenzwert liegt, die Prozentsätze für alle anderen Klassen unter einem bestimmten Grenzwert liegen, oder beides), dem Unterschied zwischen den verschiedenen Affinitätsbewertungen (z. B. ob der Unterschied oder der Abstand zwischen dem Prozentsatz für die eine Klasse und den Prozentsätzen für alle anderen Klassen über einem bestimmten Grenzwert liegt) oder Ähnlichem bzw. einer Kombination derselben, können die entsprechenden Eingabedaten als eine Klasse oder ein Zustand oder ein(e) andere(r) klassifiziert werden.
  • Beispielsweise, in einem einfachsten Fall, könnte ein Grenzwert bei „50 %“ gesetzt werden. Demgemäß wird in einer Zweiklassensituation (z. B. Sonnenbrille wird getragen oder nicht), wenn eine Klasse ein höheres Ergebnis hat als die andere, der Grenzwert erreicht. Alternativ dazu kann ein Grenzwert bei einem höheren Wert als 50 % gesetzt werden (z. B. irgendwo zwischen 55 % und 85 %). In solchen Ausführungsformen oder Situationen kann eine gesamte Ermittlung 80 dahingehend, ob die Eingabedaten auf eine Klasse schließen lassen, nicht dadurch geklärt werden, welche Klasse die höchste Affinitätsbewertung hat. Vielmehr kann, wie bei der höheren Beweislast in einem Rechtsverfahren, der Grenzwert sicherstellen, dass eine Klassifizierung nicht nur eine Klasse im Vergleich zu allen anderen bevorzugt, sondern sie auch klar und deutlich bevorzugt. Dementsprechend können ein oder mehrere Grenzwerte gesetzt werden, um die Anzahl falscher Positiver in Bezug auf eine oder mehrere Klassen zu reduzieren.
  • Falls eine Ermittlung 80 anzeigt, dass keine erste Klasse oder kein Zustand „keiner Indikation eines exzessiven oder unzureichenden Durchlassgrads“ vorhanden ist, kann ein neuronales Netzwerkmodul 66 oder künstliches neuronales Netzwerk daraufhin erklären, dass der Durchlassgrad weder exzessiv noch unzureichend ist, und ein System 14 kann bei 82 eine oder mehr Maßnahmen durchführen, die diesem Zustand entsprechen. Zu solchen Maßnahmen kann gehören, dass der Durchlassgrad oder die Tönung eines oder mehrerer Fenster 12 so gelassen wird, wie er bzw. sie ist. Ein System 14 kann auch in eine Warteschleife eintreten und eine Zeitlang warten (z. B. 1 Sekunde, 10 Sekunden, 30 Sekunden, 1 Minute, 5 Minuten, 10 Minuten o. Ä.), bevor bei 76 neue Eingabedaten eingeholt werden und der Klassifizierungsprozess erneut beginnt.
  • Umgekehrt, wenn eine Ermittlung 80 anzeigt, dass eine andere Klasse oder ein anderes Lichtverhältnis innerhalb einer bestimmten Gruppe präsent ist, kann ein neuronales Netzwerkmodul 66 oder ein künstliches neuronales Netzwerk daraufhin erklären, dass das bestimmte Lichtverhältnis präsent ist, und ein System 14 kann bei 84 eine oder mehrere Maßnahmen in Übereinstimmung mit diesem Zustand einleiten. Dazu kann das Erhöhen und Senken des Durchlassgrads oder der Tönung eines oder mehrerer Fenster 12 gehören. Ein System 14 kann auch in eine Warteschleife eintreten und eine Zeitlang warten (z. B. 1 Sekunde, 10 Sekunden, 30 Sekunden, 1 Minute, 5 Minuten, 10 Minuten o. Ä.), bevor bei 76 neue Eingabedaten eingeholt werden und der Klassifizierungsprozess erneut beginnt. Dementsprechend kann ein System 14 gemäß der vorliegenden Erfindung, während das entsprechende Fahrzeug 10 läuft, fortlaufend oder periodisch Daten von einem oder mehreren Sensoren 26 verarbeiten, um ein aktuelles Lichtverhältnis zu ermitteln.
  • In ausgewählten Ausführungsformen kann, nachdem ein System 14 eine oder mehrere Maßnahmen bei 82, 84 durchgeführt hat, ein Prozess 74 aufhören oder zum Anfang zurückkehren und erneut beginnen. Alternativ dazu kann ein Prozess 74 weitergehen, um menschliches Feedback zur Verbesserung eines Systems 14 zu nutzen. Beispielsweise kann in manchen Ausführungsformen ein System 14 zu irgendeinem Punkt im Prozess 74 gemäß der vorliegenden Erfindung bei 86 Feedback von einem Menschen erhalten (z. B. einem menschlichen Fahrer). Dieses Feedback kann anzeigen, welche Klasse oder welcher Zustand welchen Eingabedaten entspricht. Dementsprechend können das Feedback und die entsprechenden Eingabedaten zu Trainingsdaten werden, die bei 88 zur Aktualisierung und/oder zum erneuten Training eines künstlichen neuronalen Netzwerks eingesetzt werden. Alternativ oder zusätzlich dazu kann ein solches Feedback zur Aktualisierung 88, zur Einstellung 88 oder zur Abstimmung 88 eines oder mehrerer Grenzwerte verwendet werden, die im Prozess 74 zum Einsatz kommen. Falls beispielsweise nach der automatischen Einstellung des Durchlassgrads eines oder mehrerer Fenster12 auf einem bestimmten Level ein Insasse manuell den Durchlassgrad erhöht oder senkt, kann ein System 14 die Veränderung bemerken und in Zukunft die Präferenzen des Insassen berücksichtigen.
  • In ausgewählten Prozessen gemäß der vorliegenden Erfindung können Bilddaten mithilfe eines künstlichen neuronalen Netzwerks bearbeitet werden, während andere Sensordaten mithilfe anderer Signalverarbeitungstechniken verarbeitet werden können. Beispielsweise können ein oder mehrere Bilder (z. B. ein oder mehrere Bilder, die von einer nach vorn gerichteten Kamera 26a, einer rückwärts gerichteten Kamera 26b, einer dem Insassen zugewandten Kamera 26c und/oder einer Point-of-View Kamera 26d) bei 76 eingeholt und von einem künstlichen neuronalen Netzwerk verarbeitet werden, während Lichtsensordaten (z. B. Daten, die den Lichteinfall auf ein oder mehrere Fenster 12 charakterisieren, Daten, die Licht charakterisieren, das durch ein oder mehrere Fenster 12 dringt, oder Ähnliches bzw. eine Kombination derselben) bei 76 eingeholt und durch Filtern, Sampling, Bewertungsvergleiche oder Ähnliches bzw. eine Kombination oder Subkombination derselben bearbeitet werden können.
  • In manchen Ausführungsformen können nach Einholen bei 76 ein oder mehrere Bilder mithilfe von komplizierten Computersichttechniken analysiert werden, bei denen wiederkehrende neuronale Netzwerke dazu benutzt werden, Fahrersichtbarkeit zu modellieren und zu prognostizieren. Beispielsweise kann ein System 14 auf der Basis eines oder mehrere Bilder, die bei 76 von einer Point-of-View-Kamera 26d eingeholt wurden, voraussagen, ob ein Fahrer den Durchlassgrad eines bestimmten Fensters 12 (z. B. der Windschutzscheibe) erhöhen oder senken möchte.
  • In ausgewählten Ausführungsformen kann bei 76 ein System 14 Bilder einholen und eine Sequenz von Bildern dazu benutzen, ein Lichtverhältnis zu klassifizieren. Dies möglicherweise die Anwendung adaptierbarer Grenzwerttechniken, die mit nur ein paar Bildern erfolgreich sind. Dementsprechend können die in 76 eingeholten Bilder mit verschiedenen Kameraparametern aufgenommen werden (z. B. Tiefenschärfe, Belichtungseinstellungen) und in ein künstliches neuronales Netzwerk eingespeist werden, das bei 78 eine Affinitätsbewertung erzeugt, die einer Klasse oder einer Vielzahl von Klassen entspricht. Danach können einer oder mehrere Grenzwerte mit den Affinitätsbewertungen verglichen werden, um bei 80 ein angemessenes Lichtverhältnis zu ermitteln (z. B. bei 80 ermitteln, ob es angebracht ist, den Durchlassgrad oder die Tönung eines oder mehrerer Fenster 12 zu ändern).
  • Unter Bezugnahme auf 5 kann in ausgewählten Prozessen gemäß der vorliegenden Erfindung ein System 14 mithilfe von Signalverarbeitungstechniken betrieben werden und keine Deep-Learning-Techniken oder Algorithmen anwenden. Beispielsweise können im abgebildeten Prozess 90 ein oder mehrere Bilder und/oder andere Lichtdaten bei 76 eingeholt und bei 92 auf gewünschte Art analysiert werden (z. B. verstärkt, gefiltert, gesampelt, konvertiert, mit einem der anderen Grenzwerten verglichen oder Ähnliches bzw. eine Kombination oder Subkombination derselben).
  • Irgendwann können einer oder mehrere Grenzwerte mit den Eingabedaten verglichen werden, um bei 80 ein angemessenes Lichtverhältnis zu ermitteln (z. B. bei 80 ermitteln, ob es angemessen ist, ein bestimmtes Lichtverhältnis zu erklären). Dementsprechend kann ein System 14, wenn die Ermittlung 80 Eingabedaten entspricht, die ein bestimmtes Lichtverhältnis anzeigen, bei 82, 84 eingreifen, und zwar passend zum jeweiligen Verhältnis (z. B. den Durchlassgrad oder die Tönung eines oder mehrerer Fenster 12 so lassen, wie sie sind, den Durchlassgrad für ein oder mehrere Fenster 12 erhöhen, den Durchlassgrad für ein oder mehrere Fenster 12 senken, und Ähnliches).
  • In ausgewählten Ausführungsformen kann, nachdem ein System 14 eine oder mehrere Maßnahmen bei 82, 84 durchgeführt hat, ein Prozess 90 aufhören oder zum Anfang zurückkehren und erneut beginnen. Alternativ dazu kann ein Prozess 90 fortfahren, um menschliches Feedback zur Verbesserung eines Systems 14 zu nutzen. Beispielsweise kann in bestimmten Ausführungsformen ein System 14 irgendwann innerhalb eines Prozesses 90 gemäß der vorliegenden Erfindung bei 86 Feedback von einem Menschen erhalten (z. B. einem menschlichen Fahrer) empfangen. Derartiges Feedback kann zur Aktualisierung 94, zur Einstellung 94 oder zur Abstimmung 94 eines oder mehrerer Grenzwerte benutzt werden, die im Prozess 90 zum Einsatz kommen. Wenn beispielsweise ein Insasse nach automatischem Einstellen eines Durchlassgrads eines oder mehrerer Fenster 12 auf einem bestimmten Level manuell diesen Durchlassgrad erhöht oder senkt, kann ein System 14 die Veränderung bemerken und die Präferenzen des Insassen künftig berücksichtigen.
  • In den Prozessen 74, 90 gemäß der vorliegenden Erfindung kann das Gewicht, das bestimmten Sensordaten oder Klassifizierungen bestimmter Sensordaten zugeordnet wird, nicht dem Gewicht entsprechen, dass anderen Sensordaten oder Klassifizierungen basierend auf anderen Sensordaten gegeben wird. Beispielsweise kann eine Klassifizierung, die anzeigt, dass ein Fahrer sich mit der Hand die Augen abschirmt, ein starker Beweis dafür sein, dass der Durchlassgrad für ein bestimmtes Fenster 12 (z. B. die Windschutzscheibe) zu hoch ist. Dementsprechend kann in ausgewählten Ausführungsformen oder Situationen, wenn ein System 14 ermittelt, das ein Fahrer sich mit der Hand die Augen abschirmt, diese Ermittlung stärker gewichtet werden, als Lichtdaten, die eine allgemeine Lichtstufe innerhalb einer Fahrkabine eines Fahrzeugs 10 charakterisieren. In ausgewählten Ausführungsformen können solche Differenzialgewichtungen in das Training eines künstlichen neuronalen Netzwerks integriert sein. In anderen Ausführungsformen können solche Differentialgewichtungen basierend auf Erfahrung oder Erwartungen manuell programmiert werden.
  • Unter Bezugnahme auf 6 können in bestimmten Ausführungsformen Änderungen im Durchlassgrad eines oder mehrerer Fenster 12 nicht unmittelbar sein. Zusätzlich können das Erfassen und die Verarbeitung von Daten von einem oder mehreren Sensoren 12 nicht unmittelbar sein. Dementsprechend kann es zu einer unerwünschten Verzögerung zwischen einer Lichtveränderung in einer Umgebung eines Fahrzeugs 10 und der Durchführung einer Änderung im Durchlassgrad kommen, der sich der Lichtveränderung annimmt. Deshalb können Systeme 14 gemäß der vorliegenden Erfindung so konfiguriert sein, dass sie die Verzögerung minimieren. Alternativ oder zusätzlich dazu können in ausgewählten Ausführungsformen ein oder mehrere Systeme 14 vergangene Erfahrungen einbringen oder nutzen, um sich im Voraus auf bestimmte Lichtverhältnisse oder Ereignisse vorzubereiten.
  • Beispielsweise kann ein Fahrzeug 10 ein bestimmtes Lichtverhältnis oder ein Ereignis (zum Beispiel einen abrupten Übergang auf dem Gipfel eines Berges von komplettem Schatten zu einer direkten Sicht auf die Sonne durch die Windschutzscheibe) erleben, während er in eine bestimmte Richtung fährt, auf einer bestimmten Straße, an einem bestimmten Ort und zu einer bestimmten Tageszeit. Dementsprechend kann ein System 14 innerhalb des Fahrzeugs 10 seine Erfahrung mit dem Lichtverhältnis oder Ereignis zur Vorbereitung nutzen, sollte das Fahrzeug 10 später in diese bestimmte Richtung fahren, auf dieser bestimmten Straße, in der Nähe des bestimmten Ortes und um die bestimmte Tageszeit. Alternativ oder zusätzlich dazu kann ein System 14 eines Fahrzeugs 10a seine Erfahrung mit einem oder anderen Fahrzeugen 10b teilen (z. B. über ein Kommunikationssystem 32, Computersystem 40, direkte Übertragung 28 von Daten oder auf ähnliche Weise), damit diese ebenfalls vorbereitet sind.
  • In manchen Ausführungsformen kann ein Verfahren 96 zur Vorbereitung auf ein oder mehrere Lichtverhältnisse oder Ereignisse dann beginnen, wenn ein Lichtverhältnis oder Ereignis bei 98 von einem ersten Fahrzeug 10a und seinem entsprechenden System 14 erlebt wird. Danach oder gleichzeitig kann das System 14 bei 100 Daten erfassen, die das Lichtverhältnis oder Ereignis charakterisieren. Die bei 100 erfassten Daten können bestimmte Sensorausgaben, Fahrtrichtungen, GPS-Standort, Tageszeit oder Ähnliches bzw. eine Kombination oder Subkombination derselben umfassen.
  • Basierend auf den bei 100 erfassten Daten können bestimmte Vorbereitungen bei 102 identifiziert werden, um das Lichtverhältnis oder Ereignis sicher zu erleben oder zu passieren. Falls das Ereignis zum Beispiel ein abrupter Übergang auf dem Gipfel eines Berges von komplettem Schatten zu einer direkten Sicht auf die Sonne durch die Windschutzscheibe wäre, müssten die in 102 identifizierten Vorbereitungen der Bedarf zum Senken des Durchlassgrads einer Windschutzscheibe vor (z. B. kurz vor) Erreichen des Gipfels des Berges sein, wenn auf den Gipfel des Bergs in dieselbe Richtung zur oder um die selbe Tageszeit (z. B. innerhalb einer oder zwei Stunden) zugesteuert wird. Die auf diese Weise bei 102 identifizierten Vorbereitungen können bei 104 gespeichert werden (z. B. in dem Speicher 48 eines oder mehrerer Systeme 14, im Speicher eines Computersystems 40 oder Ähnlichem bzw. einer Kombination derselben), damit sie in Zukunft zur Verwendung bereitstehen.
  • Dementsprechend kann zu einem späteren Zeitpunkt, wenn das erste Fahrzeug 10a (oder ein zweites Fahrzeug 10b, das mit dem ersten Fahrzeug 10a über ein Kommunikationssystem 32, Computersystem 40, Direktkommunikation 28 oder Ähnliches verbunden ist) sich bei 106 richtungsweise, ortsweise, zeitweise usw. dem Lichtverhältnis oder Ereignis nähert, ein System 14 (z. B. ein Steuermodul 70 eines Systems 14) des ersten Fahrzeugs 10a (oder des zweiten Fahrzeugs 10b) bei 108 eine oder mehrere der Vorbereitungen implementieren, die bei 102 identifiziert und bei 104 gespeichert wurden. Auf diese Weise können negative Auswirkungen des Lichtverhältnisses oder Ereignisses abgemildert werden, wenn das Lichtverhältnis oder Ereignis bei 110 erneut erlebt wird.
  • In ausgewählten Ausführungsformen können die Daten, die diese zweite oder zusätzliche Erfahrung mit dem Lichtverhältnis oder Erlebnis charakterisieren, ebenfalls bei 112 erfasst werden. Dementsprechend kann diese zweite oder zusätzliche Erfahrung ebenfalls benutzt werden, um bei 102 Vorbereitungen zu identifizieren oder weiter zu verbessern, um das Lichtverhältnis oder Ereignis sicher zu erleben oder zu passieren. Deshalb können mit Zeit und Erfahrung ein oder mehrere Fahrzeuge 10a, 10b eine Datenbank mit vorbereitenden Maßnahmen erzeugen, die an verschiedenen Orten und zu verschiedenen Zeiten ergriffen werden können.
  • Unter Bezugnahme auf 7 können in ausgewählten Ausführungsformen ein oder mehrere Systeme 14 im Voraus vorbereitete computerisierte Kenntnisse einer Straße und/oder Fahrumgebung einsetzen oder benutzen, die über GPS-Daten, elektronische Horizontdaten, Kartendaten (z. B. Straßenkarten, Hochdefinitionskarten, die Merkmale wie Gebäude umfassen, die Licht reflektieren können oder sich anderweitig auf Lichtverhältnisse auswirken, oder Ähnliches bzw. Kombinationen davon), kabellose Wetterdaten oder Ähnliches bzw. eine Kombination oder Subkombination derselben zur Verfügung stehen, um im Voraus auf bestimmte Lichtverhältnisse oder Ereignisse vorzubereiten. Dementsprechend kann in bestimmten Ausführungsformen ein alternatives Verfahren 114 zum Vorbereiten auf ein oder mehrere Lichtverhältnisse oder Ereignisse dann beginnen, wenn ein Fahrzeug 10 bei 116 sich richtungsweise, ortsweise, zeitweise usw. einem Terrain oder einer Umgebung nähert, bei der wahrscheinlich ist, dass sie ein vorhersehbares Lichtverhältnis oder Ereignis produziert.
  • Während dieser Annährung kann ein System 14 des Fahrzeugs 10 bei 118 computerisierte Kenntnisse einer Straße und/oder einer Fahrumgebung nutzen, um Vorbereitungen zu identifizieren, die hilfreich sein können, um das erwartete oder vorausgesagte Lichtverhältnis oder Ereignis sicher zu erleben oder zu passieren. Diese Vorbereitungen können dann bei 120 umgesetzt werden. Auf diese Weise können bestimmte negative Auswirkungen des Lichtverhältnisses oder Ereignisses verbessert werden, wenn das Lichtverhältnis oder Ereignis bei 122 erlebt wird. Dieser Prozess kann wiederholt werden, wenn sich ein Fahrzeug 10 bei 116 anderen vorausgesagten Lichtverhältnissen oder Ereignissen nähert.
  • Beispielsweise kann die Nutzung computerisierter Kenntnisse einer Straße, Fahrumgebung (z. B. Fahrtrichtung, Tageszeit, Sonnenmuster, Wolken usw.) oder Ähnliches bei 118 durch ein System 14 (z. B. ein Steuermodul 70 eines Systems 14) voraussagen, dass ein sich nähernder Gipfel eines Berges einen abrupten Übergang von komplettem Schatten zu einer direkten Sicht auf die Sonne durch die Windschutzscheibe produzieren wird. Dementsprechend kann das System 14 (z. B. das Steuermodul 70) eine angemessene Zeit identifizieren, wann der Durchlassgrad einer Windschutzscheibe gesenkt werden soll. Demnach kann der Durchlassgrad der Windschutzscheibe vor (z. B. kurz bevor) Erreichen des Berggipfels gesenkt werden.
  • In ausgewählten Ausführungsformen können Daten, die diese Erfahrung mit dem Lichtverhältnis oder Ereignis charakterisieren, bei 124 erfasst werden. Dementsprechend kann diese Erfahrung auch dazu verwendet werden, Vorbereitungen zu identifizieren oder weiter zu verbessern, um diese oder ähnliche Lichtverhältnisse oder Ereignisse sicher zu erleben oder zu passieren. Deshalb können mit Zeit und Erfahrung ein oder mehrere Fahrzeuge 10a, 10b eine Datenbank mit vorbereitenden Maßnahmen erzeugen, die an verschiedenen Orten und zu verschiedenen Zeiten ergriffen werden können.
  • Die Ablaufdiagramme in 4-7 veranschaulichen die Architektur, Funktionalität und den Betrieb möglicher Umsetzungen von Systemen, Verfahren und Computerprogrammprodukten nach den verschiedenen Ausführungsformen gemäß der vorliegenden Erfindung. In dieser Hinsicht kann jeder Block der Ablaufdiagramme ein Modul, Segment oder einen Teil des Codes darstellen, der eine oder mehrere ausführbare Anweisungen zur Umsetzung der spezifischen logischen Funktion(en) umfasst. Es wird auch darauf hingewiesen, dass jeder Block der Ablaufdiagrammabbildungen und Kombinationen von Blöcken in den Ablaufdiagrammabbildungen durch Sonderhardware-basierte Systeme umgesetzt werden können, die die spezifischen Funktionen oder Maßnahmen durchführen, oder durch Kombinationen aus Sonderhardware und Computeranweisungen.
  • Es wird außerdem darauf hingewiesen, dass in manchen alternativen Umsetzungen die in den Blöcken beschriebenen Funktionen in einer anderen Reihenfolge als in der Figur angegeben ablaufen können. In bestimmten Ausführungsformen können zwei Blöcke, die nacheinander gezeigt werden, im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal in umgekehrter Reihenfolge ausgeführt werden, je nach der jeweiligen Funktionalität. Alternativ dazu können bestimmte Schritte oder Funktionen ausgelassen werden, falls sie nicht notwendig sind.
  • In der obigen Offenbarung wurde auf die begleitenden Zeichnungen Bezug genommen, die einen Teil des vorliegenden Dokuments bilden und die zur Veranschaulichung spezifische Umsetzungen zeigen, in denen die Offenbarung ausgeführt werden kann. Es versteht sich, dass andere Umsetzungen benutzt und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Patentschrift auf „eine Ausführungsform“, „eine beispielhafte Ausführungsform“ usw. zeigen an, dass die beschriebene Ausführungsform ein bestimmtes Merkmal, eine bestimmte Struktur oder Eigenschaft umfassen kann, doch nicht jede Ausführungsform muss notwendigerweise das bestimmte Merkmal, die bestimmte Struktur oder Eigenschaft umfassen. Überdies beziehen sich derartige Phrasen nicht unbedingt auf dieselbe Ausführungsform. Ferner wird davon ausgegangen, dass, wenn ein bestimmtes Merkmal, eine bestimmte Struktur oder Eigenschaft in Bezug auf eine Ausführungsform beschrieben wird, dass es im Rahmen der Kenntnisse eines Fachmanns liegt, ein solches Merkmal bzw. eine solche Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen zu erwirken, unabhängig davon, ob dies ausdrücklich beschrieben wird oder nicht.
  • Umsetzungen der hierin offengelegten Systeme, Vorrichtungen und Verfahren können einen Sonder- oder Universalrechner umfassen oder nutzen, einschließlich Computerhardware wie beispielsweise einen oder mehrere Prozessoren und Systemspeicher wie hierin besprochen. Umsetzungen innerhalb des Umfangs der vorliegenden Offenbarung können auch physische und andere computerlesbare Medien zum Tragen oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen umfassen. Solche computerlesbare Medien können beliebige verfügbare Medien sein, auf die ein Universal- oder Sondercomputersystem zugreifen kann. Computerlesbare Medien, die computerausführbare Anweisungen speichern, sind Computerspeichermedien (-vorrichtungen). Computerlesbare Medien, die computerausführbare Anweisungen tragen, sind Übertragungsmedien. Demnach können, als Beispiel und nicht als Einschränkung, Umsetzungen der Offenbarung mindestens zwei deutlich unterscheidbare Arten computerlesbarer Medien umfassen: Computerspeichermedien (-Vorrichtungen) und Übertragungsmedien.
  • Computerspeichermedien (-vorrichtungen) umfassen RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (Solid State Drives, „SSDs“) (z. B. basierend auf RAM), Flash-Speicher, Phasenwechsel-Speicher (Phase-change Memory, „PCM“), andere Speicherarten, andere optische Plattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das dazu benutzt werden kann, um gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern und auf das von einem Universal- oder Sonderrechner zugegriffen werden kann.
  • Eine Umsetzung der hierin offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als ein oder mehrere Datenlink(s) definiert, welche die Beförderung elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Geräten ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung an einen Computer übertragen oder bereitgestellt werden (ob verkabelt, kabellos oder eine Kombination aus verkabelt und kabellos), sieht der Computer die Verbindung sachgemäß als Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenlinks umfassen, das bzw. die dazu benutzt werden können, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu tragen, auf die ein Universal- oder Spezialrechner zugreifen kann. Kombinationen der oben genannten sollten im Umfang der computerlesbaren Medien ebenfalls mit eingeschlossen werden.
  • Computerausführbare Anweisungen umfassen beispielsweise Anweisungen und Daten, die bei Ausführung in einem Prozessor einen Universalrechner, Spezialrechner oder ein Spezialverarbeitungsgerät dazu veranlasse kann, eine bestimmte Funktion oder Gruppe von Funktionen auszuüben. Die computerausführbaren Anweisungen können beispielweise Binärdateien, Intermediärformatanweisungen wie Assemblersprache oder sogar Quellencode sein. Obwohl der Gegenstand in Begriffen beschrieben wird, die spezifisch für strukturelle Merkmale und/oder methodologische Handlungen sind, versteht es sich, dass der in den angehängten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die hierin beschriebenen Merkmale oder Handlungen beschränkt ist. Vielmehr werden die beschriebenen Merkmale und Handlungen als beispielhafte Formen der Umsetzung der Ansprüche offenbart.
  • Fachleute werden verstehen, dass die Offenbarung in Netzwerkrechnerumgebungen mit vielen Arten von Computersystemkonfigurationen praktiziert werden kann, einschließlich eines Armaturenbrettcomputers, PCs, Desktop-Computer, Laptop-Computer, Nachrichtenprozessoren, tragbare Geräte, Multiprozessorsysteme, mikroprozessorbasierte oder programmierbare Verbraucherelektronik, Netzwerk-PCs, Minicomputer, Großrechner, Mobiltelefone, PDAs, Tablets, Pagers, Router, Switches, verschiedene Speichervorrichtungen u. Ä. Die Offenbarung kann auch in verteilten Systemumgebungen praktiziert werden, wo lokale und entfernte Computersysteme, die durch ein Netzwerk miteinander verlinkt sind (entweder durch verkabelte Datenlinks, kabellose Datenlinks oder eine Kombination aus verkabelten und kabellosen Datenlinks), beide Aufgaben ausführen. In einer verteilten Systemumgebung können sich Programmmodule sowohl in lokalen als auch entfernten Speichervorrichtungen befinden.
  • Ferner können hierin beschriebene Funktionen gegebenenfalls in einer oder mehreren der folgenden ausgeübt werden: Hardware, Software Firmware, digitalen Komponenten oder analogen Komponenten. Beispielsweise können einer oder mehrere anwendungsspezifische integrierte Schaltkreise (Application Specific Integrated Circuits, ASICs) programmiert werden, um eine(s) oder mehrere der hierin beschriebenen Systeme und Verfahren auszuführen. In der Beschreibung und in den Ansprüchen werden manche Begriffe durchgehend benutzt, um auf bestimmte Systemkomponenten Bezug zu nehmen. Für Fachleute ist ersichtlich, dass auf Komponenten mit verschiedenen Namen Bezug genommen werden kann. Dieses Dokument beabsichtigt nicht, zwischen Komponenten zu unterscheiden, die dem Namen nach, jedoch nicht von der Funktion her anders sind.
  • Es wird darauf hingewiesen, dass die hierin besprochenen Sensorausführungsformen Computerhardware, Software, Firmware oder eine beliebige Kombination letzterer umfassen können, um zumindest einen Teil ihrer Funktionen auszuüben. Beispielsweise kann ein Sensor Computercode umfassen, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und kann Hardwarelogik/elektrische Schaltkreise umfassen, die von dem Computercode gesteuert werden. Diese beispielhaften Vorrichtungen werden hierin zur Veranschaulichung bereitgestellt und sind nicht als einschränkend auszulegen. Ausführungsformen der vorliegenden Offenbarung können in weiteren Vorrichtungstypen umgesetzt werden, wie für Fachleute ersichtlich sein wird.
  • Zumindest manche Ausführungsformen der Offenbarung sind auf Computerprogrammprodukte ausgerichtet, die eine solche Logik umfassen (z.B. in Form von Software), die auf einem beliebigen computerbenutzbaren Medium gespeichert ist. Eine solche Software veranlasst eine Vorrichtung bei Ausführung in einer oder mehreren Datenverarbeitungsvorrichtungen wie hierin beschrieben zu laufen.
  • Während verschiedene Ausführungsformen der vorliegenden Offenbarung oben beschrieben wurden, versteht es sich, dass sie nur als Beispiel und nicht zur Einschränkung präsentiert wurden. Für Fachleute wird offensichtlich sein, dass verschiedene Veränderungen in Form und Detail durchgeführt werden können, ohne vom Geist und dem Umfang der Offenbarung abzuweichen. Deshalb kann der Umfang der vorliegenden Offenbarung nicht durch eine der oben beschriebenen beispielhaften Ausführungsformen eingeschränkt werden, sondern sollte nur gemäß den folgenden Ansprüchen und ihren Entsprechungen definiert werden. Die vorangehende Beschreibung wurde zum Zwecke der Veranschaulichung und Beschreibung bereitgestellt. Sie soll weder erschöpfend sein noch die Offenbarung auf die genaue offenbarte Form begrenzen. Es sind viele Abänderungen und Variationen in Anbetracht der obigen Lehre möglich. Es wird ferner darauf hingewiesen, dass beliebige oder alle der oben genannten alternativen Umsetzungen ein einer beliebigen gewünschten Kombination verwendet werden können, um hybride Umsetzungen der Offenbarung zu schaffen.

Claims (15)

  1. Fahrzeug, umfassend: eine Kamera, die Bilddaten ausgibt, welche einem oder mehreren Bildern entsprechen, die von einem Insassen im Fahrzeug gemacht wurden; ein Fenster mit variablem Durchlassgrad; ein künstliches neuronales Netzwerk, das dazu trainiert ist, den Insassen des Fahrzeugs zu klassifizieren, indem es mithilfe der Bilddaten als Eingabe Affinitätsbewertungen für zwei oder mehr Klassen erzeugt; und mindestens eine Steuerung, die den Durchlassgrad des Fensters basierend auf den vom künstlichen neuronalen Netzwerk erstellten Klassifizierungen steuert.
  2. Fahrzeug nach Anspruch 1, ferner mindestens einen Lichtsensor umfassend, der Lichtdaten ausgibt, die Umgebungslicht in einer Umgebung um das Fahrzeug charakterisieren, wobei das künstliche neuronale Netzwerk dazu trainiert ist, den Insassen des Fahrzeugs zu klassifizieren, indem es mithilfe der Bilddaten und der Lichtdaten als Eingaben Affinitätsbewertungen für die zwei oder mehr Klassen erzeugt.
  3. Fahrzeug nach Anspruch 2, wobei der mindestens eine Lichtsensor eine transparente photovoltaische Schicht umfasst, die Teil des Fensters bildet.
  4. Fahrzeug nach Anspruch 3, wobei: die Kamera eine Kamera in der Fahrkabine ist; und der mindestens eine Lichtsensor eine externe Kamera ist, die in Bezug auf das Fahrzeug nach vorne oder nach hinten gerichtet ist.
  5. Fahrzeug nach Anspruch 1, wobei das Fenster eine Windschutzscheibe des Fahrzeugs ist.
  6. Fahrzeug nach Anspruch 1, wobei: das Fenster elektrochromatisches Material umfasst; und die mindestens eine Steuerung eine Spannung steuert, die auf das elektrochromatische Material angelegt wird.
  7. Verfahren, Folgendes umfassend: Empfangen, durch ein Computersystem, das sich an Bord des Fahrzeugs befindet, von Bilddaten, die von einer Kamera in der Fahrkabine erfasst werden, die so ausgerichtet ist, dass sie auf mindestens einen Insassen des Fahrzeugs gerichtet ist, wobei die Bilddaten mindestens ein Bild umfassen, das von der Kamera in der Fahrkabine innerhalb eines Zeitraums erfasst wurde; Empfangen, durch ein künstliches neuronales Netzwerk, das auf dem Computersystem läuft, der Bilddaten als eine Eingabe; Erzeugen, durch das künstliche neuronale Netzwerk, von Klassifizierungsbewertungen, die auf der Eingabe in Bezug auf mindestens zwei Klassen basieren, wobei die mindestens zwei Klassen Eigenschaften des mindestens einem Insassen umfassen; und Steuern, durch das Computersystem, des Durchlassgrads mindestens eines Fensters des Fahrzeugs basierend auf den von dem künstlichen neuronalen Netzwerk erzeugten Klassifizierungsbewertungen.
  8. Verfahren nach Anspruch 7, wobei: die Bilddaten mehrere aufeinanderfolgende Bilder umfassen, die von der Kamera in der Fahrkabine in dem Zeitraum erfasst wurden; und der Zeitraum weniger als 10 Sekunden beträgt.
  9. Verfahren nach Anspruch 1 oder 7, wobei die mindestens zwei Klassen das Tragen einer Sonnenbrille und kein Tragen einer Sonnenbrille umfassen.
  10. Verfahren nach Anspruch 1 oder 7, wobei die mindestens zwei Klassen einen Säugling als Insassen und keinen Säugling als Insassen umfassen.
  11. Verfahren nach Anspruch 1 oder 7, wobei die mindestens zwei Klassen einen Insassen, der sich mit der Hand die Augen abschirmt, und einen Insassen, der sich nicht mit der Hand die Augen abschirmt, umfassen.
  12. Verfahren nach Anspruch 1 oder 7, wobei die mindestens zwei Klassen eine Hautpigmentierung unter einem ersten Level und eine Hautpigmentierung über einem zweiten Level, der höher als oder gleichwertig wie der erste Level ist, umfassen.
  13. Verfahren nach Anspruch 1 oder 7, ferner mindestens einen Lichtsensor umfassend, der Lichtdaten ausgibt, die Umgebungslicht in einer Umgebung um das Fahrzeug charakterisieren.
  14. Verfahren nach Anspruch 13, wobei das künstliche neuronale Netzwerk dazu trainiert ist, den Insassen des Fahrzeugs zu klassifizieren, und zwar durch das Erzeugen von Affinitätsbewertungen für die zwei oder mehreren Klassen mithilfe der Bilddaten und der Lichtdaten als Eingaben.
  15. Verfahren nach Anspruch 7, wobei: das Fahrzeug ferner ein Kommunikationssystem umfasst, das eine oder mehrere von dem künstlichen neuronalen Netzwerk erstellte Klassifizierungen an Hardware außerhalb des Fahrzeugs kommuniziert; und die Hardware außerhalb des Fahrzeugs Teil einer stationären Telekommunikationsstruktur oder eines anderen Fahrzeugs ist. Durchlassgrad einer Windschutzscheibe, eines Seitenfensters oder einer Kombination derselben.
DE102017124372.0A 2016-10-20 2017-10-18 Fahrzeugfenster-durchlassgradsteuerungsvorrichtung und -verfahren Pending DE102017124372A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/299,211 2016-10-20
US15/299,211 US10192125B2 (en) 2016-10-20 2016-10-20 Vehicle-window-transmittance-control apparatus and method

Publications (1)

Publication Number Publication Date
DE102017124372A1 true DE102017124372A1 (de) 2018-04-26

Family

ID=60419127

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017124372.0A Pending DE102017124372A1 (de) 2016-10-20 2017-10-18 Fahrzeugfenster-durchlassgradsteuerungsvorrichtung und -verfahren

Country Status (6)

Country Link
US (2) US10192125B2 (de)
CN (1) CN107962935A (de)
DE (1) DE102017124372A1 (de)
GB (1) GB2557712A (de)
MX (1) MX2017013426A (de)
RU (1) RU2708995C2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022211876A1 (de) 2022-11-09 2024-05-16 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Tönung eines ansteuerbaren Oberflächenelementes

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10192125B2 (en) * 2016-10-20 2019-01-29 Ford Global Technologies, Llc Vehicle-window-transmittance-control apparatus and method
DE102016224750A1 (de) * 2016-12-12 2018-06-14 Continental Automotive Gmbh Anordnung zum Betreiben einer oder mehrerer am Fahrzeug angebrachter Scheiben
US10692365B2 (en) 2017-06-20 2020-06-23 Cavh Llc Intelligent road infrastructure system (IRIS): systems and methods
US12020563B2 (en) 2017-05-17 2024-06-25 Cavh Llc Autonomous vehicle and cloud control system
JP7149692B2 (ja) 2017-08-09 2022-10-07 キヤノン株式会社 画像処理装置、画像処理方法
US20190146441A1 (en) * 2017-11-16 2019-05-16 Associated Materials, Llc Methods and systems for home automation using an internet of things platform
US10303045B1 (en) * 2017-12-20 2019-05-28 Micron Technology, Inc. Control of display device for autonomous vehicle
JP2019135122A (ja) * 2018-02-05 2019-08-15 トヨタ自動車株式会社 車両用遮光構造
US10867512B2 (en) 2018-02-06 2020-12-15 Cavh Llc Intelligent road infrastructure system (IRIS): systems and methods
EP3794421A4 (de) 2018-05-09 2022-12-21 Cavh Llc Systeme und verfahren zur fahrintelligenzzuweisung zwischen fahrzeugen und autobahnen
US11842642B2 (en) 2018-06-20 2023-12-12 Cavh Llc Connected automated vehicle highway systems and methods related to heavy vehicles
US11735041B2 (en) 2018-07-10 2023-08-22 Cavh Llc Route-specific services for connected automated vehicle highway systems
WO2020014128A1 (en) * 2018-07-10 2020-01-16 Cavh Llc Vehicle on-board unit for connected and automated vehicle systems
US11373122B2 (en) 2018-07-10 2022-06-28 Cavh Llc Fixed-route service system for CAVH systems
AU2019320784A1 (en) * 2018-08-15 2021-03-04 View, Inc. Control methods and systems using external 3d modeling and neural networks
CN109190639A (zh) * 2018-08-16 2019-01-11 新智数字科技有限公司 一种车辆颜色识别方法、装置及系统
US11007853B2 (en) * 2018-10-25 2021-05-18 Ford Global Technologies, Llc Vehicle window opacity
US10845628B2 (en) * 2018-11-09 2020-11-24 General Motors Llc System and method to dim at least a portion of a vehicle window
US20200298677A1 (en) * 2019-03-19 2020-09-24 AISIN Technical Center of America, Inc. Systems, apparatus, and methods to adjust dimming associated with vehicle sunroofs
CN111344169A (zh) * 2019-03-21 2020-06-26 合刃科技(深圳)有限公司 一种防晕光车辆辅助驾驶系统
US20200376937A1 (en) * 2019-05-29 2020-12-03 Toyota Boshoku Kabushiki Kaisha Light-adjusting system and vehicle light-adjusting system
US12002361B2 (en) * 2019-07-03 2024-06-04 Cavh Llc Localized artificial intelligence for intelligent road infrastructure
CN110422178B (zh) * 2019-08-14 2021-05-11 李斯特技术中心(上海)有限公司 驾驶信息获取方法、装置及信息获取系统
CN112836549A (zh) * 2019-11-22 2021-05-25 虹软科技股份有限公司 用户信息的检测方法及系统、电子设备
FR3103427A1 (fr) * 2019-11-26 2021-05-28 Psa Automobiles Sa Système de rétrovision numérique avec occultation de la lunette arrière
US20210188205A1 (en) * 2019-12-19 2021-06-24 Zf Friedrichshafen Ag Vehicle vision system
TW202204939A (zh) * 2020-02-12 2022-02-01 美商唯景公司 用於可著色窗之預測模型化
KR102671798B1 (ko) * 2020-02-13 2024-06-03 삼성전자주식회사 투명 패널을 제어하기 위한 장치 및 방법
DE102020106705B4 (de) 2020-03-11 2023-08-24 Motherson Innovations Company Limited Kraftfahrzeug mit Rückblicksystem mit steuerbarem Reflexionsgrad eines Innenrückspiegels
CN113771601B (zh) * 2020-03-17 2023-01-10 北京百度网讯科技有限公司 电致变色玻璃调节方法、装置和电子设备
JP7364530B2 (ja) * 2020-05-18 2023-10-18 トヨタ自動車株式会社 車両、情報処理装置、及び、方法
CN114654974B (zh) * 2020-06-18 2024-03-22 北京航迹科技有限公司 一种车窗调节方法、装置、电子设备及可读存储介质
CN112492544A (zh) * 2020-11-27 2021-03-12 江西江铃集团新能源汽车有限公司 一种车载调光玻璃控制方法、系统及可读存储介质
WO2022141541A1 (zh) * 2020-12-31 2022-07-07 华为技术有限公司 一种车辆数字化自动遮光的方法及遮光系统
CN113212124B (zh) * 2021-04-22 2022-11-08 浙江吉利控股集团有限公司 一种车窗亮度智能自动化调节方法、装置
CN114675442B (zh) * 2022-03-04 2023-11-14 北京梧桐车联科技有限责任公司 车内光线强度的控制方法、装置、系统及存储介质

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US192125A (en) * 1877-06-19 Improvement in spectacle-frames
WO1999044846A1 (fr) 1998-03-04 1999-09-10 Yoshikazu Ichiyama Vehicule a champ de vision ameliore, dispositif et procede servant a reduire l'eblouissement
AU2001259451A1 (en) 2000-05-04 2001-11-12 Schott Donnelly Llc Chromogenic glazing
JP2002331835A (ja) 2001-05-09 2002-11-19 Honda Motor Co Ltd 直射光防眩装置
DE10329643B4 (de) 2003-07-01 2016-08-11 Webasto Ag Verfahren zur Herstellung eines Deckels mit einer Glasscheibe und elektrischen Funktionselementen
JP2005035384A (ja) 2003-07-14 2005-02-10 Nissan Motor Co Ltd 車両用自動遮光装置
US20050068629A1 (en) * 2003-09-26 2005-03-31 Primal Fernando Adjustably opaque window
JP2007076396A (ja) 2005-09-09 2007-03-29 Aisin Aw Co Ltd 車両用遮光装置
JP2007091081A (ja) 2005-09-29 2007-04-12 Clarion Co Ltd 車両用眩惑防止システム
US8632034B2 (en) * 2007-03-23 2014-01-21 The Boeing Company Self-powered dimmable windows with integrated controls
US8102586B2 (en) 2007-07-23 2012-01-24 Kuwait University Electronic window shading system for houses, transport vehicles and the like
US8143563B2 (en) * 2007-09-05 2012-03-27 Craig Broude Enhanced glare reduction
US20090109036A1 (en) * 2007-10-29 2009-04-30 The Boeing Company System and Method for Alternative Communication
RU2369490C2 (ru) 2007-11-08 2009-10-10 Алексей Брониславович Данилевич Многофункциональная система защиты глаз от ослепления
US20120256080A9 (en) 2010-05-10 2012-10-11 Toyota Motor Engineering & Manufacturing North America, Inc. Selectively translucent window
US9135693B2 (en) * 2010-05-18 2015-09-15 Skin Of Mine Dot Com, Llc Image calibration and analysis
US8044784B2 (en) 2011-03-14 2011-10-25 Ford Global Technologies, Llc Sun protection system for automotive vehicle
DE102011084730A1 (de) 2011-10-18 2013-04-18 Signum Bildtechnik GmbH Vorrichtung und Verfahren zur Reduzierung der Blendwirkung
US8781676B2 (en) 2011-12-16 2014-07-15 Continental Automotive Systems, Inc. Photo-electrochromic window tinter
US20140148996A1 (en) 2012-11-26 2014-05-29 James Wilbert Watkins System for adjusting the visible light transmission level of a window
US8952819B2 (en) * 2013-01-31 2015-02-10 Lytx, Inc. Direct observation event triggering of drowsiness
US9409464B2 (en) * 2013-04-25 2016-08-09 Globalfoundries Inc. Dynamically managing vehicle glass dimming
FR3010941B1 (fr) 2013-09-26 2017-01-13 Valeo Vision Dispositif et procede d'aide a la conduite
US10359682B2 (en) 2013-10-04 2019-07-23 Gentex Corporation Variable transmittance window system
US9706152B2 (en) * 2013-11-20 2017-07-11 General Electric Company Remote transmission, manipulation, and display of infrared camera data
DE102015219111B4 (de) * 2015-10-02 2024-01-25 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren zur Anpassung der Beleuchtung von Bedienelementen bei Kraftfahrzeugen
US9699289B1 (en) * 2015-12-09 2017-07-04 Toyota Motor Engineering & Manufacturing North America, Inc. Dynamic vehicle automation level availability indication system and method
US20170217445A1 (en) * 2016-01-29 2017-08-03 GM Global Technology Operations LLC System for intelligent passenger-vehicle interactions
US10192125B2 (en) * 2016-10-20 2019-01-29 Ford Global Technologies, Llc Vehicle-window-transmittance-control apparatus and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022211876A1 (de) 2022-11-09 2024-05-16 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Tönung eines ansteuerbaren Oberflächenelementes

Also Published As

Publication number Publication date
US20190026574A1 (en) 2019-01-24
US10192125B2 (en) 2019-01-29
RU2017134570A (ru) 2019-04-05
CN107962935A (zh) 2018-04-27
RU2708995C2 (ru) 2019-12-12
MX2017013426A (es) 2018-09-28
GB201716759D0 (en) 2017-11-29
RU2017134570A3 (de) 2019-08-07
GB2557712A (en) 2018-06-27
US10832067B2 (en) 2020-11-10
US20180114079A1 (en) 2018-04-26

Similar Documents

Publication Publication Date Title
DE102017124372A1 (de) Fahrzeugfenster-durchlassgradsteuerungsvorrichtung und -verfahren
DE102019134141B4 (de) Sicherheitsgurt-Zustandsbestimmungsverfahren
DE102018129099A1 (de) Steuerung von fenstereintönungsgraden zum schutz des innenraums eines autonomen fahrzeugs
DE102012102564B4 (de) Fahrtunterstützungsvorrichtung für ein Fahrzeug
DE102017127489A1 (de) Verkehrsampelerfassung und -klassifizierung unter verwendung von computervision und deep learning
EP2583847B1 (de) Vorrichtung und Verfahren zur Reduzierung der Blendwirkung
EP3083361B1 (de) Verfahren und vorrichtung zur überwachung einer äusseren abmessung eines fahrzeugs
DE102014223247A1 (de) Autonomfahrzeugerkennung
DE112017007579T5 (de) Verfahren und System zum automatischen Kolorieren von Nachtsichtbildern
EP3717954B1 (de) Verfahren zur anzeige des verlaufs einer trajektorie vor einem fahrzeug oder einem objekt mit einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens
WO2013072231A1 (de) Verfahren zur nebeldetektion
DE102010030044A1 (de) Wiederherstellvorrichtung für durch Wettereinflüsse verschlechterte Bilder und Fahrerunterstützungssystem hiermit
DE112011103083T5 (de) Umgebungsbild-Anzeigesystem und Umgebungsbild-Anzeigeverfahren für ein Fahrzeug
DE102015219111A1 (de) Fahrerassistenzsystem und Verfahren zur Anpassung der Beleuchtung von Bedienelementen bei Kraftfahrzeugen
DE102018002955A1 (de) Verfahren und steueranordnung zur umgebungswahrnehmung
DE102020127764A1 (de) Fahrzeuganzeigenverbesserung
DE102018125801A1 (de) Videokalibrierung
DE102016001204A1 (de) Kraftfahrzeug
DE102013010454A1 (de) Verfahren zum Betreiben einer Fahrerassistenzvorrichtung eines Kraftfahrzeugs und eine Fahrerassistenzvorrichtung
DE102015215371A1 (de) Fahrzeugbeleuchtungssteuersystem unter verwendung einer tragbaren brille und verfahren zum steuern desselben
WO2021121491A2 (de) Umwandlung von eingangs-bilddaten einer mehrzahl von fahrzeugkameras eines rundumsichtsystems in optimierte ausgangs-bilddaten
DE102018211259A1 (de) Verfahren und vorrichtung zum betreiben einer fahrzeugkamera, fahrzeugkamera und fahrzeug
DE102018214454B4 (de) Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
DE102021125469A1 (de) Verbesserter Fahrzeugweg durch Augmented Reality
WO2017036646A1 (de) Digitaler rückspiegel

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE