DE102020127158A1 - Head-up-display-bildbestimmung und -korrektur - Google Patents

Head-up-display-bildbestimmung und -korrektur Download PDF

Info

Publication number
DE102020127158A1
DE102020127158A1 DE102020127158.1A DE102020127158A DE102020127158A1 DE 102020127158 A1 DE102020127158 A1 DE 102020127158A1 DE 102020127158 A DE102020127158 A DE 102020127158A DE 102020127158 A1 DE102020127158 A1 DE 102020127158A1
Authority
DE
Germany
Prior art keywords
hud
virtual image
vehicle
image
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020127158.1A
Other languages
English (en)
Inventor
James W. Wells
Jinglin Li
Todd H. Barnes
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102020127158A1 publication Critical patent/DE102020127158A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/168Target or limit values
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Instrument Panels (AREA)
  • Geometry (AREA)

Abstract

Eine/Ein HUD-Bilderfassungs- und Korrekturvorrichtung und -verfahren für ein Fahrzeug umfasst HUD-Feld, das auf einer reflektierenden Oberfläche einer Windschutzscheibe des Fahrzeugs definiert ist, einen Generator für virtuelle Bilder zum Projizieren von Bildern innerhalb des HUD-Feldes und eine Sensoranordnung für virtuelle Bilder, die in einem HUD-Augenraumbereich des Fahrzeugs angeordnet ist und ein Sichtfeld aufweist, das das HUD-Feld umfasst. Eine Steuerung ist konfiguriert, um die Projektion eines vorbestimmten Testbildes innerhalb des HUD-Feldes zu steuern, von der Sensoranordnung für virtuelle Bilder ein HUD-Feld-Bild zu empfangen, eine Kompensationsfunktion auf der Grundlage des vorbestimmten Testbildes und des HUD-Feld-Bildes zu bestimmen und dem Generator für virtuelle Bilder die Kompensationsfunktion zur Anwendung auf Rohbilder vor der Projektion bereitzustellen.

Description

  • EINLEITUNG
  • Diese Offenbarung bezieht sich auf Head-Up-Displays (HUD).
  • Ein HUD ist ein Display, das Daten in teilweise transparenter Weise und an einer Position darstellt, die es dem Benutzer erlaubt, sie zu sehen, ohne von seinem gewohnten Standpunkt wegzuschauen (z.B. im Wesentlichen nach vorne). Obwohl HUDs für militärische Zwecke entwickelt wurden, werden sie heute in Verkehrsflugzeugen, Automobilen, Computerspielen und anderen Anwendungen eingesetzt.
  • Innerhalb von Fahrzeugen können HUDs verwendet werden, um virtuelle Bilder oder Fahrzeugparameterdaten vor die Windschutzscheibe oder Oberfläche des Fahrzeugs zu projizieren, so dass sich das Bild in oder unmittelbar neben der Sichtlinie des Bedieners befindet. Fahrzeug-HUD-Systeme können Daten projizieren, die auf Informationen basieren, die von fahrzeuginternen Betriebskomponenten (z.B. Sensoren) empfangen werden, um z.B. Benutzer über Fahrbahnmarkierungen zu informieren, die Nähe eines anderen Fahrzeugs zu identifizieren oder Informationen über nahegelegene Orientierungspunkte zu liefern.
  • HUDs können auch Informationen von Informationssystemen außerhalb des Fahrzeugs, wie z.B. einem Navigationssystem auf einem Smartphone, empfangen und projizieren. Die vom HUD angezeigten Navigationsinformationen können beispielsweise die Projektion der Entfernung bis zu einer nächsten Kurve und die aktuelle Geschwindigkeit des Fahrzeugs im Vergleich zu einer Geschwindigkeitsbegrenzung, einschließlich einer Warnung bei Überschreitung der Geschwindigkeitsbegrenzung, umfassen. Externe Systeminformationen, die die Fahrspur für ein bevorstehendes Manöver angeben oder den Benutzer vor möglichen Verkehrsverzögerungen warnen, können ebenfalls auf dem HUD dargestellt werden.
  • HUDs können auch in Augmented-Reality-Displays (Displays mit erweiterter Realität) oder verbesserten Sichtsystemen eingesetzt werden, die Objekte und Straßenmerkmale einschließlich der Infrastruktur identifizieren, indizieren, überlagern oder anderweitig referenzieren. Solche erweiterten Systeme erfordern eine präzise Ausrichtung der HUD-Bilder relativ zu den Beobachtern im Fahrzeug und den Objekten in ihrem Sichtfeld. Darüber hinaus können solche HUD-Systeme die Windschutzscheibe nutzen, um HUD-Kombinationsfunktionalität über ein breites Sichtfeld bereitzustellen. Solche großformatigen reflektierenden Displays stellen den Konstrukteur hinsichtlich Bildposition und Verzerrung vor Herausforderungen.
  • BESCHREIBUNG
  • In einer beispielhaften Ausführungsform umfasst eine HUD-Bilderfassungs- und Korrekturvorrichtung für ein Fahrzeug ein HUD-Feld, das auf einer reflektierenden Oberfläche einer Windschutzscheibe des Fahrzeugs definiert ist, einen Generator für virtuelle Bilder zum Projizieren von Bildern innerhalb des HUD-Feldes und eine Sensoranordnung für virtuelle Bilder, die sich in einem HUD-Augenraumbereich des Fahrzeugs befindet und ein Sichtfeld aufweist, das das HUD-Feld umfasst. Die Vorrichtung enthält ferner eine Steuerung, die so konfiguriert ist, dass sie die Projektion eines vorbestimmten Testbildes innerhalb des HUD-Feldes steuert, von der Sensoranordnung für virtuelle Bilder ein HUD-Feld-Bild empfängt, eine Kompensationsfunktion auf der Grundlage des vorbestimmten Testbildes und des HUD-Feld-Bildes bestimmt, und dem Generator für virtuelle Bilder die Kompensationsfunktion zur Anwendung auf Rohbilder vor der Projektion bereitstellt.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Kompensationsfunktion eine Verzerrungskompensationsfunktion enthalten.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Kompensationsfunktion eine Ausrichtungskompensationsfunktion enthalten.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Kompensationsfunktion eine Farbkompensationsfunktion enthalten.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale kann die Vorrichtung eine Halterung für die Sensoranordnung für virtuelle Bilder enthalten, wobei die Halterung die Sensoranordnung für virtuelle Bilder innerhalb des HUD-Augenraumbereichs des Fahrzeugs positioniert.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Halterung fest an einer statischen Fahrzeugstruktur befestigt sein.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Halterung fest an einer Sitzlehne befestigt sein.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Halterung fest an einer Roboterbaugruppe befestigt sein.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Sensoranordnung für virtuelle Bilder mindestens eine Kamera enthalten.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Sensoranordnung für virtuelle Bilder eine Vielzahl von individuell positionierbaren Kameras umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Vorrichtung ein Ausrichtungssystem zur Positionierung der Sensoranordnung für virtuelle Bilder innerhalb des HUD-Augenraumbereichs umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Ausrichtungssystem zur Positionierung der Sensoranordnung für virtuelle Bilder innerhalb des HUD-Augenraumbereichs ein Laserausrichtungssystem umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Ausrichtungssystem zur Positionierung der Sensoranordnung für virtuelle Bilder innerhalb des HUD-Augenraumbereichs eine Kamera umfassen.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Kamera die Sensoranordnung für virtuelle Bilder enthalten.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale kann die Vorrichtung Sitzpositionierungsmotoren umfassen, wobei die Steuerung konfiguriert ist, um die Sitzpositionierungsmotoren zu steuern, um die Halterung und die Sensoranordnung für virtuelle Bilder in eine gewünschte Endposition innerhalb des HUD-Augenraumbereichs zu bewegen.
  • In einer anderen beispielhaften Ausführungsform enthält eine HUD-Bilderfassungs- und Korrekturvorrichtung für ein Fahrzeug ein HUD-Feld, das auf einer reflektierenden Oberfläche einer Windschutzscheibe des Fahrzeugs definiert ist, einen Generator für virtuelle Bilder zum Projizieren von Bildern innerhalb des HUD-Feldes und eine Sensoranordnung für virtuelle Bilder, die sich in einem HUD-Augenraumbereich des Fahrzeugs befindet und ein Sichtfeld aufweist, das das HUD-Feld enthält, wobei die Sensoranordnung für virtuelle Bilder eine Vielzahl von Kameras enthält. Die Vorrichtung enthält ferner eine Steuerung, die so konfiguriert ist, dass sie die Projektion eines vorbestimmten Testbildes innerhalb des HUD-Feldes steuert, von der Sensoranordnung für virtuelle Bilder ein HUD-Feld-Bild empfängt, das das vorbestimmte Testbild enthält, das von der reflektierenden Oberfläche der Windschutzscheibe reflektiert wird, wobei das HUD-Feld-Bild der Steuerung Informationen bereitstellt, die mit Verzerrungseffekten der reflektierenden Oberfläche innerhalb des HUD-Feldes korrespondieren, eine Verzerrungskompensationsfunktion auf der Grundlage des vorbestimmten Testbildes und des HUD-Feld-Bildes bestimmt, wobei die Verzerrungskompensationsfunktion den Verzerrungseffekten der reflektierenden Oberfläche innerhalb des HUD-Feldes entgegenwirkt, und dem Generator für virtuelle Bilder die Kompensationsfunktion zur Anwendung auf Rohbilder vor der Projektion bereitstellt.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale kann die Vorrichtung eine Halterung für die Sensoranordnung für virtuelle Bilder enthalten, wobei die Halterung die Sensoranordnung für virtuelle Bilder innerhalb des HUD-Augenraumbereichs des Fahrzeugs positioniert.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale kann die Vorrichtung eine Halterung umfassen, die fest an einer von einer statischen Fahrzeugstruktur, einer Sitzlehne und einer Roboterbaugruppe befestigt ist.
  • In einer weiteren beispielhaften Ausführungsform beinhaltet ein HUD-Bilderfassungs- und Korrekturverfahren für ein Fahrzeug das Projizieren eines vorbestimmten Testbildes innerhalb eines HUD-Feldes, das auf einer reflektierenden Oberfläche einer Windschutzscheibe des Fahrzeugs definiert ist, das Empfangen eines HUD-Feld-Bildes von einer Sensoranordnung für virtuelle Bilder, die sich in einem HUD-Augenraumbereich des Fahrzeugs befindet und ein Sichtfeld hat, das das HUD-Feld umfasst, wobei das HUD-Feld-Bild das vorbestimmte Testbild enthält, das von der reflektierenden Oberfläche der Windschutzscheibe reflektiert wird, das Bestimmen einer Kompensationsfunktion auf der Grundlage des vorbestimmten Testbildes und des HUD-Feld-Bildes, und das Bereitstellen der Kompensationsfunktion für den Generator für virtuelle Bilder zur Anwendung auf Rohbilder vor der Projektion.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Kompensationsfunktion mindestens eine Verzerrungskompensationsfunktion, eine Ausrichtungskompensationsfunktion oder eine Farbkompensationsfunktion umfassen.
  • Die oben genannten Merkmale und Vorteile sowie andere Merkmale und Vorteile der Offenbarung sind aus der folgenden detaillierten Beschreibung einfach ersichtlich, wenn sie in Verbindung mit den beigefügten Zeichnungen genommen werden.
  • Figurenliste
  • Andere Merkmale, Vorteile und Details erscheinen lediglich beispielhaft in der folgenden ausführlichen Beschreibung, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, in denen:
    • 1 ein HUD-System gemäß der vorliegenden Offenbarung zeigt;
    • 2A eine Seitenansicht des Fahrzeuginnenraums zeigt, gemäß der vorliegenden Offenbarung;
    • 2B eine vorausblickende Sicht des Fahrzeuginnenraums zeigt, gemäß der vorliegenden Offenbarung;
    • 2C eine perspektivische Ansicht eines Sitzbereichs und eines Augenraumbereichs in einem Fahrzeuginnenraum zeigt, gemäß der vorliegenden Offenbarung;
    • 3 eine Vorderansicht eines beispielhaften Kameraarrays in einer Sensoranordnung für virtuelle Bilder zeigt, gemäß der vorliegenden Offenbarung; und
    • 4 ein beispielhaftes Verfahren zur Bilderfassung und -korrektur zeigt, gemäß der vorliegenden Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende Beschreibung hat lediglich beispielhaften Charakter und soll die vorliegende Offenbarung, ihre Anwendung oder Verwendungen nicht einschränken. Es ist zu verstehen, dass in den Zeichnungen durchgehend gleiche Referenzziffern auf gleiche oder entsprechende Teile und Merkmale hinweisen. Unter Steuermodul, Modul, Regler, Steuerung, Steuereinheit, Prozessor und ähnlichen Begriffen sind hier eine oder mehrere Kombinationen aus einer oder mehreren anwendungsspezifischen integrierten Schaltung(en) (ASIC), elektronischen Schaltungen, zentralen Prozessoreinheit(en) (vorzugsweise Mikroprozessor(en)) und zugehörigem Speicher und Speicher (Festwertspeicher (ROM), Direktzugriffsspeicher (RAM), elektrisch programmierbarer Festwertspeicher (EPROM), Festplatte usw.) zu verstehen.) oder Mikrocontroller, die ein oder mehrere Software- oder Firmware-Programme oder -Routinen ausführen, kombinatorische Logikschaltung(en), Eingabe/Ausgabeschaltungen und -vorrichtungen (E/A) und geeignete Signalkonditionierungs- und Pufferschaltungen, Hochgeschwindigkeitstaktgeber, Analog-zu-Digital- (A/D) und Digital-zu-Analog- (D/A) Schaltungen und andere Komponenten zur Bereitstellung der beschriebenen Funktionalität. Eine Steuerung kann eine Vielzahl von Kommunikationsschnittstellen umfassen, darunter Punkt-zu-Punkt- oder diskrete Leitungen und drahtgebundene oder drahtlose Schnittstellen zu Netzwerken, einschließlich Wide Area Networks und Local Area Networks, auf Fahrzeugnetzwerken (z.B. Controller Area Network (CAN), Local Interconnect Network (LIN)) und innerbetrieblichen und dienstbezogenen Netzwerken. Steuerungsfunktionen, wie sie in dieser Offenbarung dargelegt sind, können in einer verteilten Steuerungsarchitektur unter mehreren vernetzten Steuerungen ausgeführt werden. Unter Software, Firmware, Programmen, Anweisungen, Routinen, Code, Algorithmen und ähnlichen Begriffen sind alle von einer Steuerung ausführbaren Befehlssätze einschließlich Kalibrierungen, Datenstrukturen und Nachschlagetabellen zu verstehen. Eine Steuerung kann einen Satz von Steuerroutinen ausführen lassen, um beschriebene Funktionen bereitzustellen. Die Routinen werden z. B. von einer zentralen Prozessoreinheit ausgeführt und dienen zur Überwachung der Eingänge von Sensorvorrichtungen und anderen vernetzten Steuerungen sowie zur Ausführung von Steuer- und Diagnoseroutinen zur Steuerung des Betriebs von Aktuatoren. Die Routinen können in regelmäßigen Abständen während des laufenden Motor- und Fahrzeugbetriebs ausgeführt werden. Alternativ können Routinen als Reaktion auf das Eintreten eines Ereignisses, auf Softwareaufrufe oder auf Anforderung über Eingaben oder Anfragen der Benutzeroberfläche ausgeführt werden.
  • 1 zeigt schematisch ein beispielhaftes HUD-System 101 gemäß der vorliegenden Offenbarung. Das HUD-System 101 umfasst ein reflektierendes Display, das vorzugsweise eine Windschutzscheibe 116 mit einer reflektierende Oberfläche 118 ist, wie z.B. eine innere Glasschicht einer laminierten Windschutzscheibe. Die Windschutzscheibe 116 enthält ein HUD-Feld 111, das sich im allgemeinen auf einen Bereich der Windschutzscheibe 116 bezieht, in dem virtuelle HUD-Bilder zur Anzeige für den Beobachter 112 projiziert werden können. Das HUD-System 101 kann eine Steuerung 102, einen Generator für virtuelle Bilder 105 einschließlich einer Bilderzeugungseinheit (PGU) 104 mit Bildlichtquelle 106 und Anzeige- und Linsenbaugruppe 120, einen oder mehrere Faltspiegel 122, einen verstellbaren Spiegel 117 und den zugehörigen Spiegelaktuator 108 sowie Licht- und Blendfallen 124 umfassen. Das HUD-System 101 kann darüber hinaus weitere Merkmale, Komponenten und Untersysteme enthalten, z.B. einen Beleuchtungsprojektor und/oder einen Bildsensor (nicht abgebildet). Unter einem Bild, das dem HUD-Feld entspricht (HUD-Feld-Bild), ist ein Bild zu verstehen, das innerhalb des HUD-Feldes erscheint. Die Steuerung 102 kann mit anderen elektronischen Steuereinheiten, Sensoren und Benutzerschnittstellen (UI) sowohl an Bord als auch außerhalb des Fahrzeugs vernetzt werden, z.B. über den Bus 175, der ein CAN-Bus sein kann. Eine nicht bordseitige Vernetzung kann besonders in der kontrollierten Produktionsumgebung einer Endmontageanlage und im Kundendienstumfeld nach dem Verkauf nützlich sein. Die Steuerung 102 steuert den Betrieb der PGU 104 einschließlich der Bildlichtquelle 106 über die Steuerleitung 145, um ein virtuelles Bild zu erzeugen. Die Steuerung 102 steuert den Betrieb des Spiegelaktuators 108 über die Steuerleitung 143, um einen Spiegel 117 zu drehen oder zu kippen und einzustellen, wo auf der Windschutzscheibe das virtuelle HUD-Bild projiziert wird. Der Spiegelaktuator kann einen Motor, Getriebe, Wellen und/oder andere Komponenten enthalten, um die Position und/oder Ausrichtung des Spiegels 117 zu ändern. Der Spiegel 117 kann das von der PGU 104 erzeugte Bild vergrößern und/oder bestimmte mit der Windschutzscheibe 116 verbundene Verzerrungen korrigieren.
  • Die PGU 104 kann die Bildlichtquelle 106 und eine Anzeige- und Linsenbaugruppe 120 enthalten. Die Bildlichtquelle 106 erzeugt einen virtuellen Bildlichtstrahl 121 mit grafischen Bildern, die auf ein Display der Anzeige- und Linsenbaugruppe 120 projiziert werden. Der virtuelle Bildlichtstrahl 121 wird dann auf eine Reihe von einem oder mehreren Faltspiegeln 122 gerichtet. Der eine oder die mehreren Faltspiegel 122 können für Verpackungserwägungen verwendet werden. Der Lichtstrahl des virtuellen Bildes 121 wird am Spiegel 117 reflektiert und kann dann durch Licht- und Blendfallen 124 zur Windschutzscheibe 116 reflektiert werden. Der virtuelle Bildlichtstrahl 121 wird an der Windschutzscheibe, die als HUD-Kombinierer dient, angezeigt. Die Licht- und Blendfallen 124 können filtern und so z.B. verhindern, dass Sonnenlicht (oder Umgebungslicht) von der Windschutzscheibe 116 in Richtung des Spiegels 117 reflektiert wird, und Blendungseffekte minimieren.
  • Das HUD-System 101 kann ferner eine manuelle Steuerung 136 mit Schaltern (Knöpfe, Schaltwippen, Schieberegler, Drehknöpfe, Joysticks oder ähnliches) 138 enthalten und/oder an eine solche angeschlossen werden. Das HUD-System 101 kann außerdem eine Anzeige, Sitzmotoren oder Sitzschalter (nicht gesondert abgebildet) enthalten und/oder an diese angeschlossen werden. Das Display kann z.B. ein Touchscreen sein, wie z.B. ein Infotainment-Display (265, 2B) in der Mittelkonsole eines Fahrzeugs, oder ein anderes Display. Die Sitzmotoren werden zur Positionierung eines oder mehrerer Sitze verwendet. Die Steuerung 102 kann den Betrieb der Sitzmotoren auf der Grundlage von Benutzereingaben über die Sitzschalter und/oder im Speicher gespeicherte Sitzeinstellungen steuern. Die manuelle Steuervorrichtung 136 kann von einem Benutzer verwendet werden, um die Höhe von virtuellen Bildern, die von der PGU 104 über die Schalter 138 bereitgestellt werden, manuell einzustellen. Alternativ kann ein Bildschirm-Touchscreen eine Benutzerschnittstelle (UI) für die manuelle Einstellung des virtuellen HUD-Bildes während der Endbenutzeranwendung, z.B. durch einen Fahrzeuginsassen, bieten. Eine solche Anzeige, Sitzschalter und Schalter 138 können als Eingabevorrichtungen und/oder Schnittstellen oder allgemeiner als Benutzerschnittstelle bezeichnet werden. Unter begrenzten Umständen können die Eingabevorrichtungen gemäß der vorliegenden Offenbarung eine Benutzerschnittstelle bereitstellen, um eine Benutzerabsicht oder eine Steuerung über ein automatisiertes oder teilweise automatisiertes Ausrichtungsverfahren für das virtuelle HUD-Bild festzustellen.
  • Bestimmte HUD-Anwendungen erfordern eine präzise Ausrichtung der vom HUD erzeugten virtuellen Bilder. Die Platzierung einfacher Informationen auf der Windschutzscheibe, wie z.B. die herkömmliche Motormessanzeige, ist positionsunabhängig. Augmented-Reality-Systeme, die das Situationsbewusstsein des Fahrers oder Insassen durch Identifizierung, Überlagerung oder anderweitige Verbesserung der Sichtbarkeit von Objekten oder Merkmalen, die sich auf einer Straßenszene befinden, verbessern sollen, erfordern jedoch die Platzierung virtueller Bilder unter Berücksichtigung der Augenposition des Beobachters, der Objektposition der Szene und der Position der Windschutzscheibe des Fahrzeugs. Um eine robuste Platzierungstreue des virtuellen Bildes in solchen Systemen zu ermöglichen, muss die virtuelle Bildposition relativ zum Fahrzeugbezugsrahmen kalibriert werden. Zusätzlich zur Positionsgenauigkeit sind geometrische Genauigkeit und unverzerrte Bilder, wie sie vom Beobachter wahrgenommen werden, wünschenswert.
  • Gemäß einer beispielhaften Ausführungsform sind die 2A-2C illustrative Ansichten, die ein Beispiel für einen Teil des Innenraums eines Fahrzeugs 201 zeigen, das ein HUD-System und eine Bilderfassungsvorrichtung gemäß der vorliegenden Offenbarung enthält. Die Armaturenbrettbaugruppe 209 erstreckt sich seitlich innerhalb der Fahrzeugkabine im Wesentlichen vor den Türen und unter und zwischen den A-Säulen 207. Die A-Säulen 207 rahmen die Windschutzscheibe 116 ein. Das Lenkrad 203 befindet sich vor dem Fahrersitz 222 und ist mit einer Lenksäuleneinheit 205 verbunden.
  • Der Einbau des Generators für virtuelle Bilder 105 in das Fahrzeug kann durch den Einbau einer gesamten Armaturenbrettbaugruppe erfolgen, in die der Generator für virtuelle Bilder 105 als Teil eines Unterbaugruppenprozesses oder des Aufbaus der Armaturenbrettbaugruppe 209 eingebaut wurde. Alternativ kann eine kleinere Unterbaugruppe einschließlich einer Instrumenteneinheit den Generator für virtuelle Bilder 105 enthalten und mit der bereits im Fahrzeug eingebauten Armaturenbrettbaugruppe zusammengebaut werden. Alternativ kann der Generator für virtuelle Bilder 105 als separate Baugruppe in die Instrumentenbaugruppe, die Armaturenbrettbaugruppe oder das obere Armaturenbrett eingebaut werden. Der Generators für virtuelle Bilder 105 wird so angepasst und gesteuert, dass er den Lichtstrahl 121 des virtuellen Bildes innerhalb des HUD-Feldes 111 auf die Windschutzscheibe 116 projiziert.
  • Gemäß der vorliegenden Offenbarung kann es wünschenswert sein, Bilder und/oder Farbkanäle, die innerhalb des HUD-Feldes durch den Generator für virtuelle Bilder 105 angezeigt werden, auszurichten und die reflektierende Oberfläche 118 der Windschutzscheibe 116 am HUD-Feld 111 zu charakterisieren oder zu instrumentieren. Solche Anpassungen können manuell oder autonom vorgenommen werden. Zum Beispiel kann der Benutzer ein projiziertes Bild mit der manuellen Steuerung 136 einstellen. Alternativ kann eine solche Einstellung in einem automatisierten Prozess einschließlich der HUD-Feld-Bilderfassung erfolgen. Anpassungen des virtuellen Bildes können je nach der jeweiligen Hardware-Konfiguration des HUD-Systems 101 und insbesondere des Generators für virtuelle Bilder 105 auf verschiedene Weise durchgeführt werden. Optische Effekte können auch durch die reflektierende Oberfläche 118 der Windschutzscheibe 116 innerhalb des HUD-Feldes 111 auf die vom Generator für virtuelle Bilder 105 projizierten virtuellen Bilder übertragen werden. So können Krümmung, Wellen, Grübchen und andere Imperfektionen in der Windschutzscheibe für den Betrachter 112 der reflektierten Bilder sichtbar werden. Im Hinblick auf solche Verzerrungseffekte, die durch die reflektierende Oberfläche 118 der Windschutzscheibe 116 hervorgerufen werden, können Anpassungen des projizierten virtuellen Bildes vorgenommen werden, um diesen Effekten entgegenzuwirken. Die Anpassung kann durch bekannte Bildverzerrungs- oder Verzerrungsmechanismen vorgenommen werden, die in der PGU, der Steuerung 102 oder einem anderen fahrzeugfernen Prozessor implementiert sind. Vorzugsweise werden solche Korrekturen im nichtflüchtigen Speicher, der der PGU 104 zugeordnet ist, als Kalibrierung desselben implementiert und auf Rohbilder angewendet, die von der Steuerung 102 für die Projektion und Anzeige bereitgestellt werden. Alternativ können solche Korrekturen in einem nichtflüchtigen Speicher implementiert werden, der der Steuerung 102 als eine Kalibrierung darauf zugeordnet ist und Korrekturen auf Rohbilder anwendet, bevor sie der PGU 104 zur Projektion und Anzeige bereitgestellt werden. Solche Korrekturen oder Kompensationen können allgemein als Kompensationsfunktionen bezeichnet werden. Um solchen Verzerrungen entgegenzuwirken, kann es erforderlich sein, die reflektierende Oberfläche 118 am HUD-Feld zu charakterisieren, zu instrumentieren oder anderweitig abzubilden. Daher kann es wünschenswert sein, für Korrekturen der Ausrichtung und der Verzerrung das virtuelle Bild innerhalb des HUD-Feldes zu erfassen. Insbesondere kann die Abtastung des virtuellen Bildes innerhalb des HUD-Feldes im Wesentlichen aus der wünschenswerten Perspektive eines Beobachters 112 erfolgen. Es wird davon ausgegangen, dass solche Ausrichtungs- und Verzerrungskorrekturen nur selten erforderlich sind, z.B. bei der Erstmontage des Fahrzeugs, beim Austausch der Windschutzscheibe oder beim Entfernen und Ersetzen des Generators für virtuelle Bilder 105.
  • Die virtuelle Bildaufnahme aus der Perspektive eines Beobachters 112 kann im Allgemeinen innerhalb eines HUD-Augenraumbereichs 260, der mit dem HUD-System 101 assoziiert ist, durchgeführt werden. Gemäß der vorliegenden Offenbarung befindet sich eine Sensoranordnung für virtuelle Bilder 206 innerhalb des HUD-Augenraumbereichs 260. 2C ist eine perspektivische Ansicht, die ein Beispiel für einen HUD-Augenraumbereich 260 illustriert, der sich innerhalb des Innenraums eines Fahrzeugs befindet und hier allgemein als Augenraum 260 bezeichnet wird. Während er in 2C als würfelförmig dargestellt ist, wird erwogen, dass der Augenraum 260 eine andere Form, wie z.B. ein rechteckiges Prisma, wie in 2A dargestellt, definieren kann, ohne von einem Anwendungsbereich dieser Offenbarung abzuweichen. In einem anderen Beispiel kann der Augenraum 260 eine Ebene umfassen, die den Mittelpunkt 275 des Augenraums 260 oder eine vom Mittelpunkt 275 beabstandete Ebene schneidet. Die Ebene kann repräsentativ für eine gewünschte Position der Augen eines Fahrers im Fahrzeuginneren sein. Die Lage und Größe des Augenraums 260 kann sich an der Größe und Lage des Fahrersitzes 222 im Innenraum des Fahrzeugs 201 orientieren.
  • In den Figuren ist der Fahrersitz 222 abgebildet und umfasst das verstellbare Sitzkissen 213, die verstellbare Rückenlehne 264 und die verstellbare Kopfstütze 266. Der Sitz ist beweglich an den Sitzschienen 262 befestigt und kann innerhalb gewisser Grenzen angehoben, abgesenkt, gekippt und nach vorne/hinten bewegt werden. Die Rückenlehne 264 ist an der Rückseite der Sitzfläche 213 für eine Schwenkbewegung nach unten gelenkig gelagert, wie durch Pfeil 268 dargestellt. Die Kopfstütze 266 ist an der Rückenlehne 264 über Pfosten 225 befestigt, die in den Pfostenführungen am oberen Ende der Rückenlehne 264 angeordnet sind. Die Kopfstütze 266 ist nach oben und unten verstellbar und kann, ebenfalls in Grenzen, gelenkig oder drehbar sein. Die Sitzlehne 264 kann eine Sitzlehnenachse 270 definieren. Die Kopfstütze 266 kann eine horizontale Achse 272 und eine vertikale Achse 274 definieren. Die horizontale Achse 272 kann im Wesentlichen senkrecht zur Achse 270 der Sitzlehne verlaufen. Die Rückenlehne 264 und die Kopfstütze 266 können so zueinander angeordnet sein, dass die Achse 270 der Rückenlehne und die vertikale Achse 274 eine gemeinsame Achse bilden. Wenn beispielsweise die Rückenlehne 264 im Wesentlichen aufrecht und die Kopfstütze 266 im Wesentlichen aufrecht ausgerichtet ist, teilen sich die Rückenlehnenachse 270 und die vertikale Achse 274 eine gemeinsame Achse, wie in 2C dargestellt. Die Sitzeinstellungen können manuell, motorisch oder durch eine Kombination von beiden vorgenommen werden. Der Fahrzeugbenutzer kann eine Sitzposition und damit die Augenposition des Beobachters festlegen. Der Augenraum 260 befindet sich in der Regel vor der Rückenlehne 264 auf der allgemeinen Höhe der Kopfstütze 266.
  • Die Position des Zentrums 275 des Augenraums 260 kann auf der Rückenlehnenachse 270, der horizontalen Achse 272 und/oder der vertikalen Achse 274 basieren. Der Mittelpunkt 275 kann in gleichem Abstand von jeder Seite des Augenraums 260 angeordnet sein, wenn der Augenraumbereich als Würfel geformt ist. Der Mittelpunkt 275 kann von der Rückenlehnenachse 270 und/oder der vertikalen Achse 274 um eine Strecke beabstandet sein, die durch die Dimension 276 dargestellt wird. Der Abstand, der durch die Dimension 276 dargestellt wird, kann eine Dimension sein, die so gewählt wird, dass der Augenraum 260 an einer Stelle orientiert wird, die auf einer repräsentativen Stelle der Augen eines Beobachters basiert. In einem Beispiel kann der durch die Dimension 276 dargestellte Abstand im Wesentlichen zwischen 20 und 100 Millimetern liegen. In einem anderen Beispiel kann die Position des Augenraums 260 auch auf einer Distanz basieren, die durch die Dimension 278 repräsentiert wird. Der durch die Dimension 278 dargestellte Abstand kann im Wesentlichen zwischen 0 und 5 Millimetern liegen.
  • Eine Sensoranordnung für virtuelle Bilder 206 kann einen oder mehrere Sensoren enthalten, um die Sicht eines Beobachters auf das HUD-Feld 111 zu simulieren. Die Sensoranordnung für virtuelle Bilder 206 hat daher ein Sichtfeld, das das HUD-Feld 111 enthält. In einem Beispiel kann die Sensoranordnung für virtuelle Bilder 206 ein Kameraarray mit mehreren Kameras enthalten. Eine beispielhafte Sensoranordnung für virtuelle Bilder 206 ist in 3 dargestellt. In diesem Beispiel wird die Sensoranordnung für virtuelle Bilder 206 mit neun Kameras 300 gezeigt, wobei jedoch davon ausgegangen wird, dass die Sensoranordnung für virtuelle Bilder 206 weniger oder mehr Kameras enthalten könnte. Jede der Kameras 300 kann innerhalb der Sensoranordnung für virtuelle Bilder 206 so angeordnet werden, dass sie sich auf der Grundlage der an der Sensoranordnung für virtuelle Bilder 206 empfangenen Anweisungen bewegen kann. In einem Beispiel kann die Sensoranordnung für virtuelle Bilder 206 eine Stützkomponente 301 mit beweglichen Klammern enthalten, wobei jede der beweglichen Klammern so strukturiert ist, dass sie eine der Kameras 300 aufnimmt und die Bewegung jeder der Kameras 300 einzeln erleichtert, wie z.B. durch bekannte Servomechanismen. Pfeil 304 und Pfeil 306 stellen Beispiele für Bewegungsrichtungen für jede der beweglichen Klammern zum Bewegen jeder der Kameras 300 dar. Es wird auch erwogen, dass jede der Kameras 300 innerhalb der Sensoranordnung für virtuelle Bilder 206 für eine manuelle Bewegung nach Anweisung eines Benutzers angeordnet werden kann.
  • Gemäß bestimmten Ausführungsformen und unter besonderer Bezugnahme auf 2A enthält eine Vorrichtung zur Erfassung und Korrektur virtueller Bilder die Sensoranordnung für virtuelle Bilder 206, die im Augenraum 260 positioniert ist. Die abgebildeten Ausführungsformen eignen sich gut für die kontrollierte Produktionsumgebung einer Endmontageanlage, obwohl solche Vorrichtungen auch in einer Kundendienstumgebung nach dem Verkauf eingesetzt werden können. Ein Fahrzeuginnenraum 201 enthält die Armaturenbrettbaugruppe 209, in der der Generator für virtuelle Bilder 105 enthalten ist. Die Lenksäulenbaugruppe 205 ist an strukturellen Klammern unterhalb der Armaturenbrettbaugruppe 209 befestigt. Das Lenkrad 203 ist an einem Ende der Lenksäuleneinheit 205 befestigt. Die Lenksäuleneinheit 205 kann einen Kipp-/Teleskop-Mechanismus enthalten, der es ermöglicht, die Lenksäule/das Lenkrad selektiv zwischen einer extrem angehobenen und einer abgesenkten Stellung sowie zwischen einer extremen nach vorn gerichteten/nach hinten gerichteten Stellung einzustellen. Der Generator für virtuelle Bilder 105 ist so konfiguriert, dass er ein Testbild in Richtung Windschutzscheibe 116 projiziert. Die Sensoranordnung für virtuelle Bilder 206 ist in einer Anordnung nützlich, in der die Ausrichtung des Testbildes automatisiert ist. Die Vorrichtung kann eine Steuerung 215 mit einer zugehörigen Anzeige oder einer anderen Benutzer-/Steuerschnittstelle als Teil oder getrennt von der Sensoranordnung für virtuelle Bilder 206 enthalten, z.B. eine Steuerung und eine Anzeige, die in die Sensoranordnung für virtuelle Bilder 206 integriert sind, oder eine separate intelligente Vorrichtung wie ein Tablet, einen Laptop-Computer oder ähnliches. Die Steuerung 215 kann z.B. Teil der Werkzeuge der Montageanlage oder der Außendienstausrüstung sein. Die Kommunikation zwischen der Steuer 102, der Sensoranordnung für virtuelle Bilder 206, der Steuerung 215 und dem/den zugehörigen Steuervorrichtung(en) und verschiedenen innerbetrieblichen Produktionssteuerungs- und Informationssystemen kann durch jedes geeignete drahtgebundene oder drahtlose Mittel erfolgen, einschließlich z.B. des Fahrzeug-Steuerungsbereichsnetzwerks 175.
  • Eine Vorrichtung zur Erfassung und Korrektur virtueller Bilder kann, wie erwähnt, z.B. bei der Erstmontage von Fahrzeugen, beim Austausch von Windschutzscheiben oder bei der Entfernung und dem Austausch des Generators für virtuelle Bilder 105 eingesetzt werden. Daher ist es für die Wiederholbarkeit der Ergebnisse wünschenswert, einen konsistenten Aufbau zu gewährleisten. Gemäß der vorliegenden Offenbarung der Verwendung der Sensoranordnung für virtuelle Bilder 206 in dem Augenraum 260 wird eine bevorzugte Position im Wesentlichen gemäß einer gedanklichen Fahrzeugreferenz definiert. Zum Beispiel können Merkmale innerhalb des Fahrzeugs, die eine Referenz für die Lage eines Augenraums bieten, z.B. eine oder mehrere A-Säulen, B-Säulen, Türöffnungsrahmen, Dach oder andere statische, strukturelle Merkmale sein. Ein beispielhaftes Merkmal können die Fahrzeugsitzschienen 262 sein. 2A zeigt schematisch eine Halterung 223, die fest mit den Fahrzeugsitzschienen 262 verbunden ist und die beispielhafte Sensoranordnung für virtuelle Bilder 206 trägt. Alternativ kann eine Kopfstützenhalterung 221 direkt an der Kopfstütze 266 fest angebracht oder an der Rückenlehne 264 befestigt werden, z.B. anstelle der Kopfstütze 266 über Pfosten, die in Kopfstützenführungen oben an der Rückenlehne 264 angeordnet sind. Jede derartige Konfiguration kann als fest an der Rückenlehne 264 angebracht betrachtet werden. Eine solche Halterung kann dann die beispielhafte Sensoranordnung für virtuelle Bilder 206 tragen. In einer solchen Ausführung kann der Sitz in Grenzpositionen gebracht werden, um die Variabilität der Position der Halterung und der Sensoranordnung für virtuelle Bilder 206 in Bezug auf den Bezugsrahmen des Fahrzeugs zu verringern. Zusätzlich können Sitzpositionierungsmotoren verwendet werden, um die Endpositionen festzulegen und/oder die Vorrichtung und die Sensoranordnung für virtuelle Bilder 206 in eine gewünschte Endposition zu bewegen. Solche anpassungsfähigen Konfigurationen können ferner mit einem Ausrichtungssystem (nicht abgebildet) kombiniert werden, um die Vorrichtung im Raum in Bezug auf den Fahrzeugbezugsrahmen zu positionieren. Ein Ausrichtsystem kann eine oder mehrere Bildkameras in einem bekannten Bildverarbeitungssystem oder ein bekanntes Laserausrichtungssystem umfassen, das mit der Vorrichtung, mit der Sensoranordnung für virtuelle Bilder 206 oder mit dem Fahrzeug gekoppelt und z.B. mit dem Fahrzeugreferenzrahmen indexiert ist. In einer anderen Ausführungsform zur Positionierung der Sensoranordnung für virtuelle Bilder 206 innerhalb eines Augenraums kann die Roboterbaugruppe 231 mit oder ohne ein Ausrichtungssystem, wie hier beschrieben, eingesetzt werden. In einem Beispiel befindet sich die Roboterbaugruppe 231 auf einem Montageband neben einer Bahn, auf der sich die Fahrzeugbaugruppen bewegen. Die Roboterbaugruppe 231 kann einen Arm 208 enthalten. Der Arm 208 kann so befestigt werden, dass er die Sensoranordnung für virtuelle Bilder 206 trägt. Es ist von Vorteil, dass die Sensoranordnung für virtuelle Bilder 206 mehrere Kameras enthalten kann, wie hier beschrieben. Daher werden bei einem bevorzugten Ansatz zur wiederholten Positionierung der Sensoranordnung für virtuelle Bilder 206 die Kameras der Sensoranordnung für virtuelle Bilder 206 verwendet. Die Kameras der Sensoranordnung für virtuelle Bilder 206 können verwendet werden, um nach vorausgewählten Fahrzeugkomponenten oder Positionsreferenzzielen oder visuell identifizierbaren Zielen zu suchen, die vorübergehend angebracht sind und auf bekannte und identifizierbare Bezugspunkte im Fahrzeug bezogen sind. Beispiele für Positionsreferenzziele sind Fahrzeugmerkmale, die sich an einer festen und/oder identifizierbaren Stelle im Fahrzeuginnenraum befinden, wie z.B. eine Entfrosteröffnung. Solche permanenten oder temporären Bezugsmerkmale können hier als Referenzpunkte bezeichnet werden. In einer anderen Ausführungsform können die Funktionen der Kameras der Sensoranordnung für virtuelle Bilder 206 von einer speziellen Kamera oder einem Sichtsystem ausgeführt werden, das vorübergehend dem Fahrzeuginnenraum zugeordnet ist, um die vorausgewählten Fahrzeugkomponenten oder andere Bezugspunkte zu lokalisieren.
  • Im Betrieb kann die Sensoranordnung für virtuelle Bilder 206 Positionsreferenzdaten, wie hier beschrieben, liefern. Eine Steuerung kann auf Daten zugreifen, z.B. auf Referenzpositionen für vorausgewählte Fahrzeugmerkmale, und die Referenzpositionen mit den von der Sensoranordnung für virtuelle Bilder 206 gelieferten Positionsreferenzdaten vergleichen. Der Benutzer kann aufgefordert werden, die Position der Sensoranordnung für virtuelle Bilder 206 zu justieren, wenn die Sensoranordnung für virtuelle Bilder 206 justierbar konfiguriert wird, z.B. an einer Kopfstützenhalterung 221 oder an der Roboterbaugruppe 231 befestigt ist, wie hier dargelegt. Wenn sie an der Kopfstützenhalterung 221 befestigt ist, kann der Benutzer die Betätigung der Sitzpositionierungsmotoren steuern, um die Sensoranordnung für virtuelle Bilder 206 auf der Grundlage der von der Sensoranordnung für virtuelle Bilder 206 gelieferten Positionsreferenzdaten in eine gewünschte Endposition zu bringen. Alternativ oder zusätzlich kann ein Laserausrichtungssystem verwendet werden, um die Sensoranordnung für virtuelle Bilder 206 in ihre gewünschte Position zu bringen. In ähnlicher Weise kann der Benutzer, wenn sie an der Roboterbaugruppe 231 angebracht ist, die Betätigung des Roboters steuern, um die Sensoranordnung für virtuelle Bilder 206 auf der Grundlage der von der Sensoranordnung für virtuelle Bilder 206 gelieferten Positionsreferenzdaten in eine endgültige gewünschte Position zu bringen. Von Vorteil ist, dass die Roboterbaugruppe 231 mit sechs Freiheitsgraden einstellbar ist. Alternativ oder zusätzlich kann ein Laserausrichtungssystem eingesetzt werden, um die Sensoranordnung für virtuelle Bilder 206 in ihre gewünschte Position zu bringen. Gemäß einer anderen Ausführung mit begrenzter Einstellbarkeit der Sensoranordnung für virtuelle Bilder 206, wenn sie einmal befestigt ist, z.B. wenn die Halterung 223 an den Fahrzeugsitzschienen 262 oder einer anderen Fahrzeugstruktur befestigt ist, können Feineinstellungen der beispielhaften Sensoranordnung für virtuelle Bilder 206 an jeder einzelnen Kamera 300 vorgenommen werden, z.B. durch Servomechanismen, wie hier beschrieben. Alternativ oder zusätzlich kann die Sensoranordnung für virtuelle Bilder 206 mit einem dazwischenliegenden Einstellmechanismus befestigt werden, um die endgültige Positionierung der Sensoranordnung für virtuelle Bilder 206 auf der Grundlage eines oder mehrerer der Positionsreferenzdaten zu ermöglichen, die von der Sensoranordnung für virtuelle Bilder 206, einem Laserausrichtungssystem oder einem anderen Positions-Rückmeldungswerkzeug geliefert werden, das für den Fachmann ersichtlich ist. Bei richtiger Konfiguration mit steuerbar einstellbaren Mechanisierungen, z.B. Roboterbaugruppe 231, Sitzpositionierungsmotoren oder Servomotoren, kann jede der oben genannten Einstellungen durch bekannte Rückmeldungssteuerung automatisiert werden.
  • Unter Bezugnahme auf 4 wird ein exemplarisches Verfahren 400 zur Bilderfassung und - korrektur gemäß der vorliegenden Offenbarung dargestellt. Die Sensoranordnung für virtuelle Bilder 206 wird innerhalb des Augenraums 260 konfiguriert und positioniert, um Bilder innerhalb des HUD-Feldes 111 wie hier beschrieben zu erfassen. Ein vorbestimmtes Testbild 401 wird durch den Generator für virtuelle Bilder 105 projiziert. Das Testbild 401 kann ein oder mehrere Identifikationsmerkmale enthalten, wie z.B. ein bekanntes Gitter oder ein anderes quantifiziertes geometrisches Muster einschließlich konzentrischer Kreise und Radien, Punktmuster und dergleichen. Im vorliegenden Beispiel wird eine Matrix aus regelmäßig beabstandeten Punkten in einem zweidimensionalen kartesischen Koordinatensystem als Testbild 401 implementiert. Das Testbild 401 ist auf die Windschutzscheibe 116 im Allgemeinen innerhalb des HUD-Feldes 111 gerichtet. Die Sensoranordnung für virtuelle Bilder 206 erfasst das reflektierte Bild 407 innerhalb des HUD-Feldes 111, einschließlich der Verzerrungseffekte, die durch die reflektierende Oberfläche 118 der Windschutzscheibe 116 innerhalb des HUD-Feldes 111 hervorgerufen werden, und liefert das HUD-Feld-Bild an die Steuerung 215. Die Koordinaten der Punkte können extrahiert werden. Eine Verzerrungskompensationsfunktion 413 wird von der Steuerung unter Verwendung bekannter Entzerrungs- und Entkrümmungstechniken auf der Grundlage von Vergleichen 409 der Punktkoordinaten des reflektierten Bildes 407 mit den Punktkoordinaten des Testbildes 401 und z.B. der Inversionsfunktionen 411 bestimmt. Ein vorverzerrtes virtuelles Bild 417 für die Projektion durch den Generator für virtuelle Bilder 105 kann durch Anwendung 415 der Verzerrungskompensationsfunktion 413 auf ein unverzerrtes Bild 414 erzeugt werden. Solche Korrekturen oder Kompensationen können allgemein als Verzerrungskompensationsfunktionen bezeichnet werden. Vorzugsweise kann eine solche Vorverzerrung in einem nichtflüchtigen Speicher, der mit der PGU 104 des Generators für virtuelle Bilder 105 verbunden ist, als Kalibrierung darauf implementiert und auf Rohbilder angewendet werden, die von der Steuerung 102 für die Projektion und Anzeige bereitgestellt werden. Alternativ können solche Vorverzerrungen in einem nichtflüchtigen Speicher implementiert werden, der von der Steuerung 102 als Kalibrierung darauf zugeordnet ist, der Korrekturen an Rohbildern vor der Bereitstellung an die PGU 104 des Generators für virtuelle Bilder 105 zur Projektion und Anzeige anwendet. So wird die Verzerrungskompensationsfunktion 413, sobald sie einmal bestimmt ist, von der Steuerung 215 dem Generator für virtuelle Bilder 105 zur Verfügung gestellt und darin als Teil der Vorprojektionsverarbeitung des virtuellen Bildes integriert. Das vorverzerrte virtuelle Bild 417 wird vom Generator für virtuelle Bilder 105 projiziert. Das vorverzerrte virtuelle Bild 417 wird im Allgemeinen innerhalb des HUD-Feldes 111 auf die Windschutzscheibe 116 gerichtet. Der Beobachter 112 sieht das reflektierte Bild 417 innerhalb des HUD-Feldes 111, einschließlich der Verzerrungseffekte, die durch die reflektierende Oberfläche 118 der Windschutzscheibe 116 innerhalb des HUD-Feldes 111 hervorgerufen werden. Die Verzerrungseffekte, die durch die reflektierende Oberfläche 118 auf das vorverzerrte virtuelle Bild 417 übertragen werden, sind jedoch wirksam, um das vorverzerrte virtuelle Bild 417 so zu entzerren, dass das beobachtete reflektierte Bild 417 unverzerrt erscheint. Auf diese Weise wirkt die Verzerrungskompensationsfunktion den Verzerrungseffekten der reflektierenden Oberfläche innerhalb des HUD-Feldes entgegen.
  • Vorzugsweise kann die Ausrichtung des virtuellen Bildes nach der Bestimmung und Integration der Verzerrungskompensationsfunktion in dem Generator für virtuelle Bilder 105 durchgeführt werden. Das Sichtfeld der Sensoranordnung für virtuelle Bilder 206 kann auch eine vorausgewählte Fahrzeugkomponente oder andere permanente oder temporäre Referenzpunkte enthalten, die eine Positionsreferenz wie hier beschrieben liefern. Ein beispielhafter Ausrichtungsprozess des virtuellen Bildes kann das Scannen des Sichtfeldes der Sensoranordnung für virtuelle Bilder 206 und die Identifizierung solcher Referenzpunkte umfassen. Ein vorbestimmtes Testbild wird vom Generator für virtuelle Bilder 105 projiziert und kann ein oder mehrere Identifikationsmerkmale enthalten. Die Steuerung 215 kann auf Daten zugreifen, z.B. auf vordefinierte Positionsbeziehungsdaten, die sich auf den/die Referenzpunkt(e) und die bevorzugte Position und Ausrichtung des vorbestimmten Testbildes beziehen. Die Steuerung kann die Position und Ausrichtung des Testbildes mit der bevorzugten Position und Ausrichtung vergleichen und auf der Grundlage der Unterschiede die Ausrichtung des vorbestimmten Testbildes mit der bevorzugten Position und Ausrichtung bewirken. Auf diese Weise werden Bildausrichtungseinstellungen bestimmt. Vorzugsweise können solche Bildausrichtungseinstellungen in einem nichtflüchtigen Speicher, der der PGU 104 des Generators für virtuelle Bilder 105 zugeordnet ist, als Kalibrierung darauf implementiert und auf Rohbilder angewendet werden, die von der Steuerung 102 für die Projektion und Anzeige bereitgestellt werden. Solche Korrekturen oder Kompensationen können allgemein als Ausrichtungskompensationsfunktionen bezeichnet werden. Alternativ können solche Bildausrichtungseinstellungen in einem nichtflüchtigen Speicher, der der Steuerung 102 zugeordnet ist, als eine Kalibrierung darauf implementiert werden, die Korrekturen auf Rohbilder anwendet, bevor sie der PGU 104 des Generators für virtuelle Bilder 105 zur Projektion und Anzeige zur Verfügung gestellt werden. So werden die Bildausrichtungseinstellungen, sobald sie einmal bestimmt sind, von der Steuerung 215 an den Generator für virtuelle Bilder 105 geliefert und darin als Teil der Vorprojektionsverarbeitung des virtuellen Bildes integriert. Bildausrichtungseinstellungen können je nach der jeweiligen Hardware-Konfiguration des HUD-Systems 101 und insbesondere des Generators für virtuelle Bilder 105 auf verschiedene Weise implementiert werden. Als nicht einschränkende Beispiele kann die Justierung des virtuellen Bildes durch die Drehung eines Innenspiegels im Falle eines DLP-HUD-Systems, die Anwendung einer Linsenfunktion auf ein Phasenhologramm im Falle eines holographischen HUD-Systems oder die Bildverschiebung auf einem LCD-Bildschirm mit Reservepixeln oder die x,y-Verschiebung des gesamten LCD-Bildschirms in einem LCD-HUD-System erfolgen.
  • Die Farbeinstellung des virtuellen Bildes, das innerhalb des HUD-Feldes angezeigt wird, kann ebenfalls auf ähnliche Weise eingestellt oder angewählt werden. Beispielsweise kann ein vorbestimmtes Testbild, wie eine Matrix aus regelmäßig beabstandeten Punkten in einem zweidimensionalen kartesischen Koordinatensystem, wie hier beschrieben, durch den Generator für virtuelle Bilder 105 projiziert werden. Die Sensoranordnung für virtuelle Bilder 206 erfasst das reflektierte Bild innerhalb des HUD-Feldes 111, einschließlich einzelner Farbkanäle, und liefert die Daten an die Steuerung 215. Die Koordinaten der Punkte für jeden Farbkanal können extrahiert und Fehlausrichtungen durch Vergleiche bestimmt werden. Es werden Einstellungen an einem oder mehreren Farbkanälen ermittelt, um sie in Ausrichtung zu bringen. Vorzugsweise können solche Farbkanalanpassungen in einem nichtflüchtigen Speicher, der der PGU 104 des Generators für virtuelle Bilder 105 zugeordnet ist, als Kalibrierung darauf implementiert und auf Rohbilder angewendet werden, die von der Steuerung 102 zur Projektion und Anzeige bereitgestellt werden. Solche Korrekturen oder Kompensationen können allgemein als Farbkompensationsfunktionen bezeichnet werden. Alternativ können solche Farbkanaleinstellungen in einem nichtflüchtigen Speicher, der der Steuerung 102 zugeordnet ist, als eine Kalibrierung desselben implementiert werden, die Korrekturen auf Rohbilder anwendet, bevor sie der PGU 104 des Generators für virtuelle Bilder 105 zur Projektion und Anzeige zur Verfügung gestellt werden. So werden die einmal ermittelten Farbkanaleinstellungen von der Steuerung 215 an den Generator für virtuelle Bilder 105 geliefert und darin als Teil der Vorprojektionsverarbeitung des virtuellen Bildes integriert, um eine Farbausrichtungskompensation zu bewirken.
  • Wenn eine Beziehung zwischen ersten und zweiten Elementen in der obigen Offenbarung nicht ausdrücklich als „direkt“ beschrieben wird, kann diese Beziehung eine direkte Beziehung sein, bei der keine anderen dazwischenliegenden Elemente zwischen den ersten und zweiten Elementen vorhanden sind, aber auch eine indirekte Beziehung, bei der ein oder mehrere dazwischenliegende Elemente (entweder räumlich oder funktionell) zwischen den ersten und zweiten Elementen vorhanden sind.
  • Es sollte verstanden werden, dass ein oder mehrere Schritte innerhalb eines Verfahrens in unterschiedlicher Reihenfolge (oder gleichzeitig) ausgeführt werden können, ohne die Prinzipien der vorliegenden Offenbarung zu ändern. Ferner kann, obwohl jede der Ausführungsformen oben als mit bestimmten Merkmalen versehen beschrieben ist, ein oder mehrere dieser Merkmale, die in Bezug auf eine beliebige Ausführungsform der Offenbarung beschrieben sind, in einer der anderen Ausführungsformen implementiert und/oder mit Merkmalen einer der anderen Ausführungsformen kombiniert werden, selbst wenn diese Kombination nicht ausdrücklich beschrieben ist. Mit anderen Worten, die beschriebenen Ausführungsformen schließen sich nicht gegenseitig aus, und Permutationen einer oder mehrerer Ausführungsformen miteinander bleiben im Rahmen dieser Offenbarung.

Claims (10)

  1. HUD-Bilderfassungs- und Korrekturvorrichtung für ein Fahrzeug, umfassend: ein HUD-Feld, das auf einer reflektierenden Oberfläche einer Windschutzscheibe des Fahrzeugs definiert ist; einen Generator für virtuelle Bilder zum Projizieren von Bildern innerhalb des HUD-Feldes; eine Sensoranordnung für virtuelle Bilder, die sich in einem HUD-Augenraumbereich des Fahrzeugs befindet und ein Sichtfeld aufweist, das das HUD-Feld umfasst; und eine Steuerung, die konfiguriert ist, um: eine Projektion eines vorbestimmten Testbildes innerhalb des HUD-Feldes zu steuern; von der Sensoranordnung für virtuelle Bilder ein HUD-Feld-Bild zu empfangen; eine Kompensationsfunktion basierend auf dem vorbestimmten Testbild und dem HUD-Feld-Bild zu bestimmen; und dem Generator für virtuelle Bilder die Kompensationsfunktion zur Anwendung auf Rohbilder vor der Projektion bereitzustellen.
  2. Vorrichtung nach Anspruch 1, umfassend ein Ausrichtungssystem zur Lokalisierung der Sensoranordnung für virtuelle Bilder im Bereich des HUD-Augenraumbereichs.
  3. Vorrichtung nach Anspruch 2, wobei das Ausrichtungssystem zum Lokalisieren der Sensoranordnung für virtuelle Bilder innerhalb des HUD-Augenraumbereichs ein Laserausrichtungssystem umfasst.
  4. Vorrichtung nach Anspruch 2, wobei das Ausrichtungssystem zur Lokalisierung der Sensoranordnung für virtuelle Bilder innerhalb des HUD-Augenraumbereichs eine Kamera umfasst.
  5. Vorrichtung nach Anspruch 4, wobei die Kamera die Sensoranordnung für virtuelle Bilder umfasst.
  6. HUD-Bilderfassungs- und Korrekturvorrichtung für ein Fahrzeug, umfassend: ein HUD-Feld, das auf einer reflektierenden Oberfläche einer Windschutzscheibe des Fahrzeugs definiert ist; einen Generator für virtuelle Bilder zum Projizieren von Bildern innerhalb des HUD-Feldes; eine Sensoranordnung für virtuelle Bilder, die sich in einem HUD-Augenraumbereich des Fahrzeugs befindet und ein Sichtfeld aufweist, das das HUD-Feld umfasst, wobei die Sensoranordnung für virtuelle Bilder eine Vielzahl von Kameras umfasst; und eine Steuerung, die konfiguriert ist, um: eine Projektion eines vorbestimmten Testbildes innerhalb des HUD-Feldes zu steuern; von der Sensoranordnung für virtuelle Bilder ein HUD-Feld-Bild zu empfangen, das das vorbestimmte Testbild umfasst, das von der reflektierenden Oberfläche der Windschutzscheibe reflektiert wird, wobei das HUD-Feld-Bild der Steuerung Informationen bereitstellt, die mit Verzerrungseffekten der reflektierenden Oberfläche innerhalb des HUD-Feldes korrespondieren; eine Verzerrungskompensationsfunktion basierend auf dem vorbestimmten Testbild und dem HUD-Feld-Bild zu bestimmen, wobei die Verzerrungskompensationsfunktion den Verzerrungseffekten der reflektierenden Oberfläche innerhalb des HUD-Feldes entgegenwirkt; und dem Generator für virtuelle Bilder die Kompensationsfunktion zur Anwendung auf Rohbilder vor der Projektion bereitzustellen.
  7. Vorrichtung nach Anspruch 6, umfassend eine Halterung für die Sensoranordnung für virtuelle Bilder, wobei die Halterung die Sensoranordnung für virtuelle Bilder innerhalb des HUD-Augenraumbereichs des Fahrzeugs positioniert.
  8. Vorrichtung nach Anspruch 6, umfassend, dass die Halterung fest an einer von einer statischen Fahrzeugstruktur, einer Sitzlehne und einer Roboterbaugruppe befestigt ist.
  9. HUD-Bilderfassungs- und Korrekturverfahren für ein Fahrzeug, umfassend: Projizieren eines vorbestimmten Testbildes innerhalb eines HUD-Feldes, das auf einer reflektierenden Oberfläche einer Windschutzscheibe des Fahrzeugs definiert ist; Empfangen eines HUD-Feld-Bildes, das das vorbestimmte Testbild umfasst, das von der reflektierenden Oberfläche der Windschutzscheibe reflektiert wird, von einer Sensoranordnung für virtuelle Bilder, die sich innerhalb eines HUD-Augenraumbereichs des Fahrzeugs befindet und ein Sichtfeld aufweist, das das HUD-Feld umfasst; Bestimmen einer Kompensationsfunktion basierend auf dem vorbestimmten Testbild und dem HUD-Feld-Bild; und Bereitstellen der Kompensationsfunktion an den Generator für virtuelle Bilder zur Anwendung auf Rohbilder vor der Projektion.
  10. Verfahren nach Anspruch 9, wobei die Kompensationsfunktion mindestens eine von einer Verzerrungskompensationsfunktion, einer Ausrichtungskompensationsfunktion und einer Farbkompensationsfunktion umfasst.
DE102020127158.1A 2019-11-26 2020-10-15 Head-up-display-bildbestimmung und -korrektur Pending DE102020127158A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/696,093 US20210157135A1 (en) 2019-11-26 2019-11-26 Head-up display image acquistion and correction
US16/696,093 2019-11-26

Publications (1)

Publication Number Publication Date
DE102020127158A1 true DE102020127158A1 (de) 2021-05-27

Family

ID=75784336

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020127158.1A Pending DE102020127158A1 (de) 2019-11-26 2020-10-15 Head-up-display-bildbestimmung und -korrektur

Country Status (3)

Country Link
US (1) US20210157135A1 (de)
CN (1) CN112946891A (de)
DE (1) DE102020127158A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021112565B4 (de) 2020-10-12 2024-03-14 GM Global Technology Operations LLC Verfahren zum Justieren eines Orts und einer Verzerrung eines durch eine Headup-Anzeige auf eine Windschutzscheibe eines Fahrzeugs projizierten Bildes

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113819901B (zh) * 2020-06-19 2023-11-07 长鑫存储技术有限公司 光学传感器的姿态调整装置及方法、自动物料运输系统
DE102021110880A1 (de) * 2021-04-28 2022-11-03 Audi Aktiengesellschaft Blende zur Durchführung einer Bildlagekorrektur eines mittels eines Head-Up Displays auf eine Windschutzscheibe eines Fahrzeugs projizierbaren virtuellen Bildes
US11880036B2 (en) 2021-07-19 2024-01-23 GM Global Technology Operations LLC Control of ambient light reflected from pupil replicator
US11482141B1 (en) 2021-07-29 2022-10-25 GM Global Technology Operations LLC Reticle and target based calibration for augmented reality head-up displays
CN113923427B (zh) * 2021-11-23 2023-08-18 中国航空工业集团公司洛阳电光设备研究所 一种平显组合仪组件精度快速校准终端及校准方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005037797B4 (de) * 2005-08-03 2011-06-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und Verfahren zur automatischen Kalibrierung einer Projektion, sowie eine Verwendung des Systems
KR101526424B1 (ko) * 2013-12-18 2015-06-05 현대자동차 주식회사 차량용 헤드 업 디스플레이 검사장치 및 그 방법
DE202015104499U1 (de) * 2015-06-08 2016-09-09 Denso Corporation Head-Up Display mit situationsbasierter Anpassung der Darstellung von virtuellen Bildinhalten
JP6888617B2 (ja) * 2016-04-14 2021-06-16 Agc株式会社 検査装置、検査方法
US20180160087A1 (en) * 2016-12-01 2018-06-07 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Hud image optimization through software control of displayed graphics
DE102017004859B4 (de) * 2017-05-19 2019-03-14 Daimler Ag Verfahren zum Kalibrieren einer Projektionsgeometrie eines Head-Up Displays und zugehörige Kalibriervorrichtung
DE102017214934B3 (de) * 2017-08-25 2019-02-07 Panasonic Automotive & Industrial Systems Europe GmbH Videobildaufnahmeverfahren, Wiedergabeverfahren, Ausrüstung für ein Fahrzeug, eingerichtet zum Ausführen eines Videobildaufnahmeverfahrens und Testsystem zum Ausführen eines Wiedergabeverfahrens
KR102463712B1 (ko) * 2017-11-24 2022-11-08 현대자동차주식회사 가상 터치 인식 장치 및 그의 인식 오류 보정 방법
US10818034B1 (en) * 2019-06-24 2020-10-27 Ford Global Technologies, Llc Concealed fiducial markers for vehicle camera calibration

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021112565B4 (de) 2020-10-12 2024-03-14 GM Global Technology Operations LLC Verfahren zum Justieren eines Orts und einer Verzerrung eines durch eine Headup-Anzeige auf eine Windschutzscheibe eines Fahrzeugs projizierten Bildes

Also Published As

Publication number Publication date
CN112946891A (zh) 2021-06-11
US20210157135A1 (en) 2021-05-27

Similar Documents

Publication Publication Date Title
DE102020127158A1 (de) Head-up-display-bildbestimmung und -korrektur
DE102020124756B4 (de) Verfahren und Vorrichtung zum Kalibrieren eines virtuellen Bildes
DE102020126885A1 (de) Head-up-display-kalibrierung
DE102005037797B4 (de) System und Verfahren zur automatischen Kalibrierung einer Projektion, sowie eine Verwendung des Systems
DE102013208971A1 (de) Vorrichtung und Verfahren zum Projizieren einer Bildinformation in ein Blickfeld eines Fahrzeuginsassen eines Fahrzeugs
EP3620842B1 (de) Konzept zum einstellen eines head-up-displays in einem kraftfahrzeug
EP3108334B1 (de) System mit und verfahren zum automatischen ein-/umschalten einer einstellvorrichtung für eine head-up-display-einrichtung
DE202015104499U1 (de) Head-Up Display mit situationsbasierter Anpassung der Darstellung von virtuellen Bildinhalten
DE112019001736T5 (de) Bildanzeigesystem, bildanzeigeverfahren, programm und fahrzeug einschliesslich des bildanzeigesystems
WO2014167119A2 (de) Projektionsdisplay zur einspiegelung eines anzuzeigenden bildes in eine sieht eines insassen eines fortbewegungsmittels
DE102017100676A1 (de) Kalibrierung einer Kopf-oben-Anzeige eines Kraftfahrzeugs
DE102010038825A1 (de) Bildanzeigesteuervorrichtung
DE102014226354A1 (de) Verfahren zum Verändern eines Bildabstands zwischen einem virtuellen Bild auf einemHead-up-Display und einem Betrachter des virtuellen Bilds, Steuergerät und Head-up-Display
DE102022109485B4 (de) Fadennetz- und zielbasierte kalibrierung für augmented-reality-head-up-displays
EP3834031B1 (de) Verfahren zum betreiben einer blickfeldanzeigevorrichtung für ein kraftfahrzeug
DE102018213820A1 (de) Verfahren zum Betreiben einer Blickfeldanzeigevorrichtung für ein Kraftfahrzeug
DE102005058018A1 (de) Head-Up-Display System
EP4083681A1 (de) Blende zur durchführung einer bildlagekorrektur eines mittels eines head-up displays auf eine windschutzscheibe eines fahrzeugs projizierbaren virtuellen bildes
DE102014206569A1 (de) Verfahren und Vorrichtung zum Steuern einer Lichtleistung eines Bildgebers einer Blickfeldanzeigevorrichtung zum Anzeigen eines stereoskopischen Bildes und Blickfeldanzeigevorrichtung
DE10302387A1 (de) Head-up-Display für den Einsatz in Kraftfahrzeugen
DE102015116160B4 (de) Head-Up Display mit situationsbasierter Anpassung der Darstellung von virtuellen Bildinhalten
EP3296795A1 (de) Verfahren zur darstellung eines bildobjekts in einem fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen anzeige
DE102016224235A1 (de) Verfahren und Vorrichtung zur Anpassung der Darstellung von Bild- und/oder Bedienelementen auf einer grafischen Benutzerschnittstelle
DE202016000640U1 (de) Head-up-Display eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102015216984A1 (de) Verfahren und Vorrichtung zum Einstellen eines Betrachtungsbereichs eines Sichtfeldanzeigegeräts

Legal Events

Date Code Title Description
R012 Request for examination validly filed