DE102020128224A1 - Anzeigesystem - Google Patents

Anzeigesystem Download PDF

Info

Publication number
DE102020128224A1
DE102020128224A1 DE102020128224.9A DE102020128224A DE102020128224A1 DE 102020128224 A1 DE102020128224 A1 DE 102020128224A1 DE 102020128224 A DE102020128224 A DE 102020128224A DE 102020128224 A1 DE102020128224 A1 DE 102020128224A1
Authority
DE
Germany
Prior art keywords
vehicle
display
event
image data
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020128224.9A
Other languages
English (en)
Inventor
Kenji Sato
Kei Yamamoto
Takashi Nishimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102020128224A1 publication Critical patent/DE102020128224A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/265Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network constructional aspects of navigation devices, e.g. housings, mountings, displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/814Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts comprising emergency warnings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Ein Informationsverteilungssystem (30) erlangt Ereignisinformationen, wie etwa Bilddaten über ein Ereignis in der Vergangenheit oder Zukunft, unter Verwendung eines Sammelservers (40) oder eines Erstellungsservers (50) und speichert die erlangten Ereignisinformationen in einem Speicherserver (80). Die Ereignisinformationen, wie etwa die Bilddaten, werden mit Bezug auf einen Ort des Ereignisses erlangt und gespeichert. Das Fahrzeug (100) beinhaltet ein Bildanzeigesystem (110). Ein Insasse trägt eine tragbare Vorrichtung, welche eine Anzeigeeinheit ist. Wenn der Ort eines Ereignisses innerhalb des Sichtfeldes des Insassen liegt, wird das Ereignisbild durch die tragbare Vorrichtung basierend auf den Ereignisinformationen, wie etwa den Bilddaten, angezeigt.

Description

  • Diese Anmeldung beansprucht die Priorität der am 6. Dezember 2019 eingereichten japanischen Patentanmeldung Nr. 2019-221292 , deren gesamter Inhalt, einschließlich der Beschreibung, Ansprüche, Zeichnungen und Zusammenfassung, durch Verweis hierin mit einbezogen wird.
  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Anzeigesystem, das von einem Insassen eines Fahrzeugs verwendet wird.
  • HINTERGRUND
  • Techniken zum Anzeigen verschiedenartiger Informationen in einem Sichtfeld eines Fahrers oder anderen Insassen eines Fahrzeugs sind bekannt.
  • Beispielsweise offenbart JP 2004-219664A das Anzeigen von Navigationsinformationen zu einem Zielort und von Einrichtungsinformationen im Zusammenhang mit Straßen, Gebäuden und dergleichen auf einer transmissiven Anzeigevorrichtung einer kopfmontierten Anzeigeeinheit, die der Fahrer eines Fahrzeugs am Kopf trägt. Weiterhin ist beschrieben, dass ein Alarm angezeigt wird, wenn eine Person oder ein Hindernis vor dem Fahrzeug erkannt wird.
  • KURZFASSUNG
  • Die in JP 2004-219664A beschriebenen Techniken zeigen aktuelle Informationen an, die mit einer aktuellen Ansicht zusammenhängen. Der Fahrer oder andere Insassen erhalten lediglich aktuelle Informationen.
  • Es ist eine Aufgabe einer vorliegenden Erfindung, einem Insassen eines Fahrzeugs während der Fahrt neue Informationen über ein Ereignis rund um das Fahrzeug bereitzustellen, die von herkömmlichen Techniken nicht bereitgestellt werden.
  • Ein Anzeigesystem gemäß der vorliegenden Erfindung beinhaltet eine Informationserlangungseinheit, die ausgebildet ist, um Ereignisinformationen über ein Ereignis in der Vergangenheit oder Zukunft, das sich in einem Sichtfeld eines Insassen eines Fahrzeugs befindet, zu erlangen, und eine Anzeigeeinheit, die ausgebildet ist, um das Ereignis in dem Sichtfeld des Insassen basierend auf den erlangten Ereignisinformationen anzuzeigen.
  • In einem Aspekt der vorliegenden Erfindung erlangt die Informationserlangungseinheit als die Ereignisinformationen Fahrzeugaußenansichtsbilddaten, die von einem Fahrzeug in der Vergangenheit erfasst wurden, und die Anzeigeeinheit passt die erlangten Bilddaten an, so dass sie einem Fahrtstandort des Fahrzeugs mit dem Insassen entsprechen, und zeigt das Ereignis basierend auf den angepassten Bilddaten an.
  • In einem anderen Aspekt der vorliegenden Erfindung erlangt die Informationserlangungseinheit als die Ereignisinformationen Informationen eines einstigen Verkehrsunfalls, und die Anzeigeeinheit zeigt ein Geschehen des Verkehrsunfalls mit einer klaren Angabe des Orts des Verkehrsunfalls an.
  • In noch einem anderen Aspekt der vorliegenden Erfindung erlangt die Informationserlangungseinheit als die Ereignisinformationen Bilddaten, die über ein Ereignis erstellt wurden, für das angenommen wird, dass es in der Vergangenheit stattgefunden hat, und die Anzeigeeinheit passt die erlangten Bilddaten an, so dass sie einem Fahrtstandort des Fahrzeugs mit dem Insassen entsprechen, und zeigt das Ereignis basierend auf den angepassten Bilddaten an.
  • In noch einem anderen Aspekt der vorliegenden Erfindung erlangt die Informationserlangungseinheit als die Ereignisinformationen virtuelle Bilddaten, die über ein Ereignis erstellt wurden, für das angenommen wird, dass es in der Zukunft stattfinden wird, und die Anzeigeeinheit passt die erlangten Bilddaten an, so dass sie einem Fahrtstandort des Fahrzeugs mit dem Insassen entsprechen, und zeigt das Ereignis basierend auf den angepassten Bilddaten an.
  • In noch einem anderen Aspekt der vorliegenden Erfindung ist der Insasse ein Fahrer, und die Anzeigeeinheit ist ausgebildet, um eine entsprechende Ansicht durch Überlagern oder Ersetzen einer tatsächlichen Ansicht mit Ausnahme einer Straße anzuzeigen.
  • In noch einem anderen Aspekt der vorliegenden Erfindung ist der Insasse kein Fahrer, und die Anzeigeeinheit ist ausgebildet, um eine entsprechende Ansicht durch Überlagern oder Ersetzen einer tatsächlichen Ansicht einschließlich einer Straße anzuzeigen.
  • In noch einem anderen Aspekt der vorliegenden Erfindung ist die Informationserlangungseinheit ausgebildet, um die in der Vergangenheit bei schönem oder bewölktem Wetter erfassten Bilddaten zu erlangen, wenn das aktuelle Wetter rund um das Fahrzeug mit dem Insassen Regen oder Schnee ist, und die Anzeigeeinheit ist ausgebildet, um eine Mittellinie basierend auf den Bilddaten durch Überlagern oder Ersetzen einer tatsächlichen Mittellinie anzuzeigen.
  • Gemäß der vorliegenden Erfindung kann ein Insasse eines Fahrzeugs während der Fahrt ein Ereignis in der Vergangenheit oder Zukunft rund um das Fahrzeug erkennen.
  • Figurenliste
  • Ausführungsformen der vorliegenden Erfindung werden basierend auf den folgenden Figuren beschrieben, in denen:
    • 1 ein schematisches Konfigurationsdiagramm eines Informationssystems (ein Beispiel für „Anzeigesystem“) gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 2 ein schematisches Konfigurationsdiagramm eines Bildliefersystems ist;
    • 3 ein schematisches Konfigurationsdiagramm eines Bildanzeigesystems ist;
    • 4 ein Diagramm ist, das einen Benutzer (Fahrer) zeigt, der eine tragbare Vorrichtung trägt;
    • 5 ein Diagramm ist, das ein Sichtfeld ohne ein angezeigtes Bild zeigt;
    • 6 ein Diagramm ist, das ein Sichtfeld mit einem Symbol zeigt, welches eine Grobdarstellung eines Verkehrsunfalls bietet;
    • 7 ein Diagramm ist, das ein Sichtfeld mit Details des Verkehrsunfalls zeigt, das durch Auslösen des Symbols angezeigt wird;
    • 8 ein Diagramm ist, das ein Sichtfeld bei Regen ohne ein angezeigtes Bild zeigt;
    • 9 ein Diagramm ist, das ein Sichtfeld bei Regen mit einem angezeigten Schönwetterbild zeigt;
    • 10 ein Diagramm ist, das ein Sichtfeld mit einer angezeigten einstigen Ansicht zeigt;
    • 11 ein Diagramm ist, das ein Sichtfeld mit einer angezeigten virtuellen zukünftigen Ansicht zeigt; und
    • 12 ein Diagramm ist, das ein Sichtfeld mit einer angezeigten virtuellen einstigen Ansicht zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • Ausführungsformen gemäß der vorliegenden Erfindung werden nachstehend unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben. Zwar werden nachstehend konkrete Aspekte der Ausführungsformen beschrieben, um das Verständnis der vorliegenden Erfindung zu erleichtern, doch sind jene konkreten Aspekte lediglich beispielhaft vorgesehen. Verschiedene andere Ausführungsformen sind möglich.
  • 1 ist ein schematisches Konfigurationsdiagramm eines Informationssystems 10 gemäß einer Ausführungsform der vorliegenden Erfindung. Das Informationssystem 10 beinhaltet Fahrzeuge 20, welche Ereignisinformationen wie etwa Bilddaten sammeln, ein Informationsverteilungssystem 30 und ein Fahrzeug 100, für das Prozesse zum Anzeigen eines Ereignisses basierend auf den empfangenen Ereignisinformationen durchgeführt werden. Die Ereignisinformationen sind Informationen, die über ein Ereignis angezeigt werden können, und können Textdaten, welche durch Zeichencodes (einschließlich numerischer oder sonstiger Symbole) dargestellt werden, und zwei- oder dreidimensionale Bilddaten, welche nicht durch die Zeichencodes dargestellt werden, beinhalten. Die Zeichencodes und die Bilddaten sind beide verwendbar, um ein Ereignis in einer von einer Anzeigeeinheit bereitgestellten Ansicht zu zeigen. Das „Ereignis“ gibt einen Gegenstand oder Vorfall an, der von einer Person beobachtet werden kann. Beispielhafte Ereignisse werden weiter unten beschrieben. Das Informationssystem 10 kann auch Audiodaten, darunter menschliche Sprache, Geräusche, Klänge und Musik, welche den Textdaten und den Bilddaten zugeordnet sind, verarbeiten. Die Audiodaten werden aus einem Lautsprecher akustisch ausgegeben.
  • Zwar können mehrere Fahrzeuge 20 zum Sammeln von Ereignisinformationen wie etwa Bilddaten verwendet werden, doch zeigt 1 beispielhaft nur ein einziges Fahrzeug. Im Rahmen eines Vertrags mit dem Halter des Fahrzeugs 20 kann das Informationssystem 10 Bilddaten verwenden, die durch das Fahrzeug 20 erfasst wurden. Das Fahrzeug 20, das die Bilddaten sammelt, kann auch das Fahrzeug 100 sein, für das die Bildanzeige durchgeführt wird.
  • Das Fahrzeug 20 beinhaltet eine fahrzeugmontierte Kamera 22, ein GNSS 24 und einen Taktgeber 26. Die fahrzeugmontierte Kamera 22 ist an dem Fahrzeug 20 montiert und erfasst Ansichten außerhalb oder innerhalb des Fahrzeugs. Die fahrzeugmontierte Kamera 22 kann innerhalb des Fahrzeugs angebracht sein, beispielsweise rund um ein vorderes Ende eines Dachs. Die fahrzeugmontierte Kamera 22 erfasst Kamerabilddaten (nachstehend als „Kamerabilddaten“ bezeichnet, um zu betonen, dass die Bilddaten durch die fahrzeugmontierte Kamera 22 erfasst wurden), indem sie die Außenansicht vor dem Fahrzeug durch eine vordere Windschutzscheibe erfasst. Die Kamerabilddaten sind Daten, die zwei- oder dreidimensionale visuelle Informationen bereitstellen. Zwar sind die Kamerabilddaten im Allgemeinen Videodaten, doch können die Kamerabilddaten Standbilder sein, die in geeigneten Intervallen erfasst werden. In dem Informationssystem 10 werden die Kamerabilddaten von der fahrzeugmontierten Kamera 22 an das Informationsverteilungssystem 30 und weiter an das Fahrzeug 100 gesendet, in dem die Bilder dann anschließend angezeigt werden können. Demgemäß muss die fahrzeugmontierte Kamera 22 imstande sein, Kamerabilddaten mit einer Auflösung zu erfassen, die zur Anzeige in dem Fahrzeug 100 erforderlich ist. Mehrere fahrzeugmontierte Kameras 22 können vorgesehen sein, um eine ausreichende Auflösung oder ein ausreichendes Sichtfeld zu erhalten.
  • Die fahrzeugmontierte Kamera 22 kann auch als ein Fahrtenschreiber fungieren, der beispielsweise einen Fahrzustand des Fahrzeugs 20 aufzeichnet. Wenn das Fahrzeug 20 beispielsweise einen autonomen Fahrmodus besitzt, kann die fahrzeugmontierte Kamera 22 auch als ein Sensor fungieren, der einen Verkehrszustand rund um das Fahrzeug 20 erkennt. Zwar wird als die fahrzeugmontierte Kamera 22 generell eine das sichtbare Licht nutzende Kamera für den sichtbaren Bereich verwendet, doch ist auch eine Kamera beliebiger verschiedener Wellenlängenbänder, wie etwa eine Infrarotkamera oder eine UV-Kamera, verwendbar. Die fahrzeugmontierte Kamera 22 kann andere Ansichten erfassen als die Vorderansichten, wie etwa Seitenansichten und/oder Rückansichten.
  • Das GNSS (globales Navigationssatellitensystem) 24 ist ein Sensor, der den Standort des fahrenden Fahrzeugs 20 anhand von Funkwellen von Satelliten ermittelt. Der durch das GNSS 24 ermittelte Standort wird als „Erfassungsstandortdaten“ verwendet, um zu ermitteln, wo die Kamerabilddaten erfasst wurden. Die Bewegungsbahn des Fahrzeugs 20 kann durch Folgen der Erfassungsstandortdaten in zeitlicher Abfolge bestimmt werden.
  • Der Taktgeber 26 ist ein Instrument zum Anzeigen der Zeit, einschließlich Jahr, Monat, Datum und Uhrzeit. Die Ausgabe des Taktgebers 26 wird als „Erfassungszeitdaten“ verwendet, um zu bestimmen, wann die Kamerabilddaten erfasst wurden.
  • Die Erfassungsstandortdaten und die Erfassungszeitdaten werden den Kamerabilddaten zugeordnet und an das Informationsverteilungssystem 30 gesendet. Dieses Versenden kann durch einen beliebigen aus verschiedenen Typen von Drahtloskommunikation erfolgen, wie etwa Wi-Fi (eingetragene Marke). Das Fahrzeug 20 kann ferner Sensoren beinhalten, um wetterbezogene Daten zu erlangen, wie etwa einen Sonnenstrahlungssensor und einen Regensensor. Die Ausgabe aus diesen Sensoren ist als „Erfassungswetterdaten“ verwendbar, die das Wetter zum Zeitpunkt des Erfassens der Kamerabilddaten angeben. Die Erfassungswetterdaten können den Kamerabilddaten zugeordnet und an das Informationsverteilungssystem 30 gesendet werden.
  • Das Informationsverteilungssystem 30 ist ein System, das von dem Fahrzeug 20 gesendete Daten einschließlich Bilddaten empfängt und speichert und Daten einschließlich der gespeicherten Bilddaten an das Fahrzeug 100 verteilt. Das Informationsverteilungssystem 30 beinhaltet einen Sammelserver 40, einen Erstellungsserver 50, einen Verteilungsserver 60 und einen Speicherserver 80. Das Informationsverteilungssystem 30 wird nachstehend unter Bezugnahme auf 2 im Detail beschrieben.
  • 2 ist ein Blockdiagramm, das eine schematische Konfiguration des Informationsverteilungssystems 30 zeigt. Das Informationsverteilungssystem 30 kann mit einer einzigen oder mehreren Computerhardware-Einheiten ausgebildet sein. Die Computerhardware-Einheiten können beispielsweise bei einem Informationsverteilungsunternehmen konzentriert sein oder können an entfernten Standorten, die über ein Netzwerk verbunden sind, verteilt sein.
  • Die Computerhardware-Einheit ist eine Einheit, die einen Speicher, einen Prozessor und andere Ressourcen beinhaltet. Die Computerhardware-Einheit arbeitet gesteuert durch das installierte Betriebssystem (BS) und Software wie etwa Anwendungsprogramme. Das Informationsverteilungssystem 30 beinhaltet den Sammelserver 40, den Erstellungsserver 50, den Verteilungsserver 60 und den Speicherserver 80, welche alle unter Verwendung von Anwendungsprogrammen konfiguriert sind.
  • Der Sammelserver 40 sammelt bereits verfügbare Bild- oder sonstige Daten über ein Netzwerk oder andere Einrichtungen. Der Sammelserver 40 erlangt Daten von dem Fahrzeug 20, einschließlich der Kamerabilddaten und zugeordneter Daten (der Erfassungsstandortdaten, der Erfassungszeitdaten und der Erfassungswetterdaten). Der Sammelserver 40 klassifiziert die erlangten Daten wie etwa die Kamerabilddaten basierend auf der Bewegungsbahn, entlang derer das Fahrzeug 20 die Daten erfasst hat, dem Datum und der Uhrzeit, wann die Daten erfasst wurden, und dem Wetter, bei dem die Daten erfasst wurden, und speichert die klassifizierten Daten in dem Speicherserver 80.
  • Was die von dem Fahrzeug 20 erfassten Kamerabilddaten anbelangt, so kann es sein, dass es dem Fahrzeug 20 nicht möglich ist, genügend Ansichtsbilddaten zu erfassen, wenn beispielsweise ein großes Fahrzeug vor dem Fahrzeug 20 das Sichtfeld der Kamera blockiert. In einem solchen Fall kann die Ansicht bei Bedarf durch Kombinieren mehrerer Kamerabilddaten, die bei geringem Verkehr erfasst wurden, gebildet werden. Der Sammelserver 40 kann menschliche Gesichter oder Kfz-Kennzeichen verschwommen darstellen, wenn diese in der Ansicht klar erkennbar sind.
  • Wenn die Kamerabilddaten oder andere Daten gesammelt werden, können Bedingungen über die zu sammelnden Objekte für den Sammelserver 40 festgelegt werden. Beispielsweise können Daten lediglich von denjenigen Fahrzeugen 20 gesammelt werden, die in verkehrsarmen Bereichen oder entlang vorgegebener Routen unterwegs sind, oder von denjenigen Fahrzeugen 20, deren Airbag aktiviert wurde, was auf eine mögliche Beteiligung an einem Verkehrsunfall hinweist.
  • Der Sammelserver 40 kann ferner Ereignisinformationen über einen Verkehrsunfall in Zusammenarbeit mit einer externen Instanz wie etwa einer Polizeibehörde oder einer Versicherungsgesellschaft sammeln. Die Ereignisinformationen über einen Verkehrsunfall können als Textdaten erlangt werden, die beispielsweise das Datum und den Zeitpunkt des Geschehens, den Ort, die Unfallsituation und die Schadenlage angeben. Die Ereignisinformationen eines Verkehrsunfalls können auch als Bilddaten erlangt werden, wie etwa Fotografien und Video von einer externen Instanz, welche die Bilddaten von einer an einer nahegelegenen Straße installierten Überwachungskamera, einer fahrzeugmontierten Kamera der an dem Unfall beteiligten Fahrzeuge oder von in der Nähe befindlichen Fahrzeugen erlangt, oder Fotografien, die von einem Fußgänger rund um den Unfall aufgenommen werden. Der Sammelserver 40 kann Bilddaten, einschließlich Ereignisinformationen über einen Verkehrsunfall, von Kamerabildern erlangen, die von dem Fahrzeug 20 verfügbar sind.
  • Der Erstellungsserver 50 erstellt Bilddaten über einstige oder zukünftige Ereignisse. Der Erstellungsserver 50 erstellt virtuelle Bilddaten, welche aus dem Fahrzeug 100 unter der Annahme gesehen würden, dass das Fahrzeug 100 in der Vergangenheit oder Zukunft fährt. Die Herstellung der Bilder kann an ein externes Unternehmen ausgelagert werden. In diesem Fall kann der Erstellungsserver 50 gelieferte Bilder importieren und die importierten Bilder in dem Speicherserver 80 speichern. Zugehörige Daten, einschließlich Textdaten, welche die Bilddaten beschreiben, können erstellt und in dem Speicherserver 80 gespeichert werden. Der Erstellungsserver 50 kann basierend auf den Textdaten über den Verkehrsunfall virtuelle Videodaten oder Standbilddaten erstellen, welche Verkehrsunfallszenen auf eine leicht verständliche Weise wiedergeben.
  • Der Verteilungsserver 60 verteilt Ereignisinformationen, wie etwa Bilddaten, an das Fahrzeug 100. Der Verteilungsserver 60 beinhaltet einen Empfänger 62, eine Informationsauswähleinrichtung 64 und einen Sender 74. Der Empfänger 62 empfängt eine Verteilungsanforderung für Bild- oder sonstige Daten von dem Fahrzeug 100. Wenn der Empfänger 62 eine Verteilungsanforderung empfängt, kann er auch andere Informationen empfangen, wie etwa einen Typ von zu liefernden Ereignisinformationen und den Standort des Fahrzeugs 100.
  • Die Informationsauswähleinrichtung 64 wählt Ereignisinformationen aus, die an das Fahrzeug 100 zu verteilen sind. Die Informationsauswähleinrichtung 64 kann eine Informationstypbestimmungseinrichtung 66, eine Fahrtstandortbestimmungseinrichtung 68, eine Wetterbestimmungseinrichtung 70 und eine Fahrerbestimmungseinrichtung 72 beinhalten.
  • Die Informationstypbestimmungseinrichtung 66 wählt basierend auf der durch den Empfänger 62 empfangenen Verteilungsanforderung den Typ von Ereignisinformationen aus, für die die Verteilung angefordert wurde. Beispiele für die auswählbaren Typen von Ereignisinformationen werden weiter unten beschrieben.
  • Die Fahrtstandortbestimmungseinrichtung 68 bestimmt basierend auf den von dem Fahrzeug 100 empfangenen Fahrtstandortdaten eine geographische Reichweite von zu verteilenden Ereignisinformationen. Die Fahrtstandortbestimmungseinrichtung 68 bestimmt durch Vorhersagen des Standorts des Fahrzeugs 100 in der unmittelbaren Zukunft (beispielsweise einige Sekunden oder Sekundenbruchteile später) unter Zugrundelegung nicht nur des aktuellen Standorts des Fahrzeugs 100, sondern auch der Fahrtrichtung, der Fahrtgeschwindigkeit oder anderer Faktoren, eine Reichweite von zu verteilenden Ereignisinformationen.
  • Die Wetterbestimmungseinrichtung 70 bestimmt basierend auf den von dem Fahrzeug 100 empfangenen Fahrtstandortdaten das Wetter rund um das Fahrzeug 100. Um eine Bestimmung zu treffen, sind Wetterinformationen wie etwa jene, die von einem Wettervorhersagedienst bereitgestellt werden, verwendbar. Die Wetterbestimmungseinrichtung 70 kann das Wetter rund um das Fahrzeug 100 basierend auf den von dem Fahrzeug 100 empfangenen Wetterdaten bestimmen.
  • Die Fahrerbestimmungseinrichtung 72 bestimmt, ob die Verteilungsanforderung von dem Fahrzeug 100 durch einen Fahrer angefordert wurde oder nicht. Wenn die Verteilungsanforderung ausschließlich durch einen Fahrer angefordert wurde, bestimmt die Fahrerbestimmungseinrichtung 72, dass bei den zu verteilenden Bilddaten eine Straßenansicht (wie etwa Straßenoberflächen, andere fahrende Fahrzeuge, Fußgänger, Ampeln und Straßenschilder) weggelassen werden kann. Ein solches Weglassen kann die Menge an zu verteilenden Informationen reduzieren.
  • Der Sender 74 erlangt die zu verteilenden Ereignisinformationen von dem Speicherserver 80 und sendet die erlangten Ereignisinformationen an das Fahrzeug 100.
  • Der Speicherserver 80 speichert zu verteilende Ereignisinformationen über einstige oder zukünftige Ereignisse. Die in dem Speicherserver 80 gespeicherten Ereignisinformationen können Verkehrsunfalldaten 82, einstige Ansichtsdaten 84, einstige virtuelle Daten 88 und zukünftige virtuelle Daten 90 beinhalten.
  • Die Verkehrsunfalldaten 82 sind ein Beispiel für die Ereignisinformationen über einstige Ereignisse und können die Ereignisinformationen von Verkehrsunfällen beinhalten, die durch den Sammelserver 40 gesammelt wurden. Die zu speichernden Verkehrsunfalldaten 82 können Verkehrsunfalltextdaten, welche Textdaten sind, und Verkehrsunfallbilddaten, welche Bilddaten sind, beinhalten. Die Verkehrsunfalltextdaten können für jeden Verkehrsunfall Informationen, wie etwa Datum und Zeitpunkt des Geschehens des Verkehrsunfalls, Ort, Unfallsituation und Schadenlage, beinhalten. Die Verkehrsunfallbilddaten können die Kamerabilddaten beinhalten, die durch die an dem Verkehrsunfall beteiligten Fahrzeuge, Fahrzeuge in der Nähe des Verkehrsunfalls und Fußgänger oder an Straßen installierte Überwachungskameras erlangt wurden. Als die Bilddaten der Verkehrsunfalldaten 82 sind auch Videodaten und Standbilddaten verwendbar, die durch den Erstellungsserver 50 erstellt wurden.
  • Die einstigen Ansichtsdaten 84 sind ein Beispiel für die Ereignisinformationen einstiger Ereignisse und können Ereignisinformationen über eine tatsächliche einstige Ansicht beinhalten, welche durch den Sammelserver 40 gesammelt wurden, und zwar konkret die durch die fahrzeugmontierte Kamera 22 des Fahrzeugs 20 in der Vergangenheit erfassten Kamerabilddaten. Die einstigen Ansichtsdaten 84 können auch Textdaten beinhalten, welche die Kamerabilddaten beschreiben, wie etwa das Datum und den Zeitpunkt der Erfassung der Kamerabilddaten und das Wetter zum Zeitpunkt des Erfassens der Kamerabilddaten.
  • Die einstigen Ansichtsdaten 84 können Schönwetter-Bilddaten 86 beinhalten, welche bei schönem Wetter erfasste Kamerabilddaten sind. Wie weiter unten beschrieben wird, können die Schönwetter-Bilddaten 86 dazu verwendet werden, um schlechte Sicht bei Regen oder Schnee auszugleichen. Zwar ist es auch möglich, Bilddaten zu verwenden, die nicht nur bei schönem Wetter, sondern auch bei wolkigem oder einem anderen von Regen oder Schneefall verschiedenen Wetter erfasst wurden, doch werden in dieser Ausführungsform im Hinblick auf die Schärfe von Bildern die Schönwetter-Bilddaten 86 verwendet.
  • Die einstigen virtuellen Daten 88 sind ein Beispiel für Ereignisinformationen einstiger Ereignisse und können einstige virtuelle Ereignisinformationen beinhalten, die von dem Erstellungsserver 50 erstellt wurden. Die einstigen virtuellen Daten 88 können einstige virtuelle Bilddaten, welche Bilddaten sind, und einstige virtuelle Textdaten, welche die einstigen virtuellen Bilddaten beschreiben, beinhalten. Die einstigen virtuellen Daten 88 sind Ereignisinformationen, die potentielle Ansichten bereitstellen, welche rund um das Fahrzeug unter der Annahme, dass das Fahrzeug 100 zu einem bestimmten Zeitpunkt in der Vergangenheit fährt, zu sehen wären. Beispielsweise werden Bilddaten erstellt, um in den fernen Landschaften (Bergen, Stränden, Flüssen oder anderen Landschaften), die zu sehen wären, wenn das Fahrzeug 100 zum gegenwärtigen Zeitpunkt die Straße entlangfährt, Bilder aus der Vergangenheit anzuzeigen, etwa natürliche Objekte wie Wälder, einstige Bauwerke wie etwa Schlösser und Häuser und Menschen in damals üblicher Kleidung. Alternativ können in einer Gegend, in dem in der Vergangenheit ein historisches Ereignis stattgefunden hat, Bilddaten erstellt werden, um es Insassen zu ermöglichen, ein solches historisches Ereignis während der Fahrt in dem Fahrzeug 100 zu betrachten. Das historische Ereignis beinhaltet beispielsweise politische Ereignisse, religiöse Ereignisse, kulturelle Ereignisse, Feste und Feiern, Kriege, Besuche prominenter Persönlichkeiten, Katastrophen (Vulkanausbrüche, Erdbeben, Feuer) und astronomische Phänomene (Erscheinen von Kometen, weiße Nächte, Mondfinsternisse). Die einstigen virtuellen Daten 88 können auch dazu verwendet werden, um ein einstiges Klima, wie etwa eine Eiszeit, oder Pflanzen und Tiere, deren Fossilien freigelegt wurden, nachzubilden. Ferner können Legenden und Folklore, die in der Gegend bekannt sind, wiedergegeben werden.
  • Die zukünftigen virtuellen Daten 90 sind ein Beispiel für Ereignisinformationen zukünftiger Ereignisse und können zukünftige virtuelle Ereignisinformationen beinhalten, die durch den Erstellungsserver 50 erstellt werden. Die zukünftigen virtuellen Daten 90 können zukünftige virtuelle Bilddaten, welche Bilddaten sind, und zukünftige virtuelle Textdaten, welche die zukünftigen virtuellen Bilddaten beschreiben, beinhalten. Die zukünftigen virtuellen Daten 90 werden erstellt, um potentielle Ansichten bereitzustellen, die unter der Annahme zu sehen wären, dass das Fahrzeug 100 in der Zukunft fährt. Beispielsweise werden in einer Ausführungsform Bilddaten erstellt, um in den fernen Landschaften, die zu sehen wären, wenn das Fahrzeug 100 zum gegenwärtigen Zeitpunkt die Straße entlangfährt, zukünftige Bilder, wie etwa natürliche Objekte, Bauwerke und futuristisch gekleidete Menschen, anzuzeigen. Alternativ können Bilddaten erstellt werden, um ein Ereignis zu simulieren, das in der Zukunft zu erwarten ist. Die in der Zukunft zu erwartenden Bauwerke beinhalten beispielsweise Gebäude, Straßen, Schienenwege und Flughäfen, die auf städtebaulicher Planung durch die nationale Regierung oder regionale Regierungen beruhen. Es ist zu erwarten, dass von Forschungsinstituten oder -unternehmen vorgeschlagene Fahrzeuge und Kleidung in der Zukunft realisiert werden. Ferner kann es sich bei den in der Zukunft zu erwartenden Ereignissen um Katastrophen handeln, die auf Gefahrenkarten beruhen, welche von regionalen Regierungen oder anderen Organisationen ausgearbeitet wurden.
  • Als Nächstes wird das Fahrzeug 100 in 1 unter Bezugnahme auf 3 beschrieben. Das Fahrzeug 100 ist ein Fahrzeug, das ein Bildanzeigesystem 110 in 3 beinhaltet. Wie in 3 gezeigt ist, beinhaltet das Bildanzeigesystem 110 ein fahrzeugmontiertes System 120 und eine tragbare Vorrichtung 150.
  • Das fahrzeugmontierte System 120 ist typischerweise eine an dem Fahrzeug 100 fixierte Vorrichtung. Das fahrzeugmontierte System 120 beinhaltet eine Eingabeeinheit 122, einen Sender 128, einen Bildprozessor 130, ein GNSS 140, einen Geschwindigkeitsmesser 142, einen Empfänger 144 und eine temporäre Speichereinheit 146.
  • Die Eingabeeinheit 122 ist eine Benutzerschnittstelle, die von einem Benutzer, wie etwa einem Fahrer des Fahrzeugs 100, zum Einstellen des Bildanzeigesystems 110 verwendet wird. Die Eingabeeinheit 122 ist beispielsweise mit einem Bildschirmtastfeld bzw. Touch Panel ausgebildet, das auf einem Armaturenbrett des Fahrzeugs 100 vorgesehen ist. Die Eingabeeinheit 122 beinhaltet einen Anzeigeinformationsfestlegeabschnitt 124, durch den verschiedene Einstellungen über Ereignisinformationen, die auf der tragbaren Vorrichtung 150 anzuzeigen sind, festgelegt werden.
  • Der Benutzer kann den Anzeigeinformationsfestlegeabschnitt 124 verwenden, um eine anzuzeigende Datenkategorie, wie etwa die Verkehrsunfalldaten 82, die einstigen Ansichtsdaten 84, die einstigen virtuellen Daten 88 oder die zukünftigen virtuellen Daten 90, festzulegen. Der Benutzer kann aus den Daten eine einzelne oder mehrere anzuzeigende Datenkategorien auswählen. Wenn mehrere Datenkategorien ausgewählt werden, ist es ferner möglich, eine Priorität der anzuzeigenden Datenkategorien festzulegen. Wenn beispielsweise die Verkehrsunfalldaten 82 und die einstigen Ansichtsdaten 84 ausgewählt werden, kann die Priorität derart festgelegt werden, dass für gewöhnlich die einstigen Ansichtsdaten 84 angezeigt werden, während an einem Punkt mit den Verkehrsunfalldaten 82 die Anzeige der Verkehrsunfalldaten 82 Priorität hat oder auf eine die einstigen Ansichtsdaten 84 überlagernde Weise erfolgen kann. Wenn die einstigen Ansichtsdaten 84 ausgewählt werden und für die einstigen Ansichtsdaten 84 mehrere Daten verfügbar sind, ist es ferner möglich, das Jahr oder die Jahreszeit der Erfassung der Ansicht festzulegen. In Bezug auf die Verkehrsunfalldaten 82, die einstigen virtuellen Daten 88 und die zukünftigen virtuellen Daten 90 können Einstellungen derart vorgenommen werden, dass zunächst Textdaten oder nur ein Symbol mit einem Hinweiszeichen zum Angeben einer Grobdarstellung angezeigt werden können. Die Anzeige von Bilddaten kann sodann nur erfolgen, wenn der Benutzer mittels des Symbols eine detaillierte Anzeige anfordert.
  • Der Sender 128 sendet eine Ereignisinformationsverteilungsanforderung an das Informationsverteilungssystem 30. In der Verteilungsanforderung wird der Typ der angeforderten Daten in Übereinstimmung mit den Einstellungen in dem Anzeigeinformationsfestlegeabschnitt 124 geklärt. Ferner werden erforderlichenfalls andere Daten, wie etwa durch das GNSS 140 bereitgestellte Fahrtstandortdaten des Fahrzeugs, gesendet. Alternativ ist es auch möglich, Fahrtrouten, die in dem Navigationssystem des Fahrzeugs 100 festgelegt sind, gemeinsam als die Fahrtstandortdaten zu senden.
  • Der Bildprozessor 130 ist eine Vorrichtung zum Durchführen einer Bildverarbeitung, um Ereignisinformationen, die von dem Informationsverteilungssystem 30 empfangen werden, mittels der tragbaren Vorrichtung 150 anzuzeigen. Der Bildprozessor 130 liegt in Form von Computerhardware einschließlich eines Speichers und eines Prozessors vor, die von einem Betriebssystem (BS) und Software, wie etwa einem Anwendungsprogramm, gesteuert wird. Der Bildprozessor 130 verwendet Anwendungsprogramme, um einen Vorrichtungs-/Pupillen-Positionsberechnungsabschnitt 132, einen Bildanordnungsberechnungsabschnitt 134, einen Bildschaltabschnitt 136 und einen Bildsyntheseabschnitt 138 einzurichten.
  • Der Vorrichtungs-/Pupillen-Positionsberechnungsabschnitt 132 berechnet basierend auf einer Eingabe von einem Vorrichtungspositionssensor 160 und einem Pupillenpositionssensor 162 der tragbaren Vorrichtung 150 eine relative Position der tragbaren Vorrichtung 150 und relative Positionen der Pupillen eines Fahrers 180 in dem Fahrzeug.
  • Um ein Bild wie mittels der Eingabeeinheit 122 angefordert anzuzeigen, berechnet der Bildanordnungsberechnungsabschnitt 134, welche Bilder anzuzeigen sind und wo die Bilder zu positionieren sind; mit anderen Worten, wie die zu synthetisierenden Bilder anzuordnen sind. Beim Bestimmen der Anordnung verwendet der Bildanordnungsberechnungsabschnitt 134 die relativen Positionsdaten jeweiliger Komponenten des Fahrzeugs, welche vorab gespeichert wurden, sowie die relativen Positionsdaten der tragbaren Vorrichtung 150 und die relativen Positionsdaten der Pupillen, welche von dem Vorrichtungs-/Pupillen-Positionsberechnungsabschnitt 132 berechnet wurden. Auf diese Weise wird es möglich, auf einer organischen EL-Anzeige 166 die Position einer geraden Linie zu berechnen, welche die Pupillen des Benutzers mit der tragbaren Vorrichtung 150 und eine bestimmte Komponente des Fahrzeugs verbindet. Der Bildanordnungsberechnungsabschnitt 134 berechnet ferner, welches Bild anzuzeigen ist und wo auf der organischen EL-Anzeige 166 das Bild angezeigt werden sollte.
  • Wenn mehrere Typen von Bilddaten von dem Anzeigeinformationsfestlegeabschnitt 124 zur Anzeige ausgewählt werden, schaltet der Bildschaltabschnitt 136 die Bilder in Übereinstimmung mit einer Priorität. Der Bildschaltabschnitt 136 schaltet das anzuzeigende Bild auch von Textdaten zu Bilddaten oder umgekehrt oder so, dass sowohl die Textdaten als auch die Bilddaten angezeigt werden.
  • Der Bildsyntheseabschnitt 138 ist ein Beispiel für eine Informationserlangungseinheit. Der Bildsyntheseabschnitt 138 erlangt die Bilddaten und die Textdaten in Übereinstimmung mit der Einstellung des Bildschaltabschnitts 136 und synthetisiert die Bilder in Übereinstimmung mit der von dem Bildanordnungsberechnungsabschnitt 134 berechneten Anordnung. Der Bildsyntheseabschnitt 138 synthetisiert die Bilder, die dem Fahrtstandort des Fahrzeugs 100 entsprechen, indem er die Fahrtstandortdaten von dem GNSS 140 und die Fahrtgeschwindigkeitsdaten von dem Geschwindigkeitsmesser 142 erlangt. Das synthetisierte Bild wird an eine Bildsteuervorrichtung 164 der tragbaren Vorrichtung 150 gesendet, um auf der organischen EL-Anzeige 166 angezeigt zu werden. Die Übertragung der Bilder kann durch drahtgebundene oder drahtlose Kommunikationen erfolgen. Für drahtlose Kommunikationen sind Drahtloskommunikationen mit kurzer Reichweite, wie etwa Bluetooth (eingetragene Marke), Wi-Fi (eingetragene Marke) und Infrarotkommunikation, verwendbar.
  • Das GNSS 140 ermittelt den Fahrtstandort des Fahrzeugs 100 und gibt die Fahrtstandortdaten aus, welche über den Sender 128 an das Informationsverteilungssystem 30 gesendet werden.
  • Der Geschwindigkeitsmesser 142 erfasst die Fahrtgeschwindigkeit des Fahrzeugs 100 und gibt Fahrgeschwindigkeitsdaten aus. Die Fahrtgeschwindigkeitsdaten betreffen den sich mit der Zeit verändernden Fahrtstandort des Fahrzeugs und können zusammen mit den von dem GNSS 140 ausgegebenen Fahrstandortdaten dazu verwendet werden, um den Fahrtstandort des Fahrzeugs 100 zu ermitteln. Wie oben beschrieben, werden die Fahrtstandortdaten und die Fahrtgeschwindigkeitsdaten an den Bildsyntheseabschnitt 138 gesendet.
  • Der Empfänger 144 empfängt die von dem Informationsverteilungssystem 30 versandten Bilddaten und Textdaten. Die empfangenen Daten werden in der temporären Speichereinheit 146 gespeichert.
  • Die temporäre Speichereinheit 146 speichert die durch den Empfänger 144 empfangenen Bilddaten und Textdaten. Da es unmöglich ist, genau vorherzusagen, in welche Richtung das Fahrzeug 100 fahren wird, verwendet das fahrzeugmontierte System 120 Streaming-Technologie, die eine kontinuierliche Anzeige der empfangenen Daten in Übereinstimmung mit dem Fahrtstandort erlaubt. Die temporäre Speichereinheit 146 erlaubt eine nahtlose Anzeige von Bildern, indem sie die Bilddaten und die Textdaten basierend auf den Vorhersageergebnissen des unmittelbar zukünftigen Fahrtstandorts des Fahrzeugs 100, welche durch die Fahrtstandortbestimmungseinrichtung 68 bereitgestellt werden, vorab temporär speichert. Wenn jedoch beispielsweise eine Fahrtroute durch ein Navigationssystem des Fahrzeugs 100 festgelegt wird, fährt das Fahrzeug 100 höchstwahrscheinlich entlang der Fahrtroute. In diesem Fall ist es auch möglich, die Bilddaten und Textdaten vorab in Übereinstimmung mit der Fahrtroute herunterzuladen. Ferner ist es auch möglich, in die temporäre Speichereinheit 146 all die Bilddaten und Textdaten herunterzuladen, die dasjenige Gebiet betreffen, in dem das Fahrzeug 100 häufig fährt.
  • Die tragbare Vorrichtung 150 ist eine Vorrichtung, die der Insasse einschließlich des Fahrers in dem Fahrzeug 100 trägt, wie eine Brille oder Schutzbrille. Die tragbare Vorrichtung 150 beinhaltet den Vorrichtungspositionssensor 160, den Pupillenpositionssensor 162, die Bildsteuervorrichtung 164, die organische EL-Anzeige 166 und eine Bedieneinheit 168.
  • Die tragbare Vorrichtung 150 wird nachstehend unter Bezugnahme auf 4 im Detail beschrieben. 4 zeigt einen Fahrer 180, der die tragbare Vorrichtung 150 trägt. Die tragbare Vorrichtung 150 besitzt eine Brillenform und wird auch „Smart Glasses“ bzw. intelligente Brille genannt. Die tragbare Vorrichtung 150 beinhaltet Bügel 152, welche lineare Abschnitte der Fassung sind, die auf den Ohren ruhen, und einen Rand 154, der mit den Bügeln 152 verbunden ist, die Augen umgibt und eine an die Nase angepasste Form besitzt.
  • Die organische EL(Elektrolumineszenz)-Anzeige 166, die ein Beispiel für eine Anzeigeeinheit ist, ist in dem Rand 154 vorgesehen. Obwohl die organische EL-Anzeige 166 vor den Augen des Fahrers 180 positioniert ist, kann der Fahrer 180 aufgrund der hohen Transparenz (hohen Durchsichtigkeit) in dem Fall, dass kein Bild angezeigt wird, nach vorne sehen. Die organische EL-Anzeige 166 kann basierend auf der Steuerung der Bildsteuervorrichtung 164 ein Bild ganz oder teilweise ausbilden.
  • Der Vorrichtungspositionssensor 160 ist rund um ein Gelenk zwischen dem Rand 154 und dem Bügel 152 auf der Seite des linken Auges des Fahrers 180 vorgesehen. Der Vorrichtungspositionssensor 160 erfasst eine relative Position der tragbaren Vorrichtung 150 innerhalb des Fahrzeugs 100. Der Vorrichtungspositionssensor 160 kann beispielsweise mit einer Kamera ausgebildet sein, die Frontbilder aufnimmt. Somit können durch Vergleichen der von der Kamera aufgenommenen Bilder und der Fahrzeuginnenraumanordnungsdaten die Position und Ausrichtung der Kamera bestimmt werden. Mit der an dem Rand 154 fixierten Kamera können die Position und die Ausrichtung der tragbaren Vorrichtung 150 erfasst werden.
  • Der Pupillenpositionssensor 162 ist etwa in der oberen Mitte des Randes 154 vorgesehen. Der Pupillenpositionssensor 162 erfasst eine relative Position des rechten und linken Auges des Fahrers 180 in Bezug auf den Rand 154. Analog zu dem Vorrichtungspositionssensor 160 kann der Pupillenpositionssensor 162 mit einer Kamera oder anderen Vorrichtungen ausgebildet sein.
  • Die Bildsteuervorrichtung 164 ist in einen der Bügel 152 eingelassen. Die Bildsteuervorrichtung 164 zeigt basierend auf den von dem fahrzeugmontierten System 120 empfangenen Daten Bilder auf der organischen EL-Anzeige 166 an. Die tragbare Vorrichtung 150 kann eine von gewöhnlichen Ansichten verschiedene visuelle Umgebung bereitstellen, indem sie durch die organische EL-Anzeige 166 über die Bildsteuervorrichtung 164 Ereignisbilder anzeigt.
  • Die Bedieneinheit 168 ist vorgesehen, um die Bedienung eines auf der organischen EL-Anzeige 166 angezeigten Objekts zu ermöglichen. Bilder der zu bedienenden Objekte, wie etwa einer Taste, können auf der organischen EL-Anzeige 166 angezeigt werden. Die Bedieneinheit 168 wird zum Bedienen der Taste oder anderer Objekte verwendet. Die Bedieneinheit 168 kann auch mittels der Stimme des Fahrers oder eines anderen Insassen, der die tragbare Vorrichtung 150 trägt, oder mittels einer Blickrichtung der Bedienperson bedient werden. Die Bedieneinheit 168 kann mit einer auf dem Bügel 152 und dem Rand 154 der tragbaren Vorrichtung 150 vorgesehenen mechanischen Taste ausgebildet sein. Durch Vorsehen der Bedieneinheit 168 wird es möglich, zuerst Textdaten oder ein Symbol zum Angeben einer Grobdarstellung anzuzeigen und nach dem Bedienen zu Bild- oder anderen Daten zu schalten. Es sei daraufhingewiesen, dass es auch möglich ist, eine ähnliche Bedienung durch die Eingabeeinheit 122 des auf dem Armaturenbrett des Fahrzeugs 100 vorgesehenen Touch Panels durchzuführen, ohne dass die Bedieneinheit 168 für die tragbare Vorrichtung 150 vorgesehen ist.
  • Das Bildanzeigesystem 110 führt in kurzen Intervallen eine Echtzeitverarbeitung durch. Somit erlangt das fahrzeugmontierte System 120 in kurzen Intervallen erfasste Daten von dem Vorrichtungspositionssensor 160 und dem Pupillenpositionssensor 162 der tragbaren Vorrichtung 150. Der Vorrichtungs-/Pupillen-Positionsberechnungsabschnitt 132 berechnet basierend auf den erlangten erfassten Daten umgehend die Position der tragbaren Vorrichtung 150 und die Position der Pupillen. Auf diese Weise kann auch das Sichtfeld des Fahrers 180 in dem Fahrzeug 100 in Bezug auf eine vordere Windschutzscheibe 206 erlangt werden. Es sei darauf hingewiesen, dass das Sichtfeld des Fahrers 180 basierend auf Standarddaten eines Menschen eingestellt werden kann. In der in 4 gezeigten Ausführungsform kann das Sichtfeld beispielsweise auf den Bereich der von dem Rand 154 umgebenen organischen EL-Anzeige 166 eingestellt werden. Zusammen mit den von dem GNSS 140 ausgegebenen Fahrtstandortdaten können die relativen Positionen zwischen dem Sichtfeld des Fahrers 180 und der Ereignisposition erlangt werden. Die Kombination des Vorrichtungspositionssensors 160, des Pupillenpositionssensors 162 und des GNSS 140 ist somit ein Beispiel für eine Bereichsbestimmungseinrichtung. Dann berechnet der Bildanordnungsberechnungsabschnitt 134 eine Anordnung zum Anzeigen von Bildern, die durch die Eingabeeinheit 122 angefordert wurden. Der Bildsyntheseabschnitt 138 synthetisiert die Bilder von der temporären Speichereinheit 146 in Übereinstimmung mit der Anordnung und sendet die synthetisierten Bilder an die tragbare Vorrichtung 150.
  • Die tragbare Vorrichtung 150 verarbeitet die empfangenen synthetisierten Bilddaten unter Verwendung der Bildsteuervorrichtung 164 und zeigt die verarbeiteten Daten auf der organischen EL-Anzeige 166 an. Da die Verarbeitung bis zur Bildanzeige mit einer hohen Geschwindigkeit durchgeführt wird, kann die Verarbeitung, selbst wenn der Fahrer 180 seinen Kopf dreht, der Bewegung mit einer hohen Geschwindigkeit folgen. Der Fahrer 180, der die tragbare Vorrichtung 150 trägt, kann somit die von den tatsächlichen Ansichten verschiedenen Außenansichten sehen, ohne Unbehagen zu empfinden.
  • In der obigen Ausführungsform wird eine Vorrichtung einschließlich der Bildsteuervorrichtung 164 und der organischen EL-Anzeige 166 als ein Beispiel für die tragbare Vorrichtung 150 beschrieben. Jedoch kann die tragbare Vorrichtung 150 von anderen Prinzipien Gebrauch machen. Beispielsweise ist eine Ausführungsform mit einem Projektor zum Projizieren von Bildern auf die Netzhaut verwendbar. Die tragbare Vorrichtung 150 kann auch für sichtbares Licht von außen undurchlässig sein und kann Bilder anzeigen, die von einer Kamera aufgenommen wurden.
  • Beispiele für Bilder, die von der tragbaren Vorrichtung 150 angezeigt werden, werden nachstehend unter Bezugnahme auf die 5 bis 12 beschrieben. Die 5 bis 11 zeigen ein schematisches Sichtfeld des Fahrers 180, der die tragbare Vorrichtung 150 trägt; und 12 zeigt ein schematisches Diagramm eines Sichtfeldes eines (von dem Fahrer 180 verschiedenen) Insassen, der die tragbare Vorrichtung 150 trägt. In dem Koordinatensystem in den Zeichnungen gibt ein Pfeil F die Vorderseite des Fahrzeugs an; ein Pfeil U gibt die Aufwärtsrichtung an, und ein Pfeil R gibt die Rechtsrichtung in Bezug auf Insassen an. Der Fahrer 180 sitzt auf dem links in dem Fahrzeug vorgesehenen Fahrersitz. Es wird angenommen, dass das Fahrzeug 100 im Rechtsverkehr unterwegs ist.
  • 5 zeigt eine Ansicht ohne ein von der tragbaren Vorrichtung 150 angezeigtes Bild. In diesem Fall ist das Sichtfeld des Fahrers 180 identisch mit jenem, das mit bloßem Auge gesehen wird.
  • In dem oberen Bereich in dem Sichtfeld ist ein Dach 200 gezeigt. Eine linke A-Säule 202 (auch eine „linke Vordersäule“ genannt) und eine rechte A-Säule 204 sind zur Linken bzw. Rechten des Dachs 200 zu sehen. Die transparente vordere Windschutzscheibe 206 (auch als eine „Frontscheibe“ bezeichnet) ist in dem Bereich vorgesehen, der von dem Dach 200, der linken A-Säule 202 und der rechten A-Säule 204 umgeben ist. Ein an dem Dach 200 befestigter Innenspiegel (Rückspiegel) 208, der ein nachfolgendes Fahrzeug zeigt, ist in etwa am oberen Ende der vorderen Windschutzscheibe 206 gezeigt.
  • Zur Linken des Fahrers 180 sind ein linkes vorderes Seitenfenster (auch eine „linke vordere Seitenscheibe“ genannt) 210 und ein linkes Dreiecksfenster 212 vor dem linken vorderen Seitenfenster 210 gezeigt. Eine linke vordere Türverkleidung 214, die auf der Innenseite einer linken Vordertür angeordnet ist, ist unter dem linken vorderen Seitenfenster 210 gezeigt. Ein linker Außenspiegel (auch ein „linker Seitenspiegel“ genannt) 216, der einen Teil einer Seitenfläche des Fahrzeugs und ein nachfolgendes Fahrzeug zeigt, ist durch das linke vordere Seitenfenster 210 gezeigt.
  • Zur Rechten des Fahrers 180 sind ein rechtes vorderes Seitenfenster 220 und ein rechtes Dreiecksfenster 222 vor dem rechten vorderen Seitenfenster 220 gezeigt. Eine rechte vordere Türverkleidung 224, die auf der Innenseite einer rechten Vordertür angeordnet ist, ist unter dem rechten vorderen Seitenfenster 220 gezeigt. Ein rechter Außenspiegel 226, der einen Teil einer Seitenfläche des Fahrzeugs und ein nachfolgendes Fahrzeug zeigt, ist durch das rechte vordere Seitenfenster 220 gezeigt.
  • Unter der vorderen Windschutzscheibe 206 ist ein Armaturenbrett 230 angeordnet. Eine Mittelkonsole 232 ist in der Mitte unter dem Armaturenbrett 230 durchgängig hiermit vorgesehen. Das Armaturenbrett 230 und die Mittelkonsole 232 beinhalten ein Touch Panel 234 und Bedientasten 236. Die Eingabeeinheit 122 der von dem Fahrer 180 getragenen tragbaren Vorrichtung 150 kann in dem Touch Panel 234 oder den Bedientasten 236 beinhaltet sein.
  • Ein Lenkrad 238 ist vor dem Fahrer 180 und hinter dem Armaturenbrett 230 vorgesehen. Beide Hände des Fahrers 180 liegen auf dem Lenkrad 238. Messinstrumente und -geräte 240 wie etwa ein Geschwindigkeitsmesser des Armaturenbretts 230 sind in dem Lenkrad 238 gezeigt.
  • Durch die vordere Windschutzscheibe 206 ist eine Außenansicht gezeigt. Das Fahrzeug 100 fährt auf einer geradeaus verlaufenden rechten Spur. Eine Mittellinie 302 befindet sich in der Mitte einer Fahrbahn 300. Ein linker Gehweg 304 ist zur Linken der Fahrbahn 300 vorgesehen, wobei Bordsteine 306 eine Abgrenzung von der Fahrbahn 300 bilden. Ein rechter Gehweg 308 ist zur Rechten der Fahrbahn 300 vorgesehen, wobei Bordsteine 310 eine Abgrenzung von der Fahrbahn 300 bilden.
  • Ein entgegenkommendes Fahrzeug 320 fährt auf der linken Spur der Fahrbahn 300. Ein Straßenschild 322 ist auf dem rechten Gehweg 308 angebracht. Ein Fußgänger 324 läuft auf dem rechten Gehweg 308.
  • Die Fahrbahn 300 führt im weiteren Verlauf leicht bergab (nicht gezeigt). Entsprechend ist zwischen der Erde und dem Himmel ein Horizont 330 gebildet.
  • Die 6 und 7 zeigen in zeitlicher Reihenfolge Beispiele, die durch die tragbare Vorrichtung 150 basierend auf den Verkehrsunfalldaten 82 angezeigt werden.
  • 6 zeigt eine Ansicht unmittelbar nach 5. Ein Symbol 400 eines „!‟-Zeichens wird in Vorausrichtung auf der rechten Spur der Fahrbahn 300 angezeigt. Die Anzeige des Symbols 400 erfolgt, um einen Ort anzugeben, an dem sich in der Vergangenheit ein Verkehrsunfall ereignet hat, und den Fahrer 180 davor zu warnen. In dem fahrzeugmontierten System 120 des Fahrzeugs 100 bestimmt der Bildschaltabschnitt 136 des Bildprozessors 130 den Fahrtstandort basierend auf den Fahrtstandortdaten von dem GNSS 140 des fahrzeugmontierten Systems 120 und den Fahrtgeschwindigkeitsdaten von dem Geschwindigkeitsmesser 142 des fahrzeugmontierten Systems 120. Der Bildschaltabschnitt 136 vergleicht auch den bestimmten Fahrtstandort und den Ort der in der temporären Speichereinheit 146 gespeicherten Verkehrsunfalldaten 82. Wenn infolge des Vergleichs bestimmt wird, dass sich das Fahrzeug 100 dem Ort der Verkehrsunfalldaten 82 nähert, wird das Symbol 400 angezeigt. Da es wichtig ist, den Ort eines Verkehrsunfalls genau zu ermitteln, um über den Unfall Bescheid zu wissen, ist das Symbol 400 ausgebildet, um den Ort eines Verkehrsunfalls mit hoher Genauigkeit anzugeben.
  • Das Symbol 400 wird derart angezeigt, dass der größte Teil des Symbols 400 über dem Horizont 330 angezeigt wird, um dem Fahrer 180 ein ausreichendes Sichtfeld zum Fahren zu erlauben. Das Symbol 400 gibt lediglich den Ort des Verkehrsunfalls an, nicht jedoch die Details des Verkehrsunfalls. Das Symbol 400 wird als eine bedienbare Taste angezeigt.
  • 7 zeigt eine Ansicht in dem Fall, dass der Fahrer 180 das Symbol 400 in der in 6 gezeigten Ansicht durch die Bedieneinheit 168 der tragbaren Vorrichtung 150 bedient hat. Ein Textdatenanzeigefenster 402 und ein Bilddatenanzeigefenster 404 werden auf einer Beifahrersitzseite des Armaturenbretts 230 angezeigt. Diese Anzeigeposition behindert nicht das Sichtfeld des Fahrers 180 zum Äußeren des Fahrzeugs oder das Sichtfeld hin zum Lenkrad 238 und den Messinstrumenten und -geräten 240.
  • Das Textdatenanzeigefenster 402 beschreibt kurz eine Kollision mit einem überholenden entgegenkommenden Fahrzeug, die sich einen Monat zuvor ereignet hat. Das Bilddatenanzeigefenster 404 zeigt Videodaten unmittelbar vor der Kollision an. Die Videodaten wurden von einer fahrzeugmontierten Kamera des an der Kollision beteiligten Fahrzeugs erfasst. Die Kamerabilddaten zeigen deutlich ein entgegenkommendes Fahrzeug, das bei dem Versuch, ein Fahrzeug auf der linken Spur von hinten zu überholen, zur rechten Spur ausschert.
  • Der Fahrer 180 kann durch Betrachten der Anzeigefenster 402, 404 augenblicklich die Kurzdarstellung des Verkehrsunfalls erfassen. Der Fahrer 180 kann damit rechnen, dass ihm an dem durch das Symbol 400 angegebenen Ort ein zur rechten Spur ausscherendes Fahrzeug von einem Punkt vor dem Horizont 330 entgegenkommen kann. Auf diese Weise kann ein ähnlicher Verkehrsunfall verhindert werden, da der Fahrer 180 beim Fahren mit erhöhter Vorsicht nach vorne blickt.
  • In der in 6 gezeigten Ausführungsform ist das Symbol 400 ein eingerahmtes „!“-Zeichen. Statt des ,,!‟-Zeichens können dem Fahrer 180 jedoch durch Anzeigen von Textdaten, beispielweise einer „Frontalkollision“, oder einer einfachen Graphik oder Markierung, welche eine Frontalkollision angibt, etwas mehr Details der Ereignisinformationen zur Verfügung gestellt werden.
  • Ferner werden in der in 7 gezeigten Ausführungsform das Textdatenanzeigefenster 402 und das Bilddatenanzeigefenster 404 zusammen angezeigt. Alternativ kann es sein, dass nur eines der Anzeigefenster 402, 404 angezeigt wird. Anstelle eines Videos können Standbilder auf dem Anzeigefenster 404 angezeigt werden. Ferner kann das Anzeigefenster 404 keine tatsächliche Aufnahme eines Verkehrsunfalls, sondern eine schematische Abbildung anzeigen.
  • Wenn sich in einer anderen Ausführungsform das Fahrzeug 100 dem Ort eines Verkehrsunfalls nähert, kann die in 6 dargestellte Anzeige lediglich des Symbols 400 übersprungen werden. Somit können unmittelbar die in 7 gezeigten Anzeigefenster 402, 404 angezeigt werden, um den Fahrer 180 über die Details des Verkehrsunfalls zu informieren.
  • Nachstehend wird eine Anwendung der Ereignisinformationen bei regnerischem Wetter unter Bezugnahme auf die 8 und 9, welche der 5 entsprechen, beschrieben. In 8 zeigt die tragbare Vorrichtung 150 kein Bild an, während die tragbare Vorrichtung 150 in 9 ein Bild anzeigt.
  • Anders als in 5 wird in 8 angenommen, dass das Wetter regnerisch ist. Die Sicht nach draußen durch die vordere Windschutzscheibe 206 und jene durch andere Fenster ist bei Regen leicht getrübt. Beispielsweise sind das entgegenkommende Fahrzeug 320, das Straßenschild 322 und der Fußgänger 324 etwas schlechter zu sehen als in 5. Die Mittellinie 302 und die Bordsteine 306, 310 der Fahrbahn 300 sind auch undeutlich. In dem in 8 gezeigten Beispiel befindet sich ein Hindernis 340 auf der rechten Spur der Fahrbahn 300.
  • 9 zeigt eine Ansicht, bei der die tragbare Vorrichtung 150 ein Bild basierend auf den Schönwetter-Bilddaten 86 in der in 8 gezeigten Ansicht anzeigt. Das Schönwetterbild wird grundsätzlich auf die von der Straße verschiedene Ansicht angewendet. Ein ungetrübtes Schönwetterbild wird in dem Himmel über dem Horizont 330 gezeigt. Das Schönwetterbild wird auch auf dem Boden zur Linken des linken Gehwegs 304 und zur Rechten des rechten Gehwegs 308 angezeigt. Das angezeigte Bild ist ein Video, das in Übereinstimmung mit dem Fahrtstandort des Fahrzeugs 100 weiterläuft. Der Fahrer kann den aktuellen Fahrtbereich deutlich erkennen.
  • Hingegen wird das Schönwetterbild grundsätzlich nicht auf der Straße angezeigt. Konkret wird kein Bild auf der Straße, einschließlich der Fahrbahn 300, des linken Gehwegs 304 und des rechten Gehwegs 308, des entgegenkommenden Fahrzeugs 320, des Straßenschilds 322 und des Fußgängers 324, angezeigt. Da der Fahrer 180 in diesen Abschnitten tatsächliche Ansichten sieht, kann der Fahrer 180 das Hindernis 340 auf der Fahrbahn 300 erkennen. Obwohl nicht gezeigt, werden keine Bilder für die Abschnitte von beispielsweise Verkehrsampeln, anderen Fahrzeugen auf der rechten Spur, und Nebenstraßen (mit einer Einmündung), falls vorhanden, angezeigt. Dies steht mit dem Grundsatz im Einklang, keine Bilder für diejenigen Abschnitte anzuzeigen, welche aktuelle Ereignisinformationen benötigen, um ein sicheres Fahren zu gewährleisten.
  • Jedoch wird in 9 das Schönwetterbild für die Mittellinie 302 und die Bordsteine 310 angezeigt. Dies dient zum Verbessern der Fahrsicherheit, indem der auf der rechten Spur verfügbare Fahrstreifen verdeutlicht wird. Da insbesondere die veranschaulichte rechte Spur und die linke Spur für entgegenkommende Fahrzeuge nur durch die Mittellinie 302 abgegrenzt werden, ist eine solche Verdeutlichung der Mittellinie 302 vorteilhaft, um eine Kollision mit einem entgegenkommenden Fahrzeug zu verhindern. Die veranschaulichte rechte Spur liegt neben dem rechten Gehweg 308. Eine Verdeutlichung der Bordsteine 310, die als Abgrenzung zwischen der Fahrbahn 300 und dem rechten Gehweg 308 dienen, ist auch zum Verhindern einer Kollision mit einem Fußgänger von Vorteil.
  • Wenn anstelle der Bordsteine 310 oder zusätzlich hierzu weiße Linien oder andere Mittel verwendet werden, um die Fahrspuren zwischen dem rechten Gehweg 308 und der Fahrbahn 300 zu definieren, können Bilder der weißen Linien oder anderen Mittel anstelle der Bordsteine 310 angezeigt werden. Wenn ferner die Fahrbahn 300 eine zweispurige Straße ist, kann zunächst die Begrenzung der aktuell befahrenen Strecke verdeutlicht werden und dann kann im Hinblick auf einen möglichen Spurwechsel die Begrenzung der anderen Spur verdeutlicht werden. Hingegen wird für die Bordsteine 306 zwischen der Fahrbahn 300 und dem linken Gehweg 304 keine Verdeutlichung anhand von Bildern durchgeführt, da die Bordsteine 306 nicht unmittelbar mit der Fahrt des Fahrzeugs 100 zusammenhängen.
  • In der in 9 gezeigten Ausführungsform sind die Mittellinie 302 und die Bordsteine 310 die Bilder der entsprechenden Abschnitte in den Kamerabilddaten, die in der Vergangenheit erfasst wurden, mit anderen Worten werden die Bilder der Mittellinie 302 und der Bordsteine 310 aus den Kamerabilddaten extrahiert. Zum Anzeigen dieser Bilder werden die einstigen Bilder angezeigt, nachdem eine Bilderkennung durchgeführt wurde, um zu bestätigen, dass die aktuelle Mittellinie 302 und die einstige Mittellinie 302 nahezu identisch sind und auch die aktuellen Bordsteine 310 und die einstigen Bordsteine 310 nahezu identisch sind. Damit wird vermieden, dass die einstigen Bilder der Mittellinie 302 angezeigt werden, wenn die Mittellinie 302 neu gezogen wurde und sich von den einstigen Bildern unterscheidet. Alternativ, wenn die Mittellinie 302 aufgrund von Schnee unsichtbar ist, kann die einstige Mittellinie 302 ohne die Bestätigung der Übereinstimmung zwischen der aktuellen Mittellinie 302 und der einstigen Mittellinie 302 angezeigt werden.
  • Wenn sich das Hindernis 340 auf der Mittellinie 302 befindet, wird das Hindernis 340 verborgen, wenn die Bilder komplett ersetzt werden. Um in einem solchen Fall die Mittellinie 302 basierend auf den Schönwetterbildern anzuzeigen, können die Schönwetterbilder transparent gemacht und der aktuellen Mittellinie 302 überlagert werden. Alternativ können, da die Mittellinie 302 und die Bordsteine 310 relativ einfache Formen besitzen, erstellte virtuelle Linien anstelle der Schönwetterbilder angezeigt werden.
  • An Stellen, an denen der rechte Gehweg 308 oder der linke Gehweg 304 eng ist oder nicht vorgesehen ist, kann aus einem Gebäude, einem Park oder einem Parkplatz neben der Straße plötzlich ein Fußgänger oder ein Fahrzeug auf der Fahrbahn 300 erscheinen. Der Bereich, in dem keine einstigen Bilder angezeigt werden, kann in Bezug auf die Straße geringfügig verbreitert werden. Konkret kann der Bereich, in dem keine einstigen Bilder angezeigt werden, so festgelegt werden, dass er einen Bereich einschließt, der sich nicht auf der Straße, sondern neben der Straße befindet und die Verkehrssicherheit beeinflussen kann (nachstehend als eine „Neben-der-Straße-Ansicht“ bezeichnet). In einer möglichen Ausführungsform kann der Bereich innerhalb eines vorbestimmten Abstandes (beispielsweise innerhalb von 3, 5 oder 10 Metern) von einem Rand der Straße als der Bereich festgelegt werden, in dem, analog zu der Straße, keine einstigen Bilder angezeigt werden. Wenn sich in diesem Bereich Objekte, darunter Gebäude wie etwa ein Haus oder ein Geschäft oder ein Baum, befinden, dann kann es sein, dass für untere Abschnitte (zum Beispiel weniger als 2 oder 3 Meter ab einer Straßenoberfläche) der Objekte keine einstigen Bilder angezeigt werden. Aufgrund dessen ist es möglich, Menschen zu sehen, die gerade ein Geschäft betreten oder verlassen und gleichzeitig auch aus dem Schönwetterbild die Aufmachung des Geschäfts einschließlich des Reklameschildes deutlich zu erkennen.
  • In der in 9 gezeigten Ausführungsform werden über dem Straßenschild 322 keine Bilder angezeigt, so dass das tatsächliche Straßenschild 322 sichtbar ist. Analog zu der Mittellinie 302 und anderen Fällen, kann ein vorab erstelltes Abbild des Straßenschildes 322 angezeigt werden, wenn die Bedeutung des Straßenschildes 322 durch Bilderkennung bestätigt werden kann. Dies ermöglicht es dem Fahrer 180, das Straßenschild 322 deutlich zu sehen.
  • Eine Ausführungsform zum Anzeigen der einstigen Ansichtsdaten 84 wird nachstehend unter Bezugnahme auf 10 beschrieben. 10 zeigt eine Ansicht, auf die ausgehend von jener in 5 basierend auf den fünf Jahre zuvor in dem Bereich erfassten Kamerabilddaten umgeschaltet wurde. In diesem Bereich waren fünf Jahre zuvor rund um die Fahrbahn 300 keine Gebäude oder andere Strukturen vorhanden. Jedoch erstreckt sich in Vorausrichtung ein kleiner Hügel 410 und es sind Bäume 412 vorhanden. In 10 wird die Ansicht mit Ausnahme der Straße durch die fünf Jahre zuvor erfassten Kamerabilddaten ersetzt. Die Anzeige erfolgt mit einem Video, das der Bewegung des Fahrzeugs 100 folgt. Wenn die einstigen Kamerabilddaten angezeigt werden, kann der Fahrer 180 Unbehagen empfinden, wenn die aktuellen Bilder und die einstigen Bilder erheblich voneinander abweichen. Eine Anpassung kann durchgeführt werden, um die einstigen Bilder mit relativ hoher Genauigkeit an die aktuellen Bilder anzugleichen.
  • In 10 werden auf der Fahrbahn 300, dem linken Gehweg 304, dem rechten Gehweg 308, dem entgegenkommenden Fahrzeug 320, dem Straßenschild 322 und dem Fußgänger 324, mit anderen Worten den Abschnitten einer Straßenansicht, keine einstigen Bilder angezeigt. Dies geschieht im Hinblick auf die Verkehrssicherheit, wie oben in Bezug auf 9 beschrieben. In 10 ist es möglich, für die Neben-der-Straße-Ansicht keine einstigen Bilder anzuzeigen.
  • Eine Ausführungsform zum Anzeigen der zukünftigen virtuellen Daten 90 wird nachstehend unter Bezugnahme auf 11 beschrieben. 11 zeigt eine Ansicht, auf die ausgehend von jener in 5 umgeschaltet wurde. 11 zeigt eine Ansicht, die in diesem Bereich in fünf Jahren in der Zukunft erwartet wird. In diesem Bereich befindet sich derzeit ein Flughafen im Bau. Der kleine Hügel 410, der fünf Jahre zuvor vorhanden war, wurde entfernt, um den Untergrund für die Bauausführung vorzubereiten. Die Eröffnung des Flughafens ist in drei Jahren geplant.
  • In 11 ist die Ansicht mit Ausnahme der Straße durch ein virtuelles Bild ersetzt, das auf Videodaten beruht, die in Erwartung der Ansicht nach der Eröffnung des Flughafens erstellt wurden. Konkret werden Gebäude einschließlich eines Kontrollturms 420 des Flughafens und eines von dem Flughafen abhebenden Flugzeugs 422 angezeigt. Hingegen werden auf der Straße und der Neben-der-Straße-Ansicht keine auf den zukünftigen virtuellen Daten 90 beruhenden Bilder angezeigt, um der Gewährleistung von Verkehrssicherheit Priorität einzuräumen. Die zukünftigen virtuellen Daten 90 ermöglichen es dem Fahrer 180, zukünftige Ansichten zu genießen und einen zukünftigen Entwicklungsplan zu erkennen.
  • Wenn die zukünftigen virtuellen Daten 90 eine bestimmte bauliche Anlage betreffen, wie etwa ein Gebäude, dann kann die Ansicht realistischer werden, indem die bauliche Anlage an einem tatsächlichen Ort, an dem die bauliche Anlage errichtet wird, angezeigt wird. Da es jedoch generell unmöglich ist, den Ort eines zukünftigen Objekts oder des Auftretens eines Ereignisses, einschließlich des Orts von Bauvorhaben, genau zu bestimmen, ist eine genaue Anzeige nicht immer erforderlich. Selbst nicht so genaue Bilder können ausreichen, um dem Fahrer 180 Realität zu bieten, sofern sich die Bilder in Übereinstimmung mit der Bewegung des Fahrzeugs 100 verändern, wenn das Fahrzeug 100 vorwärts fährt, beschleunigt oder abbiegt.
  • In der obigen Beschreibung werden Ausführungsformen beispielhaft beschrieben, in denen durch die von dem Fahrer 180 getragene tragbare Vorrichtung 150 Bilder angezeigt werden. Analog können durch die tragbare Vorrichtung 150 verschiedene Anzeigen möglich sein, wenn ein von dem Fahrer 180 verschiedener Insasse die tragbare Vorrichtung 150 trägt.
  • 12 zeigt eine Ausführungsform, in der das Fahrzeug 100 in einem autonomen Fahrmodus fährt. Ein Insasse 190 hinter dem Steuer ist nicht für das Fahren zuständig. Der Insasse 190 betätigt nicht das Lenkrad 238.
  • 12 zeigt eine durch die tragbare Vorrichtung 150 angezeigte Ansicht, bei der der Insasse 190 die in 5 gezeigte Ansicht auf ein einstiges virtuelles Video umgeschaltet hat. In dieser Ausführungsform wird angenommen, dass dieses Gebiet als ein Schlachtfeld zwischen Truppen, die vor 400 Jahren von zwei bedeutenden Feldherren angeführt wurden, Berühmtheit erlangt hat. Als die einstigen virtuellen Daten 88 werden Videodaten erstellt, um Kampfszenen wiederzugeben.
  • 12 zeigt das oben beschriebene Video durch die vordere Windschutzscheibe 206, das linke vordere Seitenfenster 210, das linke Dreiecksfenster 212, das rechte vordere Seitenfenster 220 und das rechte Dreiecksfenster 222 und bedient sich dabei der gesamten jeweiligen Fenster. Konkret werden der kleine Hügel 410, der fünf Jahre zuvor vorhanden war, und viele Bäume 430 weit vom angezeigt. Kämpfer 432 einer Einheit unter Führung eines der beiden Feldherren sind auf der rechten Seite gezeigt. Jeder Kämpfer trägt eine Fahne auf dem Rücken und hält eine Luntenschlosswaffe im Anschlag. Zäune 434 sind vor den Kämpfern 432 vorgesehen, um ein Vorrücken von Schlachtrössein zu stoppen. Ein Pferd 436, auf dem ein Kämpfer einer von dem anderen Feldherren geführten Einheit reitet, ist auf der linken Seite gezeigt. Das Pferd 436 übernimmt die Führung und startet den Angriff.
  • Die angezeigten Bilder sind mehr als eine bloße dramatische Aufführung; so verlagert sich die Perspektive in Übereinstimmung mit der Bewegung des Fahrzeugs 100. In dem in 12 gezeigten Beispiel werden weiter vorne nach und nach mehr Krieger sichtbar, während das Fahrzeug 100 weiterfährt. Es sei darauf hingewiesen, dass die tatsächliche Fahrzeuggeschwindigkeit und die Bewegungsgeschwindigkeit der Kämpfer in den Bildern nicht völlig übereinstimmen müssen. Es würde ausreichen, wenn die Bewegungsgeschwindigkeit der Kämpfer der Bewegung des Fahrzeugs 100 entspricht. Während der Weiterfahrt des Fahrzeugs 100 werden die Bilder so verändert, dass sie einen Nahkampf zeigen, in dem die Truppen mit Hilfe von Speeren und Schwertern kämpfen. Die erstellten Bilddaten zeigen dabei den bedeutenden Feldherren in Rüstung. Der Insasse 190 kann das einstige Ereignis in dem Video anhand der tragbaren Vorrichtung 150 genießen. Auch können entsprechend dem Video Stimmen und Klänge ausgegeben werden, um das Video realistischer werden zu lassen.
  • In der in 12 gezeigten Ausführungsform werden die Bilder nur in der vorderen Windschutzscheibe 206, dem linken vorderen Seitenfenster 210, dem linken Dreiecksfenster 212, dem rechten vorderen Seitenfenster 220 und dem rechten Dreiecksfenster 222 gezeigt. Daran soll dem Insassen 190 bewusst werden, dass er in dem Fahrzeug 100 fährt, während er die Bilder genießt. Ferner kann es für den Insassen 190 beruhigend sein zu wissen, dass er das Touch Panel 234 und die Bedientasten 236 bedienen und sich davon überzeugen kann, dass das Lenkrad 238 und die Messinstrumente und -geräte 240 vorgesehen sind, ohne dass auf diesen Abschnitten Bilder angezeigt werden. Um jedoch der Anzeige von Bildern Priorität einzuräumen, können Bilder beispielsweise auch auf der linken A-Säule 202 und der rechten A-Säule 204 und ferner an dem Dach 200 und dem Armaturenbrett 230 angezeigt werden.
  • In der in 12 gezeigten Ausführungsform wird die gesamte Straßenansicht einschließlich der Fahrbahn 300 durch die einstigen virtuellen Daten 88 ersetzt. Der Grund ist, dass der Insasse 190 in dem autonomen Fahrmodus nicht für das Fahren des Fahrzeugs 100 zuständig ist und der Insasse 190 dem Geschehen außerhalb des Fahrzeugs 100 nicht zum Zweck des Fahrens seine Aufmerksamkeit schenken muss. Für den von dem Fahrer 180 verschiedenen Insassen 190 können Bilder über der Straßenansicht und neben der Straßenansicht angezeigt werden. Dies ist nicht auf die in 12 gezeigte Anzeige der einstigen virtuellen Daten 88 beschränkt. In den in 5 bis 11 gezeigten Ausführungsformen können Bilder angezeigt werden, ohne dass dabei auf Verkehrssicherheit geachtet werden muss. Für Insassen in Rücksitzen oder Insassen in einem Bus können Bilder so angezeigt werden, dass sie nicht nur die Windschutzscheibe und Fenster überlagern, sondem auch andere Abschnitte, da ihre Sichtfelder enger sind, als jenes des Insassen in einem Vordersitz.
  • Die vorliegende Erfindung kann in verschiedenen anderen Ausführungsformen vorliegen. Beispielsweise kann ein Anzeigesystem gemäß der vorliegenden Erfindung eine Informationserlangungseinheit beinhalten, die ausgebildet ist, um Ereignisinformationen über ein einstiges oder zukünftiges Ereignis innerhalb des Sichtfeldes eines Insassen eines Fahrzeugs zu erlangen und die erlangten Ereignisinformationen mit dem Ort des Ereignisses zu verknüpfen. Das Anzeigesystem kann auch eine zum Erlangen eines Sichtfelds des Fahrzeuginsassen ausgebildete Reichweitenerlangungseinheit und eine Anzeigeeinheit, die das Ereignis in dem Sichtfeld des Insassen anzeigt, wenn der Ort der Ereignisinformationen innerhalb des Sichtfeldes liegt, beinhalten.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2019221292 [0001]
    • JP 2004219664 A [0004, 0005]

Claims (11)

  1. Anzeigesystem, aufweisend: eine Informationserlangungseinheit, die ausgebildet ist, um Ereignisinformationen über ein Ereignis in der Vergangenheit oder Zukunft, das sich in einem Sichtfeld eines Insassen eines Fahrzeugs befindet, zu erlangen; und eine Anzeigeeinheit, die ausgebildet ist, um das Ereignis in dem Sichtfeld des Insassen basierend auf den erlangten Ereignisinformationen anzuzeigen, wobei die Informationserlangungseinheit als die Ereignisinformationen Fahrzeugaußenansichtsbilddaten (84) erlangt, die von einem Fahrzeug in der Vergangenheit erfasst wurden, und die Anzeigeeinheit die erlangten Bilddaten anpasst, so dass sie einem Fahrtstandort des Fahrzeugs mit dem Insassen entsprechen, und das Ereignis basierend auf den angepassten Bilddaten anzeigt.
  2. Anzeigesystem, aufweisend: eine Informationserlangungseinheit, die ausgebildet ist, um Ereignisinformationen über ein Ereignis in der Vergangenheit oder Zukunft, das sich in einem Sichtfeld eines Insassen eines Fahrzeugs befindet, zu erlangen; und eine Anzeigeeinheit, die ausgebildet ist, um das Ereignis in dem Sichtfeld des Insassen basierend auf den erlangten Ereignisinformationen anzuzeigen, wobei die Informationserlangungseinheit als die Ereignisinformationen einstige Verkehrsunfallinformationen (82) erlangt, und die Anzeigeeinheit ein Ereignis des Verkehrsunfalls mit einer klaren Angabe eines Orts des Verkehrsunfalls anzeigt.
  3. Anzeigesystem, aufweisend: eine Informationserlangungseinheit, die ausgebildet ist, um Ereignisinformationen über ein Ereignis in der Vergangenheit oder Zukunft, das sich in einem Sichtfeld eines Insassen eines Fahrzeugs befindet, zu erlangen; und eine Anzeigeeinheit, die ausgebildet ist, um das Ereignis in dem Sichtfeld des Insassen basierend auf den erlangten Ereignisinformationen anzuzeigen, wobei die Informationserlangungseinheit als die Ereignisinformationen Bilddaten (88) erlangt, die über ein Ereignis erstellt wurden, für das angenommen wird, dass es in der Vergangenheit stattgefunden hat, und die Anzeigeeinheit die erlangten Bilddaten anpasst, so dass sie einem Fahrtstandort des Fahrzeugs mit dem Insassen entsprechen, und das Ereignis basierend auf den angepassten Bilddaten anzeigt.
  4. Anzeigesystem, aufweisend: eine Informationserlangungseinheit, die ausgebildet ist, um Ereignisinformationen über ein Ereignis in der Vergangenheit oder Zukunft, das sich in einem Sichtfeld eines Insassen eines Fahrzeugs befindet, zu erlangen; und eine Anzeigeeinheit, die ausgebildet ist, um das Ereignis in dem Sichtfeld des Insassen basierend auf den erlangten Ereignisinformationen anzuzeigen, wobei die Informationserlangungseinheit als die Ereignisinformationen virtuelle Bilddaten (90) erlangt, die über ein Ereignis erstellt wurden, für das angenommen wird, dass es in der Zukunft stattfinden wird, und die Anzeigeeinheit die erlangten Bilddaten anpasst, so dass sie einem Fahrtstandort des Fahrzeugs mit dem Insassen entsprechen, und das Ereignis basierend auf den angepassten Bilddaten anzeigt.
  5. Anzeigesystem nach Anspruch 1, wobei der Insasse ein Fahrer ist, und die Anzeigeeinheit ausgebildet ist, um eine entsprechende Ansicht durch Überlagern oder Ersetzen einer tatsächlichen Ansicht mit Ausnahme einer Straße anzuzeigen.
  6. Anzeigesystem nach Anspruch 3, wobei der Insasse ein Fahrer ist, und die Anzeigeeinheit ausgebildet ist, um eine entsprechende Ansicht durch Überlagern oder Ersetzen einer tatsächlichen Ansicht mit Ausnahme einer Straße anzuzeigen.
  7. Anzeigesystem nach Anspruch 4, wobei der Insasse ein Fahrer ist, und die Anzeigeeinheit ausgebildet ist, um eine entsprechende Ansicht durch Überlagern oder Ersetzen einer tatsächlichen Ansicht mit Ausnahme einer Straße anzuzeigen.
  8. Anzeigesystem nach Anspruch 1, wobei der Insasse kein Fahrer ist, und die Anzeigeeinheit ausgebildet ist, um eine entsprechende Ansicht durch Überlagern oder Ersetzen einer tatsächlichen Ansicht einschließlich einer Straße anzuzeigen.
  9. Anzeigesystem nach Anspruch 3, wobei der Insasse kein Fahrer ist, und die Anzeigeeinheit ausgebildet ist, um eine entsprechende Ansicht durch Überlagern oder Ersetzen einer tatsächlichen Ansicht einschließlich einer Straße anzuzeigen.
  10. Anzeigesystem nach Anspruch 4, wobei der Insasse kein Fahrer ist, und die Anzeigeeinheit ausgebildet ist, um eine entsprechende Ansicht durch Überlagern oder Ersetzen einer tatsächlichen Ansicht einschließlich einer Straße anzuzeigen.
  11. Anzeigesystem nach Anspruch 1, wobei die Informationserlangungseinheit ausgebildet ist, um die in der Vergangenheit bei schönem oder wolkigem Wetter erfassten Bilddaten (86) zu erlangen, wenn das aktuelle Wetter rund um das Fahrzeug mit dem Insassen Regen oder Schnee ist, und die Anzeigeeinheit ausgebildet ist, um eine Mittellinie basierend auf den Bilddaten durch Überlagern oder Ersetzen einer tatsächlichen Mittellinie anzuzeigen.
DE102020128224.9A 2019-12-06 2020-10-27 Anzeigesystem Pending DE102020128224A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019221292A JP7384014B2 (ja) 2019-12-06 2019-12-06 表示システム
JP2019-221292 2019-12-06

Publications (1)

Publication Number Publication Date
DE102020128224A1 true DE102020128224A1 (de) 2021-06-10

Family

ID=75962705

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020128224.9A Pending DE102020128224A1 (de) 2019-12-06 2020-10-27 Anzeigesystem

Country Status (4)

Country Link
US (1) US11590902B2 (de)
JP (1) JP7384014B2 (de)
CN (1) CN112927538A (de)
DE (1) DE102020128224A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11840252B2 (en) * 2019-03-15 2023-12-12 Honda Motor Co., Ltd. Vehicle communications device and non-transitory computer-readable recording medium storing program
CN114931297B (zh) * 2022-05-25 2023-12-29 广西添亿友科技有限公司 一种新能源房车的颠簸约束方法及系统
WO2024100758A1 (ja) * 2022-11-08 2024-05-16 日本電気株式会社 データ提供システム、データ提供方法及び記録媒体

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0669574B2 (ja) * 1987-09-05 1994-09-07 日新製鋼株式会社 ステンレス鋼の圧延方法
US6266614B1 (en) * 1997-12-24 2001-07-24 Wendell Alumbaugh Travel guide
US20020019696A1 (en) * 2000-05-23 2002-02-14 Jonathan Kruse Vehicle commentary method and system
JP2004219664A (ja) 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd 情報表示システム及び情報表示方法
JP4246195B2 (ja) * 2005-11-01 2009-04-02 パナソニック株式会社 カーナビゲーションシステム
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム
JP2008157880A (ja) * 2006-12-26 2008-07-10 Victor Co Of Japan Ltd 車載カメラ装置を用いた運転支援装置
US20100198506A1 (en) * 2009-02-03 2010-08-05 Robert Steven Neilhouse Street and landmark name(s) and/or turning indicators superimposed on user's field of vision with dynamic moving capabilities
JP2011128005A (ja) 2009-12-17 2011-06-30 Fujitsu Ten Ltd ナビゲーション装置、車載表示システム及び地図表示方法
JP2011152865A (ja) 2010-01-27 2011-08-11 Kyocera Corp 車載撮像装置
US9122707B2 (en) * 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
US20110301813A1 (en) * 2010-06-07 2011-12-08 Denso International America, Inc. Customizable virtual lane mark display
JP5804571B2 (ja) * 2010-09-06 2015-11-04 国立大学法人 東京大学 車両システム
US9286711B2 (en) * 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
EP2793193B1 (de) * 2011-12-15 2019-03-27 Pioneer Corporation Anzeigevorrichtung und anzeigeverfahren
JP5955662B2 (ja) * 2012-06-25 2016-07-20 アルパイン株式会社 拡張現実システム
US9124795B2 (en) * 2012-10-26 2015-09-01 Nokia Technologies Oy Method and apparatus for obtaining an image associated with a location of a mobile terminal
US9317173B2 (en) * 2012-11-02 2016-04-19 Sony Corporation Method and system for providing content based on location data
US9918199B2 (en) * 2013-03-01 2018-03-13 Harley E. ROUDA, JR. Subject matter based tour guide
US9536353B2 (en) * 2013-10-03 2017-01-03 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9547173B2 (en) * 2013-10-03 2017-01-17 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9715764B2 (en) * 2013-10-03 2017-07-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
KR102063895B1 (ko) * 2015-04-20 2020-01-08 삼성전자주식회사 서버, 사용자 단말 장치 및 그 제어 방법
KR20170015112A (ko) * 2015-07-30 2017-02-08 삼성전자주식회사 자율 주행 차량 및 그의 동작 방법
JP6501035B2 (ja) 2016-03-23 2019-04-17 日本電気株式会社 眼鏡型ウェアラブル情報端末、その制御方法および制御プログラム
US20170287217A1 (en) * 2016-03-30 2017-10-05 Kahyun Kim Preceding traffic alert system and method
US10451435B2 (en) * 2016-06-03 2019-10-22 Panasonic Automotive Systems Company of America, Division of Panasonic of North American Method of using GPS map information to highlight road markings on a head up display that otherwise may be non-visible due to inclement weather
CN206532530U (zh) * 2016-09-06 2017-09-29 邵亿昌 一种车窗虚拟现实显示系统
DE102017200733A1 (de) * 2017-01-18 2018-07-19 Audi Ag Unterhaltungssystem für ein Kraftfahrzeug und Verfahren zum Betreiben eines Unterhaltungssystems
US10082869B2 (en) * 2017-02-03 2018-09-25 Qualcomm Incorporated Maintaining occupant awareness in vehicles
DE102017215163B4 (de) * 2017-08-30 2019-04-11 Volkswagen Aktiengesellschaft System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs
DE102017218214A1 (de) * 2017-10-12 2019-04-18 Audi Ag Verfahren und System zum Betreiben wenigstens einer Virtual-Reality-Brille in einem Kraftfahrzeug
JP2019139368A (ja) 2018-02-07 2019-08-22 パイオニア株式会社 情報表示制御装置、情報表示制御方法及び情報表示制御プログラム
CN208537853U (zh) * 2018-04-04 2019-02-22 深圳市欣雅艺珠宝首饰有限公司 一种车用增强现实眼镜
US20190317328A1 (en) * 2018-04-17 2019-10-17 Faraday&Future Inc. System and method for providing augmented-reality assistance for vehicular navigation
JP6523522B2 (ja) 2018-04-25 2019-06-05 京セラ株式会社 電子機器、電子機器制御方法及び電子機器制御プログラム
DE102018211261A1 (de) * 2018-07-09 2020-01-09 Audi Ag Verfahren zum Betreiben einer von einem Fahrzeuginsassen eines Kraftfahrzeugs am Kopf getragenen Anzeigeeinrichtung und Anzeigesystem für ein Kraftfahrzeug
JP7082538B2 (ja) * 2018-07-10 2022-06-08 本田技研工業株式会社 画像処理装置及びプログラム
DE102018215265A1 (de) * 2018-09-07 2020-03-12 Audi Ag Verfahren und Steuereinrichtung zum Betreiben einer am Kopf tragbaren Anzeigeeinrichtung in einem Kraftfahrzeug
US10820141B2 (en) * 2018-11-16 2020-10-27 Here Global B.V. Method and apparatus for presenting privacy-respectful and personalized location-based comments based on passenger context and vehicle proximity to the location
KR20200063789A (ko) * 2018-11-28 2020-06-05 재단법인 구미전자정보기술원 Ar 글라스 및 이를 이용한 증강현실 서비스 제공 방법
CN109658700A (zh) * 2019-03-05 2019-04-19 上汽大众汽车有限公司 交叉路口防撞预警装置及预警方法
JP2021064906A (ja) * 2019-10-16 2021-04-22 トヨタ自動車株式会社 画像表示システム
US11623653B2 (en) * 2020-01-23 2023-04-11 Toyota Motor Engineering & Manufacturing North America, Inc. Augmented reality assisted traffic infrastructure visualization
DE102020203428A1 (de) * 2020-03-17 2021-09-23 Volkswagen Aktiengesellschaft Anzeigevorrichtung und Verfahren zum Betreiben einer Anzeigevorrichtung
CN111831371A (zh) * 2020-06-05 2020-10-27 北京百度网讯科技有限公司 车窗及其显示控制方法和系统、服务器、设备、存储介质

Also Published As

Publication number Publication date
JP2021092839A (ja) 2021-06-17
JP7384014B2 (ja) 2023-11-21
US20210170957A1 (en) 2021-06-10
CN112927538A (zh) 2021-06-08
US11590902B2 (en) 2023-02-28

Similar Documents

Publication Publication Date Title
DE60214060T2 (de) Vorrichtung zur Bereitstellung einer Wegbeschreibung
DE102020128224A1 (de) Anzeigesystem
DE102015006612B4 (de) Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug und System mit einer Datenbrille
DE102004060380B4 (de) Fahrzeuginformationsanzeigesystem
DE102017216100A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Display-Vorrichtung für ein Kraftfahrzeug
DE102017114049A1 (de) Systeme zum auswählen und durchführen von routen für autonome fahrzeuge
WO2013113500A1 (de) Fahrerassistenzsystem und verfahren zur virtuellen darstellung eines strassenverlaufs bei verdeckung und/oder schlechten sichtverhältnissen
EP3717954B1 (de) Verfahren zur anzeige des verlaufs einer trajektorie vor einem fahrzeug oder einem objekt mit einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens
DE102007058295A1 (de) Anzeigeeinrichtung für Kraftfahrzeug
DE102012222053A1 (de) Fahrzeuggeisterbild an Anzeige für gesamte Windschutzscheibe
DE112012007236T5 (de) Sichtbarkeitsschätzungsgerät, Sichtbarkeitsschätzungsverfahren und Fahrsicherheitsunterstützungssystem
DE102004048347A1 (de) Fahrassistenzvorrichtung zur gegenüber dem Sichtfeld des Fahrers eines Kraftfahrzeugs positionsrichtigen Darstellung des weiteren Straßenverlaufs auf einem Fahrzeugdisplay
DE112020001221T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und mobile Körpervorrichtung
WO2020074280A1 (de) Verfahren und einrichtung zur steuerung von anzeigeinhalten auf einem ausgabemittel eines fahrzeugs
DE102016220647A1 (de) Verfahren zum Darstellen mindestens einer ergänzenden Differenz-Fahrbahnausstattung
WO2014198544A1 (de) Verfahren und vorrichtung zum signalisieren eines visuell zumindest teilweise verdeckten verkehrsobjekts für einen fahrer eines fahrzeugs
DE102010003851A1 (de) Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug
DE102017215161A1 (de) Verfahren und Vorrichtung zur Anwahl von einem Umgebungsobjekt im Umfeld eines Fahrzeugs
DE102017209240A1 (de) Verfahren zur Ansteuerung wenigstens einer Vorrichtung von einem Kraftfahrzeug
EP1586861B1 (de) Verfahren und Vorrichtung zur Darstellung von Fahrerinformationen unter Berücksichtigung anderer beweglicher Objekte
DE102016014712A1 (de) Fahrzeug und Verfahren zur Ausgabe von Informationen an eine Fahrzeugumgebung
DE102012018556B4 (de) Assistenzsystem zur Ermöglichung einer erweiterten Vorausschau für nachfolgende Verkehrsteilnehmer
EP3749541A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE112020006958T5 (de) Anzeigevorrichtung, Anzeigeverfahren und Fahrzeug
DE102017209508A1 (de) Verfahren und Vorrichtung zum Betreiben eines Parkplatzassistenzsystems in einem Kraftfahrzeug mit einer Datenbrille

Legal Events

Date Code Title Description
R012 Request for examination validly filed