DE112016006725T5 - Bildanzeigevorrichtung, bildanzeigeverfahren und bildanzeigeprogramm - Google Patents

Bildanzeigevorrichtung, bildanzeigeverfahren und bildanzeigeprogramm Download PDF

Info

Publication number
DE112016006725T5
DE112016006725T5 DE112016006725.9T DE112016006725T DE112016006725T5 DE 112016006725 T5 DE112016006725 T5 DE 112016006725T5 DE 112016006725 T DE112016006725 T DE 112016006725T DE 112016006725 T5 DE112016006725 T5 DE 112016006725T5
Authority
DE
Germany
Prior art keywords
moving body
shield
image display
display device
allowed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112016006725.9T
Other languages
English (en)
Inventor
Yoshihiro Tomaru
Takefumi Hasegawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112016006725T5 publication Critical patent/DE112016006725T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection

Abstract

Eine Bildanzeigevorrichtung (10) erwirbt Informationen über ein Objekt um einen sich bewegenden Körper (100) herum und bestimmt, ob eine Abschirmung für das Objekt zulässig oder nicht zulässig ist, in Abhängigkeit davon, ob eine erworbene Wichtigkeit des Objekts höher als ein Schwellenwert ist. Die Bildanzeigevorrichtung (10) zeigt Bilddaten an, die das Objekt anzeigen, durch Überlagern von diesen über eine Szenerie um den sich bewegenden Körper (100) herum, ungeachtet einer Position des Objekts, mit Bezug auf das Objekt, für das bestimmt ist, dass die Abschirmung nicht zulässig ist, und bestimmt, ob das Objekt durch Überlagerung von diesem über die Szenerie anzuzeigen ist, gemäß der Position des Objekts, mit Bezug auf das Objekt, für das bestimmt ist, dass die Abschirmung zulässig ist.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Technik zur Anzeige eines Objekts um einen sich bewegenden Körper herum, indem das Objekt einer Szene um den sich bewegenden Körper herum überlagert wird.
  • Stand der Technik
  • Es gibt eine Technik des Überlagerns und Anzeigens von Navigationsdaten als ein CG(Computergrafik)-Inhalt auf der Szene, die ein Bild vor einem Fahrzeug ist, das von einer Kamera aufgenommen wird, derart, als ob er zu der Szene gehörte. Die Patentdokumente 1 und 2 beschreiben diese Technik.
  • Im Patentdokument 1 werden zwei Tiefen der Szene und des zu überlagernden CG-Inhalts verglichen. Im Patentdokument 1 wird, wenn bestimmt wird, dass sich der CG-Inhalt auf der entfernten Seite der Szene befindet, der Inhalt des entsprechenden Bereichs nicht angezeigt, und wenn bestimmt wird, dass der CG-Inhalt sich auf der nahen Seite der Szene befindet, wird der Inhalt des entsprechenden Bereichs angezeigt. Dies bringt eine Abschirmbeziehung zwischen der Szene und dem Inhalt in Einklang mit der Realität und erhöht einen Realitätssinn.
  • Im Patentdokument 2 werden periphere Objekte wie ein vorderes Fahrzeug, die durch einen Sensor im Fahrzeug erfasst werden, in der gleichen Weise wie im Patentdokument 1 angezeigt.
  • Zitierungsliste
  • Patentliteratur
  • Kurzfassung der Erfindung
  • Technisches Problem
  • In den Patentdokumenten 1 und 2 wird der CG-Inhalt gemäß einer realen Positionsbeziehung angezeigt. Daher war es manchmal schwierig, den CG-Inhalt, der Informationen wie eine Bestimmungsortmarke und eine Tankstellenmarke, die ein Fahrer zu sehen wünscht, anzeigt, und Informationen wie ein Hindernis auf einer Straße und ein vorderes Fahrzeug, die der Fahrer sehen sollte, zu sehen. Als eine Folge könnte der Fahrer diese Informationen übersehen haben.
  • Es ist eine Aufgabe der vorliegenden Erfindung, dem Fahrer zu erleichtern, erforderliche Informationen zu sehen, während er einen Realitätssinn beibehält.
  • Lösung des Problems
  • Eine Bildanzeigevorrichtung nach der vorliegenden Erfindung enthält:
    • eine Objektinformations-Erwerbseinheit zum Erwerben von Informationen über ein Objekt um einen sich bewegenden Körper herum;
    • eine Abschirmbestimmungseinheit zum Bestimmen, dass ein Abschirmen für das Objekt nicht zulässig ist, wenn eine Wichtigkeit des durch die Objektinformations-Erwerbseinheit erworbenen Objekts höher als ein Schwellenwert ist; und
    • eine Anzeigesteuereinheit zum Anzeigen von Bilddaten, die das Objekt durch Überlagern von diesen über eine Szenerie um den sich bewegenden Körper herum ungeachtet einer Position des Objekts anzeigen, mit Bezug auf das Objekt, für das durch die Abschirmbestimmungseinheit bestimmt ist, dass das Abschirmen nicht zulässig ist.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der vorliegenden Erfindung ist es möglich, das Sehen der erforderlichen Informationen zu erleichtern, während der Realitätssinn aufrechterhalten wird durch Schalten der Anwesenheit oder Abwesenheit des Abschirmens gemäß einer Wichtigkeit des Objekts.
  • Figurenliste
    • 1 ist ein Konfigurationsdiagramm einer Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 1.
    • 2 ist ein Flussdiagramm, das den Gesamtprozess der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 1 illustriert.
    • 3 ist ein Diagramm, das einen Umstand um einen sich bewegenden Körper 100 herum nach dem Ausführungsbeispiel 1 illustriert.
    • 4 ist ein Diagramm, das ein Bild vor dem sich bewegenden Körper 100 nach dem Ausführungsbeispiel 1 illustriert.
    • 5 ist ein Diagramm, das eine Tiefenkarte nach dem Ausführungsbeispiel 1 illustriert.
    • 6 ist ein Flussdiagramm, das einen Normierungsprozess im Schritt S3 nach dem Ausführungsbeispiel 1 illustriert.
    • 7 ist ein Diagramm, das ein Objekt um den sich bewegenden Körper 100 herum nach dem Ausführungsbeispiel 1 illustriert.
    • 8 ist ein Flussdiagramm, das einen Navigationsdaten-Erwerbsprozess im Schritt S4 nach dem Ausführungsbeispiel 1 illustriert.
    • 9 ist ein Flussdiagramm, das einen Modellerzeugungsprozess im Schritt S6 nach dem Ausführungsbeispiel 1 illustriert.
    • 10 ist ein erläuterndes Diagramm eines 3D-Modells entsprechend peripheren Daten nach dem Ausführungsbeispiel 1.
    • 11 ist ein erläuterndes Diagramm eines 3D-Modells entsprechend Navigationsdaten 41 nach dem Ausführungsbeispiel 1.
    • 12 ist ein Diagramm, das ein 3D-Modell entsprechend dem Objekt um den sich bewegenden Körper 100 herum nach dem Ausführungsbeispiel 1 illustriert.
    • 13 ist ein Flussdiagramm, das einen Abschirmbestimmungsprozess im Schritt S8 nach dem Ausführungsbeispiel 1 illustriert.
    • 14 ist ein Flussdiagramm, das einen Modellzeichnungsprozess im Schritt S9 nach dem Ausführungsbeispiel 1 illustriert.
    • 15 ist ein Diagramm, das ein Bild an einem Ende des Schritts S95 nach dem Ausführungsbeispiel 1 illustriert.
    • 16 ist ein Diagramm, das ein Bild an einem Ende des Schritts S98 nach dem Ausführungsbeispiel 1 illustriert.
    • 17 ist ein Konfigurationsdiagramm einer Bildanzeigevorrichtung 10 nach der Modifikation 1.
    • 18 ist ein Flussdiagramm, das einen Abschirmbestimmungsprozess im Schritt S8 nach dem Ausführungsbeispiel 2 illustriert.
    • 19 ist ein Diagramm, das ein Bild an einem Ende des Schritts S95 nach dem Ausführungsbeispiel 2 illustriert.
    • 20 ist ein Diagramm, das ein Bild an einem Ende des Schritts S98 nach dem Ausführungsbeispiel 2 illustriert.
    • 21 ist ein erläuterndes Diagramm, wenn ein Bestimmungsort nahe ist, nach dem Ausführungsbeispiel 2.
    • 22 ist ein Diagramm, das ein Bild zu der Zeit des Schritts S98 illustriert, wenn der Bestimmungsort nahe ist, nach dem Ausführungsbeispiel 2.
    • 23 ist ein Konfigurationsdiagramm einer Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 3.
    • 24 ist ein Flussdiagramm, das einen Gesamtprozess der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 3 illustriert.
    • 25 ist ein Flussdiagramm, das einen Abschirmbestimmungsprozess im Schritt S8C nach dem Ausführungsbeispiel 3 illustriert.
    • 26 ist ein Diagramm, das ein Bild an einem Ende des Schritts S95 nach dem Ausführungsbeispiel 3 illustriert.
    • 27 ist ein Diagramm, das ein Bild an einem Ende des Schritts S98 nach dem Ausführungsbeispiel 3 illustriert.
  • Beschreibung von Ausführungsbeispielen
  • Ausführungsbeispiel 1
  • *** Beschreibung der Konfiguration ***
  • Eine Konfiguration einer Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 1 wird mit Bezug auf 1 beschrieben.
  • 1 illustriert einen Zustand, in welchem die Bildanzeigevorrichtung 10 an einem sich bewegenden Körper 100 befestigt ist. Als ein spezifisches Beispiel ist der sich bewegende Körper 100 ein Fahrzeug, ein Schiff oder ein Fußgänger. Bei dem Ausführungsbeispiel ist der sich bewegende Körper 100 das Fahrzeug.
  • Die Bildanzeigevorrichtung 10 ist ein Computer, der an dem sich bewegenden Körper 100 befestigt ist.
  • Die Bildanzeigevorrichtung 10 enthält Hardware eines Prozessors 11, eines Speichers 12, einer Speichervorrichtung 13, einer Bildschnittstelle 14, einer Kommunikationsschnittstelle 15 und einer Anzeigeschnittstelle 16. Der Prozessor 11 ist über einen Systembus mit anderer Hardware verbunden und steuert diese andere Hardware.
  • Der Prozessor 11 ist eine integrierte Schaltung (IC), die eine Verarbeitung durchführt. Als ein spezifisches Beispiel ist der Prozessor 11 eine zentrale Verarbeitungseinheit (CPU), ein digitaler Signalprozessor (DSP) oder eine Grafikverarbeitungseinheit (GPU).
  • Der Speicher 12 ist ein Arbeitsbereich, in welchem Daten, Informationen und Programme durch den Prozessor 11 vorübergehend gespeichert werden. Der Speicher 12 ist ein Speicher mit wahlfreiem Zugriff (RAM) als ein spezifisches Beispiel.
  • Als ein spezifisches Beispiel ist die Speichervorrichtung 13 ein Festwertspeieher (ROM), ein Flashspeicher oder ein Plattenlaufwerk (HDD). Weiterhin kann die Speichervorrichtung 13 ein tragbares Speichermedium wie eine sichere digitale (SD) Speicherkarte, ein CompactFlash (CF), ein NAND-Flash, eine flexible Disk, eine optische Disk, eine Kompaktdisk, eine Blu-ray(eingetragene Marke)-Disk oder eine DVD sein.
  • Die Bildschnittstelle 14 ist eine Vorrichtung zum Verbinden einer Abbildungsvorrichtung 31, die an einem sich bewegenden Körper 100 befestigt ist. Als ein spezifisches Beispiel ist die Bildschnittstelle 14 ein Endgerät eines universellen seriellen Busses (USB) oder einer Hochauflösungs-Multimedia-Schnittstelle (HDMI), eingetragene Marke).
  • Mehrere Abbildungsvorrichtungen 31 zum Erfassen eines Bilds um den sich bewegenden Körper 100 herum sind an dem sich bewegenden Körper 100 befestigt. Bei dem Ausführungsbeispiel 1 sind zwei Abbildungsvorrichtungen 31 zum Aufnehmen des Bilds vor dem sich bewegenden Körper 100 in einem Abstand von einigen zehn Zentimetern an der Vorderseite des sich bewegenden Körpers 100 befestigt. Die Abbildungsvorrichtung 31 ist als ein spezifisches Beispiel eine digitale Kamera.
  • Die Kommunikationsschnittstelle 15 ist eine Vorrichtung zum Verbinden einer elektronischen Steuereinheit (ECU) 32, die an dem sich bewegenden Körper 100 befestigt ist. Als ein spezifisches Beispiel ist die Kommunikationsschnittstelle 15 ein Endgerät von Ethernet, Controller Area Network (CAN), RS232C, USB oder IEEE1394.
  • Die ECU 32 ist ein Vorrichtung, die Informationen über ein Objekt um den sich bewegenden Körper 100 herum, der von einem Sensor wie einem Lasersensor, einem Millimeterwellenradar oder einer Ultraschallvorrichtung, der an dem sich bewegenden Körper 100 befestigt ist, erfasst wird, erwirbt. Weiterhin ist die ECU 32 eine Vorrichtung, die von einem Sensor wie einem Sensor eines globalen Positionierungssystem (GPS), einem Richtungssensor, einem Geschwindigkeitssensor, einem Beschleunigungssensor oder einem geomagnetischen Sensor, der an dem sich bewegenden Körper 100 befestigt ist, erfasste Informationen erwirbt.
  • Die Anzeigeschnittstelle 16 ist eine Vorrichtung zum Verbinden einer Anzeigevorrichtung 33, die an dem sich bewegenden Körper 100 befestigt ist. Als ein spezifisches Beispiel ist die Anzeigeschnittstelle 16 ein Endgerät einer digitalen visuellen Schnittstelle (DVI), D-SUBminiatur (D-SUB) oder HDMI (registrierte Marke).
  • Die Anzeigevorrichtung 33 ist eine Vorrichtung zum Überlagern und Anzeigen eines CG-Inhalts über eine Szene um den sich bewegenden Körper 100 herum. Als ein spezifisches Beispiel ist die Anzeigevorrichtung 33 eine Flüssigkristallanzeige (LCD) oder eine Blickfeldanzeige.
  • Die Szene ist hier entweder ein von einer Kamera aufgenommenes Bild, eine durch Computergrafik geschaffene dreidimensionale Karte oder ein reales Objekt, das durch eine Blickfeld-Anzeigevorrichtung oder dergleichen gesehen werden kann. Bei dem Ausführungsbeispiel 1 ist die Szene das von der Abbildungsvorrichtung 31 aufgenommene Bild vor dem sich bewegenden Körper 100.
  • Die Bildanzeigevorrichtung 10 enthält als funktionelle Komponenten eine Tiefenkarten-Erzeugungseinheit 21, eine Tiefennormierungseinheit 22, eine Objektinformations-Erwerbseinheit 23, eine Modellerzeugungseinheit 24, eine Zustandserwerbseinheit 25, eine Abschirmbestimmungseinheit 26 und eine Anzeigesteuereinheit 27. Die Funktionen der Tiefenkarten-Erzeugungseinheit 21, der Tiefennormierungseinheit 22, der Objektinformations-Erwerbseinheit 23, der Modellerzeugungseinheit 24, der Zustandserwerbseinheit 25, der Abschirmbestimmungseinheit 26 und der Anzeigesteuereinheit 27 werden durch Software realisiert.
  • Programme zum Realisieren der Funktionen der jeweiligen Einheiten sind in der Speichervorrichtung 13 gespeichert. Dieses Programm wird durch den Prozessor 11 in den Speicher 12 gelesen und durch den Prozessor 11 ausgeführt.
  • Weiterhin werden Navigationsdaten 41 und Zeichnungsparameter 42 in der Speichervorrichtung 13 gespeichert. Die Navigationsdaten 41 sind Daten zum Führen eines Objekts, das beispielsweise zu einer Tankstelle und einer Apotheke zu navigieren ist. Der Zeichnungsparameter 42 sind Daten, die einen nahesten Oberflächenabstand, der ein Grenzabstand der nahen Seite ist, und einen weitesten Oberflächenabstand, der ein Grenzabstand der entfernten Seite in einem Grafikzeichnungsbereich, einen horizontalen Sichtwinkel der Abbildungsvorrichtung 31 und ein Aspektverhältnis (horizontal/vertikal) des von der Abbildungsvorrichtung 31 aufgenommenen Bilds anzeigen.
  • Informationen, Daten, Signalwerte, variable Werte, die das Verarbeitungsergebnis der Funktion jeder Einheit der Bildanzeigevorrichtung 10 anzeigen, werden in dem Speicher 12 oder einem Register oder einem Cachespeicher in dem Prozessor 11 gespeichert. In der folgenden Beschreibung wird angenommen, dass die Informationen, die Daten, die Signalwerte und die variablen Werte, die das Verarbeitungsergebnis der Funktion jeder Einheit der Bildanzeigevorrichtung 10 anzeigen, in dem Speicher 12 gespeichert sind.
  • In 1 ist nur ein Prozessor 11 illustriert. Jedoch können mehrere Prozessoren 11 vorhanden sein, und mehrere Prozessoren 11 können die die jeweiligen Funktionen realisierenden Programme im Zusammenwirken ausführen.
  • *** Beschreibung der Arbeitsweise ***
  • Die Arbeitsweise der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 1 wird mit Bezug auf die 2 bis 14 beschrieben.
  • Die Arbeitsweise der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 1 entspricht einem Bildanzeigeverfahren nach dem Ausführungsbeispiel 1. Weiterhin entspricht die Arbeitsweise der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 1, dem Prozess des Bildanzeigeprogramms nach dem Ausführungsbeispiel 1.
  • (Schritt S1 in Fig. 2: Bilderwerbsprozess)
  • Die Tiefenkarten-Erzeugungseinheit 21 erwirbt das Bild vor dem sich bewegenden Körper 100, das von der Abbildungsvorrichtung 31 aufgenommen wurde, über die Bildschnittstelle 14. Die Tiefenkarten-Erzeugungseinheit 21 schreibt das erworbene Bild in den Speicher 12.
  • In dem Ausführungsbeispiel 1 sind als die Abbildungsvorrichtung 31 zwei digitale Kameras in einem Abstand von mehreren zehn Zentimetern an der Vorderseite des sich bewegenden Körpers 100 befestigt. Wie in 3 illustriert ist, wird angenommen, dass drei umgebende Fahrzeuge L, M und N sich vor dem sich bewegenden Körper 100 befinden, und es sind mehrere Gebäude an der Seite der Straße vorhanden. Dann wird, wie in 4 illustriert ist, das Bild, das den Bereich vor dem sich bewegenden Körper 100 durch eine Stereokamera aufnimmt, erhalten. Hier ist, wie in 3 illustriert ist, ein abbildbarer Abstand, der einen durch die Abbildungsvorrichtung 31 aufgenommenen Bereich anzeigt, der maximal erfassbare Abstand in einer optischen Achsenrichtung der Abbildungsvorrichtung 31.
  • (Schritt S2 in Fig. 2: Kartenerzeugungsprozess)
  • Die Tiefenkarten-Erzeugungseinheit 21 erzeugt eine Tiefenkarte, die einen Abstand von der Abbildungsvorrichtung 31 zu einem Subjekt für jedes Pixel des im Schritt S1 erworbenen Bilds anzeigt. Die Tiefenkarten-Erzeugungseinheit 21 schreibt die erzeugte Tiefenkarte in den Speicher 12.
  • Bei dem Ausführungsbeispiel 1 erzeugt die Tiefenkarten-Erzeugungseinheit 21 die Tiefenkarte durch ein Stereoverfahren. Genauer gesagt, die Tiefenkarten-Erzeugungseinheit 21 findet ein Pixel, die dasselbe Objekt in von den zwei Kameras aufgenommenen Bildern erfasst, und bestimmt einen Abstand des gefundenen Pixels durch Triangulation. Die Tiefenkarten-Erzeugungseinheit 21 erzeugt eine Tiefenkarte durch Berechnen von Abständen für alle Pixel. Die von dem in 4 illustrierten Bild erzeugte Tiefenkarte ist wie in 5 illustriert, und jedes Pixel zeigt den Abstand von der Kamera zu dem Subjekt an. In 5 ist ein Wert kleiner, wenn er näher an der Kamera ist, und größer, wenn er weiter von der Kamera entfernt ist, so dass die nähere Seite durch dichtere Schraffur gezeigt ist, und die entferntere Seite ist durch dünnere Schraffur gezeigt.
  • (Schritt S3 in Fig. 2: Normierungsprozess)
  • Die Tiefennormierungseinheit 22 wandelt den berechneten Abstand in der realen Welt, der der Abstand in der im Schritt S2 erzeugten Tiefenkarte ist, in einen Abstand zum Zeichnen mit 3D(Dimensional)-Grafik unter Verwendung des in der Speichervorrichtung 13 gespeicherten Zeichnungsparameters 42 um. Somit erzeugt die Tiefennormierungseinheit 22 eine normierte Tiefenkarte. Die Tiefennormierungseinheit 22 schreibt die normierte Tiefenkarte in den Speicher 12.
  • Die Beschreibung erfolgt spezifisch mit Bezug auf Fig. 6.
  • Zuerst erwirbt im Schritt S31 die Tiefennormierungseinheit 22 den Zeichnungsparameter 42 und bestimmt den nahesten Oberflächenabstand und den entferntesten Oberflächenabstand. Als Nächstes führt die Tiefennormierungseinheit 22 Prozesse vom Schritt S32 bis zum Schritt S36 mit jedem Pixel der im Schritt S2 erzeugten Tiefenkarte als einem Zielpixel durch.
  • Im Schritt S32 teilt die Tiefennormierungseinheit 22 einen durch Subtrahieren des nahesten Oberflächenabstands von dem Abstand des Zielpixels erhaltenen Wert durch einen durch Subtrahieren des nahesten Oberflächenabstands von dem entferntesten Oberflächenabstand erhaltenen Wert, um den normierten Abstand des Zielpixels zu berechnen. In Schritt S33 bis Schritt S36 setzt die Tiefennormierungseinheit 22 den Abstand des Zielpixels auf 0, wenn der im Schritt S32 berechnete normierte Abstand kleiner als 0 ist, setzt den Abstand des Zielpixels auf 1, wenn der im Schritt S32 berechnete normierte Abstand größer als 1 ist, und setzt den Abstand des Zielpixels in den anderen Fällen auf den im Schritt S32 berechneten Abstand.
  • Somit drückt die Tiefennormierungseinheit 22 den Abstand des Zielpixels als ein Teilungsverhältnis mit Bezug auf den nahesten Oberflächenabstand und den entferntesten Oberflächenabstand aus und wandelt ihn in einen Wert um, der in einem Bereich von 0 bis 1 linear interpoliert ist.
  • (Schritt S4 in Fig. 2: Navigationsdaten-Erwerbsprozess)
  • Die Objektinformations-Erwerbseinheit 23 liest und erwirbt die in der Speichervorrichtung 13 gespeicherten Navigationsdaten 41, die Informationen über das um den sich bewegenden Körper 100 herum existierende Objekt sind. Die Objektinformations-Erwerbseinheit 23 wandelt eine Position der erworbenen Navigationsdaten 41 aus einem geografischen Koordinatensystem, das ein absolutes Koordinatensystem ist, in ein relatives Koordinatensystem mit der Abbildungsvorrichtung 31 als Bezugselement um. Dann schreibt die Objektinformations-Erwerbseinheit 23 die erworbenen Navigationsdaten 41 zusammen mit der umgewandelten Position in den Speicher 12.
  • In dem Fall von 3 werden, wie beispielsweise in 7 illustriert ist, die Navigationsdaten 41 über einen Bestimmungsort und die Tankstelle erworben. In 7 befindet sich die Tankstelle an einer Position innerhalb des abbildbaren Abstands der Abbildungsvorrichtung 31, und der Bestimmungsort ist an einer Position, der um den abbildbaren Abstand oder weiter von der Abbildungsvorrichtung 31 entfernt ist.
  • Wie in 7 illustriert ist, enthalten die Navigationsdaten 41 Positionen von vier Endpunkten eines Anzeigebereichs eines 3D-Modells für das durch das geografische Koordinatensystem darstellte Objekt. Das geografische Koordinatensystem ist ein Koordinatensystem, in welchem eine X-Achse in der Längsrichtung ist, eine Z-Achse in der Breitenrichtung ist, eine Y-Achse in einer Höhenrichtung in der Mercator-Projektion ist, der Ursprung das Greenwich-Observatorium ist, und die Einheit das metrische System ist. Andererseits ist das relative Koordinatensystem ein Koordinatensystem, in welchem die X-Achse in einer rechten Richtung von der Abbildungsvorrichtung 31 ist, die Z-Achse in der optischen Achsenrichtung ist, die Y-Achse in einer Aufwärtsrichtung ist, der Ursprung die Position der Abbildungsvorrichtung 31 ist, und die Einheit das metrische System ist.
  • Die Beschreibung erfolgt spezifisch mit Bezug auf Fig. 8.
  • Im Schritt S41 erwirbt die Objektinformations-Erwerbseinheit 23 die Position in dem geografischen Koordinatensystem der Abbildungsvorrichtung 31 und die optische Achsenrichtung in dem geografischen Koordinatensystem der Abbildungsvorrichtung 31 von der ECU 32 über die Kommunikationsschnittstelle 15.
  • Die Position und die optische Achsenrichtung in der Abbildungsvorrichtung 31 in dem geografischen Koordinatensystem können durch ein Koppelverfahren unter Verwendung eines Sensors wie eines GPS-Sensors, eines Richtungssensors, eines Beschleunigungssensors oder eines geomagnetischen Sensors bestimmt werden. Somit kann die Position der Abbildungsvorrichtung 31 in dem geografischen Koordinatensystem als ein X-Wert (CarX), ein Y-Wert (CarY) und ein Z-Wert (CarZ) des geografischen Koordinatensystems erworben werden. Weiterhin kann die optische Achsenrichtung in dem geografischen Koordinatensystem der Abbildungsvorrichtung 31 als eine 3x3-Rotationsmatrix zum Umwandeln aus dem geografischen Koordinatensystem in das relative Koordinatensystem erworben werden.
  • Im Schritt S42 erwirbt die Objektinformations-Erwerbseinheit 23 die Navigationsdaten 41 des um den sich bewegenden Körper 100 herum existierenden Objekts. Genauer gesagt, die Objektinformations-Erwerbseinheit 23 sammelt die Navigationsdaten 41 des innerhalb eines Radius von mehreren hundert Metern von der im Schritt S41 erworbenen Position existierenden Objekts. Genauer gesagt, es ist ausreichend, nur die Navigationsdaten 41 zu sammeln, in denen eine existierende Position und ein Erwerbsradius der Navigationsdaten 41 in dem geografischen Koordinatensystem einer Beziehung „(NaviX-CarX)2+(NaviZ-CarZ)2≤R2“ genügen. Hier sind NaviX und NaviZ der X-Wert und der Z-Wert der Position der Navigationsdaten in dem geografischen Koordinatensystem, und R ist der Erwerbsradius. Der Erwerbsradius R ist beliebig gesetzt.
  • Die Objektinformations-Erwerbseinheit 23 führt Schritt S43 mit den jeweiligen im Schritt S42 erworbenen Navigationsdaten 41 als Zieldaten durch. Im Schritt S43 wandelt die Objektinformations-Erwerbseinheit 23 die Position der Navigationsdaten 41 in dem geografischen Koordinatensystem in die Position in dem relativen Koordinatensystem durch Berechnen der Gleichung 1 um. ( N a v i X _ r e l N a v i Y _ r e l N a v i Z _ r e l ) = Mat C a r R ( N a v i X C a r X N a v i Y C a r Y N a v i Z C a r Z )
    Figure DE112016006725T5_0001
  • Hier ist NaviY der Y-Wert der Position in dem geografischen Koordinatensystem der Navigationsdaten 41. MatCarR ist eine Rotationsmatrix, die die im Schritt S41 erhaltene optische Achsenrichtung in dem geografischen Koordinatensystem der Abbildungsvorrichtung 31 anzeigt. NaviX_rel, NaviY_rel und NaviZ_rel sind der X-Wert, der Y-Wert und der Z-Wert der Position in dem relativen Koordinatensystem der Navigationsdaten 41.
  • (Schritt S5 in Fig. 2: Erwerbsprozess für periphere Daten)
  • Die Objektinformationserwerbseinheit 23 erwirbt periphere Daten, die Informationen über das Objekt, das um den sich bewegenden Körper 100 herum existiert, sind, über die Kommunikationsschnittstelle 15 von der ECU 32. Die Objektinformations-Erwerbseinheit 23 schreibt die erworbenen peripheren Daten in den Speicher 12.
  • Die peripheren Daten sind Sensordaten, die durch Erkennen des Objekts unter Verwendung eines Sensorwerts, der durch den Sensor wie den Lasersensor, den Millimeterwellenradar oder den Ultraschallsensor erfasst werden, erhalten werden. Die peripheren Daten zeigen eine Größe enthaltend eine Höhe und eine Breite, die Position in dem relativen Koordinatensystem, eine Bewegungsgeschwindigkeit und einen Typ wie ein Automobil, eine Person oder ein Gebäude des Objekts an.
  • In dem Fall von 3 werden, wie in 7 illustriert ist, die peripheren Daten über die Objekte der umgebenden Fahrzeuge M bis L erworben. Wie in 7 illustriert ist, ist die durch die peripheren Daten angezeigte Position eine Mittenposition einer unteren Seite in einer Oberfläche auf der Seite des sich bewegenden Körpers 100 des Objekts.
  • (Schritt S6 in Fig. 2: Modellerzeugungsprozess)
  • Die Modellerzeugungseinheit 24 liest die im Schritt S4 erworbenen Navigationsdaten 41 und die im Schritt S5 von dem Speicher 12 erworbenen peripheren Daten und erzeugt das 3D-Modell der gelesenen Navigationsdaten 41 und peripheren Daten. Die Modellerzeugungseinheit 24 schreibt das erzeugte 3D-Modell in den Speicher 12.
  • Das 3D-Modell ist ein plattenartiger CG-Inhalt, der die Navigationsdaten 41 in dem Fall der Navigationsdaten 41 zeigt, und ist ein rahmenartiger CG-Inhalt, der die Peripherie der Oberfläche auf der Seite des sich bewegenden Körpers 100 des Objekts in dem Fall der peripheren Daten umgibt.
  • Die spezifische Beschreibung erfolgt mit Bezug auf Fig. 9.
  • Im Schritt S61 liest die Modellerzeugungseinheit 24 die im Schritt S4 erworbenen Navigationsdaten 41 und die im Schritt S5 von dem Speicher 12 erworbenen peripheren Daten.
  • Die Modellerzeugungseinheit 24 führt die Prozesse von dem Schritt S62 zu dem Schritt S65 mit den gelesenen Navigationsdaten 41 und peripheren Daten als den Zieldaten durch. Im Schritt S62 bestimmt die Modellerzeugungseinheit 24, ob die Zieldaten die peripheren Daten oder die Navigationsdaten 41 sind.
  • Wenn die Zieldaten die peripheren Daten sind, verwendet im Schritt S63 die Modellerzeugungseinheit 24 die Position des Objekts und die Höhe und Breite des Objekts, die in den peripheren Daten enthalten sind, um die Scheitelpunktstrings P[0] bis P[9] zu setzen, die einen Satz von Dreiecken anzeigen, die einen die Peripherie der Oberfläche auf der Seite des sich bewegenden Körpers 100 des Objekts umgebenden Rahmens bilden, wie in 10 illustriert ist. Hier zeigen der Scheitelpunkt P[0] und der Scheitelpunkt P[8], der Scheitelpunkt P[1] und der Scheitelpunkt [9] dieselbe Position an. Eine Dicke des Rahmens, die durch den Abstand zwischen dem Scheitelpunkt P[0] und dem Scheitelpunkt P[1] bestimmt ist, wird beliebig gesetzt. Für alle Scheitelpunkte wird der Z-Wert, der ein Wert in der Richtung von vorn nach hinten ist, auf den Z-Wert der Position des Objekts gesetzt.
  • Wenn die Zieldaten die Navigationsdaten 41 sind, setzt im Schritt S64 die Modellerzeugungseinheit 24 die Positionen von vier Endpunkten in dem relativen Koordinatensystem für den Anzeigebereich der Navigationsdaten 41 zu den Scheitelpunktstrings P[0] bis P[3], wie in 11 illustriert ist. Im Schritt S65 setzt die Modellerzeugungseinheit 24 eine Texturkoordinate, die eine Textur umsetzt, die die Navigationsdaten 41 darstellt, auf den durch die Scheitelpunktstrings P[0] bis P[3] umgebenden Bereich. Als ein spezifisches Beispiel werden (0, 0), (1, 0), (0, 1), (1, 1), die das Abbilden einer gegebenen Textur insgesamt anzeigen, als die Texturkoordinaten entsprechend einer oberen linken, oberen rechten, unteren linken und unteren rechten Position des durch die Scheitelpunktstrings P[0] bis P[3] umgebenden Bereichs gesetzt.
  • In dem Fall von 3 werden, wie in 12 illustriert ist, die 3D-Modelle eines Modells A und eines Modells B für die Navigationsdaten 41 des Bestimmungsorts und der Tankstelle erzeugt. Zusätzlich werden die 3D-Modelle eines Modells C bis zu einem Modell E für die peripheren Daten der umgebenden Fahrzeuge M bis L erzeugt.
  • (Schritt S7 in Fig. 2: Zustandserwerbsprozess)
  • Die Zustandserwerbseinheit 25 erwirbt Informationen über einen Fahrzustand des sich bewegenden Körpers 100 von der ECU 32 über die Kommunikationsschnittstelle 15. Bei dem Ausführungsbeispiel 1 erwirbt die Zustandserwerbseinheit 25 als die Informationen über den Fahrzustand einen relativen Abstand, der ein Abstand von dem sich bewegenden Körper 100 zu dem Objekt entsprechend den im Schritt S5 erworbenen peripheren Daten ist, und eine relative Geschwindigkeit, die eine Geschwindigkeit ist, bei der das Objekt entsprechend den im Schritt S5 erworbenen peripheren Daten sich dem sich bewegenden Körper 100 nähert. Der relative Abstand kann anhand der Position des sich bewegenden Körpers 100 und der Position des Objekts berechnet werden. Die relative Geschwindigkeit kann anhand einer Änderung der relativen Position zwischen dem sich bewegenden Körper 100 und dem Objekt berechnet werden.
  • (Schritt S8 in Fig. 2: Abschirmbestimmungsprozess)
  • Die Abschirmbestimmungseinheit 26 bestimmt, ob eine Abschirmung zulässig ist in Abhängigkeit davon, ob eine Wichtigkeit des Objekts höher als ein Schwellenwert mit Bezug auf das Objekt entsprechend den im Schritt S4 erworbenen Navigationsdaten 41 und den im Schritt S5 erworbenen peripheren Daten ist. Wenn die Wichtigkeit höher als der Schwellenwert ist, bestimmt die Abschirmbestimmungseinheit 26, dass das Abschirmen des Objekts nicht zulässig ist, um vorzugsweise das 3D-Modell anzuzeigen. Wenn die Wichtigkeit nicht höher als der Schwellenwert ist, bestimmt die Abschirmbestimmungseinheit 26, dass das Abschirmen für das Objekt zulässig ist, um das 3D-Modell realistisch anzuzeigen.
  • Die spezifische Beschreibung erfolgt mit Bezug auf Fig. 13.
  • Bei dem Ausführungsbeispiel 1 wird bestimmt, ob das Abschirmen nur für das Objekt, dessen Typ ein Fahrzeug ist, zulässig ist, und das Abschirmen wird für alle anderen Typen des Objekts erlaubt. Es ist zu beachten, dass bestimmt werden kann, ob das Abschirmen für andere sich bewegende Körper wie einen Fußgänger zulässig und nicht auf Fahrzeuge beschränkt ist.
  • Im Schritt S81 liest die Abschirmbestimmungseinheit 26 die im Schritt S4 erworbenen Navigationsdaten 41 und die im Schritt S5 erworbenen peripheren Daten aus dem Speicher 12.
  • Die Modellerzeugungseinheit 24 führt den Prozess von Schritt S82 zu Schritt S87 mit den gelesenen Navigationsdaten 41 und peripheren Daten als den Zieldaten durch. Im Schritt S82 bestimmt die Modellerzeugungseinheit 24, ob die Zieldaten die Navigationsdaten 41 oder die peripheren Daten sind.
  • Im Schritt S83 bestimmt, wenn die Zieldaten die peripheren Daten sind, die Abschirmbestimmungseinheit 26, ob der Typ des Objekts entsprechend den Zieldaten das Fahrzeug ist. Wenn der Typ des Objekts das Fahrzeug ist, berechnet im Schritt S84 die Abschirmbestimmungseinheit 26 die Wichtigkeit anhand der relativen Geschwindigkeit und des relativen Abstands, die im Schritt S7 erworben wurden. Dann setzt im Schritt S85 bis Schritt S87 die Abschirmbestimmungseinheit 26, dass die Abschirmung nicht zulässig ist, wenn die Wichtigkeit höher als der Schwellenwert ist, und setzt, dass die Abschirmung zulässig ist, wenn die Wichtigkeit nicht höher als der Schwellenwert ist.
  • Andererseits setzt, wenn die Zieldaten die Navigationsdaten 41 sind oder wenn der Typ des Objekts nicht das Fahrzeug ist, die Abschirmbestimmungseinheit 26, dass das Abschirmen zulässig ist.
  • Im Schritt S84 berechnet die Abschirmbestimmungseinheit 26, dass die Wichtigkeit höher ist, wenn der relative Abstand enger ist, und höher ist, wenn die relative Geschwindigkeit höher ist. Daher ist die Wichtigkeit höher, wenn eine Möglichkeit, dass der sich bewegende Körper 100 mit dem Fahrzeug, das das Objekt ist, kollidiert, höher ist.
  • Als ein spezifisches Beispiel berechnet die Abschirmbestimmungseinheit 26 die Wichtigkeit durch Gleichung 2. C v e h i c l e = C l e n * C s p d C l e n = w l e n exp ( L e n 2 / k s a f e l e n ) C s p d = w s p d S p d 2
    Figure DE112016006725T5_0002
  • Hier ist Cvehicle die Wichtigkeit. Len ist der relative Abstand des sich bewegenden Körpers 100 zu dem Objekt. ksafelen ist ein vorbestimmter Sicherheitsabstandsfaktor. wlen ist ein vorbestimmter Abstandskostenfaktor. Spd ist die relative Geschwindigkeit, die einen positiven Wert in einer Richtung, in der sich das Objekt dem sich bewegenden Körper 100 nähert, hat, und einen negativen Wert in einer Richtung, in der sich das Objekt von dem sich bewegenden Körper 100 weg bewegt, hat. wspd ist ein vorbestimmter relativer Geschwindigkeitskostenfaktor.
  • (Schritt S9 in Fig. 2: Modellaufbereitungsprozess)
  • Die Anzeigesteuereinheit 27 liest das im Schritt S1 erworbene Bild aus dem Speicher 12, bereitet das im Schritt S6 erzeugte 3D-Modell zu dem gelesenen Bild auf und erzeugt ein Anzeigebild. Dann sendet die Anzeigesteuereinheit 27 das erzeugte Anzeigebild über die Anzeigeschnittstelle 16 zu der Anzeigevorrichtung 33 und zeigt es auf der Anzeigevorrichtung 33 an.
  • Die Anzeigesteuereinheit 27 bereitet das 3D-Modell, das die das Objekt anzeigenden Bilddaten sind, zu dem Bild ungeachtet der Position des Objekts auf, mit Bezug auf das Objekt, für das durch die Abschirmbestimmungseinheit 26 bestimmt ist, dass das Abschirmen nicht zulässig ist.
  • Andererseits bestimmt die Anzeigesteuereinheit 27, ob das 3D-Modell, das die das Objekt gemäß der Position des Objekts anzeigenden Bilddaten ist, mit Bezug auf das Objekt, für das durch die Abschirmbestimmungseinheit 26 bestimmt ist, dass die Abschirmung zulässig ist, aufzubereiten ist. Das heißt, mit Bezug auf das Objekt, für das bestimmt ist, dass das Abschirmen zulässig ist, führt die Anzeigesteuereinheit 27 keine Aufbereitung durch, wenn das Objekt hinter einem anderen Objekt ist und durch das andere Objekt abgeschirmt wird, und führt die Aufbereitung durch, wenn das Objekt vor dem anderen Objekt ist und nicht durch das andere Objekt abgeschirmt wird. Es ist zu beachten, dass, wenn nur ein Teil des Objekts durch das andere Objekt abgeschirmt wird, die Anzeigesteuereinheit 27 die Aufbereitung nur des nicht abgeschirmten Teils durchführt.
  • Die spezifische Beschreibung erfolgt mit Bezug auf Fig. 14.
  • Im Schritt S91 liest die Anzeigesteuereinheit 27 das Bild aus dem Speicher 12. Hier wird das in 4 illustrierte Bild ausgelesen.
  • Als Nächstes berechnet im Schritt S92 die Anzeigesteuereinheit 27 eine Projektionsmatrix, die eine Transformationsmatrix zum Projizieren eines 3D-Raums auf einen zweidimensionalen Bildraum unter Verwendung des Zeichnungsparameters 42 ist. Genauer gesagt, die Anzeigesteuereinheit 27 berechnet die Projektionsmatrix durch die Gleichung 3. Mat p r o j = ( cot ( f o v w / 2 ) a s p e c t 0 0 0 0 cot ( f o v w / 2 ) 0 0 0 0 Z f a r / ( Z f a r Z n e a r ) 1 0 0 Z n e a r Z f a r / ( Z f a r Z n e a r ) 0 )
    Figure DE112016006725T5_0003
  • Hier ist Matproj die Projektionsmatrix. aspect ist das Aspektverhältnis des Bilds. Znear ist der naheste Oberflächenabstand. Zfar ist der entfernteste Oberflächenabstand.
  • Als Nächstes sammelt im Schritt S93 die Anzeigesteuereinheit 27 das im Schritt S6 erzeugte 3D-Modell für das Objekt, für das bestimmt ist, dass die Abschirmung zulässig ist. Dann führt die Anzeigesteuereinheit 27 die Prozesse von Schritt S94 bis Schritt S95 mit jedem gesammelten 3D-Modell als einem Objektmodell durch.
  • Im Schritt S94 ermöglicht die Anzeigesteuereinheit 27 eine Tiefenprüfung und führt die Tiefenprüfung durch. Die Tiefenprüfung ist ein Prozess, in welchem der Abstand nach einer projektiven Transformation des Objektmodells und der Abstand in der im Schritt S2 erzeugten normierten Tiefenkarte auf einer Pixelbasis verglichen werden, und ein Pixel mit einem näheren Abstand nach der projektiven Transformation des Objektmodells als dem Abstand in der Tiefenkarte wird bestimmt. Es ist zu beachten, dass die Tiefenprüfung eine durch GPU gestützte Funktion oder dergleichen ist, und sie kann durch Verwendung von OpenGL oder DirectX verwendet werden, die eine Grafikbibliothek sind. Das Objektmodell wird der projektiven Transformation durch Gleichung 4 unterzogen. ( P i c X P i c Y ) = ( w i d t h / 2 0 w i d t h / 2 0 h e i g h t / 2 h e i g h t / 2 ) ( M o d e l X _ n o r m M o d e l Y _ n o r m 1 ) ( M o d e l X _ n o r m M o d e l Y _ n o r m M o d e l Z _ n o r m ) = ( M o d e l X _ n o n n o r m / M o d e l W _ n o n n o r m M o d e l Y _ n o n n o r m / M o d e l W _ n o n n o r m M o d e l Z _ n o n n o r m / M o d e l W _ n o n n o r m ) ( M o d e l X _ n o n n o r m M o d e l Y _ n o n n o r m M o d e l Z _ n o n n o r m M o d e l W _ n o n n o r m ) = Mat p r o j ( M o d e l X M o d e l Y M o d e l Z 1 )
    Figure DE112016006725T5_0004
  • Hier sind PicX und PicY der X-Wert und der Y-Wert des Pixels in einem Schreib-Bestimmungsort. width und height sind die Breite und die Höhe des Bilds. Model X, Model Y und Model Z sind der X-Wert, der Y-Wert und der Z-Wert einer Scheitelpunktkoordinate, die das Objektmodell bildet.
  • Im Schritt S95 wandelt die Anzeigesteuereinheit 27 das Objektmodell durch Gleichung 4 um und führt dann die Ausbereitung durch Kolorierung des durch die Tiefenprüfung bestimmten Pixels in dem im Schritt S91 gelesenen Bild mit einer Farbe des Objektmodells durch.
  • Als Nächstes sammelt im Schritt S96 die Anzeigesteuereinheit 27 das im Schritt S6 erzeugte 3D-Modell für das Objekt, für das bestimmt ist, dass die 3D-Abschirmung nicht zulässig ist. Dann führt die Anzeigesteuereinheit 27 die Prozesse von Schritt S97 bis Schritt S98 mit jedem gesammelten 3D-Modell als dem Objektmodell durch.
  • Im Schritt S97 sperrt die Anzeigesteuereinheit 27 die Tiefenprüfung und führt die Tiefenprüfung nicht durch. Im Schritt S98 wandelt die Anzeigesteuereinheit 27 das Objektmodell durch Gleichung 4 um und führt dann eine Aufbereitung durch Kolorierung aller Pixel, die durch das Objektmodell angezeigt sind, in dem im Schritt S91 gelesenen Bild mit der Farbe des Objektmodells durch.
  • Im Schritt 12 wird angenommen, dass zwischen dem Bestimmungsort, der Tankstelle und den umgebenden Fahrzeugen M bis L, die die Objekte sind, bestimmt wird, dass das Abschirmen für das umgebende Fahrzeug L nicht zulässig ist und das Abschirmen für die verbleibenden Objekte zulässig ist. Das heißt, es wird angenommen, dass das Abschirmen für die 3D-Modelle A, B, C und E zulässig ist, und das Abschirmen für das 3D-Modell D nicht zulässig ist.
  • In diesem Fall sind die 3D-Modelle A, B, C und E wie in 15 illustriert aufbereitet, wenn der Prozess des Schritts S95 beendet ist. Jedoch sind die 3D-Modelle A und B hinter dem Gebäude und durch das Gebäude abgeschirmt, so dass sie nicht aufbereitet sind. Dann ist, wenn der Prozess des Schritts S98 beendet ist, das 3D-Modell D aufbereitet, wie in 16 illustriert ist. Obgleich das 3D-Modell D hinter dem 3D-Modell E ist, ist die Abschirmung nicht zulässig, so dass das Ganze aufbereitet ist ungeachtet der Position.
  • *** Wirkung des Ausführungsbeispiels 1 ***
  • Wie vorstehend beschrieben ist, schaltet die Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 1 die Anwesenheit oder Abwesenheit des Abschirmens gemäß der Wichtigkeit des Objekts. Dies macht es leichter, erforderliche Informationen zu sehen, während der Realitätssinn aufrechterhalten wird.
  • Das heißt, da die Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 1 das Objekt mit einer hohen Wichtigkeit durch Überlagern von diesem auf die Szenerie ungeachtet der Position des Objekts anzeigt, ist es einfach, die erforderlichen Informationen zu sehen. Andererseits wird bestimmt, ob das Objekt, dessen Wichtigkeit in Abhängigkeit von der Position des Objekts nicht hoch ist, realistisch anzuzeigen ist, so dass der Realitätssinn aufrechterhalten wird.
  • Insbesondere berechnet, wenn das Objekt ein sich bewegendes Objekt ist, die Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 1 die Wichtigkeit anhand des relativen Abstands, der der Abstand von dem sich bewegenden Körper 100 zu dem Objekt ist, und der relativen Geschwindigkeit, die die Geschwindigkeit ist, mit der das Objekt sich dem sich bewegenden Körper 100 nähert. Dann wird der sich bewegende Körper, der eine hohe Gefahr des Kollidierens mit dem sich bewegenden Körper 100 hat, in einem Zustand angezeigt, in welchem er kaum übersehen werden kann.
  • *** Andere Konfigurationen ***
  • < Modifikation 1 >
  • In dem Ausführungsbeispiel 1 wird die Funktion jeder Einheit der Bildanzeigevorrichtung 10 durch Software realisiert. Bei der Modifikation 1 kann die Funktion jeder Einheit der Bildanzeigevorrichtung 10 durch Hardware realisiert werden. Die Modifikation 1 wird beschrieben mit einer Fokussierung auf die Unterschiede gegenüber dem Ausführungsbeispiel 1.
  • Die Konfiguration der Bildanzeigevorrichtung 10 nach der Modifikation 1 wird mit Bezug auf 17 beschrieben.
  • Wenn die Funktion jedes Teils durch Hardware realisiert wird, enthält die Bildanzeigevorrichtung 10 eine Verarbeitungsschaltung 17 anstelle des Prozessors 11, des Speichers 12 und der Speichervorrichtung 13. Die Verarbeitungsschaltung 17 ist eine dedizierte elektronische Schaltung, die die Funktionen von jeder Einheit der Bildanzeigevorrichtung 10 und die Funktionen des Speichers 12 und der Speichervorrichtung 13 realisiert.
  • Es wird angenommen, dass die Verarbeitungsschaltung 17 eine einzelne Schaltung, eine zusammengesetzte Schaltung, ein programmierter Prozessor, ein parallel programmierter Prozessor, eine logische IC, ein Gate Array (GA), eine anwendungsspezifische integrierte Schaltung (ASIC) oder ein vor Ort programmierbares Gate Array (FPGA) ist. Die Funktion jeder Einheit kann durch eine Verarbeitungsschaltung 17 realisiert werden, oder die Funktion von jeder Einheit kann realisiert werden, indem sie auf mehrere Verarbeitungsschaltungen 17 verteilt ist.
  • < Modifikation 2 >
  • Bei der Modifikation 2 können einige Funktionen durch Hardware realisiert werden, und andere Funktionen können durch Software realisiert werden. Das heißt, einige der Funktionen in jeder Einheit der Bildanzeigevorrichtung 10 können durch Hardware realisiert werden, und andere Funktionen von dieser können durch Software realisiert werden.
  • Der Prozessor 11, der Speicher 12, die Speichervorrichtung 13 und die Verarbeitungsschaltung 17 werden kollektiv als „Verarbeitungsschaltungsanordnung“ bezeichnet. Das heißt, die Funktion jeder Einheit wird durch die Verarbeitungsschaltungsanordnung realisiert.
  • Ausführungsbeispiel 2
  • Das Ausführungsbeispiel 2 unterscheidet sich von dem Ausführungsbeispiel 1 dadurch, dass, wenn ein Wahrzeichen wie der Bestimmungsort nahe ist, das Wahrzeichen ohne Abschirmung angezeigt wird. Bei dem Ausführungsbeispiel 2 wird dieser unterschiedliche Punkt beschrieben.
  • Bei dem Ausführungsbeispiel 2 wird als ein spezifisches Beispiel ein Fall, in welchem bestimmt wird, ob die Abschirmung nur für das Objekt, dessen Typ der Bestimmungsort ist, zulässig ist, beschrieben. Jedoch kann bestimmt werden, ob die Abschirmung für ein anderes Wahrzeichen zulässig ist, das von einem Fahrer oder dergleichen bezeichnet und nicht auf den Bestimmungsort beschränkt ist.
  • *** Beschreibung der Operation ***
  • Die Operation der 'Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 2 wird mit Bezug auf die 2, 12, 14 und 18 bis 20 beschrieben.
  • Die Operation der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 2 entspricht dem Bildanzeigeverfahren nach dem Ausführungsbeispiel 2. Weiterhin entspricht die Operation der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 2 dem Prozess des Bildanzeigeprogramms nach dem Ausführungsbeispiel 2.
  • Die Operation der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 2 unterscheidet sich von der Operation der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 1 durch den Zustandserwerbsprozess im Schritt S7 und den Abschirmbestimmungsprozess im Schritt S8 in 2.
  • (Schritt S7 in Fig. 2: Zustandserwerbsprozess)
  • Bei dem Ausführungsbeispiel 2 erwirbt die Zustandserwerbseinheit 25 den relativen Abstand, der der Abstand von dem sich bewegenden Körper 100 zu dem Bestimmungsort ist, als die Information über die Fahrsituation.
  • (Schritt S8 in Fig. 2: Abschirmbestimmungsprozess)
  • Wie beim Ausführungsbeispiel 1 bestimmt die Abschirmbestimmungseinheit 26, ob die Abschirmung für das Objekt zulässig ist, in Abhängigkeit davon, ob die Wichtigkeit des Objekts entsprechend den im Schritt S4 erworbenen Navigationsdaten 41 und den im Schritt S5 erworbenen peripheren Daten größer als der Schwellenwert ist. Jedoch ist das Verfahren des Berechnens der Wichtigkeit verschieden von dem im Ausführungsbeispiel 1.
  • Die spezifische Beschreibung erfolgt mit Bezug auf Fig. 18.
  • Bei dem Ausführungsbeispiel 2 wird bestimmt, ob die Abschirmung nur für das Objekt, dessen Typ der Bestimmungsort ist, zulässig ist, und die Abschirmung für alle anderen Typen des Objekts zulässig ist.
  • Die Prozesse von Schritt S81 bis Schritt S82 und die Prozesse von Schritt S85 zu Schritt S87 sind die gleichen wie diejenigen im Ausführungsbeispiel 1.
  • Im Schritt S83B bestimmt, wenn die Zieldaten die Navigationsdaten 41 sind, die Abschirmbestimmungseinheit 26, ob der Typ des Objekts entsprechend den Zieldaten der Bestimmungsort ist. Wenn der Typ des Objekts der Bestimmungsort ist, berechnet im Schritt S84B die Abschirmbestimmungseinheit 26 die Wichtigkeit anhand des im Schritt S7 erworbenen relativen Abstands.
  • Im Schritt S84B berechnet die Abschirmbestimmungseinheit 26, dass die Wichtigkeit höher ist, wenn der relative Abstand weiter ist.
  • Als ein spezifisches Beispiel berechnet die Abschirmbestimmungseinheit 26 die Wichtigkeit durch Gleichung 5. C D e s t L e n = ( C t h r e s C a p M a x L e n D e s t L e n 0 D e s t L e n < C a p M a x L e n D e s t L e n = | D e s t P o s t C a m P o s |
    Figure DE112016006725T5_0005
  • Hier ist CDestLen die Wichtigkeit. DestPos ist die Position der Abbildungsvorrichtung 31 in dem geografischen Koordinatensystem. CamPos ist die Position des Bestimmungsorts in dem geografischen Koordinatensystem. CapMaxLen ist ein abbildbarer Abstand. Cthres ist ein Wert, der größer als der Schwellenwert ist. CDestLen ist Cthres, wenn der Abstand DestLen zwischen der Abbildungsvorrichtung 31 und dem Bestimmungsort größer als der abbildbare Abstand ist, und er ist 0, wenn der Abstand DestLen kürzer als der abbildbare Abstand ist. Das heißt, die durch Gleichung 5 berechnete Wichtigkeit CDestLen ist ein Wert, der größer als der Schwellenwert ist, wenn der Abstand DestLen zwischen der Abbildungsvorrichtung 31 und dem Bestimmungsort größer als der abbildbare Abstand ist, und ist ein Wert, der nicht größer als der Schwellenwert ist, wenn der Abstand DestLen kürzer als der abbildbare Abstand ist.
  • In 12 wird angenommen, dass zwischen dem Bestimmungsort, der Tankstelle und den umgebenden Fahrzeugen M bis L, die die Objekte sind, bestimmt ist, dass das Abschirmen nicht für den Bestimmungsort zulässig ist und die Abschirmung für die verbleibenden Objekte zulässig ist. Das heißt, es wird angenommen, dass die Abschirmung für die 3D-Modelle B, C, D und E zulässig ist und die Abschirmung für das 3D-Modell A nicht zulässig ist.
  • In diesem Fall sind die 3D-Modelle B, C, D und E wie in 19 illustriert aufbereitet, wenn der Prozess des Schritts S95 in 14 beendet ist. Jedoch ist das 3D-Modell B hinter dem Gebäude und durch das Gebäude abgeschirmt, so dass es nicht aufbereitet ist. Dann ist, wenn der Prozess des Schritts S98 in 14 beendet ist, das 3D-Modell A wie in 20 illustriert aufbereitet. obgleich das 3D-Modell A hinter dem Gebäude ist, ist die Abschirmung nicht zulässig, so dass es ungeachtet der Position aufbereitet ist.
  • *** Wirkung des Ausführungsbeispiels 2 ***
  • Wie vorstehend beschrieben ist, berechnet, wenn das Objekt das Wahrzeichen wie der Bestimmungsort ist, die Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 2 die Wichtigkeit anhand des Abstands von dem sich bewegenden Körper 100 zu dem Objekt. Somit wird, wenn der Bestimmungsort entfernt ist, das den Bestimmungsort darstellende 3D-Modell angezeigt, selbst wenn der Bestimmungsort durch das Gebäude oder dergleichen abgeschirmt wird, so dass die Richtung des Bestimmungsorts leicht erfasst werden kann.
  • Wie in 21 illustriert ist, wird, wenn der Bestimmungsort nah ist und innerhalb des abbildbaren Abstands ist, für das 3D-Modell A entsprechend dem Bestimmungsort bestimmt, dass die Abschirmung zulässig ist. Als ein Ergebnis wird, wie in 22 illustriert ist, das 3D-Modell A mit einem Teil, der auf der Vorderseite von dem Gebäude C abgeschirmt ist, darstellt. Somit ist, wenn der Bestimmungsort nahe ist, eine Positionsbeziehung zwischen dem Bestimmungsort und dem Gebäude oder dergleichen leicht zu verstehen.
  • Das heißt, wenn der Bestimmungsort entfernt ist, ist die Positionsbeziehung mit dem nahen Gebäude oder dergleichen nicht sehr wichtig. Daher kann die Richtung des Bestimmungsorts leicht verstanden werden durch Anzeigen des 3D-Modells entsprechend dem Bestimmungsort ohne Abschirmung. Andererseits ist, wenn der Bestimmungsort nahe ist, die Positionsbeziehung mit dem nahen Gebäude oder dergleichen wichtig. Daher ist die Positionsbeziehung mit dem Gebäude oder dergleichen leicht zu verstehen durch Anzeigen des 3D-Modells entsprechend dem Bestimmungsort mit Abschirmung.
  • *** Andere Konfiguration ***
  • < Modifikation 3 >
  • Bei dem Ausführungsbeispiel 1 wird bestimmt, ob die Abschirmung für den sich bewegenden Körper wie das Fahrzeug zulässig ist, und bei dem Ausführungsbeispiel 2 wird bestimmt, ob die Abschirmung für das Wahrzeichen wie den Bestimmungsort zulässig ist. Bei der Modifikation 3 können sowohl die im Ausführungsbeispiel 1 durchgeführte Bestimmung, ob die Abschirmung zulässig ist, als auch die im Ausführungsbeispiel 2 durchgeführte Bestimmung, ob die Abschirmung zulässig ist, durchgeführt werden.
  • Ausführungsbeispiel 3
  • Das Ausführungsbeispiel 3 unterscheidet sich von den Ausführungsbeispielen 1 und 2 dahingehend, dass das Objekt in einer Richtung, die von dem Fahrer nicht gesehen wird, ohne Abschirmung angezeigt wird. Bei dem Ausführungsbeispiel 3 wird dieser unterschiedliche Punkt beschrieben.
  • *** Beschreibung der Konfiguration ***
  • Die Konfiguration der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 3 wird mit Bezug auf 23 beschrieben.
  • Die Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 3 unterscheidet sich von der in 1 illustrierten Bildanzeigevorrichtung 10 dadurch, dass sie die Zustandserwerbseinheit 25 nicht enthält, aber eine Sichtlinien-Identifizierungseinheit 28 als eine funktionelle Komponente enthält.
  • Die Sichtlinien-Identifizierungseinheit 28 wird ähnlich wie die anderen funktionellen Komponenten durch Software realisiert.
  • Zusätzlich enthält die Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 3 zwei Abbildungsvorrichtungen 31A auf der Vorderseite wie bei den Ausführungsbeispielen 1 und 2, und enthält weiterhin eine Abbildungsvorrichtung 31B für die Abbildung des Fahrers.
  • *** Beschreibung der Operation ***
  • Die Operation der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 3 wird mit Bezug auf 12 und die 24 bis 27 beschrieben.
  • Die Arbeitsweise der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 3 entspricht dem Bildanzeigeverfahren nach dem Ausführungsbeispiel 3. Weiterhin entspricht die Arbeitsweise der Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 3 dem Prozess des Bildanzeigeprogramms nach dem Ausführungsbeispiel 3.
  • Die Prozesse von Schritt S1 bis Schritt S6 in 24 sind die gleichen wie die Prozesse von Schritt S1 bis Schritt S6 in 2. Weiterhin ist der Prozess von Schritt S9 in 24 der gleiche wie der Prozess von Schritt S9 in 2.
  • (Schritt S7C in Fig. 24: Sichtlinien-Identifizierungsprozess)
  • Die Sichtlinien-Identifizierungseinheit 28 identifiziert einen Sichtlinienvektor, der eine Richtung, in der der Fahrer sieht, anzeigt. Die Sichtlinien-Identifizierungseinheit 28 schreibt den identifizierten Sichtlinienvektor in den Speicher 12.
  • Als ein spezifisches Beispiel erwirbt die Sichtlinien-Identifizierungseinheit 28 das von der Abbildungsvorrichtung 31B aufgenommene Bild des Fahrers über die Bildschnittstelle 14. Dann erfasst die Sichtlinien-Identifizierungseinheit 28 den Augapfel anhand des erworbenen Bilds und berechnet den Sichtlinienvektor des Fahrers anhand einer Positionsbeziehung zwischen einem Augenweiß und einer Pupille.
  • Jedoch ist der hier identifizierte Sichtlinienvektor ein Vektor in einem B-Koordinatensystem der Abbildungsvorrichtung 31B. Daher wandelt die Sichtlinien-Identifizierungseinheit 28 den bestimmten Sichtlinienvektor in einen Sichtlinienvektor in den Sichtlinienvektor in einem A-Koordinatensystem der Abbildungsvorrichtung 31A um, dass die Vorderseite des sich bewegenden Körpers 100 abbildet. Genauer gesagt, die Sichtlinien-Identifizierungseinheit 28 wandelt das Koordinatensystem des Sichtlinienvektors unter Verwendung der anhand der relativen Orientierung zwischen der Abbildungsvorrichtung 31A und der Abbildungsvorrichtung 31B berechneten Rotationsmatrix um. Es ist festzustellen, dass die relative Orientierung anhand der Installationspositionen der Abbildungsvorrichtungen 31A und 31B in dem sich bewegenden Körper 100 identifiziert wird.
  • Wenn ein Koordinatensystem des sich bewegenden Körpers als ein Koordinatensystem definiert wird, in welchem eine seitliche Richtung des sich bewegenden Körpers 100 eine X-Koordinate ist, ist die Aufwärtsrichtung eine Y-Koordinate, und eine Fahrtrichtung ist eine Z-Koordinate, und Drehwinkel der X-Achse, der Y-Achse und der Z-Achse in dem Koordinatensystem des sich bewegenden Körpers entsprechend der seitlichen Richtung, der Aufwärtsrichtung, der optischen Achsenrichtung der Abbildungsvorrichtung 31A sind jeweils definiert als Pitchcam, Yawcam und RollCam, ist die Transformationsmatrix Matcar2cam von dem Koordinatensystem des sich bewegenden Körpers zu dem A-Koordinatensystem wie in Gleichung 6 gezeigt. Mat c a r 2 c a m = ( cosRoll c a m sinroll c a m 0 sinRoll c a m cosRoll c a m 0 0 0 1 ) ( cosYaw c a m 0 sinYaw c a m 0 1 0 sinPitch c a m 0 cosYaw c a m ) ( 1 0 0 0 cosPitch c a m sinPitch c a m 0 sinPitch c a m cosPitch c a m )
    Figure DE112016006725T5_0006
  • Wenn Rotationswinkel der X-Achse, der Y-Achse und der Z-Achse des Koordinatensystems des sich bewegenden Körpers entsprechend der seitlichen Richtung, der Aufwärtsrichtung und der optischen Achsenrichtung der Abbildungsvorrichtung 31B jeweils als Pitchdrc, Yawdrc und Rolldrc definiert sind, ist Transformationsmatrix Matcar2drc von dem Koordinatensystem des sich bewegenden Körpers zu dem B-Koordinatensystem wie in Gleichung 7 gezeigt. Mat c a r 2 d r c = ( cosRoll d r c sinroll d r c 0 sinRoll d r c cosRoll d r c 0 0 0 1 ) ( cosYaw d r c 0 sinYaw d r c 0 1 0 sinPitch d r c 0 cosYaw d r c ) ( 1 0 0 0 cosPitch d r c sinPitch d r c 0 sinPitch d r c cosPitch d r c )
    Figure DE112016006725T5_0007
  • Dann wird, da die Umwandlung von B-Koordinatensystem zu dem A-Koordinatensystem Matcar2cam·(Matcar2drc)t ist, wird der Sichtlinienvektor in dem A-Koordinatensystem durch Gleichung 8 berechnet. V c a m = Mat c a r 2 c a m Mat c a r 2 d r c t V d r c
    Figure DE112016006725T5_0008
  • Hier ist Vcam der Sichtlinienvektor in dem A-Koordinatensystem, und Vdrc ist der Sichtlinienvektor in dem B-Koordinatensystem.
  • Da Hardware für eine Sichtlinienerfassung auch kommerziell erhältlich ist, kann die Sichtlinien-Identifizierungseinheit 28 durch eine derartige Hardware realisiert werden.
  • (Schritt S8C in Fig. 24: Abschirmbestimmungsprozess)
  • Wie beim Ausführungsbeispiel 1 bestimmt die Abschirmbestimmungseinheit 26, ob die Abschirmung für das Objekt zulässig ist, in Abhängigkeit davon, ob die Wichtigkeit des Objekts entsprechend den im Schritt S4 erworbenen Navigationsdaten 41 und den im Schritt S5 erworbenen peripheren Daten größer als der Schwellenwert ist. Jedoch ist das Verfahren des Berechnens der Wichtigkeit von dem im Ausführungsbeispiel 1 verschieden.
  • Die Beschreibung erfolgt spezifisch mit Bezug auf Fig. 25'.
  • Im Ausführungsbeispiel 3 wird bestimmt, ob das Schirmen nur für das Objekt, dessen Typ ein Fahrzeug ist, zulässig ist, und das Abschirmen wird für alle anderen Typen des Objekts erlaubt. Es ist zu beachten, dass bestimmt werden kann, ob das Abschirmen für andere sich bewegende Körper wie den Fußgänger und das Wahrzeichen wie die Tankstelle, die nicht auf das Fahrzeug beschränkt sind, zulässig ist.
  • Die Prozesse von Schritt S81 bis Schritt S83 und die Prozesse von Schritt S85 bis Schritt S87 sind die gleichen wie diejenigen beim Ausführungsbeispiel 1.
  • Im Schritt S84C berechnet die Abschirmbestimmungseinheit 26 die Wichtigkeit als desto höher, je größer die Abweichung zwischen der Position des Objekts und der von dem Fahrer gesehenen, durch den Sichtlinienvektor angezeigten Position ist.
  • Als ein spezifisches Beispiel berechnet die Abschirmbestimmungseinheit 26 die Wichtigkeit gemäß Gleichung 9. C w a t c h = w w a t c h | θ | π θ = cos 1 V c a m P o b j | V c a m | | P o b j | π < θ π
    Figure DE112016006725T5_0009
  • Hier ist Cwatch die Wichtigkeit. Pobj ist die Position des Objekts. θ ist ein durch den Sichtlinienvektor und einen Zielvektor von der Abbildungsvorrichtung 31A zu dem Objekt gebildeter Winkel. wwatch ist ein Betrachtungskostenkoeffizient, der eine beliebig bestimmte positive Konstante ist.
  • Es wird angenommen, dass der Fahrer die Mitte zwischen dem umgebenden Fahrzeug M und dem umgebenden Fahrzeug L in 12 sieht. Dann nimmt die Abweichung zwischen der Position des umgebenden Fahrzeugs N und der von dem Fahrer gesehenen, durch den Sichtlinienvektor angezeigten Position zu, und die Wichtigkeit des umgebenden Fahrzeugs N ist hoch.
  • Daher wird angenommen, dass zwischen dem Bestimmungsort, der Tankstelle und den umgebenden Fahrzeugen M bis L, die die Objekte sind, bestimmt wird, dass die Abschirmung nicht für das umgebende Fahrzeug N zulässig ist und die Abschirmung für die verbleibenden Objekte zulässig ist. Das heißt, es wird angenommen, dass die Abschirmung für die 3D-Modelle A bis D zulässig ist und die Abschirmung für das 3D-Modell E nicht zulässig ist.
  • In diesem Fall sind, wie in 26 illustriert ist, die 3D-Modelle A bis D aufbereitet, wenn der Prozess des Schritts S95 beendet ist. Da jedoch die 3D-Modelle A und B hinter dem Gebäude sind und durch das Gebäude abgeschirmt werden, diese nicht aufbereitet. Wenn der Prozess des Schritts S98 beendet ist, ist das 3D-Modell E wie in 27 illustriert, aufbereitet.
  • *** Wirkung des Ausführungsbeispiels 3 ***
  • Wie vorstehend beschrieben ist, berechnet die Bildanzeigevorrichtung 10 nach dem Ausführungsbeispiel 3 die Wichtigkeit anhand der Abweichung von der von dem Fahrer gesehenen Position. Somit wird, wenn eine hohe Wahrscheinlichkeit besteht, dass der Fahrer das Objekt übersieht, das 3D-Modell entsprechend dem Objekt ohne Abschirmung angezeigt, so dass das Objekt dem Fahrer mitgeteilt werden kann.
  • Andererseits ist die Abschirmung für das Objekt zulässig, das sehr wahrscheinlich von dem Fahrer bemerkt, und die Positionsbeziehung ist leicht zu verstehen.
  • *** Andere Konfiguration ***
  • < Modifikation 4 >
  • Bei dem Ausführungsbeispiel 1 wird auf der Grundlage der relativen Position und der relativen Geschwindigkeit bestimmt, ob die Abschirmung für den sich bewegenden Körper wie das Fahrzeug zulässig ist, und im Ausführungsbeispiel 2 wird auf der Grundlage der relativen Position bestimmt, ob die Abschirmung für das Wahrzeichen wie den Bestimmungsort zulässig ist. Bei dem Ausführungsbeispiel 3 wird auf der Grundlage der Abweichung von der Position, zu der der Fahrer sieht, bestimmt, ob die Abschirmung zulässig ist. Als Modifikation 4 können sowohl die Bestimmung, ob die Abschirmung zulässig ist, die in zumindest einem der Ausführungsbeispiele 1 und 2 durchgeführt wird, als auch die Bestimmung, ob die Abschirmung zulässig ist, die im Ausführungsbeispiel 3 durchgeführt wird, durchgeführt werden.
  • Bezugszeichenliste
  • 10: Bildanzeigevorrichtung, 11: Prozessor, 12: Speicher, 13: Speichervorrichtung, 14: Bildschnittstelle, 15: Kommunikationsschnittstelle, 16: Anzeigeschnittstelle, 17: Verarbeitungsschaltung, 21: Tiefenkarten-Erzeugungseinheit, 22: Tiefennormierungseinheit, 23: Objektinformationserwerbseinheit, 24: Modellerzeugungseinheit, 25: Zustandserwerbseinheit, 26: Abschirmbestimmungseinheit, 27: Anzeigesteuereinheit, 28: Sichtlinien-Identifizierungseinheit, 31, 31A, 31B: Abbildungsvorrichtung, 32: ECU, 33: Anzeigevorrichtung, 41: Navigationsdaten, 42: Zeichnungsparameter, 100: sich bewegender Körper.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2013111302 [0004]
    • JP 2012208111 A [0004]

Claims (9)

  1. Bildanzeigevorrichtung, welche aufweist: eine Objektinformations-Erwerbseinheit zum Erwerben von Informationen über ein Objekt, das sich um einen sich bewegenden Körper herum befindet; eine Abschirmbestimmungseinheit zum Bestimmen, dass eine Abschirmung für das Objekt nicht zulässig ist, wenn eine durch die Objektinformations-Erwerbseinheit erworbene Wichtigkeit des Objekts höher als ein Schwellenwert ist; und eine Anzeigesteuereinheit zum Anzeigen von Bilddaten, die das Objekt durch Überlagerung von diesen über eine Szenerie um den sich bewegenden Körper herum ungeachtet einer Position des Objekts anzeigen, mit Bezug auf das Objekt, für das durch die Abschirmbestimmungseinheit bestimmt ist, dass die Abschirmung nicht zulässig ist.
  2. Bildanzeigevorrichtung nach Anspruch 1, bei der, wenn das Objekt ein sich bewegendes Objekt ist, die Wichtigkeit anhand eines relativen Abstands, der ein Abstand von dem sich bewegenden Körper zu dem Objekt ist, und einer relativen Geschwindigkeit, die eine Geschwindigkeit ist, mit der sich das Objekt dem sich bewegenden Körper annähert, berechnet wird.
  3. Bildanzeigevorrichtung nach Anspruch 2, bei der die Wichtigkeit desto höher ist, je näher der relative Abstand ist, und desto höher ist, je schneller die relative Geschwindigkeit ist.
  4. Bildanzeigevorrichtung nach einem der Ansprüche 1 bis 3, bei der, wenn das Objekt ein Wahrzeichen ist, die Wichtigkeit desto höher ist, je weiter ein relativer Abstand, der ein Abstand von dem sich bewegenden Körper zu dem Objekt ist, ist.
  5. Bildanzeigevorrichtung nach einem der Ansprüche 1 bis 4, bei der die Wichtigkeit desto höher ist, je größer eine Abweichung zwischen der Position des Objekts und einer Position, zu der ein Fahrer des sich bewegenden Körpers sieht, ist.
  6. Bildanzeigevorrichtung nach einem der Ansprüche 1 bis 5, bei der die Informationen über das Objekt Navigationsdaten zum Führen des Objekts, die in einer Speichervorrichtung gespeichert sind, und Sensordaten, die von einem durch einen Sensor erfassten Sensorwert erhalten wurden, sind.
  7. Bildanzeigevorrichtung nach einem der Ansprüche 1 bis 6, bei der die Anzeigesteuereinheit steuert, ob das Objekt durch Überlagerung von diesem über die Szenerie anzuzeigen ist, gemäß der Position des Objekts mit Bezug auf das Objekt, für das durch die Abschirmbestimmungseinheit bestimmt ist, dass die Abschirmung zulässig ist.
  8. Bildanzeigeverfahren, welches aufweist: Erwerben von Informationen über ein Objekt, das sich um einen sich bewegenden Körper herum befindet, durch einen Prozessor; Bestimmen, dass die Abschirmung für das Objekt nicht zulässig ist, wenn eine erworbene Wichtigkeit des Objekts höher als ein Schwellenwert ist, durch den Prozessor; und Anzeigen von Bilddaten, die das Objekt anzeigen, durch Überlagern von diesem über eine Szenerie um den sich bewegenden Körper herum ungeachtet einer Position des Objekts, mit Bezug auf das Objekt, für das bestimmt ist, dass die Abschirmung nicht zulässig ist, durch den Prozessor.
  9. Bildanzeigeprogramm zum Bewirken, dass ein Computer ausführt: einen Objektinformations-Erwerbsprozess zum Erwerben von Informationen über ein Objekt, das sich um einen sich bewegenden Körper herum befindet; einen Abschirmbestimmungsprozess des Bestimmens, dass eine Abschirmung für das Objekt nicht zulässig ist, wenn eine durch den Objektinformations-Erwerbsprozess erworbene Wichtigkeit des Objekts höher als ein Schwellenwert ist; und einen Anzeigesteuerprozess zum Anzeigen von Bilddaten, die das Objekt anzeigen, durch Überlagern von diesen über eine Szenerie um den sich bewegenden Körper herum, ungeachtet einer Position des Objekts, mit Bezug auf das Objekt, für das durch den Abschirmbestimmungsprozess bestimmt ist, dass die Abschirmung nicht zulässig ist.
DE112016006725.9T 2016-05-17 2016-05-17 Bildanzeigevorrichtung, bildanzeigeverfahren und bildanzeigeprogramm Pending DE112016006725T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/064648 WO2017199347A1 (ja) 2016-05-17 2016-05-17 画像表示装置、画像表示方法及び画像表示プログラム

Publications (1)

Publication Number Publication Date
DE112016006725T5 true DE112016006725T5 (de) 2018-12-27

Family

ID=60325117

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016006725.9T Pending DE112016006725T5 (de) 2016-05-17 2016-05-17 Bildanzeigevorrichtung, bildanzeigeverfahren und bildanzeigeprogramm

Country Status (5)

Country Link
US (1) US20190102948A1 (de)
JP (1) JP6385621B2 (de)
CN (1) CN109073403A (de)
DE (1) DE112016006725T5 (de)
WO (1) WO2017199347A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111586303A (zh) * 2020-05-22 2020-08-25 浩鲸云计算科技股份有限公司 基于无线定位技术的摄像机动态跟踪路面目标的控制方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208111A (ja) 2011-12-05 2012-10-25 Pioneer Electronic Corp 画像表示装置及び制御方法
WO2013111302A1 (ja) 2012-01-26 2013-08-01 パイオニア株式会社 表示装置、制御方法、プログラム、記憶媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5892598A (en) * 1994-07-15 1999-04-06 Matsushita Electric Industrial Co., Ltd. Head up display unit, liquid crystal display panel, and method of fabricating the liquid crystal display panel
US8427395B2 (en) * 2009-04-02 2013-04-23 GM Global Technology Operations LLC Full-windshield hud enhancement: pixelated field of view limited architecture
US9064420B2 (en) * 2013-03-14 2015-06-23 Honda Motor Co., Ltd. Augmented reality heads up display (HUD) for yield to pedestrian safety cues
JP6107354B2 (ja) * 2013-04-15 2017-04-05 オムロン株式会社 画像表示装置、画像表示装置の制御方法、画像表示プログラム、および、これを記録したコンピュータ読み取り可能な記録媒体
DE102014219575A1 (de) * 2013-09-30 2015-07-23 Honda Motor Co., Ltd. Verbesserte 3-Dimensionale (3-D) Navigation
CN104503092B (zh) * 2014-11-28 2018-04-10 深圳市魔眼科技有限公司 不同角度和距离自适应的三维显示方法及设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208111A (ja) 2011-12-05 2012-10-25 Pioneer Electronic Corp 画像表示装置及び制御方法
WO2013111302A1 (ja) 2012-01-26 2013-08-01 パイオニア株式会社 表示装置、制御方法、プログラム、記憶媒体

Also Published As

Publication number Publication date
JP6385621B2 (ja) 2018-09-05
WO2017199347A1 (ja) 2017-11-23
JPWO2017199347A1 (ja) 2018-11-15
US20190102948A1 (en) 2019-04-04
CN109073403A (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
DE102013209415B4 (de) Dynamische Hinweisüberlagerung mit Bildbeschneidung
DE102011100927B4 (de) Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser
DE112009001833B4 (de) 3D-Flugzeit-Kamerasystem und zugehöriges Positions-/Orientierungs-Kalibrationsverfahren
DE102018121018A1 (de) Erweitern von realen sensoraufnahmen mit simuliertem sensordatenhintergrund
DE102017100198A1 (de) Fixierungserzeugung für maschinenlernen
DE102013222322B4 (de) Verfahren und Gerät für das Bereitstellen von Augmented Reality bzw. erweiterter Realität
DE102015105248A1 (de) Erzeugen eines bildes von der umgebung eines gelenkfahrzeugs
DE112017003916T5 (de) Head-Up-Display-Vorrichtung, Anzeigesteuerverfahren und Steuerprogramm
DE102018125676A1 (de) Dreidimensionale Ausrichtung von Radar- und Kamerasensoren
DE102016210254A9 (de) Fahrzeugortung an kreuzungen anhand von visuellen anhaltspunkte, stationären objekten und durch gps
DE112016005947B4 (de) Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm
DE112018000786T5 (de) EINE VORRICHTUNG UND EIN VERFAHREN ZUM STEUERN EINER HEAD-UP-vvANZEIGE EINES FAHRZEUGS
DE112015006662T5 (de) Anzeigesteuervorrichtung, anzeigesteuerverfahren und anzeigesteuerprogramm
DE112019002080T5 (de) Systeme und verfahren zur stellungsbestimmung
DE112018002419T5 (de) Anzeigevorrichtung und Anzeigesteuerverfahren
DE102013226476B4 (de) Bildverarbeitungsverfahren und -system eines rundumsicht-überwachungssystems
DE112016006213T5 (de) System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen
DE112014007007T5 (de) Informationsanzeige-Steuersystem und Verfahren zum Steuern einer Anzeige einer Information
DE102014222617A1 (de) Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte
DE102019104352A1 (de) Kupplungsunterstützungssystem mit schätzung der anhängerhöhe und identifizierung des kupplungskopplers
DE102013204597A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Sichtweite bei Nebel am Tag
DE102021204765A1 (de) Rendern von Augmented-Reality mit Verdeckung
DE102017121694A1 (de) Vorrichtung und Verfahren zum Erzeugen dreidimensionaler Daten und Überwachungssystem mit Vorrichtung zur Erzeugung dreidimensionaler Daten
DE102021101270A1 (de) Trainieren eines neuronalen netzwerks eines fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: PFENNING, MEINIG & PARTNER MBB PATENTANWAELTE, DE

R084 Declaration of willingness to licence
R016 Response to examination communication