DE10130046A1 - Verfahren und Vorrichtung zum Visualisieren von Daten - Google Patents

Verfahren und Vorrichtung zum Visualisieren von Daten

Info

Publication number
DE10130046A1
DE10130046A1 DE2001130046 DE10130046A DE10130046A1 DE 10130046 A1 DE10130046 A1 DE 10130046A1 DE 2001130046 DE2001130046 DE 2001130046 DE 10130046 A DE10130046 A DE 10130046A DE 10130046 A1 DE10130046 A1 DE 10130046A1
Authority
DE
Germany
Prior art keywords
data
perception
area
visualized
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE2001130046
Other languages
English (en)
Inventor
Thomas Alt
Werner Schreiber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE2001130046 priority Critical patent/DE10130046A1/de
Publication of DE10130046A1 publication Critical patent/DE10130046A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Visualisieren von Daten. Die Vorrichtung umfasst mindestens eine Datenquelle (110, 112, 114, 116) zum Bereitstellen von Daten und eine Visualisierungseinrichtung (130) mit zumindest zwei unabhängig voneinander ansteuerbaren Wahrnehmungsbereichen (140_I, 140_II, 140_III) zum Visualisieren der Daten im Blickfeld eines Betrachters. Es ist die Aufgabe der Erfindung, ein solches bekanntes Verfahren und eine solche bekannte Vorrichtung derart weiterzubilden, dass die Wahrnehmung von visualisierten Daten für dne Betrachter erleichtert und verbessert wird. Diese Aufgabe wird erfindungsgemäß in der Weise gelöst, dass die von der Datenquelle (110) bereitgestellten Daten vor ihrer Visualisierung daraufhin analysiert werden, wie gut sie in den einzelnen Wahrnehmungsbereichen durch den Betrachter wahrgenommen werden und dass die Daten nach Maßgabe durch das Ergebnis der Analyse zumindest einem optimalen der Wahrnehmungsbereiche zugeordnet und dort visualisiert werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Visualisieren von Daten, gemäß dem Oberbegriff des Patentanspruchs 1.
  • Die Erfindung betrifft weiterhin eine Vorrichtung zum Durchführen dieses Verfahrens gemäß dem Oberbegriff des Patentanspruchs 10.
  • Ein derartiges Verfahren und eine entsprechende Vorrichtung sind aus der US 6,014,117 bekannt und in Fig. 2 veranschaulicht. Diese US-Patentschrift offenbart eine Vorrichtung 20 zum Visualisieren von Symbolen in zwei getrennt ansteuerbaren Wahrnehmungsbereichen 22 und 24. Der rechte Wahrnehmungsbereich 22 und der linke Wahrnehmungsbereich 24 sind im äußeren Bereich des Blickfeldes eines Betrachters angeordnet. In diesen Wahrnehmungsbereichen werden dem Betrachter, wenn dieser Führer eines Flugzeugs oder eines Kraftfahrzeugs ist, Fahrzeugführungsinformationen in Form von bewegten, sogenannten peripheren Symbolen eingespielt. Diese künstlichen Symbole umfassen Felder mit verschiedenem Kontrast, unterschiedlicher Farbe oder Struktur, repräsentieren aber ausdrücklich keine realen Objekte aus der Umgebung des Fahrzeugs. Aufgrund ihrer Bewegung in den peripheren Wahrnehmungsbereichen kann allerdings für den Betrachter der Eindruck eines sich bewegenden Objektes in seiner realen Umgebung entstehen.
  • Bei dem in der US 6,014,117 offenbarten Verfahren wird nur eine bestimmte Art von Daten, nämlich die Symbole, erzeugt und unmittelbar in den dafür vorbestimmten peripheren Wahrnehmungsbereichen dargestellt. Das Verfahren ist nicht geeignet, verschiedene Daten in jeweils unterschiedlichen, individuell geeigneten Wahrnehmungsbereichen im Blickfeld eines Betrachters darzustellen.
  • Ausgehend von diesem Stand der Technik ist es deshalb die Aufgabe der Erfindung, ein bekanntes Verfahren und eine bekannte Vorrichtung zum Visualisieren von Daten derart weiterzubilden, dass die Wahrnehmung von visualisierten Daten für den Betrachter erleichtert und verbessert wird.
  • Diese Aufgabe wird durch den Gegenstand des Patentanspruchs 1 gelöst. Genauer gesagt erfolgt die Lösung demnach in der Weise, dass die bereitgestellten Daten vor ihrer Visualisierung daraufhin analysiert werden, wie gut sie in den einzelnen Wahrnehmungsbereichen durch den Betrachter wahrgenommen werden und dass die Daten nach Maßgabe durch das Ergebnis der Analyse zumindest einem optimalem der Wahrnehmungsbereiche zugeordnet und dort visualisiert werden.
  • Die an unterschiedlichen Positionen im Gesichtsfeld eines Betrachters lokalisierten Wahrnehmungsbereiche erlauben jeweils eine optimale Wahrnehmung von unterschiedlichen Arten von Daten oder Informationen, weil in jedem dieser Wahrnehmungsbereiche die Wahrnehmung der visualisierten Daten auf unterschiedlichen physiologischen Eigenschaften des menschlichen Auges basiert. Z. B. ist die Empfindlichkeit des menschlichen Auges zur Wahrnehmung von Objekten, die sich relativ zum Betrachter bewegen, im peripheren Wahrnehmungsbereich des Gesichtsfeldes höher als in anderen Wahrnehmungsbereichen.
  • Vorteilhafterweise werden erfindungsgemäß die zu visualisierenden Daten nur in demjenigen Wahrnehmungsbereich dargestellt, welcher eine optimale, d. h. einfache und sehr gute Wahrnehmung durch den Betrachter ermöglicht. Die Aufmerksamkeit, mit welcher der Betrachter die auf diese Weise visualisierten Daten betrachtet, ist deshalb gegenüber dem Stand der Technik wesentlich verbessert.
  • Mit Hilfe der Erfindung können vorteilhafter Weise eine Vielzahl von Daten oder Informationen visuell an den Betrachter übermittelt werden, ohne dass dieser sich von der Vielzahl der bereitgestellten Daten überfordert fühlen müsste. Die erfindungsgemäße Darstellung der Daten in zugeordneten Wahrnehmungsbereichen erfolgt ergonomisch sinnvoll und wird deshalb nicht als Überlastung empfunden.
  • Gemäß einem ersten bevorzugten Ausführungsbeispiel ist es vorteilhaft, wenn die Analyse der Daten und damit auch die Wahl des am besten geeigneten Wahrnehmungsbereiches auch nach Maßgabe der Bedeutung erfolgt, welche die zu visualisierenden Daten für den Betrachter in einer aktuellen Situation haben.
  • Besonders vorteilhaft ist die Visualisierung der Daten in Echtzeit, weil dann eine Steuerung oder Regelung eines länger andauernden Prozesses, z. B. das Fahren eines Fahrzeugs, durch den Betrachter möglich ist.
  • Die oben genannte Aufgabe wird weiterhin auch durch den Gegenstand des Vorrichtungsanspruchs 9 gelöst. Dessen Vorteile entsprechen den oben für, das Verfahren genannten Vorteilen.
  • Weitere vorteilhafte Ausgestaltungen des Verfahrens und der Vorrichtung sind Gegenstand der Unteransprüche.
  • Der Beschreibung sind 2 Figuren beigefügt, wobei:
  • Fig. 1 ein Verfahren und eine Vorrichtung gemäß der Erfindung schematisch veranschaulicht; und
  • Fig. 2 eine Anordnung von Wahrnehmungsbereichen im Gesichtsfeld eines Betrachters aus dem Stand der Technik zeigt.
  • Bevor die Erfindung anhand eines Ausführungsbeispiels näher beschrieben wird, werden zunächst einige bekannte Grundbegriffe im Zusammenhang mit dem menschlichen Sehen, wie sie bei der vorliegenden Erfindung zu verstehen sind, näher erläutert. Siehe dazu Bockelmann 2000: "Augen und Mehr" URL: http:/ / www. Augenundmehr.de, Stand 8/2000.
  • Das Sichtfeld beschreibt den Bereich im Blickfeld des Betrachters, in dem die reale Umgebung bei feststehenden Augäpfeln wahrgenommen werden kann. Das Gesichtsfeld hat bei Westeuropäern eine horizontale Ausdehnung von ca. 120°. Als Blickfeld bezeichnet man den wahrnehmbaren Bereich bei zusätzlicher Schwenkung der Augäpfel. Es hat eine Ausdehnung von bis zu 200° in der Horizontalen. Wird zusätzlich der Kopf bewegt - man spricht dann vom Umblickfeld - ist der wahrnehmbare Bereich noch größer.
  • Im Straßenverkehr ist das periphere Gesichtsfeld von überragender Bedeutung, weil es bewegte Gegenstände, z. B. ein überholendes Fahrzeug, bereits rechtzeitig in der Peripherie, d. h. von außen her, ankündigt. Die äußeren Netzhautanteile haben eine hohe Empfindlichkeit für bewegte Objekte und machen durch indirektes Sehen auf jene Objekte aufmerksam, welche sich relativ zum Betrachter bewegen. Das periphere Gesichtsfeld hat demnach eine hohe Warnfunktion. Je schneller sich ein Gegenstand in diesem peripheren Gesichtsfeld bewegt, desto stärker lenkt er die Aufmerksamkeit des Betrachters auf sich. Die äußeren Netzhautanteile haben eine sehr schlechte Sehschärfe, jeweils nur 2-3%, und können somit die im peripheren Wahrnehmungsbereich visualisierten Objekte nicht genau erkennen oder definieren. Ein genaues Erkennen oder Scharfsehen ist erst dann möglich, wenn der Betrachter seinen Kopf herumdreht und das entsprechende Objekt direkt ansieht.
  • Neben dem peripheren Gesichtsfeld ist jedoch im Straßenverkehr auch das Blick- Gesichtsfeld, d. h. der Bereich, welcher durch Blickbewegung der Augen ohne Kopfdrehung erfassbar ist, und das Umblickfeld, d. h. der Bereich, welcher unter Ausnutzung aller Bewegungsmöglichkeiten bei feststehenden Füßen oder im Sitzen erfassbar ist. Das Umblickfeld wird z. B. beim Rückwärtseinparken benötigt, wenn Kopf und Oberkörper verdreht werden, um nach hinten zu schauen, aber die Füße an einem Ort bleiben.
  • Soweit die Definition der Grundbegriffe. Es folgt nun die Beschreibung der Erfindung unter Bezugnahme auf Fig. 1.
  • Fig. 1 veranschaulicht eine beispielhafte Anwendung des erfindungsgemäßen Verfahrens und der erfindungsgemäßen Vorrichtung zum Führen eines Kraftfahrzeugs.
  • Es sind verschiedene Datenquellen 110 eines Fahrzeugs zu erkennen, welche jeweils unterschiedliche zu visualisierende Daten bereitstellen. Als Datenquellen sind beispielhaft eine Instrumententafel 112, eine seitliche Enffernungssensorik 114, insbesondere zur Erfassung von überholenden Fahrzeugen, und ein Radio 116 dargestellt. Als Daten wird von diesen Datenquellen z. B. ein Abbild der Instrumententafel mit aktuellen Fahrparameter-Einstellungen, eine Angabe über den Abstand zu einem anderen überholenden Fahrzeug oder ein aktuell eingestellter Radiosender bereitgestellt.
  • Diese Daten werden entweder sequentiell oder parallel, vorzugsweise aber in Echtzeit, an eine Auswerteeinrichtung 120 übermittelt. Die Auswerteeinrichtung ist vorzugsweise, aber nicht notwendigerweise, in dem Fahrzeug angeordnet. Die Auswerteeinrichtung 120 analysiert die von den Datenquellen bereitgestellten Daten im Hinblick auf ihre Wahrnehmbarkeit in einzelnen verfügbaren Wahrnehmungsbereichen im Gesichtsfeld des Betrachters, d. h. hier des Fahrzeugfahrers; auf diese Weise werden die Daten klassifiziert nach Wahrnehmungsbereichen. Anders ausgedrückt ordnet die Auswerteeinrichtung 120 die empfangenen Daten jeweils zumindest einem verfügbaren Wahrnehmungsbereich zu und zwar demjenigen, in welchem sie von dem Auge des Betrachters, insbesondere auch unter Berücksichtigung ihrer Relevanz für eine aktuelle Fahrsituation, am besten wahrgenommen werden.
  • In Fig. 1 stehen beispielhaft drei Wahrnehmungsbereiche 140_I, 140_II und 140_III, d. h. drei Klassen, für die Visualisierung der Daten zur Verfügung. Dabei deckt ein erster Wahrnehmungsbereich 140_I das Zentrum des Gesichtsfeldes, ein zweiter Wahrnehmungsbereich 140_II den mittleren Gesichtsfeldbereich und ein dritter Wahrnehmungsbereich 140_III den äußeren Gesichtsfeldbereich zumindest teilweise ab.
  • Für die genannten Daten bietet sich folgende Zuordnung zu den Wahrnehmungsbereichen an: Die Darstellung der Instrumententafel erfolgt vorzugsweise im ersten Wahrnehmungsbereich 140_I. Die darauf angezeigten Werte sind von zentraler Bedeutung für das Führen des Kraftfahrzeugs; eine Anzeige im Zentrum des Gesichtsfeldes ist damit sinnvoll und gerechtfertigt. Die Anzeige des aktuell eingestellten Radiosenders erfordert keine ständige Beobachtung durch den Betrachter, d. h. den Fahrer; es erscheint deshalb gerechtfertigt, diese Daten außerhalb des Blickzentrums im mittleren Gesichtsfeld anzuzeigen. Dies gilt umso mehr, weil diese Daten überwiegend statisch sind und deshalb von den für diesen Wahrnehmungsbereich zuständigen halbperipheren Netzhautzellen gut überwacht werden können. Schließlich ist es vorteilhaft, wenn die Daten der seitlichen Entfernungssensorik, d. h. z. B. die Anzeige eines überholenden Fahrzeugs, in dem dritten Wahrnehmungsbereich erfolgt, weil die für diesen Bereich zuständigen peripheren Netzhautzellen besonders sensibel für die Wahrnehmung von bewegten Objekten im peripheren Blickfeld sind. Auf diese Weise wird die Warnfunktion der peripheren Netzhautzellen ganz gezielt zur Bereitstellung von sicherheitsrelevanter Information, hier der Information über ein überholendes Fahrzeug, an den Fahrer genutzt.
  • Die erfindungsgemäße Analyse der Daten und die Entscheidung über deren Zuordnung zu einem Wahrnehmungsbereich muss nicht Daten-individuell erfolgen. Zur Vereinfachung der Analyse und Zuordnung ist es auch möglich, die verfügbaren Datenquellen vorab einem vorbestimmten Wahrnehmungsbereich zuzuordnen. Dann werden der Einfachheit halber alle von einer Datenquelle bereitgestellten Daten einem der Datenquelle vorab zugeordneten Wahrnehmungsbereich zugeordnet und auf diesem angezeigt.
  • Die Wahrnehmungsbereiche finden sich allgemein in einer Visualisierungseinrichtung 130 realisiert. Je nach Arbeitsaufgabe bzw. Konzentrationsfokus des Betrachters können die Wahrnehmungsbereiche unterschiedlich geometrisch geformt sein. Fig. 1 zeigt lediglich eine mögliche Formgebung. Alternativ dazu ist eine Aufteilung des Gesichtsfeldes der Visualisierungseinrichtung 130 in senkrechte oder waagerechte Streifen möglich.
  • Die Visualisierungseinrichtung 130 kann unterschiedlich ausgebildet sein, z. B. als Datenbrille eines Durchsichtssystems, als Retina Scanning Display, als Monitor, als LCD-Display, als Lampen- oder LED-Anordnung, als Head Mounted Display (HMD) oder als Head Up Display. Das Durchsichtssystem kann als Augmented Reality System ausgebildet sein.
  • Die einzelnen Wahrnehmungsbereiche einer Visualisierungseinrichtung können auch jeweils auf unterschiedliche Weise realisiert werden. So ist es z. B. möglich, dass der erste zentrale und der zweite Wahrnehmungsbereich auf der Windschutzscheibe des Fahrzeugs als Durchsichtssystem realisiert sind. Gleichzeitig kann die LED-Anordnung zwecks Realisierung des dritten Wahrnehmungsbereiches in Augenhöhe an der A-Säule des Fahrzeugs installiert sein und im Ansprechen auf die Daten der seitlichen Entfernungssensorik 114 entweder rot oder grün leuchten oder blinken. Dabei symbolisiert eine rote Anzeige vorzugsweise einen Gefahrenzustand, d. h. ein überholendes Fahrzeug befindet sich z. B. im toten Winkel des eigenen Fahrzeugs, während eine grüne Anzeige entsprechend den Weg für einen eigenen Überholvorgang freigibt.
  • Die Visualisierungseinrichtung 130 ist erfindungsgemäß im Gesichtsfeld des Betrachters, d. h. des Fahrers beim Führen des Kraftfahrzeugs positioniert. Die Ansteuerung der Wahrnehmungsbereiche 140 erfolgt in der Weise, dass die zu visualisierenden Daten von der Auswerteeinrichtung 120 zusammen mit einem Zuordnungssignal, welches die den einzelnen Daten zugeordneten Wahrnehmungsbereiche repräsentiert, an die Visualisierungseinrichtung 130 übermittelt werden. Diese führt dann die Visualisierung der Daten in den zugeordneten optimalen Wahrnehmungsbereichen im Ansprechen auf das Zuordnungssignal durch.
  • Bei Anwendung des Verfahrens, z. B. beim Autofahren, wiederholen sich die beschriebenen Verfahrensschritte, Bereitstellen, Analysieren/Auswerten und Visualisieren der Daten kontinuierlich, vorzugsweise in Echtzeit. Auf diese Weise wird sichergestellt, dass der Betrachter der Daten einen durch die visualisierten Daten abgebildeten Prozess des Autofahrens in der Realität auch tatsächlich steuern kann. Es ist auch denkbar, dass interzyklisch die gleichen Daten dynamisch verschiedenen Wahrnehmungsbereichen zugeordnet werden. BEZUGSZEICHENLISTE 20 Vorrichtung zum Visualisieren von Symbolen
    22 rechter Wahrnehmungsbereich
    24 linker Wahrnehmungsbereich
    100 Vorrichtung zum Visualisieren von Daten
    110 Datenquellen
    112 Instrumententafel
    114 seitliche Enffernungssensorik '
    116 Radio
    120 Auswerteeinrichtung
    130 Visualisierungseinrichtung
    140_I erster Wahrnehmungsbereich
    140_II zweiter Wahrnehmungsbereich
    140_III dritter Wahrnehmungsbereich

Claims (13)

1. Verfahren zum Visualisieren von Daten, umfassend die Schritte:
Bereitstellen der zu visualisierenden Daten; und
Visualisieren der Daten in zumindest zwei getrennt ansteuerbaren Wahrnehmungsbereichen im Blickfeld eines Betrachters;
dadurch gekennzeichnet, dass
die bereitgestellten Daten vor ihrer Visualisierung daraufhin analysiert werden, wie gut sie in den einzelnen Wahrnehmungsbereichen (140_I, 140_II, 140_III) durch den Betrachter wahrgenommen werden und dass die Daten nach Maßgabe durch das Ergebnis der Analyse zumindest einem optimalem der Wahrnehmungsbereiche zugeordnet und dort visualisiert werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Analyse der Daten weiterhin unter Berücksichtigung ihrer Bedeutung für den Betrachter in einer aktuellen Situation erfolgt.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Daten ein zu visualisierendes Objekt repräsentieren.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das zu visualisierende Objekt computergeneriert ist.
5. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Wahrnehmungsbereiche (140_I, 140_II, 140_III) entweder vertikal benachbart, horizontal benachbart oder konzentrisch im Blickfeld des Betrachters angeordnet sind.
6. Verfahren nach Anspruch 5, gekennzeichnet durch drei horizontal benachbarte Wahrnehmungsbereiche, wobei ein erster Wahrnehmungsbereich (140_I) das Zentrum des Gesichtsfeldes, ein zweiter Wahrnehmungsbereich (140_II) den mittleren Gesichtsbereich und ein dritter Wahrnehmungsbereich (140_III) den äußeren Gesichtsbereich repräsentiert.
7. Verfahren nach Anspruch 6 dadurch gekennzeichnet, dass in dem ersten Wahrnehmungsbereich (140_I) eine Instrumententafel, insbesondere aus einem Kraftfahrzeug, in dem zweiten Wahrnehmungsbereich (140_II) ein aktuell in dem Kraftfahrzeug eingestellte Radiosender und in dem dritten Wahrnehmungsbereich (140_III) ein überholendes anderes Kraftfahrzeug als Objekte visualisiert werden.
8. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Visualisierung der Daten in Echtzeit erfolgt.
9. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass gleich Daten interzyklisch unterschiedlichen Wahrnehmungsbereichen (140_I, 140_II, 140_III) zugeordnet und dort visualisiert werden.
10. Vorrichtung zum Visualisieren von Daten, mit:
mindestens einer Datenquelle (110, 112, 114, 116) zum Bereitstellen der Daten; und
einer Visualisierungseinrichtung (130) mit zumindest zwei unabhängig voneinander ansteuerbaren Wahrnehmungsbereichen (140_I, 140_II, 140_III) zum Visualisieren der Daten im Blickfeld eines Betrachters;
dadurch gekennzeichnet, dass
eine Auswerteeinrichtung (120) vorgesehen ist zum Analysieren der bereitgestellten Daten im Hinblick auf ihre Wahrnehmbarkeit in den einzelnen Wahrnehmungsbereichen (140_I, 140_II, 140_III) durch den Betrachter, zum Zuordnen der analysierten Daten zu zumindest einem optimalen der Wahrnehmungsbereiche nach Maßgabe durch das Ergebnis der Analyse und zum Ausgeben eines Zuordnungssignals, welche den zumindest einen optimalen Wahrnehmungsbereich repräsentiert, an die Visualisierungsvorrichtung (130); und
die Visualisierungseinrichtung (130) ausgebildet ist, die Visualisierung der analysierten Daten in dem jeweils zugeordneten optimalen Wahrnehmungsbereich (140_I, 140_II, 140_III) im Ansprechen auf das Zuordnungssignal durchzuführen.
11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die Auswerteeinrichtung (120) ausgebildet ist, die Datenquelle (110, 112, 114, 116) zu identifizieren und aufgrund einer vorgegebenen Zuordnung alle Daten der identifizierten Datenquelle (110, 112, 114, 116) einem vorbestimmten Wahrnehmungsbereich zuzuordnen.
12. Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass die Visualisierungseinrichtung (130) ausgebildet ist, entweder als Durchsichtssystem oder als Retina Scanning Display oder als Monitor oder als LCD-Display oder als Lampenanordnung oder als Head Mounted Display (HMD) oder als Head Up Display.
13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass das Durchsichtssystem als Windschutzscheibe eines Kraftfahrzeugs oder als Augmented Reality System ausgebildet ist.
DE2001130046 2001-06-21 2001-06-21 Verfahren und Vorrichtung zum Visualisieren von Daten Ceased DE10130046A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2001130046 DE10130046A1 (de) 2001-06-21 2001-06-21 Verfahren und Vorrichtung zum Visualisieren von Daten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2001130046 DE10130046A1 (de) 2001-06-21 2001-06-21 Verfahren und Vorrichtung zum Visualisieren von Daten

Publications (1)

Publication Number Publication Date
DE10130046A1 true DE10130046A1 (de) 2003-01-02

Family

ID=7689020

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2001130046 Ceased DE10130046A1 (de) 2001-06-21 2001-06-21 Verfahren und Vorrichtung zum Visualisieren von Daten

Country Status (1)

Country Link
DE (1) DE10130046A1 (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1510849A1 (de) 2003-08-29 2005-03-02 C.R.F. Società Consortile per Azioni Virtuelles Anzeigegerät für ein Fahrzeug
DE10354641A1 (de) * 2003-11-22 2005-06-16 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zur Anzeige von Fahrerassistenzsysteminformationen in einem Fahrzeug
DE102012216057A1 (de) * 2012-09-11 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Anordnen von Anzeigen in einem Head-mounted Display
DE102012218837A1 (de) * 2012-10-16 2014-06-12 Bayerische Motoren Werke Aktiengesellschaft Anzeigen von Darstellungen auf einem Head-Up Display und einem Head-mounted Display
US9164281B2 (en) 2013-03-15 2015-10-20 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9251715B2 (en) 2013-03-15 2016-02-02 Honda Motor Co., Ltd. Driver training system using heads-up display augmented reality graphics elements
US9378644B2 (en) 2013-03-15 2016-06-28 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US9393870B2 (en) 2013-03-15 2016-07-19 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
DE102015218947A1 (de) 2015-09-30 2017-03-30 Carl Zeiss Smart Optics Gmbh Datenbrille zur visuellen Anzeige verkehrsbedingt generierter Ereignismeldungen im Straßenverkehr
US9747898B2 (en) 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
US10215583B2 (en) 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
US10339711B2 (en) 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1510849A1 (de) 2003-08-29 2005-03-02 C.R.F. Società Consortile per Azioni Virtuelles Anzeigegerät für ein Fahrzeug
DE10354641A1 (de) * 2003-11-22 2005-06-16 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zur Anzeige von Fahrerassistenzsysteminformationen in einem Fahrzeug
DE10354641B4 (de) * 2003-11-22 2018-10-31 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Anzeige von Fahrerassistenzsysteminformationen in einem Fahrzeug
DE102012216057A1 (de) * 2012-09-11 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Anordnen von Anzeigen in einem Head-mounted Display
DE102012218837A1 (de) * 2012-10-16 2014-06-12 Bayerische Motoren Werke Aktiengesellschaft Anzeigen von Darstellungen auf einem Head-Up Display und einem Head-mounted Display
US9378644B2 (en) 2013-03-15 2016-06-28 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US9251715B2 (en) 2013-03-15 2016-02-02 Honda Motor Co., Ltd. Driver training system using heads-up display augmented reality graphics elements
US9393870B2 (en) 2013-03-15 2016-07-19 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9400385B2 (en) 2013-03-15 2016-07-26 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9452712B1 (en) 2013-03-15 2016-09-27 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US9747898B2 (en) 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
US9164281B2 (en) 2013-03-15 2015-10-20 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US10215583B2 (en) 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
US10339711B2 (en) 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
DE102015218947A1 (de) 2015-09-30 2017-03-30 Carl Zeiss Smart Optics Gmbh Datenbrille zur visuellen Anzeige verkehrsbedingt generierter Ereignismeldungen im Straßenverkehr

Similar Documents

Publication Publication Date Title
EP2073185B1 (de) Verfahren zum Anzeigen von Warnhinweisen in einem Kraftfahrzeug und korrespondierende Anzeigeanordnung
AT505338B1 (de) Verfahren zur wahrnehmungsmessung
DE19539799A1 (de) Informationseinrichtung für Kraftfahrzeuge
EP1818206A2 (de) Anzeigeeinrichtung für ein Kraftfahrzeug
DE102014009697A1 (de) Verfahren zum Betreiben eines mobilen Virtual-Reality-Systems in einem Kraftfahrzeug und mobiles Virtual-Reality-System
WO2017108286A1 (de) Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system
DE10130046A1 (de) Verfahren und Vorrichtung zum Visualisieren von Daten
WO2013189808A1 (de) Head-up-display für kraftfahrzeuge zur bilddarstellung in mehreren bildebenen
DE102017213177A1 (de) Verfahren zum Betreiben eines Bildschirms eines Kraftfahrzeugs sowie Kraftfahrzeug
EP3427126B1 (de) Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system
WO2016165799A1 (de) Verfahren zum betreiben einer virtual-reality-brille und system mit einer virtual-reality-brille
DE112019000605T5 (de) Vorrichtung, fahrzeuginformationssystem und verfahren
DE102005042912A1 (de) Fahrerassistenzvorrichtung für ein Fahrzeug und Verfahren zur Sichtbarmachung der Umgebung eines Fahrzeuges
DE102014009701B4 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102015225346A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Führen des Kraftfahrzeugs
WO2005028256A2 (de) Visualisierung des toten winkels hinter einer a- säule eines fahrzeugs
DE102019220205A1 (de) Adaptive Anpassung einer optischen Ausgabe an Sehstärke
DE102009003220B4 (de) Verfahren zur Kollisionswarnung sowie Kollisionswarneinrichtung
DE102014018056A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und Virtual-Reality-Brille
DE102015003973B3 (de) Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102013210587A1 (de) Anzeigensystem mit Datenbrille
DE102015014450B4 (de) Virtual-Reality-Brille und Verfahren zum Betreiben einer Virtual-Reality-Brille
DE102005011093A1 (de) Anzeigeeinrichtung für ein Kraftfahrzeug
DE102021114028A1 (de) Verfahren zum Messen individueller Seh- und Reaktionsfähigkeiten des Fahrers und zum entsprechenden Anpassen integrierter Fahrzeugeinrichtungen
DE10249003B4 (de) Verfahren und Vorrichtung zur Signalisierung eines zeitlich und räumlich variierenden Gefahrenpotentials für den ein technisches Gerät oder eine Maschine bedienenden Operator

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R003 Refusal decision now final
R011 All appeals rejected, refused or otherwise settled