DE102011112618A1 - Interaktion mit einem dreidimensionalen virtuellen Szenario - Google Patents

Interaktion mit einem dreidimensionalen virtuellen Szenario Download PDF

Info

Publication number
DE102011112618A1
DE102011112618A1 DE102011112618A DE102011112618A DE102011112618A1 DE 102011112618 A1 DE102011112618 A1 DE 102011112618A1 DE 102011112618 A DE102011112618 A DE 102011112618A DE 102011112618 A DE102011112618 A DE 102011112618A DE 102011112618 A1 DE102011112618 A1 DE 102011112618A1
Authority
DE
Germany
Prior art keywords
selection
virtual
scenario
dimensional
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102011112618A
Other languages
English (en)
Inventor
Leonhard Vogelmeier
David Wittmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
EADS Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EADS Deutschland GmbH filed Critical EADS Deutschland GmbH
Priority to DE102011112618A priority Critical patent/DE102011112618A1/de
Priority to KR1020147006702A priority patent/KR20140071365A/ko
Priority to CA2847425A priority patent/CA2847425C/en
Priority to RU2014113395/08A priority patent/RU2604430C2/ru
Priority to US14/343,440 priority patent/US20140282267A1/en
Priority to EP12780399.7A priority patent/EP2753951A1/de
Priority to PCT/DE2012/000892 priority patent/WO2013034133A1/de
Publication of DE102011112618A1 publication Critical patent/DE102011112618A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/20Stereoscopic displays; Three-dimensional displays; Pseudo-three-dimensional displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Darstellungsvorrichtung (100) für ein dreidimensionales virtuelles Szenario zur Auswahl von Objekten (301) in dem virtuellen Szenario mit Rückmeldung bei erfolgter Auswahl eines Objektes und eine Arbeitsplatzvorrichtung mit einer solchen Darstellungsvorrichtung. Die Darstellungsvorrichtung ist ausgeführt, bei Auswahl eines virtuellen Objektes eine haptische bzw. taktile, optische oder akustische Rückmeldung auszugeben.

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft Darstellungsvorrichtungen für ein dreidimensionales virtuelles Szenario. Insbesondere betrifft die Erfindung Darstellungsvorrichtungen für ein dreidimensionales virtuelles Szenario zur Auswahl von Objekten in dem virtuellen Szenario mit Rückmeldung bei erfolgter Auswahl eines der Objekte, eine Arbeitsplatzvorrichtung zur Überwachung eines dreidimensionalen virtuellen Szenarios und Interaktion mit einem dreidimensionalen virtuellen Szenario, eine Verwendung einer Arbeitsplatzvorrichtung zur Überwachung eines dreidimensionalen virtuellen Szenarios für die Überwachung von Lufträumen, sowie ein Verfahren zur Auswahl von Objekten in einem dreidimensionalen Szenario.
  • Technischer Hintergrund der Erfindung
  • Derzeitige Systeme zur Luftraumüberwachung stellen einen zu überwachenden Bereich eines Luftraumes auf herkömmlichen Displays zweidimensional dar. Die Anzeige erfolgt dabei in Form einer kartenähnlichen Draufsicht. Informationen hinsichtlich einer dritten Dimension, beispielsweise Informationen zur Flughöhe eines Flugzeuges oder eines anderen Luftfahrzeuges, werden schriftlich oder in Form einer numerischen Angabe dargestellt.
  • Zusammenfassung der Erfindung
  • Es kann als eine Aufgabe der Erfindung angesehen werden, eine Darstellungsvorrichtung für ein dreidimensionales virtuelles Szenario anzugeben, welche dem Betrachter bzw. Bediener der Darstellungsvorrichtung eine einfache Interaktion mit dem virtuellen Szenario ermöglicht.
  • Es sind eine Darstellungsvorrichtung, eine Arbeitsplatzvorrichtung, eine Verwendung einer Arbeitsplatzvorrichtung, ein Verfahren, ein Computerprogrammelement und ein computerlesbares Medium gemäß den Merkmalen der unabhängigen Patentansprüche angegeben. Weiterbildungen der Erfindung ergeben sich aus den Unteransprüchen und aus der folgenden Beschreibung.
  • Viele der im Folgenden im Hinblick auf die Darstellungsvorrichtung und die Arbeitsplatzvorrichtung beschriebenen Merkmale lassen sich auch als Verfahrensschritte implementieren und umgekehrt.
  • Gemäß einem ersten Aspekt der Erfindung ist eine Darstellungsvorrichtung für ein dreidimensionales virtuelles Szenario zur Auswahl von Objekten in dem virtuellen Szenario mit Rückmeldung bei erfolgter Auswahl eines Objektes angegeben, welche eine Darstellungseinheit für ein virtuelles Szenario und eine Berührungseinheit zur berührungsgesteuerten Auswahl eines Objektes in dem virtuellen Szenario aufweist. Dabei ist die Berührungseinheit in einer Darstellungsfläche des virtuellen Szenarios angeordnet und gibt bei der erfolgten Auswahl eines Objektes in dem dreidimensionalen virtuellen Szenario die Rückmeldung hierüber an einen Bediener der Darstellungsvorrichtung aus.
  • Die Darstellungseinheit kann dabei auf stereoskopischen Visualisierungstechniken basieren, welche insbesondere für die Beurteilung von dreidimensionalen Modellen und Datensätzen verwendet werden. Stereoskopische Visualisierungstechniken ermöglichen einem Betrachter eines dreidimensionalen virtuellen Szenarios ein intuitives Verständnis räumlicher Daten. Diese Technologien werden jedoch derzeit aufgrund beschränkter und nur aufwändig zu gestaltender Interaktionsmöglichkeiten und aufgrund einer schnellen Ermüdung des Benutzers nicht für längerfristige Tätigkeiten verwendet.
  • Bei der Betrachtung dreidimensionaler virtueller Szenarien kann sich ein Konflikt zwischen Konvergenz (Stellung der Augachsen relativ zueinander) und Akkommodation (Einstellung der Brechkraft der Linse der Augen des Betrachters) ergeben. Beim natürlichen Sehen sind Konvergenz und Akkommodation aneinander gekoppelt und diese Kopplung muss bei der Betrachtung eines dreidimensionalen virtuellen Szenarios aufgehoben werden. Dies liegt daran, dass das Auge auf eine bildgebende Darstellungseinheit fokussiert wird, die Augachsen sich aber auf die virtuellen Objekte ausrichten müssen, die im Raum bzw. dem virtuellen dreidimensionalen Szenario vor oder hinter der bildgebenden Darstellungseinheit liegen können. Das Aufheben der Kopplung von Konvergenz und Akkommodation kann zu einer Belastung und damit einer Ermüdung des menschlichen Sehapparates bis hin zu Kopfschmerzen und Übelkeit bei einem Betrachter einer dreidimensionalen virtuellen Szene führen. Insbesondere ergibt sich der Konflikt zwischen Konvergenz und Akkommodation auch dadurch, dass ein Bediener im Zuge einer direkten Interaktion mit dem virtuellen Szenario beispielsweise mit seiner Hand mit Objekten des virtuellen Szenarios interagiert, d. h. dass die reale Position der Hand sich mit den virtuellen Objekten überlagert. In diesem Fall kann der Konflikt zwischen Akkommodation und Konvergenz verstärkt werden.
  • Die direkte Interaktion eines Benutzers mit einem herkömmlichen dreidimensionalen virtuellen Szenario kann beispielsweise das Tragen von speziellen Handschuhen erfordern. Diese Handschuhe ermöglichen zum einen die Positionsermittlung der Hände des Benutzers und können zum anderen beispielsweise bei der Berührung von virtuellen Objekten eine entsprechende Vibration auslösen. Die Position der Hand wird in diesem Fall üblicherweise mit einem optischen Erfassungssystem ermittelt. Zur Interaktion mit dem virtuellen Szenario bewegt ein Benutzer dabei typischerweise die Hände im Raum vor dem Benutzer. Das Eigengewicht der Arme und das zusätzliche Gewicht der Handschuhe können dabei die Benutzungszeit einschränken, da sich bei dem Benutzer frühzeitig Ermüdungserscheinungen einstellen können.
  • Insbesondere im Bereich der Luftraumüberwachung bzw. der Luftfahrt gibt es Situationen, in denen zwei Arten von Informationen nötig sind, um ein gutes Verständnis von der aktuellen Luftraumlage und deren Entwicklung in der Zukunft aufzubauen. Dies sind einerseits der globale Blick auf die Gesamtsituation und andererseits auch der detaillierte Blick auf die für eine potentielle Konfliktsituation relevanten Elemente. Ein Fluglotse beispielsweise, der eine Konfliktsituation zwischen zwei Luftfahrzeugen auflösen muss, muss sowohl die beiden Luftfahrzeugtrajektorien im Detail analysieren als auch die weiteren Rahmenbedingungen der Umgebung mit in seine Lösung aufnehmen, um zu vermeiden, dass durch die Lösung des aktuellen Konfliktes ein neuer Konflikt geschaffen wird.
  • Perspektivische Anzeigen zur Darstellung eines räumlich wirkenden Szenarios ermöglichen zwar eine grafische Repräsentation eines dreidimensionalen Szenarios, beispielsweise eines Luftraumes, können aber aufgrund von Mehrdeutigkeiten der Darstellung nicht für sicherheitskritische Anwendungen geeignet sein.
  • Gemäß einem Aspekt der Erfindung wird eine Darstellung von dreidimensionalen Szenarien bereitgestellt, welche sowohl eine Überblicksdarstellung als auch eine Detaildarstellung gleichzeitig ermöglicht, eine einfache und direkte Interaktionsmöglichkeit eines Benutzers mit dem dreidimensionalen virtuellen Szenario bereitstellt, sowie ein ermüdungsarmes und den Sehapparat eines Benutzers schonendes Benutzen ermöglicht.
  • Die Darstellungseinheit ist ausgeführt, bei einem Betrachter den Eindruck eines dreidimensionalen Szenarios hervorzurufen. Dabei kann die Darstellungseinheit über wenigstens zwei Projektionseinrichtungen verfügen, welche für jedes einzelne Auge des Betrachters ein unterschiedliches Bild projizieren, so dass ein dreidimensionaler Eindruck bei dem Betrachter entsteht. Die Darstellungseinheit kann aber auch ausgeführt sein, unterschiedlich polarisierte Bilder darzustellen, wobei eine Brille des Betrachters mit entsprechend polarisierten Gläsern dazu führt, dass jeweils ein Auge jeweils ein Bild wahrnehmen kann und so ein dreidimensionaler Eindruck bei dem Betrachter entsteht. Es sei darauf hingewiesen, dass jedwede Technologie zur Darstellung eines dreidimensionalen Szenarios als Darstellungseinheit im Zusammenhang mit der Erfindung genutzt werden kann.
  • Die Berührungseinheit ist ein Eingabeelement zur berührungsgesteuerten Auswahl eines Objektes in dem dreidimensionalen virtuellen Szenario. Dabei kann die Berührungseinheit beispielsweise transparent sein und im dreidimensionalen Darstellungsraum des virtuellen Szenarios angeordnet sein, so dass ein Objekt des virtuellen Szenarios dadurch ausgewählt wird, dass der Benutzer mit einer Hand oder mit beiden Händen in den dreidimensionalen Darstellungsraum greift und die Berührungseinheit berührt. Die Berührungseinheit kann an einer beliebigen Stelle des dreidimensionalen Darstellungsraums oder außerhalb des dreidimensionalen Darstellungsraums angeordnet sein. Die Berührungseinheit kann als Ebene oder als beliebig geometrisch geformte Fläche ausgeführt sein. Insbesondere kann die Berührungseinheit als flexibel formbares Element ausgeführt sein, um die Berührungseinheit an das dreidimensionale virtuelle Szenario anpassen zu können.
  • Die Berührungseinheit kann beispielsweise kapazitive oder resistive Messsysteme oder infrarotbasierte Gitter aufweisen, um die Koordinaten eines oder mehrerer Berührungspunkte, an dem bzw. denen der Benutzer die Berührungseinheit berührt, zu ermitteln. In Abhängigkeit der Koordinaten eines Berührungspunktes wird beispielsweise dasjenige Objekt in dem dreidimensionalen virtuellen Szenario ausgewählt, welches dem Berührungspunkt am nächsten kommt.
  • Gemäß einer Ausführungsform der Erfindung ist die Berührungseinheit ausgeführt, einen Auswahlbereich für das Objekt darzustellen. Dabei erfolgt die Auswahl des Objektes durch Berühren des Auswahlbereichs.
  • Eine Berechnungsvorrichtung kann beispielsweise eine Position der Auswahlbereiche in dem dreidimensionalen virtuellen Szenario so berechnen, dass die Auswahlbereiche auf der Berührungseinheit dargestellt werden. Damit wird ein Auswahlbereich aktiviert, indem die Berührungseinheit an der entsprechenden Position in dem virtuellen Szenario von dem Benutzer berührt wird.
  • Selbstverständlich kann die Berührungseinheit ausgeführt sein, eine Vielzahl von Auswahlbereichen für eine Vielzahl von Objekten darzustellen, wobei jeweils ein Auswahlbereich einem Objekt in dem virtuellen Szenario zugewiesen ist.
  • Insbesondere die direkte Interaktion des Benutzers mit dem virtuellen Szenario ohne Einsatz von Hilfsmitteln, wie z. B. Handschuhen, ermöglicht eine einfache Bedienung und beugt einer Ermüdung des Benutzers vor.
  • Gemäß einer weiteren Ausführungsform der Erfindung erfolgt die Rückmeldung bei erfolgter Auswahl eines der Objekte aus dem virtuellen Szenario zumindest teilweise durch eine Vibration der Berührungseinheit oder durch auf die bedienende Hand gerichtete fokussierte Ultraschallwellen.
  • Dadurch, dass ein Auswahlbereich für ein Objekt des virtuellen Szenarios im virtuellen Szenario auf der Berührungseinheit liegt, wird dem Benutzer die Auswahl schon alleine dadurch signalisiert, dass dieser mit seinem Finger einen real vorhandenen Gegenstand, d. h. die Berührungseinheit, berührt. Eine weitere Rückmeldung bei erfolgter Auswahl des Objektes in dem virtuellen Szenario kann zusätzlich dadurch erfolgen, dass bei erfolgreicher Auswahl des Objektes eine Vibration der Berührungseinheit erfolgt.
  • Die Berührungseinheit kann beispielsweise als Ganzes in Vibration versetzt werden, beispielsweise unter Zuhilfenahme eines Motors, insbesondere eines Vibrationsmotors, oder es können einzelne Bereiche der Berührungseinheit in Vibration versetzt werden.
  • Daneben können beispielsweise auch Piezoaktoren als Schwingungselemente verwendet werden, wobei die Piezoaktoren jeweils bei erfolgter Auswahl eines Objektes in dem virtuellen Szenario an dem Berührungspunkt zum Schwingen gebracht werden und dem Benutzer so die erfolgte Auswahl des Objektes signalisieren.
  • Gemäß einer weiteren Ausführungsform der Erfindung weist die Berührungseinheit eine Vielzahl von Bereichen auf, welche wahlweise zur taktilen Rückmeldung über die Auswahl eines Objektes in dem virtuellen Szenario selektierbar sind.
  • Die Berührungseinheit kann ausgeführt sein, die Auswahl mehrerer Objekte gleichzeitig zu erlauben. Beispielsweise kann ein Objekt mit einer ersten Hand und ein weiteres Objekt mit einer zweiten Hand des Benutzers ausgewählt werden. Um dem Benutzer eine zuordenbare Rückmeldung geben zu können, kann die Berührungseinheit im Bereich eines Auswahlbereichs für ein Objekt zur Ausgabe einer taktilen Rückmeldung, d. h. beispielsweise zur Ausführung einer Vibration, ausgewählt werden. Dies ermöglicht dem Benutzer insbesondere bei der Auswahl von mehreren Objekten zu erkennen, welches der Objekte ausgewählt wurde und welches noch nicht.
  • Daneben kann die Berührungseinheit ausgeführt sein, eine Veränderung eines Kartenmaßstabs und ein Verschieben des dargestellten Kartenbereichs zu ermöglichen.
  • Als taktile Rückmeldung wird beispielsweise eine Vibration oder die Schwingung eines piezoelektrischen Aktors verstanden.
  • Gemäß einer weiteren Ausführungsform der Erfindung erfolgt die Rückmeldung über die erfolgte Auswahl eines Objektes in dem dreidimensionalen Szenario zumindest teilweise durch Ausgabe eines optischen Signals.
  • Dabei kann das optische Signal alternativ oder zusätzlich zu der taktilen Rückmeldung bei Auswahl eines Objektes erfolgen.
  • Unter Rückmeldung mittels eines optischen Signals wird dabei das Hervorheben oder das Darstellen eines Auswahlzeigers verstanden. Beispielsweise kann die Helligkeit des ausgewählten Objektes verändert werden oder das ausgewählte Objekt kann mit einem Rahmen bzw. einer Umrandung versehen werden oder es wird neben dem ausgewählten Objekt in dem virtuellen Szenario ein auf dieses Objekt zeigendes Zeigeelement dargestellt.
  • Gemäß einer weiteren Ausführungsform der Erfindung erfolgt die Rückmeldung über die Auswahl eines Objektes in dem virtuellen Szenario zumindest teilweise durch Ausgabe eines akustischen Signals.
  • Das akustische Signal kann dabei alternativ zu der taktilen Rückmeldung und/oder dem optischen Signal ausgegeben werden, aber auch zusätzlich zu der taktilen Rückmeldung und/oder dem optischen Signal.
  • Unter einem akustischen Signal wird dabei beispielsweise die Ausgabe eines kurzen Tons über eine Ausgabeeinheit, beispielsweise einen Lautsprecher, verstanden.
  • Gemäß einer weiteren Ausführungsform der Erfindung weist die Darstellungseinheit einen Überblicksbereich und einen Detailbereich auf, wobei der Detailbereich einen wählbaren Ausschnitt der virtuellen Szene des Überblicksbereichs wiedergibt.
  • Dieser Aufbau ermöglicht es dem Benutzer, gleichzeitig das Gesamtszenario im Überblicksbereich und einen von dem Benutzer wählbaren kleineren Bereich im Detailbereich genauer zu betrachten.
  • Der Überblicksbereich kann beispielsweise als zweidimensionale Anzeige und der Detailbereich als räumliche Darstellung wiedergegeben werden. Der im Detailbereich dargestellte Ausschnitt des virtuellen Szenarios kann verschoben, gedreht oder in seiner Größe verändert werden.
  • Damit wird es beispielsweise einem Fluglotsen bei der Überwachung eines Luftraumes auf einfache und überschaubare Art und Weise ermöglicht, sowohl einen Blick auf die Gesamtluftraumlage im Überblicksbereich als auch auf potenzielle Konfliktsituationen im Detailbereich zu haben. Die Erfindung ermöglicht es dem Bediener, den Detailbereich in Abhängigkeit der jeweiligen Bedürfnisse zu verändern, d. h. es kann ein beliebiger Bereich der Überblicksdarstellung für die Detaildarstellung ausgewählt werden. Diese Auswahl kann selbstverständlich auch so erfolgen, dass ein ausgewählter Bereich der Detaildarstellung in der Übersichtsdarstellung angezeigt wird.
  • Durch die in der räumlichen Darstellung zusätzlich enthaltene Tiefeninformation erhält der Fluglotse auf intuitive Art und Weise mehr Informationen als über eine zweidimensionale Darstellung mit zusätzlicher schriftlicher und numerischer Angabe von weiteren Informationen, wie z. B. der Flughöhe.
  • Die oben beschriebene Darstellung von Überblicksbereich und Detailbereich ermöglicht die zeitgleiche Überwachung des Gesamtszenarios und die Bearbeitung einer Detaildarstellung auf einen Blick. Damit wird das Situationsbewusstsein des Bearbeiters eines virtuellen Szenarios verbessert und damit die Bearbeiterleistung erhöht.
  • Gemäß einem weiteren Aspekt der Erfindung ist eine Arbeitsplatzvorrichtung zur Überwachung eines dreidimensionalen virtuellen Szenarios mit einer Darstellungsvorrichtung für ein dreidimensionales virtuelles Szenario zur Auswahl von Objekten in dem virtuellen Szenario mit Rückmeldung bei erfolgter Auswahl eines der Objekte wie oben und im Folgenden beschrieben angegeben.
  • Die Arbeitsplatzvorrichtung kann beispielsweise auch zur Steuerung von unbemannten Luftfahrzeugen oder aber zur Überwachung von beliebigen Szenarien durch einen oder mehrere Benutzer eingesetzt werden.
  • Die Arbeitsplatzvorrichtung wie oben und im Folgenden beschrieben kann selbstverständlich über eine Mehrzahl von Darstellungsvorrichtungen verfügen, daneben aber auch eines oder mehrere herkömmliche Displays zur Darstellung zusätzlicher zweidimensionaler Informationen aufweisen. Diese Displays können mit der Darstellungsvorrichtung beispielsweise so gekoppelt sein, dass eine gegenseitige Beeinflussung der dargestellten Informationen möglich ist. Beispielsweise kann auf einem Display ein Flugplan dargestellt werden und bei Auswahl eines Eintrags aus dem Flugplan das entsprechende Flugzeug im Überblicksbereich und/oder im Detailbereich abgebildet werden. Die Displays können insbesondere auch so angeordnet sein, dass die Darstellungsbereiche der aller Displays ineinander übergehen oder mehrere Darstellungsbereiche auf einem physikalischen Display angezeigt werden.
  • Weiterhin kann die Arbeitsplatzvorrichtung Eingabeelemente aufweisen, die alternativ oder zusätzlich zu der direkten Interaktion mit dem dreidimensionalen virtuellen Szenario benutzt werden können.
  • Die Arbeitsplatzvorrichtung kann eine sog. Computermaus, eine Tastatur oder verwendungstypische Interaktionsgeräte, beispielsweise diejenigen eines Fluglotsenarbeitsplatzes, aufweisen.
  • Ebenso kann es sich bei allen Displays bzw. Darstellungseinheiten um herkömmliche Displays oder um berührungsempfindliche Displays bzw. Darstellungseinheiten (sog. Touchscreens) handeln.
  • Gemäß einem weiteren Aspekt der Erfindung ist eine Arbeitsplatzvorrichtung wie oben und im Folgenden beschrieben zur Überwachung von Lufträumen angegeben.
  • Die Arbeitsplatzvorrichtung kann ebenso zur Überwachung und Steuerung unbemannter Luftfahrzeuge eingesetzt werden sowie zur Analyse eines aufgezeichneten dreidimensionalen Szenarios, beispielsweise zu Ausbildungszwecken.
  • Ebenso kann die Arbeitsplatzvorrichtung auch zur Steuerung von Komponenten wie beispielsweise einer Kamera oder sonstiger Sensoren, welche Bestandteil eines unbemannten Luftfahrzeugs sind, verwendet werden.
  • Die Arbeitsplatzvorrichtung kann ausgeführt sein, in dem dreidimensionalen Szenario beispielsweise eine Sperrzone oder einen Gefährdungsbereich darzustellen. Dabei ermöglicht es die dreidimensionale Darstellung des Luftraumes, einfach und schnell zu erkennen, ob ein Luftfahrzeug beispielsweise droht, eine Sperrzone oder einen Gefährdungsbereich zu durchfliegen. Eine Sperrzone oder ein Gefährdungsbereich können dabei beispielsweise als virtueller Körper in Größe der Sperrzone bzw. des Gefährdungsbereichs dargestellt werden.
  • Gemäß einem weiteren Aspekt der Erfindung ist ein Verfahren zur Auswahl von Objekten in einem dreidimensionalen Szenario angegeben.
  • Dabei erfolgt in einem ersten Schritt das Berühren einer Auswahlfläche eines virtuellen Objektes in einer Darstellungsfläche eines dreidimensionalen virtuellen Szenarios. In einem darauffolgenden Schritt wird eine Rückmeldung an einen Bediener nach erfolgter Auswahl des virtuellen Objektes ausgegeben.
  • Gemäß einer Ausführungsform der Erfindung weist das Verfahren weiterhin die Schritte auf: Visualisieren eines Auswahlelementes in dem dreidimensionalen virtuellen Szenario, Bewegen des Auswahlelementes entsprechend einer Fingerbewegung des Bedieners auf der Darstellungsfläche, Auswählen eines Objektes in dem dreidimensionalen Szenario, indem das Auswahlelement in Überdeckung mit dem auszuwählenden Objekt gebracht wird. Dabei erfolgt das Visualisieren des Auswahlelementes, das Bewegen des Auswahlelementes und das Auswählen des Objektes nach dem Berühren der Auswahlfläche.
  • Das Auswahlelement kann beispielsweise in dem virtuellen Szenario dargestellt werden, wenn der Bediener die Berührungseinheit berührt. Dabei wird das Auswahlelement beispielsweise in dem virtuellen Szenario als senkrecht verlaufender Lichtkegel oder Lichtzylinder dargestellt und bewegt sich durch das dreidimensionale virtuelle Szenario entsprechend einer Fingerbewegung des Bedieners auf der Berührungseinheit. Trifft das Auswahlelement auf ein Objekt in dem dreidimensionalen virtuellen Szenario, so wird dieses Objekt für weitere Operationen ausgewählt, soweit der Benutzer das Auswahlelement eine bestimmte Zeit im Wesentlichen unbewegt auf dem Objekt von dem dreidimensionalen virtuellen Szenario belässt. Beispielsweise kann die Auswahl des Objektes in dem virtuellen Szenario erfolgen, nachdem das Auswahlelement eine Sekunde unbewegt ein Objekt überlagert. Durch diese Wartezeit soll vermieden werden, dass Objekte in dem virtuellen Szenario ausgewählt werden, obwohl das Auswahlelement lediglich an diesen vorbeigeführt wurde.
  • Die Darstellung eines Auswahlelementes in dem virtuellen Szenario vereinfacht die Auswahl eines Objektes und ermöglicht es, dass der Bediener ein Objekt auswählen kann, ohne die Position seiner Hand in dem virtuellen Szenario zu beachten.
  • Die Auswahl eines Objektes erfolgt damit dadurch, dass das Auswahlelement durch Bewegung der Hand in Überdeckung mit dem auszuwählenden Objekt gebracht wird, was dadurch ermöglicht wird, dass das Auswahlelement beispielsweise in Form eines Lichtzylinders senkrecht durch das virtuelle Szenario verläuft.
  • Das Auswahlelement in Überdeckung mit einem Objekt im virtuellen Szenario zu bringen, bedeutet, dass sich die virtuelle räumliche Ausdehnung des Auswahlelementes in mindestens einem Punkt mit den Koordinaten des auszuwählenden virtuellen Objektes überschneidet.
  • Gemäß einem weiteren Aspekt der Erfindung ist ein Computerprogrammelement zur Steuerung einer Darstellungsvorrichtung für ein dreidimensionales virtuelles Szenarios zur Auswahl von Objekten in dem virtuellen Szenario mit Rückmeldung bei erfolgter Auswahl eines der Objekte angegeben, welches ausgeführt ist, das Verfahren zur Auswahl von virtuellen Objekten in einem dreidimensionalen virtuellen Szenario wie oben und im Folgenden beschrieben durchzuführen, wenn das Computerprogrammelement auf einem Prozessor einer Recheneinheit ausgeführt wird.
  • Das Computerprogrammelement kann dazu dienen, einen Prozessor der Recheneinheit anzuleiten, das Verfahren zur Auswahl von virtuellen Objekten in einem dreidimensionalen virtuellen Szenario auszuführen.
  • Gemäß einem weiteren Aspekt der Erfindung ist ein computerlesbares Medium mit dem Computerprogrammelement wie oben und im Folgenden beschrieben angegeben.
  • Ein computerlesbares Medium kann dabei jedes flüchtige oder nicht flüchtige Speichermedium sein, beispielsweise eine Festplatte, eine CD, eine DVD, eine Diskette, eine Speicherkarte oder jedes beliebige andere computerlesbare Medium bzw. Speichermedium.
  • Im Folgenden werden mit Verweis auf die Figuren Ausführungsbeispiele der Erfindung beschrieben.
  • Kurze Beschreibung der Figuren
  • 1 zeigt eine Seitenansicht einer Arbeitsplatzvorrichtung gemäß einem Ausführungsbeispiel der Erfindung.
  • 2 zeigt eine perspektivische Ansicht einer Arbeitsplatzvorrichtung gemäß einem weiteren Ausführungsbeispiel der Erfindung.
  • 3 zeigt eine schematische Ansicht einer Darstellungsvorrichtung gemäß einem Ausführungsbeispiel der Erfindung.
  • 4 zeigt eine schematische Ansicht einer Darstellungsvorrichtung gemäß einem weiteren Ausführungsbeispiel der Erfindung.
  • 5 zeigt eine Seitenansicht einer Arbeitsplatzvorrichtung gemäß einem Ausführungsbeispiel der Erfindung.
  • 6 zeigt eine schematische Ansicht einer Darstellungsvorrichtung gemäß einem Ausführungsbeispiel der Erfindung.
  • 7 zeigt eine schematische Ansicht eines Verfahrens zur Auswahl von Objekten in einem dreidimensionalen Szenario gemäß einem Ausführungsbeispiel der Erfindung.
  • Detaillierte Beschreibung von Ausführungsbeispielen
  • 1 zeigt eine Arbeitsplatzvorrichtung 200 für einen Bediener eines dreidimensionalen virtuellen Szenarios.
  • Die Arbeitsplatzvorrichtung 200 weist eine Darstellungsvorrichtung 100 mit einer Darstellungseinheit 110 und einer Berührungseinheit 120 auf. Die Berührungseinheit 120 kann insbesondere einen Teil der Darstellungseinheit 110 überlagern. Die Berührungseinheit kann aber auch die gesamte Darstellungseinheit 110 überlagern. Selbstverständlich ist die Berührungseinheit in einem solchen Fall transparent, damit dem Bediener der Arbeitsplatzvorrichtung bzw. dem Betrachter der Darstellungsvorrichtung der Blick auf die Darstellungseinheit weiterhin ermöglicht wird. In anderen Worten bilden die Darstellungseinheit 110 und die Berührungseinheit 120 ein berührungsempfindliches Display.
  • Es sei darauf hingewiesen, dass die oben und im Folgenden dargestellten Ausführungen hinsichtlich dem Aufbau und der Anordnung der Darstellungseinheit 110 bzw. der Berührungseinheit 120 entsprechend auch jeweils für die Berührungseinheit 120 bzw. die Darstellungseinheit 110 sinngemäß gelten. Die Berührungseinheit kann so ausgeführt sein, dass sie die Darstellungseinheit abdeckt, d. h. dass die gesamte Darstellungseinheit mit einer berührungsempfindlichen Berührungseinheit versehen ist, sie kann aber auch so ausgeführt sein, dass lediglich ein Teil der Darstellungseinheit mit einer berührungsempfindlichen Berührungseinheit versehen ist.
  • Die Darstellungseinheit 110 weist einen ersten Darstellungsbereich 111 und einen zweiten Darstellungsbereich 112 auf, wobei der zweite Darstellungsbereich relativ zum ersten Darstellungsbereich in Richtung des Benutzers so abgewinkelt ist, dass die beiden Darstellungsbereiche einen Einschlusswinkel α 115 aufzeigen.
  • Der erste Darstellungsbereich 111 der Darstellungseinheit 110 und der zweite Darstellungsbereich 112 der Darstellungseinheit 110 spannen durch ihre zueinander abgewinkelte Lage mit einer Betrachterposition 195, d. h. der Augenposition des Betrachters, einen Darstellungsraum 130 für das dreidimensionale virtuelle Szenario auf.
  • Bei dem Darstellungsraum 130 handelt es sich damit um dasjenige Raumvolumen, in dem die sichtbare dreidimensionale virtuelle Szene dargestellt wird.
  • Ein Bediener, welcher die Sitzgelegenheit 190 während der Benutzung der Arbeitsplatzvorrichtung 200 nutzt, kann neben dem Darstellungsraum 130 für das dreidimensionale virtuelle Szenario auch den Arbeitsplatzbereich 140 nutzen, auf dem sich weitere berührungsempfindliche oder herkömmliche Displays befinden können.
  • Der Einschlusswinkel α 115 kann dabei derart bemessen sein, dass sämtliche virtuellen Objekte im Darstellungsraum 130 innerhalb einer Armreichweite des Benutzers der Arbeitsplatzvorrichtung 200 liegen können. Insbesondere bei einem Einschlusswinkel α, welcher zwischen 90 Grad und 150 Grad liegt, ergibt sich eine gute Anpassung an die Armreichweite des Benutzers. Der Einschlusswinkel α kann beispielsweise auch an die individuellen Bedürfnisse eines einzelnen Benutzers angepasst werden und dabei den Bereich von 90 Grad bis 150 Grad sowohl unter- als auch überschreiten. In einem Ausführungsbeispiel beträgt der Einschlusswinkel α 120 Grad.
  • Die möglichst große Überlagerung der Armreichweite bzw. des Greifraumes des Bedieners mit dem Darstellungsraum 130 unterstützt ein intuitives, ermüdungsarmes und ergonomisches Bedienen der Arbeitsplatzvorrichtung 200.
  • Insbesondere die abgewinkelte Geometrie der Darstellungseinheit 110 vermag es, den Konflikt zwischen Konvergenz und Akkommodation bei der Nutzung stereoskopischer Visualisierungstechniken zu reduzieren.
  • Die abgewinkelte Geometrie der Darstellungseinheit kann den Konflikt zwischen Konvergenz und Akkommodation bei einem Betrachter einer virtuellen dreidimensionalen Szene dadurch minimieren, dass die virtuellen Objekte aufgrund der abgewinkelten Geometrie möglichst nahe an der bildgebenden Darstellungseinheit positioniert werden.
  • Da sich die Position der virtuellen Objekte und insgesamt die Geometrie des virtuellen Szenarios aus jeder speziellen Anwendung ergibt, kann die Geometrie der Darstellungseinheit, beispielsweise der Einschlusswinkel α, an die jeweilige Anwendung angepasst werden.
  • Bei der Luftraumüberwachung kann das dreidimensionale virtuelle Szenario beispielsweise so dargestellt werden, dass der zweite Darstellungsbereich 112 der Darstellungseinheit 110 der virtuell dargestellten Erdoberfläche oder einer Referenzfläche im Raum entspricht.
  • Damit eignet sich die erfindungsgemäße Arbeitsplatzvorrichtung insbesondere für die längerfristige, ermüdungsarme Bearbeitung von dreidimensionalen virtuellen Szenarien mit integrierter räumlicher Darstellung geografisch referenzierter Daten, wie z. B. Luftfahrzeugen, Wegpunkten, Kontrollzonen, Bedrohungsräumen, Geländetopografien und Wettergeschehen, mit einfachen intuitiven Interaktionsmöglichkeiten bei gleichzeitiger Darstellung eines Überblicksbereiches und eines Detailbereiches.
  • Selbstverständlich kann die Darstellungseinheit 110 auch einen abgerundeten Übergang vom ersten Darstellungsbereich 111 zum zweiten Darstellungsbereich 112 aufweisen. Damit wird ein störender Einfluss einer real sichtbaren Kante zwischen dem ersten Darstellungsbereich und dem zweiten Darstellungsbereich auf den dreidimensionalen Eindruck des virtuellen Szenarios vermieden bzw. reduziert.
  • Selbstverständlich kann die Darstellungseinheit 110 auch in Form eines Kreisbogens ausgebildet sein.
  • Die Arbeitsplatzvorrichtung wie oben und im Folgenden beschrieben ermöglicht damit ein großes stereoskopisches Darstellungsvolumen bzw. einen Darstellungsraum. Weiterhin ermöglicht es die Arbeitsplatzvorrichtung, dass eine virtuelle Referenzfläche in dem virtuellen dreidimensionalen Szenario, beispielsweise eine Geländeoberfläche, in derselben Ebene positioniert wird wie die real vorhandene Darstellungseinheit bzw. Berührungseinheit.
  • Damit kann eine Entfernung der virtuellen Objekte von der Oberfläche der Darstellungseinheit reduziert werden und so ein Konflikt zwischen Konvergenz und Akkommodation bei dem Betrachter reduziert werden. Weiterhin werden dadurch störende Einflüsse auf den dreidimensionalen Eindruck reduziert, welche sich dadurch ergeben, dass der Bediener mit einer Hand in den Darstellungsraum hineingreift und das Auge des Betrachters somit einen realen Gegenstand, d. h. die Hand des Bedieners, und virtuelle Objekte zeitgleich wahrnimmt.
  • Die Berührungseinheit 120 ist ausgeführt, bei einer Berührung der Berührungseinheit mit der Hand des Bedieners eine Rückmeldung an den Bediener auszugeben.
  • Insbesondere im Falle einer optischen bzw. akustischen Rückmeldung an den Bediener kann die Rückmeldung erfolgen, indem eine Erfassungseinheit (nicht dargestellt) die Berührungskoordinaten auf der Berührungseinheit erfasst und beispielsweise die Darstellungseinheit eine optische Rückmeldung bzw. eine Tonausgabeeinheit (nicht dargestellt) die akustische Rückmeldung ausgibt.
  • Die Berührungseinheit kann eine haptische bzw. taktile Rückmeldung mittels Vibration bzw. Schwingungen von Piezoaktoren ausgeben.
  • 2 zeigt eine Arbeitsplatzvorrichtung 200 mit einer Darstellungsvorrichtung 100, welche zur Darstellung eines dreidimensionalen virtuellen Szenarios ausgeführt ist, weiterhin mit drei herkömmlichen Anzeigeelementen 210, 211, 212 zur zweidimensionalen Darstellung von Grafiken und Informationen, weiterhin mit zwei herkömmlichen Eingabe- bzw. Interaktionsgeräten, wie einer Computermaus 171 und einer sog. Space-Mouse 170, wobei es sich um ein Interaktionsgerät mit sechs Freiheitsgraden handelt und womit Elemente im Raum, beispielsweise in einem dreidimensionalen Szenario, gesteuert werden können.
  • Der dreidimensionale Eindruck des von der Darstellungsvorrichtung 100 dargestellten Szenarios entsteht bei einem Betrachter dadurch, dass dieser eine entsprechende Brille 160 aufsetzt.
  • Wie bei stereoskopischen Visualisierungstechniken üblich, ist die Brille ausgeführt, die Augen eines Betrachters mit unterschiedlichen Bildern zu versorgen, so dass bei dem Betrachter der Eindruck eines dreidimensionalen Szenarios entsteht. Die Brille 160 weist eine Vielzahl von sog. Reflektoren 161 auf, welche dazu dienen, die Augenposition eines Betrachters vor der Darstellungsvorrichtung 100 zu ermitteln und so ggf. die Wiedergabe der dreidimensionalen virtuellen Szene auf die Position des Betrachters anzupassen. Die Arbeitsplatzvorrichtung 200 kann hierfür beispielsweise eine Positionserkennungseinheit (nicht gezeigt) aufweisen, welche beispielsweise mittels eines Kamerasystems mit einer Vielzahl von Kameras die Augenposition aufgrund der Position der Reflektoren 161 erfasst.
  • 3 zeigt eine perspektivische Ansicht einer Darstellungsvorrichtung 100 mit einer Darstellungseinheit 110 und einer Berührungseinheit 120, wobei die Darstellungseinheit 110 einen ersten Darstellungsbereich 111 und einen zweiten Darstellungsbereich 112 aufweist.
  • Im Darstellungsraum 130 ist ein dreidimensionales virtuelles Szenario mit mehreren virtuellen Objekten 301 angedeutet. In einer virtuellen Darstellungsfläche 310 ist für jedes virtuelle Objekt im Darstellungsraum 130 ein Auswahlbereich 302 angegeben. Jeder Auswahlbereich 302 kann mit dem diesem Auswahlbereich zugewiesenen virtuellen Bereich 301 über ein Auswahlelement 303 verbunden sein.
  • Das Auswahlelement 303 erleichtert dabei einem Benutzer die Zuweisung eines Auswahlbereiches 302 zu einem virtuellen Objekt 301. Damit kann ein Auswahlvorgang eines virtuellen Objektes beschleunigt und vereinfacht werden.
  • Die Darstellungsfläche 310 kann in dem dreidimensionalen virtuellen Szenario räumlich so angeordnet werden, dass sich die Darstellungsfläche 310 mit der Berührungseinheit 120 überdeckt. Dies führt dazu, dass die Auswahlbereiche 302 ebenfalls auf der der Berührungseinheit 120 liegen. Die Auswahl eines virtuellen Objektes 301 in der dreidimensionalen virtuellen Szene erfolgt damit dadurch, dass der Bediener die Berührungseinheit 120 an derjenigen Stelle mit einem Finger berührt, an welcher der Auswahlbereich 302 des auszuwählenden virtuellen Objektes platziert ist.
  • Die Berührungseinheit 120 ist ausgeführt, die Berührungskoordinaten des Fingers des Bedieners an eine Auswerteeinheit zu übermitteln, welche die Berührungskoordinaten mit den Darstellungskoordinaten der Auswahlbereiche 302 abgleicht und so das ausgewählte virtuelle Objekt bestimmen kann.
  • Die Berührungseinheit 120 kann insbesondere so ausgeführt sein, dass sie lediglich an den Stellen auf die Berührung durch den Bediener reagiert, an denen ein Auswahlbereich dargestellt ist. Dies ermöglicht es dem Bediener, seine Hände auf der Berührungseinheit so abzulegen, dass kein Auswahlbereich berührt wird, wobei das Ablegen der Hände einer Ermüdung des Bedieners vorbeugen kann und eine einfache Interaktion mit dem virtuellen Szenario unterstützt.
  • Der beschriebene Aufbau der Darstellungsvorrichtung 100 ermöglicht es damit einem Bediener, mit einer virtuellen dreidimensionalen Szene zu interagieren und schon allein dadurch eine reale Rückmeldung zu erhalten, dass er bei der Auswahl der virtuellen Objekte die auf der real vorhandenen Berührungseinheit 120 liegenden Auswahlbereiche 302 durch Kontakt der Hand bzw. eines Fingers mit der Berührungseinheit 120 tatsächlich real spürt.
  • Bei Berührung eines Auswahlbereiches 302 kann beispielsweise durch Vibration der Berührungseinheit 120 dem Bediener die erfolgte Auswahl eines virtuellen Objektes 301 signalisiert werden.
  • Es kann sowohl die gesamte Berührungseinheit 120 vibrieren als auch lediglich Bereiche der Berührungseinheit 120. So kann beispielsweise die Berührungseinheit 120 nur auf der Größe des ausgewählten Auswahlbereiches 302 zum Vibrieren gebracht werden. Dies kann beispielsweise durch den Einsatz von schwingenden Piezoaktoren in der Berührungseinheit erreicht werden, wobei die Piezoaktoren nach Erfassung der Berührungskoordinaten der Berührungseinheit an der entsprechenden Position zum Schwingen gebracht werden.
  • Neben der Auswahl der virtuellen Objekte 301 über einen Auswahlbereich 302 können die virtuellen Objekte auch ausgewählt werden, indem bei Berührung der Berührungseinheit 120 an der Berührungsposition ein Auswahlelement in Form eines in der virtuellen dreidimensionalen Szene senkrecht verlaufenden Lichtzylinders bzw. Lichtkegels angezeigt wird und dieses Auswahlelement mit der Bewegung des Fingers auf der Berührungseinheit 120 geführt wird. Ein virtuelles Objekt 301 wird dann ausgewählt, indem das Auswahlelement in Überdeckung mit dem auszuwählenden virtuellen Objekt gebracht wird.
  • Um eine versehentliche Auswahl eines virtuellen Objektes zu vermeiden, kann die Auswahl beispielsweise mit Verzögerung derart erfolgen, dass ein virtuelles Objekt erst ausgewählt wird, wenn das Auswahlelement eine bestimmte Zeit in Überdeckung mit dem entsprechenden virtuellen Objekt verbleibt. Auch hier kann die erfolgte Auswahl durch Vibration der Berührungseinheit oder durch Schwingung von Piezoaktoren und in optischer oder akustischer Weise signalisiert werden.
  • 4 zeigt eine Darstellungsvorrichtung 100 mit einer Darstellungseinheit 110 und einer Berührungseinheit 120. In einem ersten Darstellungsbereich 111 wird in zweidimensionaler Darstellung ein Überblicksbereich wiedergegeben und in einem Darstellungsraum 130 wird ein Teilausschnitt 401 des Überblicksbereiches als dreidimensionales Szenario 402 detailliert wiedergegeben.
  • Im Detailbereich 402 werden die in dem Teilausschnitt des Überblicksbereiches befindlichen Objekte als virtuelle dreidimensionale Objekte 301 dargestellt.
  • Die Darstellungsvorrichtung 100 wie oben und im Folgenden beschrieben ermöglicht es dem Bediener, den Detailbereich 402 zu verändern, indem der Teilausschnitt im Überblicksbereich 401 verschoben wird oder indem der Auszug des Überblicksbereiches in der dreidimensionalen Darstellung im Detailbereich 402 in Richtung zumindest einer der drei aufgezeigten Koordinaten x, y oder z verändert wird.
  • 5 zeigt eine Arbeitsplatzvorrichtung 200 mit einer Darstellungsvorrichtung 100 und einen mit dem dargestellten dreidimensionalen virtuellen Szenario interagierenden Benutzer 501. Die Darstellungsvorrichtung 100 weist eine Darstellungseinheit 110 und eine Berührungseinheit 120 auf, welche gemeinsam mit den Augen des Bedieners 501 den Darstellungsraum 130 aufspannen, in welchem sich die virtuellen Objekte 301 des dreidimensionalen virtuellen Szenarios befinden.
  • Ein Abstand des Benutzers 501 von der Darstellungsvorrichtung 100 kann dabei so bemessen sein, dass es dem Benutzer möglich ist, mit wenigstens einem seiner Arme einen Großteil oder den ganzen Darstellungsraum 130 zu erreichen. Damit weichen die reale Position der Hand 502 des Benutzers, die reale Position der Darstellungsvorrichtung 100 und die virtuelle Position der virtuellen Objekte 301 in dem virtuellen dreidimensionalen Szenario möglichst gering voneinander ab, so dass ein Konflikt zwischen Konvergenz und Akkommodation im Sehapparat des Benutzers auf ein Minimum reduziert wird. Dieser Aufbau kann eine längerfristige konzentrierte Benutzung der Arbeitsplatzvorrichtung wie oben und im Folgenden beschrieben unterstützen, indem die Nebeneffekte eines Konfliktes zwischen Konvergenz und Akkommodation, wie beispielsweise Kopfschmerzen und Übelkeit, bei dem Benutzer reduziert werden.
  • Die Darstellungsvorrichtung wie oben und im Folgenden beschrieben kann selbstverständlich auch ausgeführt sein, virtuelle Objekte darzustellen, deren virtueller Ort sich aus Sicht des Benutzers hinter der Visualisierungsoberfläche der Darstellungseinheit befindet. In diesem Fall ist jedoch keine direkte Interaktion des Benutzers mit den virtuellen Objekten möglich, da der Benutzer nicht durch die Darstellungseinheit hindurch greifen kann.
  • 6 zeigt eine Darstellungsvorrichtung 100 für ein dreidimensionales virtuelles Szenario mit einer Darstellungseinheit 110 und einer Berührungseinheit 120. In dem Darstellungsraum 130 werden virtuelle dreidimensionale Objekte 301 abgebildet.
  • In der dreidimensionalen virtuellen Szene ist eine virtuelle Fläche 601 angeordnet, auf der ein Markierungselement 602 bewegt werden kann. Das Markierungselement 602 bewegt sich alleine auf der virtuellen Fläche 601, womit das Markierungselement 602 in seiner Bewegung zwei Freiheitsgrade aufweist. In anderen Warten ist das Markierungselement 602 ausgeführt, eine zweidimensionale Bewegung auszuführen. Damit kann das Markierungselement beispielsweise mittels einer herkömmlichen Computermaus gesteuert werden.
  • Die Auswahl eines virtuellen Objektes in dem dreidimensionalen Szenario erfolgt dadurch, dass die Position wenigstens eines Auges 503 des Benutzers mit Hilfe der Reflektoren 161 an einer vom Benutzer getragenen Brille erfasst wird und eine Verbindungslinie 504 von der ermittelten Position des Auges 503 über das Markierungselement 602 in das virtuelle dreidimensionale Szenario in dem Darstellungsraum 130 berechnet wird.
  • Die Verbindungslinie kann selbstverständlich auch ausgehend von einer gemittelten Position beider Augen des Betrachters aus berechnet werden. Daneben kann die Position der Augen des Benutzers mit oder ohne Brille mit entsprechenden Reflektoren ermittelt werden. Es sei darauf hingewiesen, dass im Zusammenhang mit der Erfindung jegliche Mechanismen und Verfahren zur Ermittlung der Position der Augen genutzt werden können.
  • Die Auswahl eines virtuellen Objektes 301 in dem dreidimensionalen Szenario erfolgt dadurch, dass die Verbindungslinie 504 in den Darstellungsraum 130 verlängert wird und dasjenige virtuelle Objekt ausgewählt wird, dessen virtuelle Koordinaten von der Verbindungslinie 504 gekreuzt werden. Die Auswahl eines virtuellen Objektes 301 wird dann beispielsweise mittels eines Auswahlanzeigers 603 gekennzeichnet.
  • Selbstverständlich kann die virtuelle Fläche 601, auf der sich das Markierungselement 602 bewegt, auch so in dem virtuellen Szenario im Darstellungsraum 130 angeordnet sein, dass sich aus Sicht des Benutzers virtuelle Objekte 301 vor und/oder hinter der virtuellen Fläche 601 befinden.
  • Sobald das Markierungselement 602 auf der virtuellen Fläche 601 so bewegt wird, dass die Verbindungslinie 504 die Koordinaten eines virtuellen Objektes 301 kreuzt, kann das Markierungselement 602 im dreidimensionalen Szenario so dargestellt werden, dass es mit einer zusätzlichen Tiefeninformation bzw. einer Veränderung der Tiefeninformation die virtuellen dreidimensionalen Koordinaten des ausgewählten Objektes einnimmt. Aus Sicht des Benutzers stellt sich diese Veränderung dann so dar, dass das Markierungselement 602, sobald ein virtuelles Objekt 301 ausgewählt wird, eine räumliche Bewegung hin auf den Benutzer oder weg von dem Benutzer macht.
  • Dies ermöglicht die Interaktion mit virtuellen Objekten in dreidimensionalen Szenarien mittels einfach zu handhabenden zweidimensionalen Interaktionsgeräten, wie beispielsweise einer Computermaus. Dies kann im Gegensatz zu speziellen dreidimensionalen Interaktionsgeräten mit drei Freiheitsgraden eine einfachere und schneller zu lernende Interaktion mit einem dreidimensionalen Szenario darstellen, da ein Eingabegerät mit weniger Freiheitsgraden für die Interaktion genutzt wird.
  • 7 stellt eine schematische Ansicht eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung dar.
  • In einem ersten Schritt 701 erfolgt das Berühren einer Auswahlfläche eines virtuellen Objektes in einer Darstellungsfläche eines dreidimensionalen virtuellen Szenarios.
  • Dabei ist die Auswahlfläche so an das virtuelle Objekt gekoppelt, dass ein Berühren der Auswahlfläche eine eindeutige Bestimmung des entsprechend ausgewählten virtuellen Objektes ermöglicht.
  • In einem zweiten Schritt 702 erfolgt das Visualisieren eines Auswahlelementes in dem dreidimensionalen virtuellen Szenario.
  • Das Auswahlelement kann dabei beispielsweise ein in dem dreidimensionalen virtuellen Szenario senkrecht verlaufender Lichtzylinder sein. Das Auswahlelement kann in Abhängigkeit der Berührdauer der Auswahlfläche visualisiert werden, d. h. dass das Auswahlelement visualisiert wird, sobald ein Benutzer die Auswahlfläche berührt und kann wieder ausgeblendet werden, sobald der Benutzer seinen Finger von der Auswahlfläche entfernt. Damit wird es dem Benutzer ermöglicht, einen Auswahlvorgang eines virtuellen Objektes zu unterbrechen bzw. zu beenden, beispielsweise weil der Benutzer feststellt, dass er ein anderes virtuelles Objekt auswählen möchte.
  • In einem dritten Schritt 703 erfolgt das Bewegen des Auswahlelementes entsprechend einer Fingerbewegung des Bedieners auf der Darstellungsfläche.
  • Solange der Benutzer seinen Finger von der Darstellungsfläche bzw. der Berührungseinheit nicht entfernt, bleibt das einmal visualisierte Auswahlelement in dem virtuellen Szenario bestehen und kann durch Ausführen einer Bewegung des Fingers auf der Darstellungsfläche bzw. der Berührungseinheit in dem virtuellen Szenario bewegt werden.
  • Dies ermöglicht es einem Benutzer, die Auswahl eines virtuellen Objektes durch schrittweise Annäherung des Auswahlelementes an eben das auszuwählende virtuelle Objekt vorzunehmen.
  • In einem vierten Schritt 704 erfolgt das Auswählen eines Objektes in dem dreidimensionalen Szenario, indem das Auswahlelement in Überdeckung mit dem auszuwählenden Objekt gebracht wird.
  • Das Auswählen des Objektes kann beispielsweise erfolgen, indem das Auswahlelement eine bestimmte Zeit in Überdeckung mit dem auszuwählenden Objekt gehalten wird, beispielsweise eine Sekunde. Selbstverständlich kann der Zeitraum, nach dem ein virtuelles Objekt als ausgewählt dargestellt wird, beliebig eingestellt werden.
  • In einem fünften Schritt 705 erfolgt das Ausgeben einer Rückmeldung an den Bediener nach erfolgter Auswahl des virtuellen Objektes.
  • Die Rückmeldung kann dabei wie oben bereits dargelegt haptisch/taktil, optisch oder akustisch sein.
  • Es sei abschließend besonders darauf hingewiesen, dass die Merkmale der Erfindung, wenn diese auch als einzelne Beispiele dargestellt wurden, sich gegenseitig nicht für die gemeinsame Verwendung in einer Arbeitsplatzvorrichtung ausschließen und in sich ergänzender Kombination in einer Arbeitsplatzvorrichtung zur Darstellung eines dreidimensionalen virtuellen Szenarios benutzt werden können.

Claims (14)

  1. Darstellungsvorrichtung (100) für ein dreidimensionales virtuelles Szenario zur Auswahl von Objekten in dem virtuellen Szenario mit Rückmeldung bei erfolgter Auswahl eines der Objekte, aufweisend: eine Darstellungseinheit (110) für ein virtuelles Szenario; eine Berührungseinheit (120) zur berührungsgesteuerten Auswahl eines Objektes in dem virtuellen Szenario; wobei die Berührungseinheit in einer Darstellungsfläche (310) des virtuellen Szenarios angeordnet ist; wobei die Berührungseinheit bei der erfolgten Auswahl des Objektes die Rückmeldung an einen Bediener der Darstellungsvorrichtung ausgibt.
  2. Darstellungsvorrichtung nach Anspruch 1, wobei die Berührungseinheit ausgeführt ist, einen Auswahlbereich (302) für das Objekt darzustellen; wobei die Auswahl des Objektes durch Berühren des Auswahlbereichs erfolgt.
  3. Darstellungsvorrichtung nach Anspruch 2, wobei die Rückmeldung zumindest teilweise durch eine Vibration der Berührungseinheit erfolgt.
  4. Darstellungsvorrichtung nach Anspruch 3, wobei die Berührungseinheit eine Vielzahl von Bereichen aufweist, die wahlweise zur taktilen Rückmeldung selektierbar sind.
  5. Darstellungsvorrichtung nach einem der vorhergehenden Ansprüche, wobei die Rückmeldung zumindest teilweise durch Ausgabe eines optischen Signals erfolgt.
  6. Darstellungsvorrichtung nach einem der vorhergehenden Ansprüche, wobei die Rückmeldung zumindest teilweise durch Ausgabe eines akustischen Signals erfolgt.
  7. Darstellungsvorrichtung nach einem der vorhergehenden Ansprüche, wobei die Darstellungseinheit einen Überblicksbereich (401) und einen Detailbereich (402) aufweist; wobei der Detailbereich einen wählbaren Ausschnitt der virtuellen Szene des Überblicksbereichs wiedergibt.
  8. Arbeitsplatzvorrichtung (200) zur Überwachung eines dreidimensionalen virtuellen Szenarios mit einer Darstellungsvorrichtung nach einem der Ansprüche 1 bis 7.
  9. Verwendung einer Arbeitsplatzvorrichtung nach Anspruch 8 für die Überwachung von Lufträumen.
  10. Verwendung einer Arbeitsplatzvorrichtung nach Anspruch 8 für die Überwachung und Steuerung von unbemannten Luftfahrzeugen.
  11. Verfahren zur Auswahl von Objekten in einem dreidimensionalen Szenario, aufweisend die Schritte: Berühren einer Auswahlfläche eines virtuellen Objektes in einer Darstellungsfläche eines dreidimensionalen virtuellen Szenarios (701); Ausgeben einer Rückmeldung an einen Bediener nach erfolgter Auswahl des virtuellen Objektes (705).
  12. Verfahren nach Anspruch 11, weiterhin aufweisend die Schritte: Visualisieren eines Auswahlelementes in dem dreidimensionalen virtuellen Szenario (702); Bewegen des Auswahlelementes entsprechend einer Fingerbewegung des Bedieners auf der Darstellungsfläche (703); Auswählen eines Objektes in dem dreidimensionalen Szenario indem das Auswahlelement in Überdeckung mit dem auszuwählenden Objekt gebracht wird (704); wobei das Visualisieren des Auswahlelementes (702), das Bewegen des Auswahlelementes (703) und das Auswählen des Objektes (704) nach dem Berühren der Auswahlfläche (701) erfolgt.
  13. Computerprogrammelement zur Steuerung einer Darstellungsvorrichtung nach einem der Ansprüche 1 bis 7, welches ausgeführt ist, das Verfahren nach einem der Ansprüche 11 oder 12 durchzuführen, wenn es auf einem Prozessor einer Recheneinheit ausgeführt wird.
  14. Computerlesbares Medium, auf dem ein Computerprogrammelement nach Anspruch 13 gespeichert ist.
DE102011112618A 2011-09-08 2011-09-08 Interaktion mit einem dreidimensionalen virtuellen Szenario Pending DE102011112618A1 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE102011112618A DE102011112618A1 (de) 2011-09-08 2011-09-08 Interaktion mit einem dreidimensionalen virtuellen Szenario
KR1020147006702A KR20140071365A (ko) 2011-09-08 2012-09-06 3차원 가상 시나리오와의 상호작용
CA2847425A CA2847425C (en) 2011-09-08 2012-09-06 Interaction with a three-dimensional virtual scenario
RU2014113395/08A RU2604430C2 (ru) 2011-09-08 2012-09-06 Взаимодействие с трехмерным виртуальным динамическим отображением
US14/343,440 US20140282267A1 (en) 2011-09-08 2012-09-06 Interaction with a Three-Dimensional Virtual Scenario
EP12780399.7A EP2753951A1 (de) 2011-09-08 2012-09-06 Interaktion mit einem dreidimensionalen virtuellen szenario
PCT/DE2012/000892 WO2013034133A1 (de) 2011-09-08 2012-09-06 Interaktion mit einem dreidimensionalen virtuellen szenario

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011112618A DE102011112618A1 (de) 2011-09-08 2011-09-08 Interaktion mit einem dreidimensionalen virtuellen Szenario

Publications (1)

Publication Number Publication Date
DE102011112618A1 true DE102011112618A1 (de) 2013-03-14

Family

ID=47115084

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011112618A Pending DE102011112618A1 (de) 2011-09-08 2011-09-08 Interaktion mit einem dreidimensionalen virtuellen Szenario

Country Status (7)

Country Link
US (1) US20140282267A1 (de)
EP (1) EP2753951A1 (de)
KR (1) KR20140071365A (de)
CA (1) CA2847425C (de)
DE (1) DE102011112618A1 (de)
RU (1) RU2604430C2 (de)
WO (1) WO2013034133A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015176707A1 (de) * 2014-05-22 2015-11-26 Atlas Elektronik Gmbh Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
JP2015132888A (ja) * 2014-01-09 2015-07-23 キヤノン株式会社 表示制御装置及び表示制御方法、プログラム、並びに記憶媒体
US10140776B2 (en) 2016-06-13 2018-11-27 Microsoft Technology Licensing, Llc Altering properties of rendered objects via control points
DE102017117223A1 (de) * 2017-07-31 2019-01-31 Hamm Ag Arbeitsmaschine, insbesondere Nutzfahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5320538A (en) * 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
DE102004022494A1 (de) * 2003-05-08 2004-12-02 Denso Corp., Kariya Betätigungseingabevorrichtung
US20050237296A1 (en) * 2004-04-23 2005-10-27 Samsung Electronics Co., Ltd. Apparatus, system and method for virtual user interface

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5394202A (en) * 1993-01-14 1995-02-28 Sun Microsystems, Inc. Method and apparatus for generating high resolution 3D images in a head tracked stereo display system
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US7225404B1 (en) * 1996-04-04 2007-05-29 Massachusetts Institute Of Technology Method and apparatus for determining forces to be applied to a user through a haptic interface
US6302542B1 (en) * 1996-08-23 2001-10-16 Che-Chih Tsao Moving screen projection technique for volumetric three-dimensional display
JP2985847B2 (ja) * 1997-10-17 1999-12-06 日本電気株式会社 入力装置
US6031519A (en) * 1997-12-30 2000-02-29 O'brien; Wayne P. Holographic direct manipulation interface
US6377229B1 (en) * 1998-04-20 2002-04-23 Dimensional Media Associates, Inc. Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US6373463B1 (en) * 1998-10-14 2002-04-16 Honeywell International Inc. Cursor control system with tactile feedback
US6842175B1 (en) * 1999-04-22 2005-01-11 Fraunhofer Usa, Inc. Tools for interacting with virtual environments
US6727924B1 (en) * 2000-10-17 2004-04-27 Novint Technologies, Inc. Human-computer interface including efficient three-dimensional controls
US20020175911A1 (en) * 2001-05-22 2002-11-28 Light John J. Selecting a target object in three-dimensional space
US7190365B2 (en) * 2001-09-06 2007-03-13 Schlumberger Technology Corporation Method for navigating in a multi-scale three-dimensional scene
US7324085B2 (en) * 2002-01-25 2008-01-29 Autodesk, Inc. Techniques for pointing to locations within a volumetric display
US6753847B2 (en) * 2002-01-25 2004-06-22 Silicon Graphics, Inc. Three dimensional volumetric display input and output configurations
GB0204652D0 (en) * 2002-02-28 2002-04-10 Koninkl Philips Electronics Nv A method of providing a display gor a gui
US6968511B1 (en) * 2002-03-07 2005-11-22 Microsoft Corporation Graphical user interface, data structure and associated method for cluster-based document management
JP2004199496A (ja) * 2002-12-19 2004-07-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP4576131B2 (ja) * 2004-02-19 2010-11-04 パイオニア株式会社 立体的二次元画像表示装置及び立体的二次元画像表示方法
JP2008506140A (ja) * 2004-06-01 2008-02-28 マイケル エー. ベセリー 水平透視ディスプレイ
US7348997B1 (en) * 2004-07-21 2008-03-25 United States Of America As Represented By The Secretary Of The Navy Object selection in a computer-generated 3D environment
JP2006053678A (ja) * 2004-08-10 2006-02-23 Toshiba Corp ユニバーサルヒューマンインタフェースを有する電子機器
EP1667088B1 (de) * 2004-11-30 2009-11-04 Oculus Info Inc. System und Verfahren für interaktive 3D-Luftregionen
US7812815B2 (en) * 2005-01-25 2010-10-12 The Broad of Trustees of the University of Illinois Compact haptic and augmented virtual reality system
US20060267927A1 (en) * 2005-05-27 2006-11-30 Crenshaw James E User interface controller method and apparatus for a handheld electronic device
US20070064199A1 (en) * 2005-09-19 2007-03-22 Schindler Jon L Projection display device
US7834850B2 (en) * 2005-11-29 2010-11-16 Navisense Method and system for object control
JP4111231B2 (ja) * 2006-07-14 2008-07-02 富士ゼロックス株式会社 立体表示システム
US8384665B1 (en) * 2006-07-14 2013-02-26 Ailive, Inc. Method and system for making a selection in 3D virtual environment
JP4880693B2 (ja) * 2006-10-02 2012-02-22 パイオニア株式会社 画像表示装置
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
CN101765798B (zh) * 2007-07-30 2011-12-28 独立行政法人情报通信研究机构 多视点空中影像显示装置
RU71008U1 (ru) * 2007-08-23 2008-02-20 Дмитрий Анатольевич Орешин Оптическая система объемного изображения
JP5087632B2 (ja) * 2007-10-01 2012-12-05 パイオニア株式会社 画像表示装置
US20090112387A1 (en) * 2007-10-30 2009-04-30 Kabalkin Darin G Unmanned Vehicle Control Station
US8233206B2 (en) * 2008-03-18 2012-07-31 Zebra Imaging, Inc. User interaction with holographic images
JP4719929B2 (ja) * 2009-03-31 2011-07-06 Necカシオモバイルコミュニケーションズ株式会社 表示装置、および、プログラム
US8896527B2 (en) * 2009-04-07 2014-11-25 Samsung Electronics Co., Ltd. Multi-resolution pointing system
US8760391B2 (en) * 2009-05-22 2014-06-24 Robert W. Hawkins Input cueing emersion system and method
JP5614014B2 (ja) * 2009-09-04 2014-10-29 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
US8970478B2 (en) * 2009-10-14 2015-03-03 Nokia Corporation Autostereoscopic rendering and display apparatus
US20110205185A1 (en) * 2009-12-04 2011-08-25 John David Newton Sensor Methods and Systems for Position Detection
KR101114750B1 (ko) * 2010-01-29 2012-03-05 주식회사 팬택 다차원 영상을 이용한 사용자 인터페이스 장치
US9693039B2 (en) * 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
US20120005624A1 (en) * 2010-07-02 2012-01-05 Vesely Michael A User Interface Elements for Use within a Three Dimensional Scene
US8643569B2 (en) * 2010-07-14 2014-02-04 Zspace, Inc. Tools for use within a three dimensional scene
US8970484B2 (en) * 2010-07-23 2015-03-03 Nec Corporation Three dimensional display device and three dimensional display method
US20120069143A1 (en) * 2010-09-20 2012-03-22 Joseph Yao Hua Chu Object tracking and highlighting in stereoscopic images
US8836755B2 (en) * 2010-10-04 2014-09-16 Disney Enterprises, Inc. Two dimensional media combiner for creating three dimensional displays
US9001053B2 (en) * 2010-10-28 2015-04-07 Honeywell International Inc. Display system for controlling a selector symbol within an image
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
JP5671349B2 (ja) * 2011-01-06 2015-02-18 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
US8319746B1 (en) * 2011-07-22 2012-11-27 Google Inc. Systems and methods for removing electrical noise from a touchpad signal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5320538A (en) * 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
DE102004022494A1 (de) * 2003-05-08 2004-12-02 Denso Corp., Kariya Betätigungseingabevorrichtung
US20050237296A1 (en) * 2004-04-23 2005-10-27 Samsung Electronics Co., Ltd. Apparatus, system and method for virtual user interface

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015176707A1 (de) * 2014-05-22 2015-11-26 Atlas Elektronik Gmbh Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug

Also Published As

Publication number Publication date
EP2753951A1 (de) 2014-07-16
CA2847425C (en) 2020-04-14
WO2013034133A1 (de) 2013-03-14
RU2014113395A (ru) 2015-10-20
CA2847425A1 (en) 2013-03-14
RU2604430C2 (ru) 2016-12-10
KR20140071365A (ko) 2014-06-11
US20140282267A1 (en) 2014-09-18

Similar Documents

Publication Publication Date Title
DE102019002898A1 (de) Robotorsimulationsvorrichtung
EP3067874A1 (de) Verfahren und vorrichtung zum testen eines in einem luftfahrzeug zu bedienenden geräts
EP3458939B1 (de) Interaktionssystem und -verfahren
EP2753951A1 (de) Interaktion mit einem dreidimensionalen virtuellen szenario
WO2013034131A1 (de) Auswahl von objekten in einem dreidimensionalen virtuellen szenario
EP1701233A2 (de) Generierung virtueller Welten auf Basis einer realen Umgebung
DE102014006776A1 (de) Bedienvorrichtung für ein elektronisches Gerät
DE112012003889T5 (de) Verfahren, Vorrichtung und Computerprogramm, die zum Zeigen auf ein Objekt dienen
WO2020126240A1 (de) Verfahren zum betreiben eines feldgeräts der automatisierungstechnik in einer augmented-reality/mixed-reality-umgebung
DE10256659A1 (de) Engabevorrichtung zur Orientierung in einer dreidimensionalen Visualisierung, Verfahren zur Visualisierung von dreidimensionalen Datensätzen, Darstellungsvorrichtung zur Darstellung einer Visualisierung von dreidimensionalen Datensätzen, Verfahren zum Betrieb eines bildgebenden medizinischen Üntersuchungsgeräts und Verfahren zur graphischen Positionierung einer mittels eines bildgebenden medizinischen Untersuchungsgeräts zu messenden Schicht in einem dreidimensionalen Datensatz einer Vorbereitungsmessung
EP1665023B1 (de) Verfahren und vorrichtung zur steuerung eines graphiksystems der virtuellen realität mittels interaktionen
EP3146411A1 (de) Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
EP2764698A2 (de) Kooperativer 3d-arbeitsplatz
DE102004016329A1 (de) System und Verfahren zur Durchführung und Visualisierung von Simulationen in einer erweiterten Realität
EP3534240A1 (de) Verfahren und vorrichtung zur daten-annotation
DE102018212944A1 (de) Verfahren zur Unterstützung der Kollaboration zwischen Mensch und Roboter mittels einer Datenbrille
DE102011112620B3 (de) Abgewinkeltes Display zur dreidimensionalen Darstellung eines Szenarios
DE112019003579T5 (de) Informationsverarbeitungseinrichtung, programm undinformationsverarbeitungsverfahren
DE102023118992B3 (de) System und Verfahren zur Eingabe von virtuellen Objekten in drei Dimensionen mittels Augmented Reality zum Ermitteln des Bewegungsraums für Roboter
DE102021212928B4 (de) Verfahren, Computerprogramm und Vorrichtung zum Erproben eines Einbaus oder Ausbaus zumindest eines Bauteils
DE102015003883B4 (de) Kraftfahrzeugsimulationsanordnung zur Simulation einer virtuellen Umgebung mit einem virtuellen Kraftfahrzeug und Verfahren zur Simulation einer virtuellen Umgebung
DE102013211046A1 (de) Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste
DE102016106993A1 (de) Steuer- und Konfiguriereinheit sowie Verfahren zum Steuern und Konfigurieren eines Mikroskops
DE102015105797B4 (de) Verfahren sowie Vorrichtung zur blickwinkelrichtigen Projektion einer geometrischen Struktur

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: AIRBUS DEFENCE AND SPACE GMBH, DE

Free format text: FORMER OWNER: EADS DEUTSCHLAND GMBH, 85521 OTTOBRUNN, DE

Effective date: 20140814

R016 Response to examination communication
R082 Change of representative

Representative=s name: LKGLOBAL ] LORENZ & KOPF PARTG MBB PATENTANWAE, DE

R016 Response to examination communication