DE102012203163A1 - Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine - Google Patents

Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine Download PDF

Info

Publication number
DE102012203163A1
DE102012203163A1 DE102012203163A DE102012203163A DE102012203163A1 DE 102012203163 A1 DE102012203163 A1 DE 102012203163A1 DE 102012203163 A DE102012203163 A DE 102012203163A DE 102012203163 A DE102012203163 A DE 102012203163A DE 102012203163 A1 DE102012203163 A1 DE 102012203163A1
Authority
DE
Germany
Prior art keywords
operator
display device
machine
display
menus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012203163A
Other languages
English (en)
Inventor
Christian Riedel
Stefan Mahn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Operations GmbH
Original Assignee
Airbus Operations GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Operations GmbH filed Critical Airbus Operations GmbH
Priority to DE102012203163A priority Critical patent/DE102012203163A1/de
Priority to EP13156830.5A priority patent/EP2634671B1/de
Priority to US13/778,600 priority patent/US20130222347A1/en
Publication of DE102012203163A1 publication Critical patent/DE102012203163A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D11/00Passenger or crew accommodation; Flight-deck installations not otherwise provided for
    • B64D11/0015Arrangements for entertainment or communications, e.g. radio, television
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

Die vorliegende Erfindung schafft eine Vorrichtung und ein Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener (20) und einer Maschine (10) die folgende Komponenten aufweist: eine Anzeigeeinrichtung (100), die eingerichtet ist, Informationen der Maschine (10) für den mindestens einen Bediener (20) dreidimensional visuell darzustellen; und eine Eingabeeinrichtung (200), die eingerichtet ist, mittels optischer und/oder akustischer und/oder elektromagnetischer Messverfahren die Position von Objekten, vorzugsweise die Position der Finger (F) mindestens eines Bedieners, im dreidimensionalen Raum in Bezug auf die Anzeigeeinrichtung (100) zeitaufgelöst zu erfassen und aus dem erfassten zeitlichen Verlauf mindestens eine Bedienereingabe entsprechend mindestens einem vorgegeben Kriterium zu erfassen und an die Maschine (10) weiterzuleiten.

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine.
  • Obwohl auf beliebige Maschinen anwendbar, wird die vorliegende Erfindung beispielhaft anhand eines Austauschens von Informationen zur Steuerung und Überwachung mindestens eines Flugzeug-Kabinensystems näher erläutert.
  • In der Flugzeugkabine haben sich für die Bedienung von komplexeren Systemen wie einem Kabinenmanagementsystem, beispielsweise CIDS, oder einem Inflight-Entertainment-System Touch-Screens durchgesetzt. Touch-Screens bestehen in der Regel aus einem LCD-Bildschirm in Verbindung mit einer transparenten, resistiven bzw. kapazitiven Touch-Folie. Diese Kombination ermöglicht die Darstellung von frei konfigurierbaren Menüs und Bedienungselementen. Ein Beispiel hierfür ist das Flight Attendant Panel, dessen Bedienoberfläche in DE 101 00 273 A1 beschrieben wird.
  • Eine zweidimensionale Bedienoberfläche geht grundsätzlich mit einer Reihe von bauartbedingten Einschränkungen einher.
  • Einschränkungen hat diese Lösung in der Hinsicht, dass nicht immer klar hervorgeht, welche Elemente auf dem Bildschirm der Anzeige dienen und welche wirklich bedient oder verändert werden können. Dies erfordert strenge Regeln für das Aussehen der einzelnen Elemente in Form eines „Style-Guide”.
  • Auch verlangen zweidimensionale Oberflächen dem Nutzer ein gewisses Vorstellungsvermögen ab, beispielsweise bei der Fortsetzung von Listen mit Hilfe von Scroll-Balken. Weiterhin darf der Bildschirminhalt nicht zu überfrachtet sein. Der Bediener muss trotz steigendem Funktionsumfang den Überblick behalten. Auch die Verwendung einer größeren Display-Fläche löst dieses Problem nicht. Wichtige Ereignisse und Informationen sollen durch den Betrachter leicht erfasst werden.
  • Touch-Screens haben einige ungünstige Eigenschaften. So wird die Touch-Folie durch die Berührungen mit den Fingern schnell verschmutzt, insbesondere durch Fettablagerungen. Dies ist unhygienisch und vermindert auch die Brillanz bzw. Ablesbarkeit des Displays, die durch die Touch-Folie an sich bereits verschlechtert wird. Je nach Bauart können auch Luftdruckänderungen und statische Aufladung die Funktionalität des Touch-Screens einschränken. Kapazitive Touch-Screens eignen sich gut für die Erkennung von Gesten, sind jedoch oft nicht mit Handschuhen zu bedienen. Aus Gründen der Robustheit wird der Folienträger darüber hinaus häufig aus Glas hergestellt, was zusätzliches Gewicht bedeutet.
  • Ein neuer Trend im Bereich der Displaytechnologie sind dreidimensionale Displays, die beispielsweise als brillenbasiertes Display mit einer Shutter- oder Polfilterbrille, aber auch als brillenloses, autostereoskopisches Display realisiert werden. Soll hier eine Eingabemöglichkeit analog zu einem zweidimensionalen Touch-Screen realisiert werden, eignen sich herkömmliche Touch-Folien jedoch nicht mehr für diese Art von Displays, da sie nur Eingaben auf der Displayoberfläche erkennen können. Im Falle der dreidimensionalen Bedienoberfläche muss die Eingabe jedoch genau an der Stelle im Raum vor dem Display erfolgen können, an der der Betrachter. das Bedienungselement wahrnimmt.
  • Für das Erkennen von Gesten im Raum sind derzeit Kamerasysteme üblich, die jedoch aufgrund des geringen Abstands zur Displayoberfläche ungeeignet sind, zumal eine Integration der Sensorik in demselben Gehäuse wünschenswert ist. Ein weiteres Problem stellt die Bedienung innerhalb einer abgedunkelten Kabine dar. Hier bieten Kameras nicht die nötige Genauigkeit und Zuverlässigkeit.
  • In DE 10 2007 060 346 A1 wird beispielsweise ein Verfahren zur Laufzeitmessung mittels Ultraschall, insbesondere zur 2D- oder 3D-Ortung von Objekten beschrieben.
  • Es ist daher Aufgabe der vorliegenden Erfindung, eine verbesserte Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine zu schaffen.
  • Diese Aufgabe wird erfindungsgemäß durch eine Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine mit den Merkmalen des Patentanspruchs 1 und/oder durch ein verfahren mit den Merkmalen des Patentanspruchs 14 gelöst.
  • Demgemäß ist eine Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine vorgesehen, die folgende Komponenten aufweist: eine Anzeigeeinrichtung, die eingerichtet ist, Informationen der Maschine für den mindestens einen Bediener dreidimensional visuell darzustellen; und eine Eingabeeinrichtung, die eingerichtet ist, mittels optischer und/oder akustischer und/oder elektromagnetischer Messverfahren die Position von Objekten, vorzugsweise die Position der Finger mindestens eines Bedieners, im dreidimensionalen Raum in Bezug auf die Anzeigeeinrichtung zeitaufgelöst zu erfassen und aus dem erfassten zeitlichen Verlauf mindestens eine Bedienereingabe entsprechend mindestens einem vorgegeben Kriterium zu erfassen und an die Maschine weiterzuleiten.
  • Demgemäß ist ferner ein Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine mit folgenden Verfahrensschritten vorgesehen: Darstellen von Informationen der Maschine für den mindestens einen Bediener durch eine Anzeigevorrichtung, wobei das Darstellen visuell und dreidimensional erfolgt; Erfassen der Position von Objekten, vorzugsweise der Position der Finger mindestens eines Bedieners, durch eine Eingabeeinrichtung mittels optischer und/oder akustischer und/oder elektromagnetischer Messverfahren im dreidimensionalen Raum in Bezug auf die Anzeigeeinrichtung, wobei das Erfassen zeitaufgelöst erfolgt; Erfassen mindestens einer Bedienereingabe aus dem erfassten zeitlichen Verlauf der Position von Objekten entsprechend mindestens einem vorgegebenen Kriterium; Weiterleiten der mindestens einen erfassten Bedienereingabe an die Maschine.
  • Ein Vorteil der Erfindung ist daher die Realisierung einer kompletten Bedienoberfläche, analog zum zweidimensionalen Touch-Screen, die Gesten bei der Bedienung im dreidimensionalen Raum vor dem Display erkennen kann.
  • In den Unteransprüchen finden sich vorteilhafte Ausgestaltungen und Verbesserungen der im Anspruch 1 angegebenen Vorrichtung.
  • Die Erfindung wird im Folgenden anhand von Ausführungsbeispielen unter Bezugnahme auf die beiliegenden schematischen Figuren näher erläutert.
  • Von den Figuren zeigen:
  • 1 eine schematische Darstellung des Informationsflusses zwischen einem Bediener und einer Maschine gemäß der erfindungsgemäßen Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine;
  • 2 eine Illustration einer dreidimensionalen Anordnung der Systemmenüs zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer ersten Ausführungsform;
  • 3 eine Illustration einer dreidimensionalen Anordnung der Untermenüs des Systemmenüs „Lights” zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der ersten Ausführungsform;
  • 4a) eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben in Seitenansicht zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der ersten Ausführungsform;
  • 4b) eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben in Draufsicht zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der ersten Ausführungsform;
  • 5 eine schematische Darstellung der dreidimensionalen Anordnung der Systemmenüs und der Sensoren zum Erfassen von Bedienereingaben zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der ersten Ausführungsform;
  • 6 eine Illustration einer Repräsentation der Systemmenüs durch Symbole zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer zweiten Ausführungsform;
  • 7a) eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben in Seitenansicht zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer dritten Ausführungsform;
  • 7b) eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben in Draufsicht zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der dritten Ausführungsform;
  • 8a) eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben in Seitenansicht zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer vierten Ausführungsform;
  • 8b) eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben in Draufsicht zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der vierten Ausführungsform;
  • 9 eine schematische Darstellung eines Blockschaltbildes der Sensoranordnung zum Erfassen von Bedienereingaben zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der vierten Ausführungsform;
  • 10a) eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben in Seitenansicht zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer fünften Ausführungsform; und
  • 10b) eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben in Draufsicht zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der fünften Ausführungsform;
  • 11 eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben in dreidimensionaler Ansicht zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer sechsten Ausführungsform;
  • 12 eine schematische Darstellung der dreidimensionalen Anordnung der Systemmenüs und der Sensoren zum Erfassen von Bedienereingaben zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der sechsten Ausführungsform.
  • In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsgleiche Komponenten, soweit nichts Gegenteiliges angegeben ist.
  • 1 ist eine schematische Darstellung des Informationsflusses zwischen einem Bediener und einer Maschine gemäß der erfindungsgemäßen Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine.
  • In 1 bezeichnet Bezugszeichen 10 eine Maschine und Bezugszeichen 20 einen Bediener. Über die Anzeigeeinrichtung 100 werden an den Bediener 20 Informationen von der Maschine 10 übertragen. Mit Hilfe der Eingabeeinrichtung 200 übermittelt der Bediener 20 Informationen an die Maschine 10.
  • 2 ist eine Illustration einer dreidimensionalen Anordnung der Systemmenüs zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer ersten Ausführungsform, und 3 ist eine Illustration einer dreidimensionalen Anordnung der Untermenüs des Systemmenüs „Lights” zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der ersten Ausführungsform, und 4a), b) sind schematische Darstellungen einer Sensoranordnung zum Erfassen von Bedienereingaben zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der ersten Ausführungsform, und 5 ist eine schematische Darstellung der dreidimensionalen Anordnung der Systemmenüs und der Sensoren zum Erfassen von Bedienereingaben zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der ersten Ausführungsform.
  • In 2, 3, 4 und 5 bezeichnet Bezugszeichen 1 ein Basislayout der „Main and Status” Ansicht, Bezugszeichen S1 das Systemmenü „Smoke Detection”, Bezugszeichen S2 das Systemmenü „Lights”, Bezugszeichen S3 das Systemmenü „Doors”, Bezugszeichen S4 das Systemmenü „Temperature”, Bezugszeichen S5 das Systemmenü „Water Waste”, Bezugszeichen S6 das Systemmenü „Announcements”, Bezugszeichen S7 das Systemmenü „Miscellaneous” und Bezugszeichen S8 das Systemmenü „Galley Cooling”. 1L bezeichnet das Symbol „Tür Eins Links”, 2L bezeichnet das Symbol „Tür Zwei Links”, 1R bezeichnet das Symbol „Tür Eins Rechts”, 2R bezeichnet das Symbol „Tür Zwei Rechts” des Systemmenüs S3. U0 bezeichnet das Untermenü „General”, U1 bezeichnet das Untermenü „Entry 1”, U2 bezeichnet das Untermenü „First Class”, U3 bezeichnet das Untermenü „Business Class”, U4 bezeichnet das Untermenü „Economy Class”, U5 bezeichnet das Untermenü „Entry 2” des Systemmenüs S2. Z1 bezeichnet das Untermenü „Zone 1”, Z2 bezeichnet das Untermenü „Zone 2”, Z3 bezeichnet das Untermenü „Zone 3”, Z4 bezeichnet das Untermenü „Zone 4”, Z5 bezeichnet das Untermenü „Zone 5”, Z6 bezeichnet das Untermenü „Zone 6” und Z7 bezeichnet das Untermenü „Zone 7” des Systemmenüs S4. Die mögliche Drehrichtung der karussellartigen Anordnung wird durch Pfeile illustriert, die durch das Bezugszeichen R bezeichnet sind. Mit Bezugszeichen B1 wird ein Bedienungselement „0n” bezeichnet, B2 bezeichnet ein Bedienungselement „Dim 3”, B3 bezeichnet ein Bedienungselement „Dim 2”, B4 bezeichnet ein Bedienungselement „Dim 1”, B5 bezeichnet ein Bedienungselement „Off”, B6 bezeichnet ein Bedienungselement „Scenario 1” und B7 bezeichnet ein Bedienungselement „Scenario 2” der Untermenüs U0–U5. Bezugszeichen 100 bezeichnet eine Anzeigeeinrichtung, mit 101 wird ein Sensor bezeichnet, der einen Erfassungsbereich Reichweite 1 aufweist, bezeichnet durch E1, der einen Erfassungsbereich Reichweite 2 aufweist, bezeichnet durch E2 und der einen Erfassungsbereich Reichweite 3 aufweist, bezeichnet durch E3. Bezugszeichen B bezeichnet virtuelle Bedienungselemente, die beispielsweise über einen Finger F betätigt werden können. Bezugszeichen E bezeichnet einen Erfassungsbereich des Sensors 101.
  • Gemäß der ersten Ausführungsform der erfindungsgemäßen Vorrichtung handelt es sich bei der Anzeigeeinrichtung 100 um ein autostereoskopes brillenloses 3D-Display, wobei durch das Austauschen von Informationen eine Steuerung und Überwachung mindestens eines Flugzeug-Kabinensystems erfolgt.
  • 2 zeigt beispielhaft ein Basislayout 1 des von der Anzeigevorrichtung 100 erzeugten Bildes.
  • Klassische Menüs sind im Allgemeinen als Listen von wählbaren Punkten ausgeführt, die entweder in horizontaler oder vertikaler Richtung ausgerichtet sind. Sind mehr auswählbare Punkte vorhanden, als auf die Bildschirmfläche passen, wird entsprechend gescrollt und dies meist mit einem Scroll-Balken oder durch Pfeildarstellungen kenntlich gemacht. So erfolgt beim Flight Attendant Panel das Anwählen der einzelnen Systemmenüs S1–S8 über eine derartige Aneinanderreihung von am unteren Bildschirmrand dargestellten Tasten, die horizontal angeordnet sind. Ein Blättern zu den nicht dargestellten Tasten erfolgt über zwei Pfeiltasten am linken und rechten Bildschirmrand. Nach dem Betätigen der jeweiligen Taste, die das Systemmenü repräsentiert, erfolgt die Darstellung des zugehörigen Flugzeugrumpfes in vertikaler Lage auf dem Bildschirm.
  • Für den dreidimensionalen Darstellungsansatz in 2 entsprechend dem Basislayout 1 werden die einzelnen Systemmenüs S1–S8 nun direkt durch die einzelnen Flugzeugrümpfe repräsentiert, die wie an einer Perlenkette aufgereiht sind. Dadurch können die Pfeiltasten entfallen, und durch die dreidimensionale Ansicht sind alle verfügbaren Systemmenüs S1–S8 immer gleichzeitig sichtbar. Dies verhindert Irritationen, in welche Richtung geblättert werden muss und beschleunigt den Zugriff. Die Drehrichtung kann abhängig vom Bildschirmformat entweder in horizontaler Richtung, wie in 2 dargestellt, oder auch in vertikaler Richtung erfolgen.
  • Durch den 3D-Effekt treten die im Vordergrund befindlichen Systemmenüs S2, S3, S4 zusätzlich aus der Bildschirmoberfläche hervor und werden am größten dargestellt. Diese Darstellung erfüllt die Funktion der herkömmlichen Statuspage. Zum Bildschirminneren hin werden die Systemmenüs S6, S7, S8 dann immer weiter verkleinert. Alle Flugzeugrümpfe bleiben der Bildschirmoberfläche zugewandt. So können wichtige Ereignisse oder Meldungen auch dann erkannt werden, wenn das jeweilige Systemmenü S6, S7, S8 gerade nicht im Vordergrund ist.
  • Das Auswählen bestimmter Systemmenüs S1–S8 erfolgt durch Drehen des Karussells mit einer Fingergeste beispielsweise einer Wischbewegung. Das jeweils aktive Systemmenü befindet sich im Vordergrund und kann dann mit Hilfe von Gesten herangeholt oder wieder verkleinert werden. Die Geste für das Heranholen „Zoomen” kann beispielsweise aus einem ein Schließen der Hand bei gleichzeitigem Heranziehen zum Bediener 20 bestehen. Für das Herauszoomen bietet sich beispielsweise ein Wegschieben des jeweiligen Systemmenüs mit geöffneter Hand an. Die für die Bedienung verwendeten Gesten sollen natürlichen, intuitiven Bewegungen entsprechen.
  • Für einen schnellen Überblick über den Kabinenstatus ist es wünschenswert, dass bestimmte Systemmenüs S1–S8 dauerhaft im Vordergrund sind, wenn die Eingabeeinrichtung 200 nicht bedient wird. Hier kann sich das „Karussell” beispielsweise ähnlich wie bei einem Kompass in eine bevorzugte Richtung zurückdrehen, wenn über einen bestimmten Zeitraum keine Eingabe mehr erfolgt ist. Die dann dargestellte Ansicht entspricht der „Cabin Status Page”.
  • Sobald ein Systemmenü S1–S8 als aktiv ausgewählt wurde, wird der zugehörige Flugzeugrumpf vergrößert in den Vordergrund geholt und vor der Bildschirmebene dargestellt. 3 zeigt beispielsweise einen möglichen Übergang vom Basislayout 1 der „Main and Status” Ansicht in das Systemmenü „Lights” S2.
  • Daneben können wie beim derzeitigen Flight Attendant Panel entsprechende Bedienungselemente B, B1–B7, beispielsweise Tasten und Anzeigen, platziert werden, sofern eine Darstellung innerhalb des Flugzeugrumpfes nicht ausreicht bzw. ungeeignet ist. Die Bedienungselemente B, B1–B7, beispielsweise Tasten oder Schalter, sind gegenüber dem herkömmlichen Flight Attendant Panel dreidimensional ausgeführt und ragen jeweils aus der Bildschirmebene heraus. Sie werden hierdurch vom Bediener 20 als richtige Tasten bzw. Schalter wahrgenommen, die gedrückt werden können. Erfolgt ein Tastendruck durch Positionieren eines Fingers F auf der virtuellen Oberfläche der Taste und Bewegen des Fingers F nach vorn, entsprechend 4a), bekommt der Bediener 20 durch die Taste eine optische Rückmeldung, indem die Taste sich ebenfalls mit dem Finger nach vorn bewegt. Zusätzlich oder alternativ kann auch eine akustische Rückmeldung in Form eines Klickgeräusches erfolgen.
  • Je nach Ausführung kann die Taste auch beispielsweise über eine Rastfunktion verfügen und verbleibt dann dauerhaft in der gedrückten Position. Dies ermöglicht gegenüber der zweidimensionalen Anzeige eine sehr eindeutige, unmissverständliche Darstellung des jeweiligen Zustandes, der intuitiv erkannt und von jedem Bediener 20 einfach verstanden wird. Eine zusätzliche farbliche Hervorhebung ist möglich, aber nicht erforderlich.
  • Ebenso kann beispielsweise die Regelung von Parametern wie Temperatur oder Lautstärke nun über einen virtuellen Schieberegler erfolgen, dessen Knopf dreidimensional ausgeführt ist und mit den Fingern im Raum gegriffen und verschoben werden kann. Auch im Raum stehende virtuelle Kippschalter waren beispielsweise möglich.
  • Im Falle von Problemen oder Fehlfunktionen soll der Bediener 20 mit einem Blick auf die Anzeigeeinrichtung 100 sofort die jeweilige Situation erfassen und schnell und fehlerfrei handeln können. Hier liegt ein weiterer großer Vorteil einer dreidimensionalen Mensch-Maschine-Schnittstelle. Heutzutage wird beim Flight Attendant Panel über eine blinkende Taste am oberen Bildschirmrand „CIDS Caution Light” auf ein Problem hingewiesen. Der Bediener 20 muss dann die entsprechende Seite manuell auswählen, um die relevanten Informationen gezeigt zu bekommen. Wie bei dem beschriebenen Kompass-Prinzip bzw. Rotations-Prinzip, dreht sich das Karussell von Systemmenüseiten S1–S8 beispielsweise bei einem Problem automatisch in eine Position, bei der das betroffene Systemmenü S1–S8 im Vordergrund ist.
  • Zusätzliche Aufmerksamkeit beim Bediener 20 wird nun beispielsweise dadurch erzeugt, dass mindestens ein betroffenes Systemmenü S1–S8 durch immer wiederkehrende Bewegung aus der Oberfläche der Anzeigeeinrichtung 100 heraus dem Bediener 20 „entgegenspringt”. Denkbar wäre auch die gleichzeitige Darstellung mehrerer Systemmenüs S1–S8 nebeneinander, wobei beispielsweise auch eine erforderliche Umsortierung der Reihenfolge möglich ist. Alternativ kann auch ein bestimmter Teil der Darstellung des Flugzeugrumpfes oder ein bestimmtes Anzeigeelement U1–U5, Z1–Z5, 1L, 1R, 2L, 2R sich aus der Ebene der Anzeigeeinrichtung 100 herausbewegen, so kann beispielsweise bei „Smoke Detection” ein dreidimensionales Blinklicht an der betroffenen Stelle erscheinen.
  • Wurde dann das entsprechende Systemmenü S1–S8 ausgewählt, um zur Behebung des Problems eine bestimmtes Bedienungselement B, B1–B7, beispielsweise eine Taste, zu drücken, kann diese ebenfalls sofort auf sich aufmerksam machen, indem sie sich zusätzlich zum Blinken auf den Benutzer zubewegt und ihn zum Drücken auffordert, was vom Benutzer dann auch reflexartig ausgeführt wird. Auf diese Weise wird sichergestellt, dass auch in Stresssituationen Fehlbedienungen reduziert werden und ein schnelles Handeln durch die Crew erfolgt.
  • In 4a), b) wird beispielsweise eine schematische Anordnung von Sensoren 101, die als Eingabeeinrichtung 200 zum Erfassen der Gesten zur Bedienung der Maschine 10 und mittelbar zur Bedienung der dreidimensionalen Oberfläche der Anzeigeeinrichtung 100 vorgesehen sind, gezeigt.
  • Diese Eingabeeinrichtung 200 muss die Funktion der Touch-Folie eines zweidimensionalen Displays nun vergleichbar für den virtuellen Raum bereitstellen. Eine Eingabe für ein Bedienungselement B, B1–B7 kann dann nicht mehr auf der Oberfläche der Anzeigeeinrichtung 100 stattfinden, sondern muss im dreidimensionalen Raum an derselben Stelle erfolgen, wo die virtuellen Bedienungselemente B, B1–B7 dem Bediener 20 erscheinen.
  • Für das Erkennen von Gesten im Raum sind derzeit Kamerasysteme üblich, die jedoch aufgrund des geringen Abstands zur Oberfläche der Anzeigeeinrichtung 100 ungeeignet sind, zumal eine Integration der Sensoren 101 in demselben Gehäuse wünschenswert ist. Ein weiteres Problem stellt die Bedienung innerhalb einer abgedunkelten Kabine dar. Hier bieten Kameras nicht mehr die nötige Genauigkeit und Zuverlässigkeit.
  • Das Erfassen der Eingabe kann daher am geeignetsten mittels Sensoren 101 erfolgen, die am Rand der Anzeigeeinrichtung 100 beispielsweise in Form einer Matrix angeordnet sein können. Die Sensoren 101 sind in der Lage, den Abstand des beziehungsweise der bedienenden Finger F im Raum zum Sensor 101 zu ermitteln. Durch geschickte Anordnung der Sensoren 101 kann mittels eines Controllers der Eingabepunkt im virtuellen Raum ermittelt werden.
  • 4a), b) illustriert das Prinzip einer vereinfachten Methode zum Erfassen von Eingaben auf einer Bedienoberfläche mit einer geringfügigen Anzahl von virtuellen Bedienungselementen B, B1–B7. Die hier gezeigten Sensoren 101 können grundsätzlich den Abstand über verschiedene Verfahren messen. Stand der Technik auf dem Gebiet der Abstandsmessung sind beispielsweise Ultraschall-Sensoren, die den Abstand anhand der Laufzeit eines reflektierenden Signals zum Sensor 101 linear über die Zeit ermitteln.
  • Denkbar wären jedoch auch andere Arten von Sensoren, die statt Schallwellen beispielsweise Funkwellen im Mikrowellenbereich oder auch Lichtstrahlen aussenden. Im Fall einer Lichtquelle käme beispielsweise ein Raster aus feinen Laserstrahlen oder UV-Licht in Frage. Hierbei würde entweder der reflektierte Anteil des Lichts auf derselben Seite des Displays ausgewertet. Oder in einer vereinfachten Version würde das Eintreffen des Lichts auf dem gegenüberliegenden Rand des Displays von Fotozellen ausgewertet, ähnlich wie bei einer Lichtschranke. Letztere Variante erfordert jedoch zwingend die Anbringung, wie sie später in der vierten und fünften Ausführungsform beschrieben wird.
  • Die Einstellung der Sensoren 101 kann auf unterschiedliche Distanzen, Erfassungsbereiche E1, E2 oder E3, ausgelegt sein. Die Ausgangssignale der Sensoren 101 werden über diskrete Signale an den Controller übermittelt. In der beschriebenen Anwendung ist der A/D Wandler im Sensor 101 integriert. Über die differenzierenden, sich überlappenden Erfassungsbereiche E1, E2, E3 kann ein Rückschluss auf die Position des Fingers F im Raum vorgenommen werden.
  • Mit der beschriebenen Sensorik kann die Bedieneroberfläche für ein Flight Attendant Panel dreidimensional designt werden. 5 zeigt ein Beispiel für die dreidimensionale Umsetzung des Basislayouts 1 der „Main and Status” Ansicht und den entsprechend anwählbaren Systemmenüs S1–S8. Aufgrund besserer Übersichtlichkeit ist hier nur eine Reihe mit Sensoren 101 in einem groben Raster angedeutet.
  • 6 ist eine Illustration einer Repräsentation der Systemmenüs durch Symbole zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer zweiten Ausführungsform.
  • In 6 bezeichnet Bezugszeichen 1 ein Basislayout der „Main and Status” Ansicht, Bezugszeichen 100 bezeichnet eine Anzeigeeinrichtung und Bezugszeichen S2 das Systemmenü „Lights”, Bezugszeichen S5 das Systemmenü „Water Waste” und Bezugszeichen S6 das Systemmenü „Announcements”.
  • Gemäß der zweiten Ausführungsform der erfindungsgemäßen Vorrichtung, die sonst analog zur ersten Ausführungsform ist, sind die Systemmenüs S1–S8 mit eindeutigen Symbolen und/oder Fotos und/oder Animationen gekennzeichnet.
  • Durch die zusätzliche Kennzeichnung mit eindeutigen Symbolen wird eine schnelle Wiedererkennung der im Hintergrund befindlichen Systemmenüs erreicht. Denkbar wären beispielsweise ein Lautsprecher für das Systemmenü „Announcements” S6, eine Glühlampe für das Systemmenü „Lights” S2, ein Wassertropfen für das Systemmenü „Water Waste” S5. In jedem Fall sollen die Symbole ähnlich prägnant sein wie beispielsweise die „Fasten Seatbelt” oder „No Smoking” Schilder. Weiterhin kommt eine Repräsentation durch ein Foto oder eine 3D-Animation in Frage. Eine weitere mögliche Form der Ausführung ist auch, nur die am weitesten entfernten Systemmenüs mit einem Symbol darzustellen. Die größer dargestellten Systemmenüs im Vordergrund werden dann statt der Symbole entsprechend mit Überschriften versehen.
  • 7a), b) ist eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer dritten Ausführungsform.
  • In 7a), b) bezeichnet Bezugszeichen 100 eine Anzeigeeinrichtung, mit Bezugszeichen 101 wird ein. Sensor bezeichnet.
  • Bezugszeichen F bezeichnet einen Finger. Bezugszeichen E bezeichnet einen Erfassungsbereich des Sensors 101.
  • Gemäß der dritten Ausführungsform der erfindungsgemäßen Vorrichtung, die sonst analog zur ersten Ausführungsform ist, erfolgt eine dreidimensionale Darstellung auf einem größeren Display der Anzeigeeinrichtung 100 mit beliebigem Bildinhalt, wobei im Idealfall die maximale Auflösung der Sensoren 101 gleich der Pixelauflösung des Displays ist. Hierzu muss der Sensorerfassungsbereich E engmaschiger bzw. dichter gestaltet werden. Der engmaschige Erfassungsbereich E und somit die Keulenform des Sensors ist durch eine starke Fokussierung der ausgesendeten Ultraschallwelle realisierbar. Denkbar ist hierfür auch die Wahl einer höheren Ultraschallfrequenz, die mit einer schmaleren Keule einhergeht. Da sich die Abstände der Keulen nicht beliebig weit verkleinern lassen und auch der Finger F des Bedieners 20 eine bestimmte Breite haben, wird der Controller bei einem virtuellen Tastendruck mit dem Finger F oftmals Signale von mehreren Sensoren 101 empfangen. Hierbei wird immer der Sensor 101 für die Auswertung berücksichtigt, der den kürzesten Abstand detektiert. Er hat die Position am genauesten bestimmt. Um die Bedienung im Raum zu erfassen, müssen die Sensorköpfe der Sensoren 101 vor dem Display der Anzeigeeinrichtung 100 angeordnet werden. Experimentell ist ein möglicher Abstand von 1–2 cm der Sendekeule zur Display Oberfläche der Anzeigeeinrichtung 100 ermittelt worden.
  • 8a), b) ist eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer vierten Ausführungsform, und 9 ist eine schematische Darstellung eines Blockschaltbildes der Sensoranordnung zum Erfassen von Bedienereingaben zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der vierten Ausführungsform.
  • In 8a), b) und 9 bezeichnet Bezugszeichen 100 eine Anzeigeeinrichtung, mit Bezugszeichen 101 wird ein Sensor bezeichnet. Bezugszeichen F bezeichnet einen Finger. Bezugszeichen E bezeichnet einen Erfassungsbereich des Sensors 101. Bezugszeichen M1 bezeichnet einen Multiplexer/Digitalwandler, mit M2 wird ein Controller/FPGA bezeichnet und M3 bezeichnet einen Flash-Speicher.
  • Gemäß der vierten Ausführungsform der erfindungsgemäßen Vorrichtung, die sonst analog zur ersten Ausführungsform ist, erfolgt eine Umsetzung des Multi-Touch Prinzips durch Anordnung der Sensoren 101 für horizontale und vertikale Richtung am Displayrand der Anzeigeeinrichtung 100 mit schmalen Keulen des Erfassungsbereichs E, wie es in 8 dargestellt ist.
  • Für eine Installation am Displayrand sollten die Sensoren 101 zweckmäßiger weise auf einer Leiterpatte angeordnet werden. Die Anordnung an mindestens zwei benachbarten Displayseiten der Anzeigeeinrichtung 100 ergibt eine Matrix in horizontaler und vertikaler Richtung. Auf diese Weise kann auch eine räumliche Multi-Touch Eingabe realisiert werden.
  • Wenn die Sensoren 101, beispielsweise nach dem Piezo-Prinzip, im Raum eine Bedienaktion in Form eines oder mehrerer Finger F erkennen, wird zumindest eine Auswerteelektronik bzw. ein Controller M2 mit einem Permanent-Speicher (Flash) M3 benötigt. Der Controller M2 ermittelt über einen Multiplexer und einen Analog Digitalwandler (A/D Wandler) M1 die Messwerte der Sensoren 101. Die Auswertung aller Sensordaten über einen längeren Zeitraum ermöglicht im Zusammenhang mit der Sensoranordnung der vierten Ausführungsform das Erkennen von Gesten. Je nach Ausbaustufe der Integration kann der A/D Wandler hierbei auch in den Sensoren 101 integriert sein.
  • 10a), b) ist eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer fünften Ausführungsform.
  • In 10a), b) bezeichnet Bezugszeichen 100 eine Anzeigeeinrichtung, mit Bezugszeichen 101 wird ein Sensor bezeichnet. Bezugszeichen F bezeichnet einen Finger. Bezugszeichen E bezeichnet einen Erfassungsbereich des Sensors 101.
  • Gemäß der fünften Ausführungsform der erfindungsgemäßen Vorrichtung, die sonst analog zur ersten Ausführungsform ist, ist, um den Erfassungsbereich E weiter in den Raum vor die Anzeigeeinrichtung 100 auszudehnen, eine Anordnung der Sensoren 101 auf eine Art denkbar, wobei die einzelnen Keulen leicht von der Displayoberfläche weggeneigt sind. Um einen homogenen Erkennungsabstand über die gesamte Displayoberfläche der Anzeigeeinrichtung 100 zu erreichen, müssen auch Sensoren 101 auf der jeweils gegenüberliegenden Displayseite positioniert werden. Der Controller ermittelt dann die Position auf der jeweiligen Achse durch die Kombination der Werte aus beiden gegenüberliegenden Sensorreihen.
  • 11 ist eine schematische Darstellung einer Sensoranordnung zum Erfassen von Bedienereingaben in dreidimensionaler Ansicht zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß einer sechsten Ausführungsform, und 12 ist eine schematische Darstellung der dreidimensionalen Anordnung der Systemmenüs und der Sensoren zum Erfassen von Bedienereingaben zur Erläuterung der Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine gemäß der sechsten Ausführungsform.
  • In 11 und 12 bezeichnet Bezugszeichen 100 eine Anzeigeeinrichtung, mit Bezugszeichen 101 wird ein Sensor bezeichnet. Bezugszeichen F bezeichnet einen Finger. Bezugszeichen E bezeichnet einen Erfassungsbereich des Sensors 101. Bezugszeichen B bezeichnet virtuelle Bedienungselemente und Bezugszeichen S1 das Systemmenü „Smoke Detection”, Bezugszeichen S2 das Systemmenü „Lights”, Bezugszeichen S3 das Systemmenü „Doors”.
  • Gemäß der sechsten Ausführungsform der erfindungsgemäßen Vorrichtung, die sonst analog zur ersten Ausführungsform ist, ist, sind die Sensoren 101 in oder hinter der Anzeigeeinrichtung 100 so angeordnet, das die Keulen des Erfassungsbereichs E aus der Anzeigeeinrichtung 100 herausragen und die Entfernungsmessung nach vorne vorgenommen wird. Hierfür wäre einerseits denkbar, die Sensoren 101 und das Material der Anzeigeeinrichtung 100 so auszuwählen, dass eine Messung noch durch die Anzeigeeinrichtung 100 hindurch vorgenommen werden kann. Andererseits können durch weitere Miniaturisierung der Sensoren 101, diese auch direkt zwischen den Bildpunkten beispielsweise eines LCD-Panels eingefügt oder als zusätzliche Schicht auf der Oberfläche der Anzeigeeinrichtung 100 aufgebracht werden.
  • Obwohl die vorliegende Erfindung anhand bevorzugter Ausführungsbeispiele beschrieben wurde, ist sie darauf nicht beschränkt. Insbesondere sind die genannten Materialien und Topologien nur beispielhaft und nicht auf die erläuterten Beispiele beschränkt.
  • Insbesondere ist auch eine Anwendung der Erfindung in anderen Gebieten, insbesondere im Fahrzeug- oder Schiffsbau denkbar.
  • Bezugszeichenliste
  • 10
    Maschine
    100
    Anzeigeeinrichtung
    20
    Bediener
    200
    Eingabeeinrichtung
    1
    Basislayout der „Main and Status” Ansicht
    S1
    Systemmenü „Smoke Detection”
    S2
    Systemmenü „Lights”
    S3
    Systemmenü „Doors”
    S4
    Systemmenü „Temperature”
    S5
    Systemmenü „Water Waste”
    S6
    Systemmenü „Announcements”
    S7
    Systemmenü „Miscellaneous”
    S8
    Systemmenü „Galley Cooling”
    1L
    Symbol „Tür Eins Links”
    1R
    Symbol „Tür Eins Rechts”
    2L
    Symbol „Tür Zwei Links”
    2R
    Symbol „Tür Zwei Rechts”
    U0
    Untermenü „General”
    U1
    Untermenü „Entry 1”
    U2
    Untermenü „First Class”
    U3
    Untermenü „Business Class”
    U4
    Untermenü „Economy Class”
    U5
    Untermenü „Entry 2”
    Z1
    Untermenü „Zone 1”
    Z2
    Untermenü „Zone 2”
    Z3
    Untermenü „Zone 3”
    Z4
    Untermenü „Zone 4”
    Z5
    Untermenü „Zone 5”
    Z6
    Untermenü „Zone 6”
    Z7
    Untermenü „Zone 7”
    R
    Pfeile
    B1
    Bedienungselement „On”
    B2
    Bedienungselement „Dim 3”
    B3
    Bedienungselement „Dim 2”
    B4
    Bedienungselement „Dim 1”
    B5
    Bedienungselement „Off”
    B6
    Bedienungselement „Scenario 1”
    B7
    Bedienungselement „Scenario 2”
    101
    Sensor
    E1
    Erfassungsbereich Reichweite 1
    E2
    Erfassungsbereich Reichweite 2
    E3
    Erfassungsbereich Reichweite 3
    B
    virtuelle Bedienungselemente
    F
    Finger
    E
    Erfassungsbereich
    M1
    Multiplexer/Digitalwandler
    M2
    Controller/FPGA
    M3
    Flash-Speicher
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10100273 A1 [0003]
    • DE 102007060346 A1 [0010]

Claims (16)

  1. Vorrichtung zum Austauschen von Informationen zwischen mindestens einem Bediener (20) und einer Maschine (10) die folgende Komponenten aufweist: eine Anzeigeeinrichtung (100), die eingerichtet ist, Informationen der Maschine (10) für den mindestens einen Bediener (20) dreidimensional visuell darzustellen; eine Eingabeeinrichtung (200), die eingerichtet ist, mittels optischer und/oder akustischer und/oder elektromagnetischer Messverfahren die Position von Objekten, vorzugsweise die Position der Finger (F) mindestens eines Bedieners (20), im dreidimensionalen Raum in Bezug auf die Anzeigeeinrichtung (100) zeitaufgelöst zu erfassen und aus dem erfassten zeitlichen Verlauf mindestens eine Bedienereingabe entsprechend mindestens einem vorgegeben Kriterium zu erfassen und an die Maschine (10) weiterzuleiten.
  2. Vorrichtung nach Anspruch 1, wobei es sich bei der Anzeigeeinrichtung (100) um ein autostereoskopes brillenloses 3D-Display handelt.
  3. Vorrichtung nach Anspruch 1 oder 2, wobei durch das Austauschen von Informationen eine Steuerung und Überwachung mindestens eines Flugzeug-Kabinensystems erfolgt.
  4. Vorrichtung nach Anspruch 3, wobei das von der Anzeigeeinrichtung (100) erzeugte Bild ein Basislayout (1) besitzt, bei dem die einzelnen Systemmenüs (S1–S8), die jeweils mindestens einem Flugzeug-Kabinensystem zugeordnet sind, direkt durch einzelne Flugzeugrümpfe mit darin enthaltenen Anzeigeelementen (U1–U5; Z1–Z5; 1L; 1R; 2L; 2R) repräsentiert werden, die wie an einer Perlenkette aufgereiht sind und gleichzeitig sichtbar sind, wobei das jeweils aktive Systemmenü (S1–S8) im Vordergrund über eine Drehung der karussellartigen Anordnung auswählbar ist.
  5. Vorrichtung nach Anspruch 3, wobei die einzelnen Systemmenüs (S1–S8) anwählbare Untermenüs (U0–U5) besitzen, die an einer Kette aufgereiht sind und gleichzeitig sichtbar sind, wobei das jeweils aktive Untermenü (U0–U5) im Vordergrund über eine Drehung der karussellartigen Anordnung auswählbar ist.
  6. Vorrichtung nach Anspruch 3, wobei die Systemmenüs (S1–S8) mit Symbolen und/oder Fotos und/oder Animationen gekennzeichnet sind.
  7. Vorrichtung nach Anspruch 3, wobei bei Nichtbedienung der Eingabeeinrichtung (200) nach mindestens einem vorgegeben Kriterium ein vordefiniertes Systemmenü (S1–S8) im Vordergrund aktiv setzbar ist.
  8. Vorrichtung nach Anspruch 3, wobei bei mindestens einem systemseitig erkannten Problem und/oder mindestens einer Fehlfunktion mindestens ein vordefiniertes Systemmenü (S1–S8) im Vordergrund aktiv setzbar ist und mindestens eine vordefinierte Animation des mindestens einen Systemmenüs (S1–S8) und/oder seiner Anzeigeelemente (U1–U5; Z1–Z5; 1L; 1R; 2L; 2R) vorgesehen ist.
  9. Vorrichtung nach Anspruch 4–8, wobei virtuelle Bedienungselemente (B; B1–B7) dreidimensional angezeigt werden, die vorzugsweise als Tasten, Schalter, Kippschalter und Schieberegler dreidimensional ausgeführt sind, und ein Betätigen und/oder Einrasten der virtuellen Bedienungselemente (B; B1–B7) darstellbar ist, wobei die Möglichkeit des Betätigens durch den mindestens einen Bediener (20) durch mindestens eine Animation des entsprechenden virtuellen Bedienungselements (B; B1–B7) entsprechend mindestens einem vordefinierten Kriterium signalisierbar ist.
  10. Vorrichtung nach Anspruch 1, wobei das zeitaufgelöste Erfassen der Position von Objekten im Raum unter Verwendung mindestens eines Ultraschallsensors (101) erfolgt.
  11. Vorrichtung nach Anspruch 10, wobei der mindestens eine Ultraschallsensor (101) hinter und/oder in der Anzeigevorrichtung (100) und/oder vertikal und/oder horizontal seitlich entlang der Ränder der Anzeigeeinrichtung (100) angeordnet ist.
  12. Vorrichtung nach Anspruch 1, wobei durch die Eingabeeinrichtung (200) aus Hand- und Fingerbewegungen des mindestens einen Bedieners (20) mindestens eine Bedienereingabe entsprechend mindestens eines vorgegeben Kriteriums erfasst wird.
  13. Vorrichtung nach Anspruch 12, wobei die Anzeige des Basislayouts (1), der Systemmenüs (S1–S8) und der Untermenüs (U0–U5) durch Hand- und Fingerbewegungen gesteuert wird und die virtuellen Bedienungselemente (B; B1–B7) durch Hand- und Fingerbewegungen betätigt werden.
  14. Vorrichtung nach Anspruch 1, wobei das zeitaufgelöste Erfassen der Position von Objekten im Raum unter Verwendung mindestens eines Mikrowellensensors (101) und/oder mindestens eines Lichtstrahlensensors (101) erfolgt.
  15. Vorrichtung nach Anspruch 14, wobei der mindestens eine Mikrowellensensor (101) und/oder der mindestens eine Lichtstrahlensensor (101) hinter und/oder in der Anzeigevorrichtung (100) und/oder vertikal und/oder horizontal seitlich entlang der Ränder der Anzeigeeinrichtung (100) angeordnet ist.
  16. Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener (20) und einer Maschine (10) mit den folgenden Schritten: Darstellen von Informationen der Maschine (10) für den mindestens einen Bediener (20) durch eine Anzeigevorrichtung (100), wobei das Darstellen visuell und dreidimensional erfolgt; Erfassen der Position von Objekten, vorzugsweise der Position der Finger (F) mindestens eines Bedieners (20), durch eine Eingabeeinrichtung (200) mittels optischer und/oder akustischer Messverfahren im dreidimensionalen Raum in Bezug auf die Anzeigeeinrichtung (100), wobei das Erfassen zeitaufgelöst erfolgt; Erfassen mindestens einer Bedienereingabe aus dem erfassten zeitlichen Verlauf der Position von Objekten entsprechend mindestens einem vorgegebenen Kriterium; Weiterleiten der mindestens einen erfassten Bedienereingabe an die Maschine (10).
DE102012203163A 2012-02-29 2012-02-29 Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine Withdrawn DE102012203163A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102012203163A DE102012203163A1 (de) 2012-02-29 2012-02-29 Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine
EP13156830.5A EP2634671B1 (de) 2012-02-29 2013-02-26 Vorrichtung und Verfahren zum Austausch von Informationen zwischen mindestens einem Bediener und einer Maschine
US13/778,600 US20130222347A1 (en) 2012-02-29 2013-02-27 Device and method for exchanging information between at least one operator and a machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012203163A DE102012203163A1 (de) 2012-02-29 2012-02-29 Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine

Publications (1)

Publication Number Publication Date
DE102012203163A1 true DE102012203163A1 (de) 2013-08-29

Family

ID=47757431

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012203163A Withdrawn DE102012203163A1 (de) 2012-02-29 2012-02-29 Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine

Country Status (3)

Country Link
US (1) US20130222347A1 (de)
EP (1) EP2634671B1 (de)
DE (1) DE102012203163A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013208999A1 (de) * 2013-05-15 2014-11-20 EDISEN SENSOR SYSTEME GmbH & Co. KG Verfahren und Vorrichtung für ein kapazitives berührungsloses Eingabesystem auf Basis einer einzigen Sensorfläche
US11203441B2 (en) * 2018-04-09 2021-12-21 Airbus Operations Gmbh Monitoring system for the cabin of an aircraft, data distribution apparatus and aircraft

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5938386B2 (ja) * 2013-10-31 2016-06-22 京セラドキュメントソリューションズ株式会社 表示入力装置およびそれを備えた画像形成装置
US10528195B2 (en) * 2014-04-30 2020-01-07 Lg Innotek Co., Ltd. Touch device, wearable device having the same and touch recognition method
TWI615741B (zh) * 2017-01-06 2018-02-21 致伸科技股份有限公司 具有氣壓感測式按鍵之滑鼠

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10100273A1 (de) 2000-05-31 2002-01-03 Airbus Gmbh Vorrichtung zur Steuerung und Überwachung von Flugzeug-Kabinensystemen
DE10056291A1 (de) * 2000-11-14 2002-05-23 Siemens Ag Verfahren zur visuellen Darstellung und interaktiven Steuerung von virtuellen Objekten auf einem Ausgabe-Sichtfeld
DE102004022494A1 (de) * 2003-05-08 2004-12-02 Denso Corp., Kariya Betätigungseingabevorrichtung
US20050237296A1 (en) * 2004-04-23 2005-10-27 Samsung Electronics Co., Ltd. Apparatus, system and method for virtual user interface
DE102006032117A1 (de) * 2006-07-12 2008-01-24 Volkswagen Ag Informationssystem für ein Verkehrsmittel und Verfahren zum Steuern eines solchen Informationssystems
DE102007060346A1 (de) 2007-12-14 2009-06-18 Hochschule Offenburg Verfahren zur Laufzeitmessung mittels Ultraschall, insbesondere zur 2D- oder 3D-Ortung von Objekten

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5557278A (en) * 1995-06-23 1996-09-17 Northrop Grumman Corporation Airport integrated hazard response apparatus
US6031519A (en) * 1997-12-30 2000-02-29 O'brien; Wayne P. Holographic direct manipulation interface
CA2402543C (en) * 2000-03-17 2010-10-26 Vizible.Com Inc. A three dimensional spatial user interface
US6662177B1 (en) * 2000-03-29 2003-12-09 Koninklijke Philips Electronics N.V. Search user interface providing mechanism for manipulation of explicit and implicit criteria
EP1160160A3 (de) * 2000-05-31 2002-01-30 EADS Airbus GmbH Vorrichtung zur Steuerung und Überwachung von Flugzeug-Kabinensystemen
US7562312B2 (en) * 2006-01-17 2009-07-14 Samsung Electronics Co., Ltd. 3-dimensional graphical user interface
CN101295222B (zh) * 2007-04-28 2011-05-04 国际商业机器公司 生成三维圆盘形式的树形数据显示的方法及相关设备
US8984421B2 (en) * 2009-07-01 2015-03-17 Thales Avionics, Inc. Aircraft crew user interface for an aircraft entertainment system
DE102009040254A1 (de) * 2009-09-04 2011-03-10 Volkswagen Ag Bedienvorrichtung und Verfahren zum Bereitstellen einer Bedienvorrichtung
US8601402B1 (en) * 2009-09-29 2013-12-03 Rockwell Collins, Inc. System for and method of interfacing with a three dimensional display
US8508347B2 (en) * 2010-06-24 2013-08-13 Nokia Corporation Apparatus and method for proximity based input
KR20120000663A (ko) * 2010-06-28 2012-01-04 주식회사 팬택 3d 객체 처리 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10100273A1 (de) 2000-05-31 2002-01-03 Airbus Gmbh Vorrichtung zur Steuerung und Überwachung von Flugzeug-Kabinensystemen
DE10056291A1 (de) * 2000-11-14 2002-05-23 Siemens Ag Verfahren zur visuellen Darstellung und interaktiven Steuerung von virtuellen Objekten auf einem Ausgabe-Sichtfeld
DE102004022494A1 (de) * 2003-05-08 2004-12-02 Denso Corp., Kariya Betätigungseingabevorrichtung
US20050237296A1 (en) * 2004-04-23 2005-10-27 Samsung Electronics Co., Ltd. Apparatus, system and method for virtual user interface
DE102006032117A1 (de) * 2006-07-12 2008-01-24 Volkswagen Ag Informationssystem für ein Verkehrsmittel und Verfahren zum Steuern eines solchen Informationssystems
DE102007060346A1 (de) 2007-12-14 2009-06-18 Hochschule Offenburg Verfahren zur Laufzeitmessung mittels Ultraschall, insbesondere zur 2D- oder 3D-Ortung von Objekten

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013208999A1 (de) * 2013-05-15 2014-11-20 EDISEN SENSOR SYSTEME GmbH & Co. KG Verfahren und Vorrichtung für ein kapazitives berührungsloses Eingabesystem auf Basis einer einzigen Sensorfläche
DE102013208999B4 (de) * 2013-05-15 2015-11-12 EDISEN SENSOR SYSTEME GmbH & Co. KG Verfahren und Vorrichtung für ein kapazitives berührungsloses Eingabesystem auf Basis einer einzigen Sensorfläche
US11203441B2 (en) * 2018-04-09 2021-12-21 Airbus Operations Gmbh Monitoring system for the cabin of an aircraft, data distribution apparatus and aircraft

Also Published As

Publication number Publication date
US20130222347A1 (en) 2013-08-29
EP2634671A2 (de) 2013-09-04
EP2634671B1 (de) 2018-08-15
EP2634671A3 (de) 2016-03-16

Similar Documents

Publication Publication Date Title
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
DE102009032637B4 (de) Bildvergrößerungssystem für eine Computerschnittstelle
EP2750914B1 (de) Verfahren und vorrichtung zum bereitstellen einer nutzerschnittstelle, insbesondere in einem fahrzeug
DE102013113772A1 (de) Verfahren zur Bedienerführung, Blendenbauteil, Herstellung eines Blendenbauteils sowie Haushaltsgerät mit einem Blendenbauteil
EP3194197B1 (de) Anzeige- und bedienvorrichtung, insbesondere für ein kraftfahrzeug, bedienelement und kraftfahrzeug
EP2822812B1 (de) Kraftfahrzeug mit einem elektronischen rückspiegel
EP2017756A1 (de) Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
DE102008050803A1 (de) Verfahren und Vorrichtung zum Anzeigen von Informationen in einem Fahrzeug
DE102012203163A1 (de) Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine
EP2754016A1 (de) Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug
EP3303043A1 (de) Bedienvorrichtung mit schneller haptischer rückmeldung
DE102015209593A1 (de) Bedienvorrichtung mit schneller haptischer Rückmeldung
EP3538977B1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
EP3270278A1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
WO2010083821A1 (de) Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
WO2014108152A2 (de) Kraftfahrzeug-bedienschnittstelle mit einem bedienelement zum erfassen einer bedienhandlung
DE102012208931A1 (de) Vorrichtung zur gleichzeitigen Darstellung mehrerer Informationen
EP2344356B1 (de) Verfahren und vorrichtung zum anzeigen von informationen, insbesondere in einem fahrzeug
EP3755567B1 (de) Bedienvorrichtung sowie verfahren zum ansteuern zumindest einer funktionseinheit für ein kraftfahrzeug mit einer optischen verlagerung eines bediensymbols
EP2380077A2 (de) Gerät mit einer eingabevorrichtung zur eingabe von steuerbefehlen
DE102010052291B4 (de) Verfahren und Vorrichtung zum Anzeigen von Informationen in einem Fahrzeug
EP2885153B1 (de) Verfahren zum bereitstellen einer bedienvorrichtung in einem fahrzeug und bedienvorrichtung für ein fahrzeug
EP3159785A2 (de) Benutzerschnittstelle und verfahren zur interaktiven auswahl einer anzeige
DE202010017562U1 (de) Steuereinheit mit Projektor

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee