DE102013203918A1 - Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung - Google Patents

Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung Download PDF

Info

Publication number
DE102013203918A1
DE102013203918A1 DE201310203918 DE102013203918A DE102013203918A1 DE 102013203918 A1 DE102013203918 A1 DE 102013203918A1 DE 201310203918 DE201310203918 DE 201310203918 DE 102013203918 A DE102013203918 A DE 102013203918A DE 102013203918 A1 DE102013203918 A1 DE 102013203918A1
Authority
DE
Germany
Prior art keywords
interaction area
projection
control panel
task
tolerance range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201310203918
Other languages
English (en)
Inventor
Peter Greif
Johann Mägerl
Anja Jäger
Robert Kagermeier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE201310203918 priority Critical patent/DE102013203918A1/de
Priority to CN201410071930.6A priority patent/CN104035554A/zh
Priority to US14/200,487 priority patent/US20140258917A1/en
Publication of DE102013203918A1 publication Critical patent/DE102013203918A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Abstract

Die Erfindung betrifft Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung, die durch ein Anzeige- und/oder Bedienfeld berührungslos gesteuert wird, sowie eine Vorrichtung, aufweisend ein Anzeige- und/oder Bedienfeld, geeignet für den Einsatz in einer sterilen Umgebung. Es weist dabei folgende Schritte auf: – Erfassen einer ersten Position (P1) eines Gestenbefehls (G) innerhalb eines Bedienfeldes, – Projektion der ersten Position auf einen ersten Interaktionbereich (I1) des Anzeigefeldes, wobei dem ersten Interaktionsbereichs eine erste Aufgabe (A1) zugeordnet ist, – Erfassen zumindest einer zweiten Position (P2) desselben (G) oder eines weiteren Gestenbefehls innerhalb desselben oder eines weiteren Bedienfeldes, – Projektion der zweiten Position auf einen zweiten Interaktionsbereich (I2) des Anzeigefeldes, dadurch gekennzeichnet, dass – innerhalb des zweiten Interaktionsbereichs ein Toleranzbereich (I1’) festgelegt ist, wobei, – wenn die Projektion der zweiten Position innerhalb des Toleranzbereichs liegt, dem zweiten Interaktionsbereich die erste Aufgabe (A1) zugeordnet wird, und – wenn die Projektion der zweiten Position außerhalb des Toleranzbereichs liegt, dem zweiten Interaktionsbereichs eine andere zweite Aufgabe (A2; A3; A4; A5) zugeordnet wird.

Description

  • Die Erfindung betrifft Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung, die durch ein Anzeigefeld und ein Bedienfeld berührungslos gesteuert wird, sowie eine Vorrichtung, aufweisend ein Anzeigefeld und ein Bedienfeld, geeignet für den Einsatz in einer sterilen Umgebung.
  • Hintergrund der Erfindung
  • In der interventionellen Medizin kommt es häufig vor, dass ein Arzt während einer Operation Informationen aus Patientendokumenten oder Archivbilder abrufen möchte. Derartige Aktionen können im sterilen OP-Bereich nur mit Bedienelementen erfolgen, die vorher aufwändig mit Folien abgedeckt wurden. Diese Vorgehensweise kostet viel Zeit, die der Patient länger in Narkose verbringen muss, und birgt eine erhöhte Gefahr, Keime von den berührten Flächen zu übertragen. Es ist möglich, in solchen sterilen Umgebungen berührungslos steuerbare Geräte vorzugsweise mit Hilfe von Gesten oder Sprache einzusetzen.
  • Nachteilig bei einer auf Gestik basierten Anwendung ist, dass für eine Vielzahl von Bedienfunktionen auch viele differenzierte Gesten erforderlich sind, die von einem Anwender zunächst erlernt werden müssen. Außerdem ist zu manchen Vorgängen eine Zweihandgestik notwendig, was im interventionellen Umfeld nicht immer möglich ist. Bei Abläufen, die beispielsweise ein wiederholtes Ausführen einer Wischgestik verlangen, wie beim Blättern um 100 Seiten, ist eine Gestikbedienung ebenfalls nicht zumutbar.
  • Im Gegensatz dazu ist in Fällen, bei denen Parameter kontinuierlich verändert werden müssen, wie beispielsweise ein Zoomfaktor oder eine Helligkeit eines Bildes, eine Sprachsteuerung wenig intuitiv.
  • Bei der Interaktion mit einer bildschirmbasierten Bedienoberfläche durch Freihandgesten fehlt zunächst ein haptisches Feedback, da keine direkte Berührung stattfindet. Bei einer Freihandgestik fehlt dem Bediener meist das Gefühl, inwieweit sich seine Geste auf die Position am Bildschirm auswirkt und inwieweit er sich noch in eine Richtung bewegen muss, um zum Beispiel zur nächsten Schaltfläche zu gelangen.
  • In der Regel wird auf die Anzeige eines Cursorsymbols bei dieser Herangehensweise verzichtet.
  • Es ist möglich, dass der Mauszeiger ständig angezeigt und dem Bediener ein Feedback (Rückmeldung) gibt, an welcher Stelle seine Geste sich auf dem Bildschirm bewegt. Die Projektion von er Gestenposition und auf die Stelle am Bildschirm erfolgt z.B. mit einer in Richtung Bildschirm verlängerten Linie vom Herz zur Hand oder mit einer absoluten Positionierung durch Zusatzgeräte, die die räumliche Position der Geste bestimmen können. Diese Art der Anzeige kann jedoch als störend empfunden werden.
  • Zusammenfassung der Erfindung
  • Es ist Aufgabe der Erfindung, ein Verfahren und eine Vorrichtung für eine verbesserte Bedienung von Geräten in einem sterilen Umfeld anzugeben.
  • Gemäß der Erfindung wird die gestellte Aufgabe mit dem Verfahren und der Vorrichtung der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen angegeben.
  • Die Erfindung beansprucht ein Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung, die ein Anzeigefeld aufweist und die durch mindestens ein Bedienfeld berührungslos gesteuert wird. Es weist dabei folgende Schritte auf:
    • – Erfassen einer ersten Position eines Gestenbefehls innerhalb eines Bedienfeldes,
    • – Projektion der ersten Position auf einen ersten Interaktionbereich des Anzeigefeldes, wobei dem ersten Interaktionsbereichs eine erste Aufgabe zugeordnet ist,
    • – Erfassen zumindest einer zweiten Position desselben oder eines weiteren Gestenbefehls innerhalb desselben oder eines weiteren Bedienfeldes,
    • – Projektion der zweiten Position auf einen zweiten Interaktionsbereich des Anzeigefeldes, dadurch gekennzeichnet, dass
    • – innerhalb des zweiten Interaktionsbereichs ein Toleranzbereich festgelegt ist, wobei,
    • – wenn die Projektion der zweiten Position innerhalb des Toleranzbereichs liegt, dem zweiten Interaktionsbereich die erste Aufgabe zugeordnet wird, und
    • – wenn die Projektion der zweiten Position außerhalb des Toleranzbereichs liegt, dem zweiten Interaktionsbereichs eine andere zweite Aufgabe zugeordnet wird.
  • Die Aufgabe kann sich dabei in einer bestimmten Funktion, in einem Menü mit einem oder mehreren Menüpunkten oder einer Schaltfläche, hinter der eine Funktion bzw. ein Menü hinterlegt ist, ausdrücken. Es auch andere Aufgaben denkbar.
  • Durch die Erfindung erhöht sich der Bedienkomfort für den Bediener. Die Bedienung mit Freihandgestik wird einschätzbar und intuitiv, da ein unverzügliches Feedback Sicherheit gibt, dass der Bediener erkannt, seine Gestik richtig verfolgt und auf das Anzeige- bzw. Bedienfeld übertragen wird.
  • In einer Weiterbildung kann eine Bewegungsrichtung von der ersten Position zur zweiten Position auf der Anzeige- und/oder Bedienvorrichtung wiedergegeben bzw. angezeigt werden.
  • In einer weiteren Ausführungsform kann die Bewegungsrichtung mit einem Farbverlauf wiedergegeben bzw. angezeigt werden.
  • Durch die Angabe der Bewegungsrichtung z.B. mit einer Pfeildarstellung bzw. einem Farbverlauf wird dem Bediener eine Rückmeldung über die Auswirkung bzw. Position seiner Geste gegeben.
  • Die Erfindung beansprucht auch eine Vorrichtung, aufweisend ein Anzeigefeld und mindestens ein Bedienfeld, geeignet für den Einsatz in einer sterilen Umgebung und aufweisend
    • – eine Gestenerfassungseinheit ausgebildet zum Erfassen einer ersten Position eines Gestenbefehls innerhalb des Bedienfeldes und einer zweiten Position desselben oder eines weiteren Gestenbefehls innerhalb desselben oder eines weiteren Bedienfeldes und
    • – eine Projektionseinheit ausgebildet zur Projektion der ersten Position auf einen ersten Interaktionbereich des Anzeigefeldes, wobei dem ersten Interaktionsbereichs eine erste Aufgabe zugeordnet ist, und zur Projektion der zweiten Position auf einen zweiten Interaktionsbereich des Anzeigefeldes, dadurch gekennzeichnet, dass
    • – innerhalb des zweiten Interaktionsbereichs ein Toleranzbereich festgelegt ist, wobei,
    • – wenn die Projektion der zweiten Position innerhalb des Toleranzbereichs liegt, dem zweiten Interaktionsbereich die erste Aufgabe zuzuordnen ist, und
    • – wenn die Projektion der zweiten Position außerhalb des Toleranzbereichs liegt, dem zweiten Interaktionsbereichs eine andere zweite Aufgabe zuzuordnen ist.
  • In einer Weiterbildung ist die Vorrichtung geeignet, die erfindungsgemäßen Verfahren auszuführen. Dabei können die erfindungsgemäßen Einheiten der Vorrichtung software- und/oder firmware- und/oder hardwaremäßig ausgebildet sein.
  • Alle beschriebenen Einheiten können auch in einer einzigen Einheit integriert sein.
  • Eine Ausführungsform der erfindungsgemäßen Vorrichtung sieht vor, dass sie als ein medizintechnisches Gerät ausgebildet ist.
  • Weitere Besonderheiten und Vorteile der Erfindung werden aus den nachfolgenden Erläuterungen mehrerer Ausführungsbeispiele anhand von schematischen Zeichnungen ersichtlich.
  • Es zeigen:
  • 1: grob die Einheiten der erfindungsgemäßen Vorrichtung,
  • 2: zeigt ein Beispiel für den Toleranzbereich
  • 3a und 3b: deuten die Bewegungsrichtung mit einem Farbverlauf an.
  • Detaillierte Beschreibung eines Ausführungsbeispiels
  • Um den Arbeitsablauf in einem Operationssaal maßgeblich zu vereinfachen, muss es möglich sein, Daten und Archivbilder direkt vor Ort am Patiententisch abzurufen und zu bearbeiten, ohne dabei die Sterilität zu gefährden. Dies lässt sch durch die erfindungsgemäße Gestikbedienung erreichen.
  • Die Bediener-Ergonomie kann mit verschiedenen Maßnahmen, die ein schlüssiges Gesamtkonzept liefern entscheidend erhöht werden. Dazu gehören ein sogenanntes Fullscreen-Mapping, d.h. unter anderem eine Projektion der Gestenposition auf das aktive Bedienfeld, eine Hysterese bei der Navigation über Bedienfelder und eine Indikation der Bewegungsrichtung der Gestik. Die Veranschaulichung der Projektion kann mittels eines Cursors unterstützt werden.
  • 1 veranschaulicht das Fullscreen-Mapping. Es wird eine Kamera K gezeigt, die einen Gestenbefehl bzw. eine Geste G eines Bedieners erfassen kann. Des weiteren wird ein Bedienfeld B gezeigt, das meist virtuell ausgestaltet ist und Geste G in drei Dimensionen ermöglicht. Die Kamera K kann die Positionen P1, P2 und P3 der Gesten erfassen. Dabei wird ein Bedienfeld B einem Anzeigefeld AZ beispielsweise auf einem Bildschirms bzw. Display D zugewiesen, so dass es für den Bediener mehrere Bedienfelder an gegebenenfalls unterschiedlichen Orten in einer sterilen Umgebung z.B. einen Operationssaal geben kann, die mit dem Anzeigefeld kommunizieren können. Die Position z.B. P1, P2, P3 der Geste im Bedienfeld wird in einen Interaktionsbereich z.B. I1, I2, I3 auf dem Anzeigefeld AZ projiziert, unabhängig davon, ob der Cursor C wirklich gerade auf einer dem Interaktionsbereich zugeordneten Aufgabe z.B. Menü bzw. Funktion steht. Auf diese Weise ist immer ein Interaktionsbereich ausgewählt und es gibt keine undefinierten Räume. Sollte der Bediener bei mehreren Bedienfeldern ein erste Geste in einem ersten Bedienfeld tätigen und eine weitere Geste in einem anderem zweiten Bedienfeld tätigen, können die jeweils zu den Gesten gehörenden Positionen jeweils den Interaktionsbereichen zugeordnet werden. Im Beispiel P1 im ersten Bedienfeld zu I1 und P2 in demselben Bedienfeld zu I2 und P3 in einem anderen zweiten Bedienfeld zu I3.
  • 2 verdeutlicht die Hysterese zur Unterstützung der Navigation über die Interaktionsbereich. Ein Interaktionsbereich kann Aufgaben A1, A2, A3, A4, A5 zugeordnet sein. Diese Aufgaben können wie in 1 gezeigt Schaltflächen sein, hinter denen ein Menü oder eine Funktion hinterlegt sind. Die Aufgaben können auch wie in 2 gezeigt, Menüeinträge sein. Beim Umschalten von einem Interaktionsbereich auf den nächsten, wird dieses erst aktiviert, wenn der Cursor außerhalb eines festgelegten Toleranzbereichs z.B. zu mehr als 60% über dem entsprechenden Interaktionsbereich positioniert wird. In 2 ist ein Bereich I1’ gezeigt, innerhalb dessen eine Aufgabe, z.B. der Menüeintrag 1, noch zugeordnet bleibt, obwohl der Interaktionsbereich I1 verlassen wurden, und sich der Cursor im Interaktionsbereich I2 befindet. So führen kurze Schwankungen im Signal nicht zu einem ungewollten Verspringen des Cursors. Die gesamte Bedienung wird dadurch ruhiger.
  • Zuletzt kann dem Bediener mit einer Indikation der Bewegungsrichtung ein Gefühl für die Cursorposition vermittelt werden, wie es beispielhaft in den 3a und 3b gezeigt wird. Dazu wird durch Farbe F oder verschiedene Helligkeitswerte der Rand des Interaktionsfelds hervorgehoben, auf den der Cursor sich zu bewegt. Die Bewegungsrichtung von der ersten Position zur zweiten Position auf dem Anzeigefeld AZ durch eine Pfeildarstellung PF unterstützt werden.

Claims (6)

  1. Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung, die ein Anzeigefeld (AZ) aufweist und die durch mindestens ein Bedienfeld (B) berührungslos gesteuert wird, aufweisend folgende Schritte: – Erfassen einer ersten Position (P1) eines Gestenbefehls (G) innerhalb eines Bedienfeldes, – Projektion der ersten Position auf einen ersten Interaktionbereich (I1) des Anzeigefeldes, wobei dem ersten Interaktionsbereichs eine erste Aufgabe (A1) zugeordnet ist, – Erfassen zumindest einer zweiten Position (P2) desselben (G) oder eines weiteren Gestenbefehls innerhalb desselben oder eines weiteren Bedienfeldes, – Projektion der zweiten Position auf einen zweiten Interaktionsbereich (I2) des Anzeigefeldes, dadurch gekennzeichnet, dass – innerhalb des zweiten Interaktionsbereichs ein Toleranzbereich (I1’) festgelegt ist, wobei, – wenn die Projektion der zweiten Position innerhalb des Toleranzbereichs liegt, dem zweiten Interaktionsbereich die erste Aufgabe (A1) zugeordnet wird, und – wenn die Projektion der zweiten Position außerhalb des Toleranzbereichs liegt, dem zweiten Interaktionsbereichs eine andere zweite Aufgabe (A2; A3; A4; A5) zugeordnet wird.
  2. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass eine Bewegungsrichtung von der ersten Position zur zweiten Position auf der Anzeige- und/oder Bedienvorrichtung wiedergegeben wird.
  3. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Bewegungsrichtung mit einem Farbverlauf wiedergegeben wird.
  4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass die Bewegungsrichtung mit einer Pfeildarstellung wiedergegeben wird.
  5. Vorrichtung, aufweisend ein Anzeigefeld (AZ) und mindestens ein Bedienfeld (B), geeignet für den Einsatz in einer sterilen Umgebung und aufweisend: – eine Gestenerfassungseinheit (K) ausgebildet zum Erfassen einer ersten Position (P1) eines Gestenbefehls innerhalb des Bedienfeldes und einer zweiten Position (P2) desselben oder eines weiteren Gestenbefehls innerhalb desselben oder eines weiteren Bedienfeldes und – eine Projektionseinheit ausgebildet zur Projektion der ersten Position auf einen ersten Interaktionbereich (I1) des Anzeigefeldes, wobei dem ersten Interaktionsbereichs eine erste Aufgabe (A1) zugeordnet ist, und zur Projektion der zweiten Position auf einen zweiten Interaktionsbereich (I2) des Anzeigefeldes, dadurch gekennzeichnet, dass – innerhalb des zweiten Interaktionsbereichs ein Toleranzbereich (I1’) festgelegt ist, wobei, – wenn die Projektion der zweiten Position innerhalb des Toleranzbereichs liegt, dem zweiten Interaktionsbereich die erste Aufgabe (A1) zuzuordnen ist, und – wenn die Projektion der zweiten Position außerhalb des Toleranzbereichs liegt, dem zweiten Interaktionsbereichs eine andere zweite Aufgabe (A2; A3; A4; A5) zuzuordnen ist.
  6. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, das sie als ein medizintechnisches Gerät ausgebildet ist.
DE201310203918 2013-03-07 2013-03-07 Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung Withdrawn DE102013203918A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE201310203918 DE102013203918A1 (de) 2013-03-07 2013-03-07 Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung
CN201410071930.6A CN104035554A (zh) 2013-03-07 2014-02-28 一种用于在无菌环境中运行装置的方法
US14/200,487 US20140258917A1 (en) 2013-03-07 2014-03-07 Method to operate a device in a sterile environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201310203918 DE102013203918A1 (de) 2013-03-07 2013-03-07 Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung

Publications (1)

Publication Number Publication Date
DE102013203918A1 true DE102013203918A1 (de) 2014-09-11

Family

ID=51385534

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310203918 Withdrawn DE102013203918A1 (de) 2013-03-07 2013-03-07 Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung

Country Status (3)

Country Link
US (1) US20140258917A1 (de)
CN (1) CN104035554A (de)
DE (1) DE102013203918A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016055131A1 (en) * 2014-10-07 2016-04-14 Daimler Ag Dashboard display, vehicle, and method for displaying information to a driver

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10048835B2 (en) 2014-10-31 2018-08-14 Microsoft Technology Licensing, Llc User interface functionality for facilitating interaction between users and their environments
CA3016266A1 (en) * 2015-03-07 2016-09-15 Dental Wings Inc. Medical device user interface with sterile and non-sterile operation
US11093101B2 (en) * 2018-06-14 2021-08-17 International Business Machines Corporation Multiple monitor mouse movement assistant
CN109240571A (zh) * 2018-07-11 2019-01-18 维沃移动通信有限公司 一种控制装置、终端及控制方法
US20220104694A1 (en) * 2020-10-02 2022-04-07 Ethicon Llc Control of a display outside the sterile field from a device within the sterile field

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050030291A1 (en) * 2001-09-21 2005-02-10 International Business Machines Corporation Input apparatus, computer apparatus, method for identifying input object, method for identifying input object in keyboard, and computer program
US20070211031A1 (en) * 2006-03-13 2007-09-13 Navisense. Llc Touchless tablet method and system thereof
US20100315266A1 (en) * 2009-06-15 2010-12-16 Microsoft Corporation Predictive interfaces with usability constraints

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
US7331929B2 (en) * 2004-10-01 2008-02-19 General Electric Company Method and apparatus for surgical operating room information display gaze detection and user prioritization for control
US8411034B2 (en) * 2009-03-12 2013-04-02 Marc Boillot Sterile networked interface for medical systems
DE102008032377A1 (de) * 2008-07-09 2010-01-14 Volkswagen Ag Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug
US9594431B2 (en) * 2009-06-19 2017-03-14 Hewlett-Packard Development Company, L.P. Qualified command
CN102455849A (zh) * 2010-10-28 2012-05-16 星河会海科技(深圳)有限公司 一种非接触式人机交互方法和系统
US9104239B2 (en) * 2011-03-09 2015-08-11 Lg Electronics Inc. Display device and method for controlling gesture functions using different depth ranges
WO2012124844A1 (en) * 2011-03-16 2012-09-20 Lg Electronics Inc. Method and electronic device for gesture-based key input
US20130194173A1 (en) * 2012-02-01 2013-08-01 Ingeonix Corporation Touch free control of electronic systems and associated methods
US9916396B2 (en) * 2012-05-11 2018-03-13 Google Llc Methods and systems for content-based search

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050030291A1 (en) * 2001-09-21 2005-02-10 International Business Machines Corporation Input apparatus, computer apparatus, method for identifying input object, method for identifying input object in keyboard, and computer program
US20070211031A1 (en) * 2006-03-13 2007-09-13 Navisense. Llc Touchless tablet method and system thereof
US20100315266A1 (en) * 2009-06-15 2010-12-16 Microsoft Corporation Predictive interfaces with usability constraints

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016055131A1 (en) * 2014-10-07 2016-04-14 Daimler Ag Dashboard display, vehicle, and method for displaying information to a driver

Also Published As

Publication number Publication date
CN104035554A (zh) 2014-09-10
US20140258917A1 (en) 2014-09-11

Similar Documents

Publication Publication Date Title
DE102013203918A1 (de) Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE102012220062A1 (de) Einstellung mehrerer benutzereingabeparameter
EP2703947A1 (de) Bedieneinrichtung für ein technisches System
DE102007043658A1 (de) Steuerung eines scrollbaren Kontext-Menüs
EP3400515A1 (de) Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen
EP3096969B1 (de) Anwenderschnittstelle und verfahren zum steuern einer lautstärke mittels einer berührungssensitiven anzeigeeinheit
DE102017218120A1 (de) Verfahren zur Bereitstellung einer haptischen Rückmeldung an einen Bediener einer berührungssensitiven Anzeigeeinrichtung
DE112014001763T5 (de) Aktivrückrneldungs-Schnittstelle für Berührungsbildschirm
DE102011056940A1 (de) Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige
EP1425653A2 (de) Desktopmanager
DE102014210893A1 (de) Verfahren zum Betrieb einer Bildaufnahmeeinrichtung mit Touchscreen und Bildaufnahmeeinrichtung
EP3755567B1 (de) Bedienvorrichtung sowie verfahren zum ansteuern zumindest einer funktionseinheit für ein kraftfahrzeug mit einer optischen verlagerung eines bediensymbols
DE102009059869A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle und Bedienvorrichtung
EP2310935B1 (de) Verfahren zur vergrösserung eines darstellungsbereichs auf einer darstellungseinrichtung
DE102016204692A1 (de) Steuerung der Mehrfachauswahl auf berührungsempfindlichen Flächen
DE102013021814A1 (de) Bedienvorrichtung mit Eyetracker
DE102013201527A1 (de) Verfahren und System zum Abruf und zur Steuerung von Daten und Archivbildern in einer sterilen Umgebung
EP1933229A1 (de) Verfahren und Vorrichtung zum Darstellen und Bedienen einer Bedienoberfläche auf einer Anzeige
DE102015208578A1 (de) Verfahren und Vorrichtung zum Festlegen eines Intervalls durch eine grafische Benutzeroberfläche
DE10119648B4 (de) Anordnung zur Bedienung von fernsehtechnischen Geräten
DE102013021576A1 (de) Verfahren zum Auswählen eines Textabschnitts auf einem berührungssensitiven Bildschirm und Anzeige- und Bedienvorrichtung
DE102014207699B4 (de) Verfahren zur Bildüberwachung eines Eingriffs mit einer Magnetresonanzeinrichtung, Magnetresonanzeinrichtung und Computerprogramm
EP2932363B1 (de) Bedienverfahren und bedienvorrichtung
DE102015112124A1 (de) Verfahren und System zum Bereitstellen eines Bedienhinweises über eine Toucheingabebedienung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R084 Declaration of willingness to licence
R084 Declaration of willingness to licence

Effective date: 20141010

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee