DE102013206569B4 - Gestensteuerung mit automatisierter Kalibrierung - Google Patents
Gestensteuerung mit automatisierter Kalibrierung Download PDFInfo
- Publication number
- DE102013206569B4 DE102013206569B4 DE102013206569.8A DE102013206569A DE102013206569B4 DE 102013206569 B4 DE102013206569 B4 DE 102013206569B4 DE 102013206569 A DE102013206569 A DE 102013206569A DE 102013206569 B4 DE102013206569 B4 DE 102013206569B4
- Authority
- DE
- Germany
- Prior art keywords
- computing unit
- image
- display device
- determined
- image capture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims abstract description 21
- 230000008859 change Effects 0.000 claims description 9
- 230000001960 triggered effect Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 description 9
- 230000003993 interaction Effects 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000036512 infertility Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00207—Electrical control of surgical instruments with hand gesture control or hand gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Abstract
Steuerverfahren für eine Recheneinheit (4),
- wobei von einer Bilderfassungseinrichtung (1) ein Basisbild (B1) erfasst wird und an die Recheneinheit (4) übermittelt wird,
- wobei von der Recheneinheit (4) anhand des Basisbildes (B1) eine Geste (G) eines Benutzers (5) der Recheneinheit (4) ermittelt wird,
- wobei von der Recheneinheit (4) in Abhängigkeit von der ermittelten Geste (G) eine Aktion (A) ermittelt und die Aktion (A) ausgeführt wird,
- wobei die Aktion (A) von der Recheneinheit (4) für mindestens eine der Gesten (G) zusätzlich in Abhängigkeit von einer Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zu einer Anzeigeeinrichtung (3) ermittelt wird,
- wobei spätestens beim Erfassen des Basisbildes (B1) von mindestens einer weiteren Bilderfassungseinrichtung (2) ein Zusatzbild (B2) erfasst wird und an die Recheneinheit (4) übermittelt wird und
- wobei von der Recheneinheit (4) anhand des mindestens einen Zusatzbildes (B2) die Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zur Anzeigeeinrichtung (3) ermittelt wird.
- wobei von einer Bilderfassungseinrichtung (1) ein Basisbild (B1) erfasst wird und an die Recheneinheit (4) übermittelt wird,
- wobei von der Recheneinheit (4) anhand des Basisbildes (B1) eine Geste (G) eines Benutzers (5) der Recheneinheit (4) ermittelt wird,
- wobei von der Recheneinheit (4) in Abhängigkeit von der ermittelten Geste (G) eine Aktion (A) ermittelt und die Aktion (A) ausgeführt wird,
- wobei die Aktion (A) von der Recheneinheit (4) für mindestens eine der Gesten (G) zusätzlich in Abhängigkeit von einer Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zu einer Anzeigeeinrichtung (3) ermittelt wird,
- wobei spätestens beim Erfassen des Basisbildes (B1) von mindestens einer weiteren Bilderfassungseinrichtung (2) ein Zusatzbild (B2) erfasst wird und an die Recheneinheit (4) übermittelt wird und
- wobei von der Recheneinheit (4) anhand des mindestens einen Zusatzbildes (B2) die Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zur Anzeigeeinrichtung (3) ermittelt wird.
Description
- Die vorliegende Erfindung betrifft ein Steuerverfahren für eine Recheneinheit,
- - wobei von einer Bilderfassungseinrichtung ein Basisbild erfasst wird und an die Recheneinheit übermittelt wird,
- - wobei von der Recheneinheit anhand des Basisbildes eine Geste eines Benutzers der Recheneinheit ermittelt wird,
- - wobei von der Recheneinheit in Abhängigkeit von der ermittelten Geste eine Aktion ermittelt und die Aktion ausgeführt wird,
- - wobei die Aktion von der Recheneinheit für mindestens eine der Gesten zusätzlich in Abhängigkeit von einer Relativlage der Bilderfassungseinrichtung relativ zu einer Anzeigeeinrichtung ermittelt wird.
- Die vorliegende Erfindung betrifft weiterhin eine Computereinrichtung,
- - wobei die Computereinrichtung eine Bilderfassungseinrichtung, eine Anzeigeeinrichtung und eine Recheneinheit umfasst,
- - wobei die Recheneinheit mit der Bilderfassungseinrichtung und der Anzeigeeinrichtung zum Austausch von Daten verbunden ist,
- - wobei von der Bilderfassungseinrichtung ein Basisbild erfasst wird und an die Recheneinheit übermittelt wird,
- - wobei von der Recheneinheit anhand des Basisbildes eine Geste eines Benutzers der Recheneinheit ermittelt wird,
- - wobei von der Recheneinheit in Abhängigkeit von der ermittelten Geste eine Aktion ermittelt und die Aktion ausgeführt wird,
- - wobei die Aktion von der Recheneinheit für mindestens eine der Gesten zusätzlich in Abhängigkeit von einer Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung ermittelt wird.
- Derartige Steuerverfahren und derartige Computereinrichtungen sind allgemein bekannt. Es wird rein beispielhaft auf die
WO 2011/085815 A1 US 2010/013764 A1 , dieUS 2011/029913 A1 , dieUS 2011/090147 A1 und dieUS 7 834 847 B2 verwiesen. - Die berührungslose Interaktion mit Computereinrichtungen ist ein deutlicher Trend im Rahmen von sogenannten natürlichen Eingabemethoden (NUI = Natural User Input) . Dies gilt sowohl in der Informationsverarbeitung allgemein als auch insbesondere im medizinischen Bereich. So findet die berührungslose Interaktion beispielsweise Verwendung in Operationssälen, in denen der operierende Arzt während der Operation operationsbezogene Bilder des Patienten betrachten möchte. In diesem Fall darf der operierende Arzt übliche Interaktionseinrichtungen der Computereinrichtung (beispielsweise eine Computermaus, eine Tastatur oder einen Touchscreen) aus Gründen der Sterilität nicht berühren. Dennoch muss es möglich sein, die Anzeigeeinrichtung zu steuern. Insbesondere muss es möglich sein, zu steuern, welches Bild auf der Anzeigeeinrichtung dargestellt wird. In der Regel muss es weiterhin möglich sein, auf der Anzeigeeinrichtung dargestellte Schaltflächen und dergleichen zu bedienen.
- Es ist bekannt, dass eine andere Person als der operierende Arzt die üblichen Interaktionseinrichtungen aufgrund entsprechender Anweisungen durch den Arzt bedient. Dies ist umständlich, kostet wertvolle Zeit und führt oft zu Kommunikationsproblemen zwischen dem operierenden Arzt und der anderen Person. Die obenstehend erläuterte, bekannte Gestensteuerung stellt hier einen wertvollen Vorteil dar. Bei einer Gestensteuerung wird in der Regel ein sogenanntes Tiefenbild ermittelt, d.h. ein Bild, bei dem jedem Punkt eines an sich zweidimensionalen Bildes zusätzlich eine Information über die dritte Richtung im dreidimensionalen Raum zugeordnet ist. Die Erfassung und Auswertung derartiger Tiefenbilder ist an sich bekannt. Derartige Tiefenbilder können beispielsweise mittels zweier üblicher Kameras erfasst werden, die zusammen ein stereoskopisches Bild liefern. Alternativ ist es möglich, ein sinusförmig moduliertes Muster in den Raum zu projizieren und anhand von Verzerrungen des sinusförmig modulierten Musters die Tiefeninformation zu ermitteln.
- Für ein ordnungsgemäßes Arbeiten der Gestenerkennung ist es in vielen Fällen erforderlich, dass die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung bekannt ist. Im Stand der Technik müssen die Absolutlagen der Bilderfassungseinrichtung und der Anzeigeeinrichtung daher vorab eingestellt werden. Danach erfolgt ein Kalibrierungsvorgang, in dem die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung ermittelt wird. Nach der Kalibrierung darf die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung nicht mehr verändert werden. Insbesondere eine Veränderung der Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung im laufenden Betrieb ist nicht möglich.
- Das Erfordernis, dass die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung nach der Kalibrierung nicht mehr verändert werden darf, stellt in der Praxis eine deutliche Beschränkung dar. Es ist vielmehr wünschenswert, die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung jederzeit - auch im laufenden Betrieb - ändern zu können.
- Aus der
WO 2004/057 450 A1 - Aus der
WO 00/16 121 A1 - Aus der
US 2004/0 176 925 A1 US 2008/0 069 405 A1 EP 1 739 622 A1 sind ähnliche Verfahren zu entnehmen. - Die Aufgabe der vorliegenden Erfindung besteht darin, Möglichkeiten zu schaffen, so dass die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung auch im laufenden Betrieb verändert werden kann, ohne die Funktionsfähigkeit der Gestenerkennung negativ zu beeinflussen. Insbesondere soll eine zeitaufwändige manuelle Kalibrierung nicht erforderlich sein.
- Die Aufgabe wird durch ein Steuerverfahren für eine Recheneinheit mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen des erfindungsgemäßen Steuerverfahrens sind Gegenstand der abhängigen Ansprüche 2 bis 6.
- Erfindungsgemäß wird ein Steuerverfahren der eingangs genannten Art dadurch ausgestaltet,
- - dass spätestens beim Erfassen des Basisbildes von mindestens einer weiteren Bilderfassungseinrichtung ein Zusatzbild erfasst wird und an die Recheneinheit übermittelt wird
- - dass von der Recheneinheit anhand des Zusatzbildes die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung ermittelt wird.
- Dadurch wird es ermöglicht, innerhalb der Recheneinheit die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung im laufenden Betrieb stets aktuell zu halten.
- In einer bevorzugten Ausgestaltung des Steuerverfahrens ist die weitere Bilderfassungseinrichtung ortsfest angeordnet. Diese Ausgestaltung ist insbesondere leicht realisierbar.
- Im Falle einer ortsfesten Anordnung der weiteren Bilderfassungseinrichtung werden vorzugsweise von der Recheneinheit anhand des mindestens einen Zusatzbildes eine auf ein ortsfestes Koordinatensystem bezogene Absolutlage der Bilderfassungseinrichtung und eine auf das ortsfeste Koordinatensystem bezogene Absolutlage der Anzeigeeinrichtung ermittelt. Anhand der Absolutlagen der Bilderfassungseinrichtung und der Anzeigeeinrichtung wird von der Recheneinheit sodann die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung ermittelt.
- In einer weiter bevorzugten Ausgestaltung des Steuerverfahrens sind die Bilderfassungseinrichtung und/oder die Anzeigeeinrichtung bewegbar. Beispielsweise können die Bilderfassungseinrichtung und/oder die Anzeigeeinrichtung über bewegliche Tragarme - die gegebenenfalls von einer gemeinsamen Tragstruktur ausgehen - an einer Decke befestigt sein.
- Die Zeitpunkte, zu denen die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung von der Recheneinheit ermittelt wird, können nach Bedarf bestimmt sein. Beispielsweise ist es möglich, dass die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung von der Recheneinheit kontinuierlich, in festen zeitlichen Abständen, ausgelöst durch einen Benutzerbefehl oder ausgelöst durch eine von einer Sensorik erkannte Veränderung einer auf ein ortsfestes Koordinatensystem bezogenen Absolutlage der Bilderfassungseinrichtung, einer auf das ortsfeste Koordinatensystem bezogenen Absolutlage der Anzeigeeinrichtung oder der Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung ermittelt wird.
- Auch die von der Recheneinheit ermittelte und ausgeführte Aktion kann nach Bedarf bestimmt sein. Vorzugsweise handelt es sich jedoch um eine Steuerung der Anzeigeeinrichtung.
- Die Aufgabe wird weiterhin durch eine Computereinrichtung mit den Merkmalen des Anspruchs 7 gelöst. Vorteilhafte Ausgestaltungen der erfindungsgemäßen Computereinrichtung sind Gegenstand der abhängigen Ansprüche 8 bis 12.
- Erfindungsgemäß wird eine Computereinrichtung der eingangs genannten Art dadurch ausgestaltet,
- - dass die Computereinrichtung (zusätzlich zur Bilderfassungseinrichtung) mindestens eine weitere Bilderfassungseinrichtung umfasst,
- - dass die Recheneinheit zum Austausch von Daten auch mit der mindestens einen weiteren Bilderfassungseinrichtung verbunden ist,
- - dass spätestens beim Erfassen des Basisbildes von der weiteren Bilderfassungseinrichtung mindestens ein Zusatzbild erfasst wird und an die Recheneinheit übermittelt wird und
- - dass von der Recheneinheit anhand des mindestens einen Zusatzbildes die Relativlage der Bilderfassungseinrichtung relativ zur Anzeigeeinrichtung ermittelt wird.
- Die vorteilhaften Ausgestaltungen der Computereinrichtung korrespondieren mit denen des Steuerverfahrens.
- Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die in Verbindung mit den Zeichnungen näher erläutert werden. Hierbei zeigen in schematischer Darstellung:
-
1 eine perspektivische Darstellung eines Raumes, in dem eine Computereinrichtung angeordnet ist, und -
2 ein Blockschaltbild der Computereinrichtung von1 . - Gemäß den
1 und2 umfasst eine Computereinrichtung eine Bilderfassungseinrichtung1 , mindestens eine weitere Bilderfassungseinrichtung2 , eine Anzeigeeinrichtung3 und eine Recheneinheit4 . Die Bilderfassungseinrichtung1 , die mindestens eine weitere Bilderfassungseinrichtung2 und die Anzeigeeinrichtung3 sind mit der Recheneinheit4 zum Austausch von Daten verbunden. Insbesondere wird von der Bilderfassungseinrichtung1 ein Basisbild B1 erfasst und an die Recheneinheit4 übermittelt. In analoger Weise wird von der weiteren Bilderfassungseinrichtung2 ein Zusatzbild B2 (bzw. im Falle mehrerer weiterer Bilderfassungseinrichtungen2 von jeder weiteren Bilderfassungseinrichtungen2 jeweils ein Zusatzbild B2) erfasst und an die Recheneinheit4 übermittelt. Die von den Bilderfassungseinrichtungen1 ,2 erfassten Bilder B1, B2 werden von der Recheneinheit4 ausgewertet. Je nach Ergebnis der Auswertung kann von der Recheneinheit4 beispielsweise die Anzeigeeinrichtung3 angesteuert werden. - Die Recheneinheit
4 kann beispielsweise als üblicher PC, als Workstation oder ähnliche Recheneinheit ausgebildet sein. Die Anzeigeeinrichtung3 kann als übliches Computerdisplay ausgebildet sein, beispielsweise als LCD-Display oder als TFT-Display. - Die Bilderfassungseinrichtung
1 weist relativ zur Anzeigeeinrichtung3 eine Relativlage pR13 auf. Die Relativlage pR13 ist auf ein Koordinatensystem bezogen, das relativ zur Anzeigeeinrichtung3 fixiert ist. Die Relativlage pR13 kann translatorische und/oder rotatorische Komponenten umfassen. - Die Bilderfassungseinrichtung
1 , die Anzeigeeinrichtung3 und die Recheneinheit4 wirken wie folgt zusammen: - Die Bilderfassungseinrichtung
1 erfasst das Basisbild B1 und übermittelt es an die Recheneinheit4 . Das erfasste Basisbild B1 zeigt (unter anderem) einen Benutzer5 der Recheneinheit4 . Die Recheneinheit4 ermittelt anhand des Basisbildes B1 eine Geste G des Benutzers5 . Beispielsweise kann die Recheneinheit4 das Basisbild B1 dahingehend auswerten, ob der Benutzer5 eine Hand oder beide Hände hebt, ob der Benutzer5 ein- oder zweimal in die Hände klatscht, ob der Benutzer5 mit einem Arm und/oder einem Finger in eine bestimmte Richtung deutet und dergleichen mehr. Selbstverständlich ist auch eine Ermittlung anderer oder weiterer Gesten G möglich. Zur deutlichen Erkennung der Geste G können am Benutzer5 spezielle Markierungen angeordnet sein. Beispielsweise kann der Benutzer5 spezielle Handschuhe tragen. Dies ist jedoch nicht zwingend erforderlich. - Für eine zuverlässige Auswertung des Basisbildes B1 durch die Recheneinheit
4 - d.h. für eine zuverlässige Erkennung der jeweiligen Geste G - ist es von Vorteil, wenn das Basisbild B1 ein sogenanntes Tiefenbild ist, das heißt, dass den (zweidimensional ortsaufgelöst) angeordneten einzelnen Bildelementen des Tiefenbildes - gegebenenfalls zusätzlich zu ihrem Bilddatenwert - ein Tiefenwert zugeordnet ist, der charakteristisch für einen dem jeweiligen Bildelement zugeordneten Abstand von der Bilderfassungseinrichtung1 ist. Die Erfassung derartiger Tiefenbilder ist Fachleuten als solche bekannt. Beispielsweise kann die Bilderfassungseinrichtung1 mehrere einzelne Bildsensoren umfassen, welche die erfasste - Szene aus verschiedenen Blickrichtungen erfassen. Auch ist es möglich, mittels einer geeigneten Leuchtquelle ein Streifenmuster (oder ein anderes Muster) in den von der Bilderfassungseinrichtung
1 erfassten Raum zu projizieren und anhand von Verzerrungen des Musters in dem von der Bilderfassungseinrichtung1 erfassten Basisbild B1 den jeweiligen Abstand zu ermitteln. - Sofern die Recheneinheit
4 eine Geste G erkannt hat, ermittelt die Recheneinheit4 in Abhängigkeit von der ermittelten Geste G eine Aktion A und führt die Aktion A aus. Die Recheneinheit4 wird somit durch die Geste G und die zugehörige Aktion A gesteuert. - Es ist möglich, dass die ermittelte Aktion A für einige Gesten G unabhängig von anderen Parametern ist. Beispielsweise kann ein zweimaliges in die Hände klatschen des Benutzers
5 im Sinne eines Ende-Befehls interpretiert werden, aufgrund dessen die weitere Interaktion der Bilderfassungseinrichtung1 mit der Recheneinheit4 beendet wird. Auch ist es möglich, dass die Aktion A von anderen Parametern abhängt, die mit anderen Mitteln als dem von der Bilderfassungseinrichtung1 erfassten Basisbild B1 zusammenhängen. Beispielsweise kann eine Verknüpfung einer Geste G mit einem vom Benutzer4 gesprochenen Sprachbefehl erfolgen. Auch andere Vorgehensweisen sind möglich. - In vielen Fällen wird die von der Recheneinheit
4 ermittelte Aktion A jedoch - zusätzlich zur Abhängigkeit von der Geste G als solcher - auch von der Relativlage pR13 abhängen. Dies ist insbesondere dann erforderlich, wenn die von der Recheneinheit4 ermittelte und ausgeführte Aktion A eine Steuerung der Anzeigeeinrichtung3 ist. Es ist jedoch auch möglich, dass die jeweils ermittelte Aktion A von der Relativlage pR13 abhängt, wenn die ermittelte und ausgeführte Aktion A eine andere Aktion als die Steuerung der Anzeigeeinrichtung3 ist. - Es ist möglich, dass die zusätzliche Abhängigkeit der Aktion A auch von der Relativlage pR13 nur bei einer einzelnen, ganz bestimmten Geste G gegeben ist. Alternativ ist es möglich, dass die Abhängigkeit der Aktion A auch von der Relativlage pR13 bei mehreren Gesten G oder sogar bei allen Gesten G gegeben ist. Nachfolgend werden - rein beispielhaft - einige mögliche Gesten G erläutert, deren zugehörige Aktion A auch von der Relativlage pR13 abhängen kann.
- Beispielsweise kann, wenn der Benutzer
5 mit einem seiner Arme oder mit einem Finger in eine bestimmte Richtung deutet, dies von der Recheneinheit4 als Selektion eines bestimmten Elements interpretiert werden, das in der Richtung liegt, in welche der Benutzer5 zeigt. Das bestimmte Element kann insbesondere ein Element sein, das auf der Anzeigeeinrichtung3 dargestellt ist. Alternativ oder zusätzlich ist es beispielsweise möglich, dass ein Ausschnitt eines über die Anzeigeeinrichtung3 dargestellten Bildes B (dieses Bild B hat nichts mit dem Basisbild B1 und auch nichts mit dem Zusatzbild B2 zu tun) verschoben wird, wobei zumindest die Richtung der Verschiebung davon abhängt, in welche Richtung der Benutzer5 einen seiner Arme oder eine seiner Hände bewegt. Eventuell kann zusätzlich das Ausmaß der Verschiebung davon abhängen, wie schnell und/oder wie weit diese Bewegung erfolgt. Auch kann beispielsweise - ähnlich dem Blättern in einem Buch - in einer Sequenz von Bildern B (auch diese Bilder B haben nichts mit dem Basisbild B1 und auch nichts mit dem Zusatzbild B2 zu tun) ein in der Sequenz vorhergehendes oder nachfolgendes Bild B selektiert und über die Anzeigeeinrichtung3 dargestellt werden. In diesem Fall kann beispielsweise die Richtung des Blättern von der Bewegungsrichtung der Arme oder Hände des Benutzers5 abhängen. Auch andere Aktionen A, die von der Relativlage pR13 abhängen, sind möglich. Die obigen Beispiele sind, wie erwähnt, rein beispielhaft. - In derartigen Fällen, wenn also die ermittelte und ausgeführte Aktion A von der Relativlage pR13 abhängt, muss der Recheneinheit
4 die Relativlage pR13 somit bekannt sein. Zu diesem Zweck ist die mindestens eine weitere Bilderfassungseinrichtung2 vorhanden. Nachfolgend wird vorausgesetzt, dass nur eine einzige weitere Bilderfassungseinrichtung2 vorhanden ist. Es könnten jedoch ebenso auch mehrere weitere Bilderfassungseinrichtungen2 vorhanden sein, die jeweils ein Zusatzbild B2 erfassen. - Die weitere Bilderfassungseinrichtung
2 erfasst das Zusatzbild B2 spätestens beim Erfassen des Basisbildes B1. Vorzugsweise erfolgen die Erfassung und die Übermittlung vor dem Erfassen des Basisbildes B1. Es ist jedoch auch eine simultane Erfassung und Übermittlung möglich. Die weitere Bilderfassungseinrichtung2 übermittelt das Zusatzbild B2 an die Recheneinheit4 . Die Recheneinheit4 wertet das Zusatzbild B2 aus. Insbesondere ermittelte die Recheneinheit4 anhand des Zusatzbildes B2 die Relativlage pR13 der Bilderfassungseinrichtung1 relativ zur Anzeigeeinrichtung3 . - Für eine zuverlässige Auswertung des Zusatzbildes B2 durch die Recheneinheit
4 - d.h. für eine zuverlässige Ermittlung der Relativlage pR13 - muss die weitere Bilderfassungseinrichtung2 (selbstverständlich) derart angeordnet sein, dass das Zusatzbild B2 die Bilderfassungseinrichtung1 und die Anzeigeeinrichtung3 enthält. Für eine besonders zuverlässige Auswertung des Zusatzbildes B2 kann es unter Umständen sinnvoll sein, an der Bilderfassungseinrichtung1 und/oder an der Anzeigeeinrichtung3 spezielle Markierungen anzuordnen. - In manchen Fällen kann es ausreichen, wenn die weitere Bilderfassungseinrichtung
2 nicht starr montiert ist, sondern ihrerseits auf einem translatorisch und/oder rotatorisch bewegbaren Halter angeordnet ist. Vorzugsweise ist die weitere Bilderfassungseinrichtung2 jedoch entsprechend der Darstellung in1 ortsfest angeordnet. - Für eine zuverlässige Auswertung des Zusatzbildes B2 durch die Recheneinheit
4 ist es weiterhin von Vorteil, wenn das Zusatzbild B2 ein sogenanntes Tiefenbild ist. Die oben stehenden Ausführungen zum Basisbild B1 sind daher in analoger Weise auch auf das Zusatzbild B2 anwendbar. - Insbesondere in dem Fall, dass die weitere Bilderfassungseinrichtung
2 ortsfest angeordnet ist, kann die Auswertung des Zusatzbildes B2 von der Recheneinheit4 beispielsweise wie folgt vorgenommen werden: Die Recheneinheit4 ermittelt anhand des Zusatzbildes B2 eine Absolutlage pA1 der Bilderfassungseinrichtung1 . Diese Absolutlage pA1 ist auf ein (bezüglich des Raumes, in dem die Bilderfassungseinrichtung1 und die Anzeigeeinrichtung3 angeordnet sind) ortsfestes Koordinatensystem bezogen. Das ortsfeste Koordinatensystem kann beispielsweise in kartesischen Koordinaten x, y, z definiert sein. In analoger Weise wird von der Recheneinheit4 anhand des Zusatzbildes B2 eine Absolutlage pA3 der Anzeigeeinrichtung3 ermittelt. Auch diese Absolutlage pA3 ist auf das ortsfeste Koordinatensystem bezogen. Anhand der beiden Absolutlagen pA1 und pA3 ermittelt die Recheneinheit4 sodann die Relativlage pR13 der Bilderfassungseinrichtung1 relativ zur Anzeigeeinrichtung3 . - Es ist prinzipiell möglich, dass die Bilderfassungseinrichtung
1 und die Anzeigeeinrichtung3 - ebenso wie die weitere Bilderfassungseinrichtung2 - ortsfeste Einrichtungen sind. Ihre vollen Stärken zeigt die vorliegende Erfindung jedoch, wenn die Bilderfassungseinrichtung1 und/oder die Anzeigeeinrichtung3 bewegbar sind. Hierbei kann - je nach Gestaltung - nur die eine oder nur die andere der beiden Einrichtungen1 ,3 bewegbar sein. Ebenso können - je nach Gestaltung - beide Einrichtungen1 ,3 bewegbar sein. Je nach Gestaltung können die Bewegungen der beiden Einrichtungen1 ,3 miteinander gekoppelt oder unabhängig voneinander sein. Bevorzugt ist, dass beide Einrichtungen1 ,3 unabhängig voneinander bewegbar sind. Eine mögliche Realisierung für eine unabhängige Bewegbarkeit von Bilderfassungseinrichtung1 und Anzeigeeinrichtung3 wird nachfolgend unter Bezugnahme auf1 näher erläutert. Die entsprechenden Ausführungen sind jedoch rein beispielhaft. Es können auch andere Möglichkeiten der Bewegbarkeit realisiert sein. - Gemäß
1 ist an einer Decke des Raumes eine nach unten ragende Tragstruktur6 befestigt. Die Tragstruktur6 weist ein Gelenk7 auf, von dem (mindestens) zwei Tragarme8 abgehen. Die Tragarme8 können starr sein. Alternativ können die Tragarme8 ihrerseits mehrere Teilelemente9 aufweisen, die über weitere Gelenke10 miteinander verbunden sind. Derartige Aufhängungen sind bekannt und als solche nicht Gegenstand der vorliegenden Erfindung. - In der obenstehend in Verbindung mit
1 erläuterten Gestaltung kann der Benutzer5 die Anzeigeeinrichtung3 durch entsprechendes Verstellen des zugehörigen Tragarms8 zumindest in Höhe und Seite positionieren. In analoger Weise kann der Benutzer5 durch entsprechendes Verstellen des zugehörigen Tragarms8 die Bilderfassungseinrichtung1 zumindest in Höhe und Seite positionieren. Unter Umständen können auch Positionierungen in der Tiefenrichtung und/oder rotatorische Bewegungen möglich sein Die beiden Positionierungen sind vorzugsweise unabhängig voneinander realisierbar. - Alternativ ist es möglich, dass die Positionierungen miteinander gekoppelt sind. Beispielsweise können die Tragarme
8 im Bereich des Gelenkes7 miteinander zusammenwirken, so dass sie im Gelenk7 stets nur um gleiche Winkel, aber in entgegengesetzter Drehrichtung verstellt werden können. - Wenn sich die Relativlage pR13 der Bilderfassungseinrichtung
1 relativ zur Anzeigeeinrichtung3 ändert, muss die Relativlage pR13 neu ermittelt werden. Anderenfalls bestünde die Gefahr einer fehlerhaften Ermittlung der Aktion A. Um diese Gefahr auszuschließen, um in der Recheneinheit4 also stets die aktuelle und tatsächliche Relativlage pR13 zu verwerten, sind verschiedene Ausgestaltungen möglich. - Beispielsweise ist es möglich, dass das Zusatzbild B2 von der weiteren Bilderfassungseinrichtung
2 in festen zeitlichen Abständen erfasst wird und/oder von der Recheneinheit4 in festen zeitlichen Abständen ausgewertet wird. Beispielsweise ist eine Auswertung in einem zeitlichen Abstand von (rein beispielhaft) 15 Sekunden, 1 Minute, 10 Minuten, 1 Stunde usw. möglich. Der zeitliche Abstand kann fest vorgegeben sein. Alternativ kann er der Recheneinheit4 vom Benutzer5 vorgegeben werden. - Alternativ ist es möglich, dass das Zusatzbild B2 von der weiteren Bilderfassungseinrichtung
2 nur dann erfasst wird und/oder von der Recheneinheit4 nur dann ausgewertet wird, wenn der Recheneinheit4 vom Benutzer5 ein entsprechender Benutzerbefehl vorgegeben wird. Beispielsweise kann der Benutzer5 einen entsprechenden Sprachbefehl vorgegeben oder (vorzugsweise mit einem anderen Körperteil als seinen Händen, beispielsweise mit einem Ellenbogen oder mit einem Fuß) einen Schalter oder Taster betätigen. - Wiederum alternativ ist es möglich, dass das Zusatzbild B2 von der weiteren Bilderfassungseinrichtung
2 beim Einschalten der Computereinrichtung erfasst wird und/oder von der Recheneinheit4 beim Einschalten der Computereinrichtung ausgewertet wird. - Wiederum alternativ ist es möglich, dass der Bilderfassungseinrichtung
1 und/oder der Anzeigeeinrichtung3 eine Sensorik11 ,12 ,13 zugeordnet ist, mittels derer eine Veränderung δpA1, δpA3 der Absolutlagen pA1, pA3 oder eine Veränderung δpR13 der Relativlage pR13 erkannt wird. In diesem Fall können beispielsweise das Erkennen einer Veränderung δpA1, δpA3 einer der Absolutlagen pA1, pA3 oder beider Absolutlagen pA1, pA3 und/oder das Erkennen einer Veränderung δpR13 der Relativlage pR13 das Erfassen und Auswerten des Zusatzbildes B2 auslösen. - Die oben genannten Möglichkeiten zu den Zeitpunkten und/oder Ereignissen, welche die Ermittlung der Relativlage pR13 auslösen, können nach Bedarf miteinander kombiniert werden.
- Alternativ ist es möglich, dass das Zusatzbild B2 von der weiteren Bilderfassungseinrichtung
2 kontinuierlich erfasst und an die Recheneinheit4 übermittelt wird. In diesem Fall kann auf Seiten der Recheneinheit4 ebenso kontinuierlich die Ermittlung der aktuellen Relativlage pR13 erfolgen. - Die vorliegende Erfindung ist prinzipiell in einem beliebigen Umfeld anwendbar. Vorzugsweise wird die vorliegende Erfindung jedoch im medizinischen Bereich angewendet. In diesem Fall kann der Raum, in dem die Bilderfassungseinrichtung
1 , die weitere Bilderfassungseinrichtung2 und die Anzeigeeinrichtung3 angeordnet sind, insbesondere als Operationssaal ausgebildet sein. Dies ist in1 durch die schematische Darstellung eines OP-Tisches14 angedeutet. - Im Rahmen der vorliegenden Erfindung wurde obenstehend detailliert auf die Ermittlung der Relativlage pR13 der Bilderfassungseinrichtung
1 relativ zur Anzeigeeinrichtung3 eingegangen. Soweit erforderlich, kann zusätzlich zur Relativlage pR13 der Bilderfassungseinrichtung1 relativ zur Anzeigeeinrichtung3 eine Ermittlung einer auf das ortsfeste Koordinatensystem bezogenen Absolutlage des Benutzers5 und/oder die Ermittlung einer Relativlage des Benutzers5 relativ zur Bilderfassungseinrichtung1 und/oder einer Relativlage des Benutzers5 relativ zur Anzeigeeinrichtung3 vorgenommen werden. In Bezug auf den Benutzer5 sind auch weitergehende Auswertungen möglich, wie beispielsweise die Ermittlung von dessen Größe. - Die vorliegende Erfindung weist viele Vorteile auf. Insbesondere ist es auf einfache und zuverlässige Weise möglich, jederzeit nach Bedarf eine Kalibrierung der Gestensteuerung vorzunehmen, also die Ermittlung der Relativlage pR13 der Bilderfassungseinrichtung
1 relativ zur Anzeigeeinrichtung3 . - Obwohl die Erfindung im Detail durch das bevorzugte Ausführungsbeispiel näher illustriert und beschrieben wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.
Claims (12)
- Steuerverfahren für eine Recheneinheit (4), - wobei von einer Bilderfassungseinrichtung (1) ein Basisbild (B1) erfasst wird und an die Recheneinheit (4) übermittelt wird, - wobei von der Recheneinheit (4) anhand des Basisbildes (B1) eine Geste (G) eines Benutzers (5) der Recheneinheit (4) ermittelt wird, - wobei von der Recheneinheit (4) in Abhängigkeit von der ermittelten Geste (G) eine Aktion (A) ermittelt und die Aktion (A) ausgeführt wird, - wobei die Aktion (A) von der Recheneinheit (4) für mindestens eine der Gesten (G) zusätzlich in Abhängigkeit von einer Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zu einer Anzeigeeinrichtung (3) ermittelt wird, - wobei spätestens beim Erfassen des Basisbildes (B1) von mindestens einer weiteren Bilderfassungseinrichtung (2) ein Zusatzbild (B2) erfasst wird und an die Recheneinheit (4) übermittelt wird und - wobei von der Recheneinheit (4) anhand des mindestens einen Zusatzbildes (B2) die Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zur Anzeigeeinrichtung (3) ermittelt wird.
- Steuerverfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass die weitere Bilderfassungseinrichtung (2) ortsfest angeordnet ist. - Steuerverfahren nach
Anspruch 2 , dadurch gekennzeichnet, dass von der Recheneinheit (4) anhand des mindestens einen Zusatzbildes (B2) eine auf ein ortsfestes Koordinatensystem bezogene Absolutlage (pA1) der Bilderfassungseinrichtung (1) und eine auf das ortsfeste Koordinatensystem bezogene Absolutlage (pA3) der Anzeigeeinrichtung (3) ermittelt werden und anhand der Absolutlagen (pA1, pA3) der Bilderfassungseinrichtung (1) und der Anzeigeeinrichtung (3) die Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zur Anzeigeeinrichtung (3) ermittelt wird. - Steuerverfahren nach
Anspruch 1 ,2 oder3 , dadurch gekennzeichnet, dass die Bilderfassungseinrichtung (1) und/oder die Anzeigeeinrichtung (3) bewegbar sind. - Steuerverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zur Anzeigeeinrichtung (3) von der Recheneinheit (4) kontinuierlich, in festen zeitlichen Abständen, ausgelöst durch einen Benutzerbefehl oder ausgelöst durch eine von einer Sensorik (11 bis 13) erkannte Veränderung (δpA1, δpA3, δpR13) einer auf ein ortsfestes Koordinatensystem bezogenen Absolutlage (pA1) der Bilderfassungseinrichtung (1), einer auf das ortsfeste Koordinatensystem bezogenen Absolutlage (pA3) der Anzeigeeinrichtung (3) oder der Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zur Anzeigeeinrichtung (3) ermittelt wird.
- Steuerverfahren nach einem der obigen Ansprüche, dadurch gekennzeichnet, dass die von der Recheneinheit (4) ermittelte und ausgeführte Aktion (A) eine Steuerung der Anzeigeeinrichtung (3) ist.
- Computereinrichtung, - wobei die Computereinrichtung eine Bilderfassungseinrichtung (1), mindestens eine weitere Bilderfassungseinrichtung (2), eine Anzeigeeinrichtung (3) und eine Recheneinheit (4) umfasst, - wobei die Recheneinheit (4) mit der Bilderfassungseinrichtung (1), der mindestens einen weiteren Bilderfassungseinrichtung (2) und der Anzeigeeinrichtung (3) zum Austausch von Daten verbunden ist, - wobei von der Bilderfassungseinrichtung (1) ein Basisbild (B1) erfasst wird und an die Recheneinheit (4) übermittelt wird, - wobei von der Recheneinheit (4) anhand des Basisbildes (B1) eine Geste (G) eines Benutzers (5) der Recheneinheit (4) ermittelt wird, - wobei von der Recheneinheit (4) in Abhängigkeit von der ermittelten Geste (G) eine Aktion (A) ermittelt und die Aktion (A) ausgeführt wird, - wobei die Aktion (A) von der Recheneinheit (4) für mindestens eine der Gesten (G) zusätzlich in Abhängigkeit von einer Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zur Anzeigeeinrichtung (3) ermittelt wird, - wobei spätestens beim Erfassen des Basisbildes (B1) von der mindestens einen weiteren Bilderfassungseinrichtung (2) ein Zusatzbild (B2) erfasst wird und an die Recheneinheit (4) übermittelt wird, - wobei von der Recheneinheit (4) anhand des Zusatzbildes (B2) die Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zur Anzeigeeinrichtung (3) ermittelt wird.
- Computereinrichtung nach
Anspruch 7 , dadurch gekennzeichnet, dass die weitere Bilderfassungseinrichtung (2) ortsfest angeordnet ist. - Computereinrichtung nach
Anspruch 8 , dadurch gekennzeichnet, dass von der Recheneinheit (4) anhand des mindestens einen Zusatzbildes (B2) eine auf ein ortsfestes Koordinatensystem bezogene Absolutlage (pA1) der Bilderfassungseinrichtung (1) und eine auf das ortsfeste Koordinatensystem bezogene Absolutlage (pA3) der Anzeigeeinrichtung (3) ermittelt werden und anhand der Absolutlagen (pA1, pA3) der Bilderfassungseinrichtung (1) und der Anzeigeeinrichtung (3) die Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zur Anzeigeeinrichtung (3) ermittelt wird. - Computereinrichtung nach
Anspruch 7 ,8 oder9 , dadurch gekennzeichnet, dass die Bilderfassungseinrichtung (1) und/oder die Anzeigeeinrichtung (3) bewegbar sind. - Computereinrichtung nach einem der
Ansprüche 7 bis10 , dadurch gekennzeichnet, dass die Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zur Anzeigeeinrichtung (3) von der Recheneinheit (4) kontinuierlich, in festen zeitlichen Abständen, ausgelöst durch einen Benutzerbefehl oder ausgelöst durch eine von einer Sensorik (11 bis 13) erkannte Veränderung (δpA1, δpA3, δpR13) einer auf ein ortsfestes Koordinatensystem bezogenen Absolutlage (pA1) der Bilderfassungseinrichtung (1), einer auf das ortsfeste Koordinatensystem bezogenen Absolutlage (pA3) der Anzeigeeinrichtung (3) oder der Relativlage (pR13) der Bilderfassungseinrichtung (1) relativ zur Anzeigeeinrichtung (3) ermittelt wird. - Computereinrichtung nach einem der
Ansprüche 7 bis11 , dadurch gekennzeichnet, dass die von der Recheneinheit (4) ermittelte und ausgeführte Aktion (A) eine Steuerung der Anzeigeeinrichtung (3) ist.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013206569.8A DE102013206569B4 (de) | 2013-04-12 | 2013-04-12 | Gestensteuerung mit automatisierter Kalibrierung |
CN201480020630.3A CN105103086B (zh) | 2013-04-12 | 2014-01-15 | 具有自动校准的手势控制 |
US14/781,997 US9880670B2 (en) | 2013-04-12 | 2014-01-15 | Gesture control having automated calibration |
PCT/EP2014/050731 WO2014166645A1 (de) | 2013-04-12 | 2014-01-15 | Gestensteuerung mit automatisierter kalibrierung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013206569.8A DE102013206569B4 (de) | 2013-04-12 | 2013-04-12 | Gestensteuerung mit automatisierter Kalibrierung |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102013206569A1 DE102013206569A1 (de) | 2014-10-16 |
DE102013206569B4 true DE102013206569B4 (de) | 2020-08-06 |
Family
ID=49998260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013206569.8A Active DE102013206569B4 (de) | 2013-04-12 | 2013-04-12 | Gestensteuerung mit automatisierter Kalibrierung |
Country Status (4)
Country | Link |
---|---|
US (1) | US9880670B2 (de) |
CN (1) | CN105103086B (de) |
DE (1) | DE102013206569B4 (de) |
WO (1) | WO2014166645A1 (de) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000016121A1 (en) | 1998-09-11 | 2000-03-23 | Qualisys Ab | System relating to positioning in a virtual studio |
WO2004057450A1 (en) | 2002-12-23 | 2004-07-08 | Universita' Degli Studi Di Firenze | Hand pointing apparatus |
US20040176925A1 (en) | 2003-01-10 | 2004-09-09 | Canon Kabushiki Kaisha | Position/orientation measurement method, and position/orientation measurement apparatus |
EP1739622A2 (de) | 2005-06-28 | 2007-01-03 | Cannon Kabushiki Kaisha | Erkennung eines Bildmerkmals mit Hilfe zweier Kameras |
US20080069405A1 (en) | 2006-09-14 | 2008-03-20 | Canon Kabushiki Kaisha | Position and orientation measurement method and apparatus |
US20100013764A1 (en) | 2008-07-18 | 2010-01-21 | Wei Gu | Devices for Controlling Computers and Devices |
US7834847B2 (en) | 2005-12-01 | 2010-11-16 | Navisense | Method and system for activating a touchless control |
US20110029913A1 (en) | 2005-11-12 | 2011-02-03 | Marc Boillot | Navigation System and User Interface For Directing a Control Action |
US20110090147A1 (en) | 2009-10-20 | 2011-04-21 | Qualstar Corporation | Touchless pointing device |
WO2011085815A1 (en) | 2010-01-14 | 2011-07-21 | Brainlab Ag | Controlling a surgical navigation system |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6750848B1 (en) * | 1998-11-09 | 2004-06-15 | Timothy R. Pryor | More useful man machine interfaces and applications |
US7369685B2 (en) * | 2002-04-05 | 2008-05-06 | Identix Corporation | Vision-based operating method and system |
AU2003301043A1 (en) * | 2002-12-13 | 2004-07-09 | Reactrix Systems | Interactive directed light/sound system |
US20110033650A1 (en) | 2007-06-29 | 2011-02-10 | Dic Corporation | Ultraviolet-curable composition for light-transmission layer and optical disk |
DE102007033486B4 (de) * | 2007-07-18 | 2010-06-17 | Metaio Gmbh | Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild |
JP5568929B2 (ja) * | 2009-09-15 | 2014-08-13 | ソニー株式会社 | 表示装置および制御方法 |
CN103218055B (zh) | 2010-02-05 | 2017-03-01 | 索尼电脑娱乐公司 | 用于利用位置、方向或动作与计算程序相接口的控制器 |
CN102446048B (zh) | 2010-09-30 | 2014-04-02 | 联想(北京)有限公司 | 信息处理设备以及信息处理方法 |
CA2831618A1 (en) * | 2011-03-28 | 2012-10-04 | Gestsure Technologies Inc. | Gesture operated control for medical information systems |
CN102156859B (zh) | 2011-04-21 | 2012-10-03 | 刘津甦 | 手部姿态与空间位置的感知方法 |
US8612641B1 (en) * | 2011-05-31 | 2013-12-17 | Amazon Technologies, Inc. | Portable computing device as control mechanism |
US8803800B2 (en) * | 2011-12-02 | 2014-08-12 | Microsoft Corporation | User interface control based on head orientation |
US9223404B1 (en) * | 2012-01-27 | 2015-12-29 | Amazon Technologies, Inc. | Separating foreground and background objects in captured images |
US9240075B2 (en) * | 2013-03-15 | 2016-01-19 | Daqri, Llc | Campaign optimization for experience content dataset |
DE102013208762A1 (de) * | 2013-05-13 | 2014-11-13 | Siemens Aktiengesellschaft | Intuitive Gestensteuerung |
US20170161903A1 (en) * | 2015-12-03 | 2017-06-08 | Calay Venture S.á r.l. | Method and apparatus for gesture recognition |
-
2013
- 2013-04-12 DE DE102013206569.8A patent/DE102013206569B4/de active Active
-
2014
- 2014-01-15 CN CN201480020630.3A patent/CN105103086B/zh active Active
- 2014-01-15 US US14/781,997 patent/US9880670B2/en active Active
- 2014-01-15 WO PCT/EP2014/050731 patent/WO2014166645A1/de active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000016121A1 (en) | 1998-09-11 | 2000-03-23 | Qualisys Ab | System relating to positioning in a virtual studio |
WO2004057450A1 (en) | 2002-12-23 | 2004-07-08 | Universita' Degli Studi Di Firenze | Hand pointing apparatus |
US20040176925A1 (en) | 2003-01-10 | 2004-09-09 | Canon Kabushiki Kaisha | Position/orientation measurement method, and position/orientation measurement apparatus |
EP1739622A2 (de) | 2005-06-28 | 2007-01-03 | Cannon Kabushiki Kaisha | Erkennung eines Bildmerkmals mit Hilfe zweier Kameras |
US20110029913A1 (en) | 2005-11-12 | 2011-02-03 | Marc Boillot | Navigation System and User Interface For Directing a Control Action |
US7834847B2 (en) | 2005-12-01 | 2010-11-16 | Navisense | Method and system for activating a touchless control |
US20080069405A1 (en) | 2006-09-14 | 2008-03-20 | Canon Kabushiki Kaisha | Position and orientation measurement method and apparatus |
US20100013764A1 (en) | 2008-07-18 | 2010-01-21 | Wei Gu | Devices for Controlling Computers and Devices |
US20110090147A1 (en) | 2009-10-20 | 2011-04-21 | Qualstar Corporation | Touchless pointing device |
WO2011085815A1 (en) | 2010-01-14 | 2011-07-21 | Brainlab Ag | Controlling a surgical navigation system |
Also Published As
Publication number | Publication date |
---|---|
WO2014166645A1 (de) | 2014-10-16 |
CN105103086A (zh) | 2015-11-25 |
DE102013206569A1 (de) | 2014-10-16 |
US9880670B2 (en) | 2018-01-30 |
CN105103086B (zh) | 2018-02-16 |
US20160041693A1 (en) | 2016-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3486915B1 (de) | Verfahren zur steuerung des betriebs einer medizintechnikeinrichtung, bediengerät, bediensystem und medizintechnikeinrichtung | |
DE102008034237B4 (de) | Positionierungssystem für die transkranielle Magnetstimulation | |
EP2449997B1 (de) | Medizinischer Arbeitsplatz | |
EP3229161B1 (de) | System mit einem mobilen steuerungsgerät und verfahren zum ausgeben eines steuersignals an eine komponente einer medizinischen bildgebungsvorrichtung | |
DE102013215516B4 (de) | Röntgengerät und Verfahren zum Steuern eines Röntgengeräts | |
WO2012107041A1 (de) | Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen | |
EP3443908B1 (de) | Verfahren zum betreiben eines röntgengeräts mit einem gelenkarm und röntgengerät mit einem gelenkarm | |
DE102012204018A1 (de) | Steuerungseinheit | |
WO2010022884A1 (de) | Medizinischer arbeitsplatz und bedienvorrichtung zum manuellen bewegen eines roboterarms eines medizinischen arbeitsplatzes | |
DE102013109677A1 (de) | Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs | |
DE102014212632A1 (de) | Verfahren zum Überwachen eines Betriebs eines Medizingeräts | |
EP3146454A1 (de) | Steuerungsvorrichtung für ein medizingerät | |
DE10200534A1 (de) | Verfahren zum kollisionsfreien Bewegen wenigstens zweier gegeneinander bewegbarer Gegenstände | |
EP2860614A1 (de) | Verfahren und Vorrichtung zur Handhabung grafisch dargestellter Daten | |
WO2015043784A1 (de) | Fernbedienung und verfahren zur steuerung eines gerätes mit zumindest einem bewegungsfreiheitsgrad | |
DE102009009549A1 (de) | Gerätepositionierung im Operationssaal | |
DE102015211965A1 (de) | Berührungslose Gerätesteuerung im medizinischen Sterilbereich | |
DE102007031475A1 (de) | Vorrichtung für die Aufnahme von Projektionsbildern | |
DE102013206569B4 (de) | Gestensteuerung mit automatisierter Kalibrierung | |
EP2898666B1 (de) | Client-einrichtung zur darstellung von kamerabildern einer steuerbaren kamera, verfahren, computerprogramm sowie überwachungssystem mit der client-einrichtung | |
DE102013208762A1 (de) | Intuitive Gestensteuerung | |
DE102007057493B4 (de) | Röntgenanlage mit verbesserter Planung eines Nadelpfades | |
DE102016217204A1 (de) | Verfahren zu einem Planen und/oder Steuern einer medizinischen Bildgebungsuntersuchung mittels eines mobilen Endgeräts | |
DE102016214391B4 (de) | Verfahren zum Steuern eines Betriebes eines Koordinatenmessgerätes und Koordinatenmessgerät mit Steuerung | |
EP3338961A1 (de) | Vorrichtung zum steuern eines roboters, insbesondere für die hochdruckreinigung mittels wasser |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHCARE GMBH, DE Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE |
|
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R081 | Change of applicant/patentee |
Owner name: SIEMENS HEALTHINEERS AG, DE Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE |