DE102007028645A1 - Arrangement for control of device units, has sensor unit for receiving gesture, positioning, movement, and form of object and recording is interpreted in evaluation unit and are transformed into control signals for controlling device unit - Google Patents

Arrangement for control of device units, has sensor unit for receiving gesture, positioning, movement, and form of object and recording is interpreted in evaluation unit and are transformed into control signals for controlling device unit Download PDF

Info

Publication number
DE102007028645A1
DE102007028645A1 DE102007028645A DE102007028645A DE102007028645A1 DE 102007028645 A1 DE102007028645 A1 DE 102007028645A1 DE 102007028645 A DE102007028645 A DE 102007028645A DE 102007028645 A DE102007028645 A DE 102007028645A DE 102007028645 A1 DE102007028645 A1 DE 102007028645A1
Authority
DE
Germany
Prior art keywords
unit
sensor unit
control
movement
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102007028645A
Other languages
German (de)
Inventor
Seyfi Ceyhan
Rainer Dr. Graumann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102007028645A priority Critical patent/DE102007028645A1/en
Publication of DE102007028645A1 publication Critical patent/DE102007028645A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The arrangement has a sensor unit (K) for recording a gesture, positioning, movement, and the form of an object (ST). The recording is interpreted in an evaluation unit (AS) and is transformed into control signals for controlling device units (GE). The sensor unit determines a distance between the sensor unit and the object. The evaluation unit causes a predetermined course of movement or adjustment of the device units due to a temporary defined sequence of positions of the object. An independent claim is also included for a method for the control of device units.

Description

Die Erfindung bezieht sich auf eine Anordnung bzw. ein Verfahren für eine Mensch-Maschine-Schnittstelle, insbesondere zur Steuerung und Einstellungen an Geräteeinheiten.The The invention relates to an arrangement or method for a man-machine interface, in particular for the control and settings on device units.

In einem Operationssaal sind eine Vielzahl von Gerätesystemen angeordnet, die permanent oder zeitweise für Eingriffe an Patienten benutzt werden. Eine Platzierung oder Ausrichtung eines Gerätesystems ist dabei abhängig von den jeweiligen in eine Behandlung eines Patienten einbezogenen Personen, verbunden mit der Kenntnis, wann und wie Geräte bei Patienten positioniert werden müssen. Eine Bedienung der Gerätesysteme erfolgt entweder direkt durch den behandelnden Arzt bzw. Therapeuten oder einem diesen zugeordneten Assistenten. Die Vielzahl der Gerätesysteme im Behandlungsbereich des Patienten erhöht das Risiko, dass ein steriles Umfeld kontaminiert wird.In an operating room, a plurality of device systems are arranged, the permanently or temporarily for Interventions on patients are used. A placement or alignment a device system depends on it from the respective ones involved in a patient's treatment Persons, associated with the knowledge of when and how devices in patients must be positioned. A Operation of the device systems either directly by the attending physician or therapist or a wizard associated with it. The variety of device systems In the treatment area of the patient increases the risk of being a sterile Contaminated environment.

Der Erfindung liegt die Aufgabe zugrunde, eine weitere Mensch-Maschine-Schnittstelle anzugeben.Of the Invention is based on the object, another man-machine interface specify.

Die Aufgabe wird durch die im Patentanspruch 1 oder 4 angegebenen Merkmale gelöst.The The object is achieved by the features specified in claim 1 or 4 solved.

Die Anordnung und das dazugehörige Verfahren zur Steuerung von Geräteeinheiten ist dabei derart ausgebildet, dass eine Sensoreinheit K beispielsweise einen Abstand und/oder Bewegung eines Objektes ST detektiert und/oder eine Folge von Bewegungen in einer nachgeordneten Auswerteeinheit auswertet und in Steuersignale zur Steuerung einer Einheit eines Gerätes GE umsetzt.The Arrangement and the associated Method for controlling device units is designed such that a sensor unit K, for example detects a distance and / or movement of an object ST and / or a sequence of movements in a downstream evaluation unit evaluates and converts into control signals for controlling a unit of a equipment GE implemented.

Mit der Sensoreinheit K wird beispielsweise eine Distanz zwischen Sensoreinheit K und dem Objekt ST nach dem Prinzip einer Echolaufzeitmessung ermittelt und, z. B. aufgrund einer zeitlich definierten Abfolge von Positionen und Ausgestaltungen des Objektes ST, vorbestimmbare Bewegungsabläufe oder Einstellungen von Geräteeinheiten ausgelöst.With For example, the sensor unit K becomes a distance between the sensor unit K and the object ST according to the principle of an echo time measurement determined and Z. Due to a timed sequence of positions and embodiments of the object ST, predeterminable motion sequences or Settings of device units triggered.

Die Erfindung bringt den Vorteil mit sich, dass aufgrund einer einfachen, eindeutigen Handbewegung oder Handposition eine gewünschte Gerätefunktion einstellbar oder eine Geräteposition herbeiführbar ist.The Invention has the advantage that due to a simple, clear hand movement or hand position a desired device function adjustable or a device position be brought about is.

Die Erfindung bringt den Vorteil mit sich, dass aufgrund einer kontaktlosen Bedienung oder Steuerung eines Gerätes eine Kontamination vermieden und deshalb ein steriler Umgang mit Geräten innerhalb eines sterilen Arbeitsbereiches ermöglicht wird.The Invention has the advantage that due to a contactless Operation or control of a device avoids contamination and therefore a sterile handling of equipment within a sterile Work area is made possible.

Vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.advantageous Embodiments of the invention are specified in the subclaims.

Die Erfindung soll im Folgenden mittels eines dargestellten Ausführungsbeispiels näher erläutert werden.The Invention will be described below by means of an illustrated embodiment be explained in more detail.

Es zeigen dabei:It show:

1 eine schematische Darstellung und 1 a schematic representation and

2 ein Ablaufdiagramm. 2 a flowchart.

In der 1 ist schematisch die Darstellung einer Mensch-Maschine-Schnittstelle wiedergegeben. In dieser Darstellung ist eine Sensoreinheit K, die auch als Bildaufnahmeeinheit bezeichnet werden kann, zur Aufnahme einer zu definierten Positionierung, Bewegung oder Form von beispielsweise einem Körperteil gezeigt. Des Weiteren ist eine Auswerteeinheit AS zur Detektierung von beispielsweise definierten Bewegungsabläufen und eine Schnittstelleneinheit SU zur Umsetzung und Anpassung von Steuersignalen sowie eine Steuereinheit SE zur Steuerung einer dieser nachgeordneten Geräteeinheit GE gezeigt. Die Geräteeinheit kann hier in einem sterilen Umfeld, z. B. einem Operationssaal, angeordnet sein. Eine Steuerung erfolgt unmittelbar durch Gestik des Benutzers der Geräteeinheit. In dieser Darstellung ist eine zu detektierende Bewegung, Positionierung oder Form eines Objektes ST, beispielsweise eine Hand, angedeutet. In diesem Ausführungsbeispiel wird die Bewegung, Positionierung oder Form der Hand durch die Sensoreinheit K erfasst. Unter Form der Hand kann neben einer individuellen Handgröße auch eine Hand mit unterschiedlich positionierten Fingern verstanden werden. Durch die Positionierung der Hand, beispielsweise der Handfläche, in unterschiedlichen Abständen zu der Sensoreinheit K kann ein Positionierungswunsch erfasst und durch eine der Sensoreinheit K nachgeordneten Auswerteeinheit AS ausgewertet werden. Als mögliche Steuerbefehle können Hand-, Kopf- oder Armbewegungen in einer Datenbank in Datensätzen hinterlegt werden. So kann durch eine Positionierung der Hand eine Drehung, eine Neigung oder eine Verringerung bzw. Vergrößerung eines Abstandes eines zu positionierenden Gerätes, zum Beispiel ein Bildschirm, herbeiführen. Zusätzlich kann mittels einer Abfolge einer Handbewegung oder eines flächigen Elementes ein Steuersignal für eine Geräteeinheit auslöst werden.In the 1 is schematically reproduced the representation of a man-machine interface. In this illustration, a sensor unit K, which can also be referred to as an image acquisition unit, for receiving a defined positioning, movement or shape of, for example, a body part is shown. Furthermore, an evaluation unit AS for detecting, for example, defined sequences of motion and an interface unit SU for the conversion and adaptation of control signals, as well as a control unit SE for controlling a subordinate unit GE, are shown. The device unit can here in a sterile environment, eg. As an operating room, be arranged. Control is effected directly by gestures of the user of the device unit. In this representation, a movement to be detected, positioning or shape of an object ST, for example a hand, is indicated. In this embodiment, the movement, positioning or shape of the hand is detected by the sensor unit K. Under the form of the hand can be understood in addition to an individual hand size and a hand with differently positioned fingers. By positioning the hand, for example the palm of the hand, at different distances from the sensor unit K, a positioning request can be detected and evaluated by an evaluation unit AS arranged downstream of the sensor unit K. As possible control commands, hand, head or arm movements can be stored in a database in data records. Thus, by positioning the hand, rotation, inclination or reduction of a distance of a device to be positioned, for example a screen, can be brought about. In addition, a control signal for a device unit can be triggered by means of a sequence of a hand movement or a planar element.

In der Sensoreinheit K ist beispielsweise ein Abstandsmesssystems, das auch als Photonen-Mischdetektor PMD bezeichnet werden kann, angeordnet. Dieser Photonen-Mischdetektor der auch als Photonic Mixer Device PMD bezeichnet werden kann, ist ein flächenhafter, räumlich auflösender optischer Abstandssensor, welcher den Abstand zu einem Objekt mit Hilfe der Laufzeit von z. B. Infrarotlicht misst. Gemessen wird dabei beispielsweise ein Phasenzustand einer von einer Lichtquelle ausgesendeten und beispielsweise mit Pseudorauschen intensitätsmodulierten Lichtwelle nach Durchlaufen einer Messstrecke. Mit Hilfe des Prinzips des Echolaufzeit-Messverfahrens wird beispielsweise die räumliche Position oder Auflösung einer Hand durch Ermittlung der Wegstrecke zwischen Sender und Messobjekt erfasst. Die Handposition, Handbewegung oder die Stellung einzelner Gliedmaßen einer Hand wird von der Bildaufnahmeeinheit K erfasst und mit z. B. bereits auf Datenbanken hinterlegten 3D Abbildungen einer Hand verglichen und bei Übereinstimmung werden vordefinierte Steuersignale an die zu steuernde Geräteeinheit abgegeben. Mittels dieser Steuersignale werden Steuereinheiten SE angesteuert und Geräteeinstellungen einer zu bedienenden Geräteeinheit GE vorgenommen. Durch Ansteuerung einer Steuereinheit SE kann beispielsweise eine Positionsänderung eines angesprochenen Objektes herbeigeführt werden. Dies bringt den Vorteil mit sich, dass mittels definierter Handbewegungen Geräteeinstellungen und Funktionalitäten von Geräteeinheiten wie zum Beispiel Scrollen, Objekt drehen oder andere definierte Funktionen oder Einstellungen ohne Kontakt mit Bedienoberflächen herbeiführbar sind.In the sensor unit K, for example, a distance measuring system, which can also be referred to as a photonic mixer detector PMD, arranged. This photonic mixer detector which can also be referred to as a photonic mixer device PMD, is a planar, spatially resolving optical distance sensor, which determines the distance to an object with the aid of the transit time of z. B. Infra Red light measures. In this case, for example, a phase state of a light wave emitted by a light source and, for example, intensity-modulated with pseudo noise is measured after passing through a measurement path. With the aid of the principle of the echo time measuring method, for example, the spatial position or resolution of a hand is detected by determining the distance between the transmitter and the measured object. The hand position, hand movement or the position of individual limbs of a hand is detected by the image pickup unit K and z. B. already stored on databases 3D images of a hand compared and if they match predefined control signals are delivered to the device unit to be controlled. By means of these control signals, control units SE are activated and device settings of a device unit GE to be operated are made. By controlling a control unit SE, for example, a change in position of a targeted object can be brought about. This has the advantage that device settings and functionalities of device units such as, for example, scrolling, rotating objects or other defined functions or settings without contact with user interfaces can be brought about by means of defined hand movements.

In 2 ist ein Ablaufdiagramm zur Steuerung von Objekten, wie beispielsweise medizinisch genutzte Geräteeinheiten in einem sterilen Umfeld, wiedergegeben. Mittels eines wie oben beschriebenen Sensors K wird, ausgehend von einer vordefinierten Gestik, ein 3D Bild mit Tiefenauflösung aufgenommen und daraus ein Steuersignal abgeleitet. Durch den detektierten Abstand oder der detektierten Bewegungsänderung bzw. den Bewegungsablauf können Steuersignale ausgelöst werden. Nach einer Anpassung der Steuersignale für die zu steuernde Geräteeinheit wird diese durch die Steuersignale in eine gewünschte Position gebracht.In 2 Fig. 3 is a flowchart for controlling objects such as medical equipment units in a sterile environment. By means of a sensor K as described above, starting from a predefined gesture, a 3D image is recorded with depth resolution and derived therefrom a control signal. Control signals can be triggered by the detected distance or the detected movement change or the movement sequence. After an adjustment of the control signals for the device unit to be controlled, this is brought by the control signals in a desired position.

GEGE
Geräteeinheitunit
SESE
Steuereinheitcontrol unit
ASAS
Auswerteeinheitevaluation
KK
Sensoreinheitsensor unit
SUSU
SchnittstelleneinheitInterface unit
STST
Objektobject
PMDPMD
Photonic Mixer DevicePhotonic Mixer Device

Claims (6)

Anordnung zur Steuerung von Geräteeinheiten (GE), dadurch gekennzeichnet, dass eine Sensoreinheit (K) zur Aufnahme einer Gestik, Positionierung, Bewegung, Form eines Objektes (ST) vorgesehen ist, wobei die Aufnahmen in einer Auswerteeinheit (AS) interpretiert und in Steuersignale zur Steuerung einer Geräteeinheit (GE) umgesetzt werden.Arrangement for the control of device units (GE), characterized in that a sensor unit (K) is provided for receiving a gesture, positioning, movement, shape of an object (ST), the recordings being interpreted in an evaluation unit (AS) and converted into control signals for Control of a device unit (GE) are implemented. Anordnung nach Anspruch 1, dadurch gekennzeichnet, dass die Sensoreinheit (K) eine Distanz zwischen Sensoreinheit (K) und dem Objekt (ST) ermittelt und eine Auswerteeinheit aufgrund einer zeitlich definierten Abfolge von Positionen des Objektes (ST) vorbestimmbare Bewegungsabläufe oder Einstellungen von Geräteeinheiten (GE) herbeiführt.Arrangement according to claim 1, characterized the sensor unit (K) has a distance between the sensor unit (K) and the object (ST) determined and an evaluation unit due a time-defined sequence of positions of the object (ST) predeterminable movement sequences or device unit settings (GE). Anordnung nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Sensoreinheit (K) als ein Photomischdetektor (PMD) ausgebildet ist.Arrangement according to one of the preceding claims, characterized in that the sensor unit (K) acts as a photonic mixer detector (PMD) is formed. Verfahren zur Steuerung von Geräteeinheiten (GE), dadurch gekennzeichnet, dass eine Gestik, Positionierung, Bewegung, Form eines Objektes (ST) aufgenommen und interpretiert wird und die erkannte Objektsprache in Steuersignale zur Steuerung einer Geräteeinheit (GE) umgesetzt werden.Method for controlling device units (GE), characterized in that that a gesture, positioning, movement, shape of an object (ST) is recorded and interpreted and the recognized object language be converted into control signals for controlling a device unit (GE). Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass eine Distanz zwischen Sensoreinheit (K) und dem Objekt (ST) ermittelt wird und aufgrund einer zeitlich definierten Abfolge von Positionen des Objektes (ST) Einstellungen von Geräteeinheiten vorgenommen werden.Method according to claim 4, characterized in that that a distance between the sensor unit (K) and the object (ST) is determined and due to a time-defined sequence of Positions of the object (ST) Settings made by device units become. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass eine Distanz zwischen Sensoreinheit (K) und dem Objekt (ST) nach dem Prinzip einer Echolaufzeitmessung ermittelt und aufgrund einer zeitlich definierten Abfolge von Positionen des Objektes (ST) vorbestimmbare Bewegungsabläufe oder Einstellungen von Geräteeinheiten (GE) ausgelöst werden.Method according to claim 4, characterized in that that a distance between the sensor unit (K) and the object (ST) determined on the principle of echo delay measurement and due a time-defined sequence of positions of the object (ST) predeterminable movement sequences or device unit settings (GE) are triggered.
DE102007028645A 2007-06-21 2007-06-21 Arrangement for control of device units, has sensor unit for receiving gesture, positioning, movement, and form of object and recording is interpreted in evaluation unit and are transformed into control signals for controlling device unit Ceased DE102007028645A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007028645A DE102007028645A1 (en) 2007-06-21 2007-06-21 Arrangement for control of device units, has sensor unit for receiving gesture, positioning, movement, and form of object and recording is interpreted in evaluation unit and are transformed into control signals for controlling device unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007028645A DE102007028645A1 (en) 2007-06-21 2007-06-21 Arrangement for control of device units, has sensor unit for receiving gesture, positioning, movement, and form of object and recording is interpreted in evaluation unit and are transformed into control signals for controlling device unit

Publications (1)

Publication Number Publication Date
DE102007028645A1 true DE102007028645A1 (en) 2009-01-02

Family

ID=40075814

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007028645A Ceased DE102007028645A1 (en) 2007-06-21 2007-06-21 Arrangement for control of device units, has sensor unit for receiving gesture, positioning, movement, and form of object and recording is interpreted in evaluation unit and are transformed into control signals for controlling device unit

Country Status (1)

Country Link
DE (1) DE102007028645A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011017305A1 (en) * 2011-04-15 2012-10-18 Abb Technology Ag Operating and monitoring system for technical installations
DE102011089195A1 (en) 2011-06-30 2013-01-03 Johnson Controls Gmbh Apparatus and method for the contactless detection of objects and / or persons and of gestures and / or operating processes carried out by them
US9275277B2 (en) 2013-02-22 2016-03-01 Kaiser Foundation Hospitals Using a combination of 2D and 3D image data to determine hand features information
WO2016079217A1 (en) * 2014-11-19 2016-05-26 Bayerische Motoren Werke Aktiengesellschaft Camera in a vehicle

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10242890A1 (en) * 2002-09-16 2004-03-25 Technische Universität München Body motion detection device for recording motion in bodily parts controls technical equipment while referring a sequence of attributes to a comparison device to recognize the extent of the motion

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10242890A1 (en) * 2002-09-16 2004-03-25 Technische Universität München Body motion detection device for recording motion in bodily parts controls technical equipment while referring a sequence of attributes to a comparison device to recognize the extent of the motion

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011017305A1 (en) * 2011-04-15 2012-10-18 Abb Technology Ag Operating and monitoring system for technical installations
DE102011089195A1 (en) 2011-06-30 2013-01-03 Johnson Controls Gmbh Apparatus and method for the contactless detection of objects and / or persons and of gestures and / or operating processes carried out by them
WO2013001084A1 (en) 2011-06-30 2013-01-03 Johnson Controls Gmbh Apparatus and method for contactlessly detecting objects and/or persons and gestures and/or operating procedures made and/or carried out thereby
US9275277B2 (en) 2013-02-22 2016-03-01 Kaiser Foundation Hospitals Using a combination of 2D and 3D image data to determine hand features information
WO2016079217A1 (en) * 2014-11-19 2016-05-26 Bayerische Motoren Werke Aktiengesellschaft Camera in a vehicle

Similar Documents

Publication Publication Date Title
EP1872735B1 (en) Method for automatic identification of instruments during medical navigation
CN109640860B (en) Motion execution for robotic systems
CN103169458B (en) Biological information collection, intelligent analysis and monitoring and biological information recurrence system
EP1190679B1 (en) Therapeutic and/or diagnostic medical apparatus with a position detection device
DE102014226240A1 (en) System for robot-assisted medical treatment
DE102015104810A1 (en) Method and device for controlling a surgical mechatronic assistance system by means of a holding arm for medical purposes
EP1952779A1 (en) Method and system for Identification of medical instruments
DE102007028645A1 (en) Arrangement for control of device units, has sensor unit for receiving gesture, positioning, movement, and form of object and recording is interpreted in evaluation unit and are transformed into control signals for controlling device unit
DE102016224774B3 (en) Method for programming a measuring robot and programming system
DE102018205496A1 (en) Method for controlling the operation of a medical device, operating device, operating system, medical device, computer program and electronically readable data carrier
CN1660019B (en) Remote control device for a medical probe by hand inserting body
AT515976A1 (en) Device for detecting tremors
DE102018125592A1 (en) Control arrangement, method for controlling a movement of a robot arm and treatment device with control arrangement
DE10200534A1 (en) Method for collision free movement of two objects that form part of a medical system towards each other, involves creating 3D simulation of the objects and then simulating planned movement prior to actual implementation
DE102006011787A1 (en) Jaw`s e.g. upper jaw, three-dimensional movement measuring device, has photosensitive sensor detecting contact area points on convex-curved and curved two-way measuring surfaces, provided on retainer and two-way retainer, respectively
DE102012209769C5 (en) Method for operating a robot and device with a robot
DE102015210638A1 (en) Method and device for determining a voluntary movement of a limb
DE102016217204A1 (en) A method for scheduling and / or controlling a medical imaging examination by means of a mobile terminal
DE102020205546A1 (en) Monitoring procedure and medical system
DE102004061764A1 (en) System for measurement of spatial positions and orientations has position measuring device combined with inertial sensor unit to a hybrid position measuring system
EP3499461B1 (en) Representation of markers in medical imaging
DE102014208215B3 (en) Control system for an X-ray device and method for controlling an X-ray device
DE102008003680A1 (en) Digital image processing system for safety-related application, has image recording with camera provided with oscillation causing artificial camera shake, where dynamic signal processing of images is made under consideration of oscillation
DE102006045100B4 (en) Navigation device for a medical instrument
EP2494928B1 (en) Operating device for a technical device, in particular a medical device

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection