AT520385A1 - Vorrichtung mit einer Erfassungseinheit für die Position und Lage einer ersten Gliedmasse eines Benutzers - Google Patents

Vorrichtung mit einer Erfassungseinheit für die Position und Lage einer ersten Gliedmasse eines Benutzers Download PDF

Info

Publication number
AT520385A1
AT520385A1 AT600472017A AT600472017A AT520385A1 AT 520385 A1 AT520385 A1 AT 520385A1 AT 600472017 A AT600472017 A AT 600472017A AT 600472017 A AT600472017 A AT 600472017A AT 520385 A1 AT520385 A1 AT 520385A1
Authority
AT
Austria
Prior art keywords
limb
virtual
generator
detection unit
reference plane
Prior art date
Application number
AT600472017A
Other languages
English (en)
Other versions
AT520385B1 (de
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed filed Critical
Priority to AT600472017A priority Critical patent/AT520385B1/de
Priority to US16/619,384 priority patent/US20200146618A1/en
Priority to PCT/AT2018/050011 priority patent/WO2018223163A1/de
Priority to EP18729547.2A priority patent/EP3634229A1/de
Publication of AT520385A1 publication Critical patent/AT520385A1/de
Application granted granted Critical
Publication of AT520385B1 publication Critical patent/AT520385B1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/54Artificial arms or hands or parts thereof
    • A61F2/58Elbows; Wrists ; Other joints; Hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • A61F2/72Bioelectric control, e.g. myoelectric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2002/5058Prostheses not implantable in the body having means for restoring the perception of senses
    • A61F2002/5064Prostheses not implantable in the body having means for restoring the perception of senses for reducing pain from phantom limbs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • A61M2021/005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards
    • A61M2205/507Head Mounted Displays [HMD]

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Neurosurgery (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Transplantation (AREA)
  • Business, Economics & Management (AREA)
  • Dentistry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • Vascular Medicine (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Educational Administration (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Educational Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird eine Vorrichtung mit einer Erfassungseinheit (1) für die Position und Lage einer ersten Gliedmaße eines Benutzers (3) und mit einer Anzeigevorrichtung (4) zur Darstellung einer zweiten Gliedmaße (5) beschrieben. Um eine Vorrichtung der eingangs beschriebenen Art so auszugestalten, dass der Bewegungsraum für die beiden Gliedmaßen des Benutzers erweitert wird und gleichzeitig eine Interaktion zwischen den beiden Gliedmaßen aber auch zwischen einer der Gliedmaßen und einem virtuellen dreidimensionalen Objekt ermöglicht wird, wird vorgeschlagen, dass die Anzeigevorrichtung stereoskopisch ausgebildet ist und mit der Erfassungseinheit eine gemeinsame Bezugsebene als Bezugssystem aufweist, dass zur Anzeige über die stereoskopische Anzeigevorrichtung ein erster Generator für eine hinsichtlich Position und Lage der ersten Gliedmaße um die Bezugsebene gespiegelte virtuelle zweite Gliedmaße und ein zweiter Generator für ein dreidimensionales Interaktionsobjekt zur Anzeige an einer gegenüber der Bezugsebene vorgegebenen Position und Lage vorgesehen ist und dass die Vorrichtung eine Kollisionserkennungseinheit zur Ausgabe eines Signals bei Detektion einer Kollision zwischen der virtuellen zweiten Gliedmaße und dem virtuellen dreidimensionalen Interaktionsobjekt aufweist.

Description

Zusammenfassung
Es wird eine Vorrichtung mit einer Erfassungseinheit (1) für die Position und Lage einer ersten Gliedmaße eines Benutzers (3) und mit einer Anzeigevorrichtung (4) zur Darstellung einer zweiten Gliedmaße (5) beschrieben. Um eine Vorrichtung der eingangs beschriebenen Art so auszugestalten, dass der Bewegungsraum für die beiden Gliedmaßen des Benutzers erweitert wird und gleichzeitig eine Interaktion zwischen den beiden Gliedmaßen aber auch zwischen einer der Gliedmaßen und einem virtuellen dreidimensionalen Objekt ermöglicht wird, wird vorgeschlagen, dass die Anzeigevorrichtung stereoskopisch ausgebildet ist und mit der Erfassungseinheit eine gemeinsame Bezugsebene als Bezugssystem aufweist, dass zur Anzeige über die stereoskopische Anzeigevorrichtung ein erster Generator für eine hinsichtlich Position und Lage der ersten Gliedmaße um die Bezugsebene gespiegelte virtuelle zweite Gliedmaße und ein zweiter Generator für ein dreidimensionales Interaktionsobjekt zur Anzeige an einer gegenüber der Bezugsebene vorgegebenen Position und Lage vorgesehen ist und dass die Vorrichtung eine Kollisionserkennungseinheit zur Ausgabe eines Signals bei Detektion einer Kollision zwischen der virtuellen zweiten Gliedmaße und dem virtuellen dreidimensionalen Interaktionsobjekt aufweist.
(Fig. 1) / 14 (41505) E1/IV
Es wird eine Vorrichtung mit einer Erfassungseinheit für die Position und Lage einer ersten Gliedmaße eines Benutzers und mit einer Anzeigevorrichtung zur Darstellung einerzweiten Gliedmaße beschrieben.
Zur Anwendung in der Spiegeltherapie sind Vorrichtungen bekannt (US 20150313793 A1), die eine erste Gliedmaße mithilfe einer Erfassungseinheit, in diesem Fall einer Kamera in ihrer Position und Lage erfassen und eine virtuelle zweite Gliedmaße, die durch Spiegelung des erfassten Bildes entsteht, auf einer Anzeigevorrichtung darstellen. Nachteilig ist daran allerdings, dass der mögliche Bewegungsraum stark eingeschränkt ist, weil sich die zweite Gliedmaße des Benutzers stets unterhalb der Anzeigevorrichtung bzw. die virtuelle zweite Gliedmaße stets innerhalb der Anzeigevorrichtung befinden muss, damit der Effekt der Spiegeltherapie erhalten bleibt. Insbesondere besteht bei dieser technischen Lösung nicht die Möglichkeit, mit beiden Gliedmaßen zu interagieren.
Der Erfindung liegt somit die Aufgabe zugrunde, eine Vorrichtung der eingangs beschriebenen Art so auszugestalten, dass der Bewegungsraum für die beiden Gliedmaßen des Benutzers erweitert wird und gleichzeitig eine Interaktion zwischen den beiden Gliedmaßen aber auch zwischen einer der Gliedmaßen und einem virtuellen dreidimensionalen Objekt ermöglicht wird.
Die Erfindung löst die gestellte Aufgabe dadurch, dass die Anzeigevorrichtung stereoskopisch ausgebildet ist und mit der Erfassungseinheit eine gemeinsame Bezugsebene als Bezugssystem aufweist, dass zur Anzeige über die stereoskopische Anzeigevorrichtung ein erster Generator für eine hinsichtlich Position und Lage der ersten Gliedmaße um die Bezugsebene gespiegelte virtuelle zweite Gliedmaße und
2/14 ein zweiter Generator für ein dreidimensionales Interaktionsobjekt zur Anzeige an einer gegenüber der Bezugsebene vorgegebenen Position und Lage vorgesehen ist und dass die Vorrichtung eine Kollisionserkennungseinheit zur Ausgabe eines Signals bei Detektion einer Kollision zwischen der virtuellen zweiten Gliedmaße und dem virtuellen dreidimensionalen Interaktionsobjekt aufweist. Zufolge dieser Maßnahmen ist der Benutzer in der Bewegung der ersten Gliedmaße weitgehend frei, solange sich diese im Erfassungsbereich der Erfassungseinheit befindet. Besonders vorteilhaft ist in diesem Zusammenhang, dass die Anzeigevorrichtung und die Erfassungseinheit eine gemeinsame Bezugsebene als Bezugssystem aufweisen, die vorzugsweise mit der Sagittalebene des Benutzers beziehungsweise genauer des Kopfes des Benutzers zusammenfällt. Dies kann beispielsweise dadurch erreicht werden, dass die stereoskopische Anzeigevorrichtung vom Benutzer in Form einer Brille getragen wird und damit die Mittelebene der stereoskopischen Anzeigevorrichtung mit der Sagittalebene des Benutzers und damit mit der gemeinsamen Bezugsebene zusammenfällt und dadurch, dass die Erfassungseinheit auf dieser Anzeigevorrichtung mittig in der Bezugsebene angeordnet ist. Selbstverständlich kann die Erfassungseinheit aber auch von dieser Bezugsebene abweichend angeordnet sein, sofern die relative Position der Erfassungseinheit zur Bezugsebene als Bezugssystem bekannt ist. Gleiches gilt grundsätzlich auch für die stereoskopische Anzeigevorrichtung, sodass auch stationäre stereoskopische Anzeigevorrichtungen denkbar sind, allerdings ergibt sich ein besonderer Vorteil dadurch, dass die stereoskopische Anzeigevorrichtung als Brille selbst mit ihrer Mittelebene im Wesentlichen mit der Sagittalebene des Benutzers zusammenfällt. Die stereoskopische Anzeigevorrichtung kann dabei so ausgestaltet sein, dass die erste Gliedmaße des Benutzers durch die Anzeigevorrichtung hindurch sichtbar bleibt, während die zweite Gliedmaße des Benutzers durch eine virtuelle zweite Gliedmaße überblendet wird, sodass aus Sicht des Benutzers die zweite Gliedmaße in der realen Welt nicht mehr sichtbar ist. Es kann aber auch sowohl die erste als auch die zweite Gliedmaße des Benutzers in einem gemeinsamen virtuellen Raum über die stereoskopische Anzeigevorrichtung dargestellt werden. Um insbesondere die Feinmotorik des Benutzers trainieren zu können, ist darüber hinaus ein zweiter Generator für ein dreidimensionales Interaktionsobjekt vorgesehen, das dem Benutzer über die stereoskopische
3/14
Anzeigevorrichtung an einer gegenüber der Bezugsebene vorgegebenen Position und Lage angezeigt wird. Um dem Benutzer eine Rückmeldung über die Interaktion mit dem dreidimensionalen Interaktionsobjekt geben zu können, ist zudem eine Kollisionserkennungseinheit zur Ausgabe eines Signals bei Detektion bei der Kollision zwischen der virtuellen zweiten Gliedmaße und dem virtuellen dreidimensionalen Interaktionsobjekt vorgesehen. Die Kollisionserkennungseinheit kann auch erweitert werden, um auch Kollisionen zwischen der ersten Gliedmaße und der zweiten Gliedmaße beziehungsweise der ersten Gliedmaße und dem virtuellen dreidimensionalen Interaktionsobjekt zu detektieren. Das von der Detektionseinheit ausgegebene Signal kann dem Benutzer direkt über die stereoskopische Anzeigevorrichtung optisch dargestellt werden, oder aber auch in ein auditives oder taktiles Signal für den Benutzer umgesetzt werden. Der Vollständigkeit sei hierbei darauf hingewiesen, dass unter einer Gliedmaße Gliedmaßensäule und/oder Gliedmaßenspitze verstanden wird, also Ober- bzw. Unterarm, Oberschenkel bzw. Unterschenkel und/oder Hand oder Fuß.
Bislang wurde davon ausgegangen, dass der Benutzer die zweite Gliedmaße nicht oder nur in äußerst geringem Umfang einsetzen kann. Sofern aber eine messbare Muskelaktivität vorhanden ist, können Sensoren zur Erfassung des Elektromyogramms von Muskelgruppen der zweiten Gliedmaße des Benutzers vorgesehen sein, die über eine Steuereinheit mit dem ersten Generator zur Änderung von Position und Lage der virtuellen zweiten Gliedmaße in Abhängigkeit der erfassten Aktionspotentiale verbunden sind. Die generierte, gespiegelte virtuelle zweite Gliedmaße kann dadurch ausgehend von dem gespiegelten Modell in Abhängigkeit des erfassten Elektromyogramms in ihrer Position und Lage verändert werden, sodass für den Benutzer der Eindruck entsteht, dass diese die virtuelle zweite Gliedmaße tatsächlich mit den von ihm angesteuerten Muskelgruppen im virtuellen Raum bewegt. Dies hat gegenüber den bekannten Vorrichtungen den Vorteil, dass die Spiegeltherapie um eine direkte Rückkoppelung für den Benutzer erweitert werden kann, sodass Vorübungen zur Ansteuerung beispielsweise einer Prothese oder dergleichen durchgeführt werden können. Darüber hinaus kann auch die Haltung der Gliedmaße selbst auf Basis der erfassten Aktionspotentiale verändert werden, und zwar insbe
4/14 sondere dann, wenn das Modell der virtuellen zweiten Gliedmaße als kinematisches Modell einzelner Gliedmaßenteile ausgebildet ist.
Um für den Benutzer einen möglichst realistischen Eindruck zu erzeugen, kann die Kollisionserkennungseinheit zur Änderung von Position und Lage der virtuellen zweiten Gliedmaße in Abhängigkeit der detektierten Kollisionen mit dem ersten Generator verbunden sein. Dies hat zur Folge, dass nicht nur das virtuelle dreidimensionale Interaktionsobjekt mit den beiden Gliedmaßen bewegt beziehungsweise verschoben werden kann, sondern auch die virtuelle zweite Gliedmaße durch eine gedachte Kraftausübung durch die erste Gliedmaße beziehungsweise das virtuelle Objekt verschoben wird, sofern nicht beispielsweise durch ein entsprechendes Aktionspotential wie oben beschrieben ein gedachter Gegendruck erzeugt wird.
Um für den Benutzer ein vollständiges virtuelles Interaktionserlebnis zu schaffen, wird vorgeschlagen, dass die Erfassungseinheit einen Tiefensensor umfasst, mit dem der erste Generator zur Erzeugung eines virtuellen Modells der zweiten Gliedmaße an einer um die Bezugsebene gespiegelten Position und Lage der ersten Gliedmaße als virtuelle zweite Gliedmaße verbunden ist. In diesem Fall sind für den Benutzer weder die erste noch die zweite Gliedmaße sichtbar, sondern lediglich virtuelle Modelle dieser ersten und zweiten Gliedmaße, die über die stereoskopische Anzeigevorrichtung in einem virtuellen Raum dargestellt werden. Dadurch, dass die erste Gliedmaße durch den Tiefensensor in diesem Fall vollständig in ihrer Raumlage bekannt ist, ergeben sich deutlich mehr Interaktionsmöglichkeiten. So kann beispielsweise in Kombination mit der Erfassung des Elektromyogramms von Muskelgruppen der zweiten Gliedmaße auch eine Interaktion für den Benutzer dargestellt werden, bei der beide Gliedmaßen sich in unterschiedlichen Tiefenentfernungen befinden, was bei einer bisher bekannten Spiegeltherapie unmöglich ist.
Damit eine aufwendige Menüführung vermieden werden kann, kann der erste Generator einen Interaktionselementspeicher aufweisen und mit einer Gestenerkennungseinheit zur Auswahl eines der Interaktionselemente aus dem Interaktionselementspeicher in Abhängigkeit der erkannten Geste verbunden sein. Durch diese
5/14
Maßnahmen kann dem Benutzer in Abhängigkeit der Haltung der ersten Gliedmaße ein dieser Geste, beispielsweise eines Zangengriffes, entsprechendes virtuelles dreidimensionales Interaktionselement angezeigt werden, dass beispielsweise für die Haltung der Gliedmaße für eine Interaktion am besten geeignet ist.
Gegenstand der Erfindung ist auch ein Verfahren zum Betrieb der erfindungsgemäßen Vorrichtung, wobei die Position und Lage einer ersten Gliedmaße eines Benutzers bezogen auf eine der Sagittalebene des Benutzers entsprechenden Bezugsebene erfasst und einem ersten Generator zugeführt wird, der eine hinsichtlich Position und Lage der ersten Gliedmaße um die Bezugsebene gespiegelte virtuelle zweite Gliedmaße zur Anzeige über eine stereoskopische Anzeigevorrichtung erzeugt, wobei ein zweiter Generator ein dreidimensionales Interaktionsobjekt an einer gegenüber der Bezugsebene vorgegebenen Position und Lage erzeugt und wobei eine Kollisionserkennungseinheit bei Detektion einer Kollisionen zwischen der virtuellen zweiten Gliedmaße und dem virtuellen dreidimensionalen Interaktionsobjekt ein Signals ausgibt.
In diesem Zusammenhang ergeben sich besonders vorteilhafte Bedienungseigenschaften, wenn der zweite Generator das dreidimensionale Interaktionselement nur dann erzeugt, wenn die erste und/oder zweite Gliedmaße eine vorgegebene Mindestentfernung zur Bezugsebene unterschreitet. Es ist auch möglich, das dreidimensionale Interaktionselement erst nach einer Kollision zwischen der ersten und zweiten Gliedmaße zu erzeugen.
Wie bereits oben erwähnt, kann eine Gestenerkennungseinheit vorgesehen sein, die mit der ersten oder zweiten Gliedmaße durchgeführte Geste erkennt und der zweite Generator ein dreidimensionales Interaktionselement aus einem Interaktionselementspeicher in Abhängigkeit der erkannten Geste zur Anzeige auswählt.
In der Zeichnung ist der Erfindungsgegenstand beispielsweise dargestellt. Es zeigen
Fig. 1 eine von einem Benutzer bediente erfindungsgemäße Vorrichtung in einer schematischen Draufsicht und
6/14
Fig. 2 eine schematische Ansicht der für den Benutzer dargestellten Anzeige in einer zweidimensionalen vereinfachten Darstellung.
Eine erfindungsgemäße Vorrichtung umfasst eine Erfassungseinheit 1 für die Position und Lage einer ersten Gliedmaße 2 eines Benutzers 3 und eine stereoskopische Anzeigevorrichtung 4 zur Darstellung einer virtuellen zweiten Gliedmaße 5. Die Erfassungseinheit 1 und die stereoskopische Anzeigevorrichtung 4 weisen eine gemeinsame Bezugsebene 6 als Bezugssystem auf. Die virtuelle zweite Gliedmaße 5 wird durch einen ersten Generator 7 erzeugt, der zu diesem Zweck mit der Erfassungseinheit 1 verbunden ist. Darüber hinaus ist ein zweiter Generator 8 für ein dreidimensionales Interaktionsobjekt 9 vorgesehen. Zur Detektion einer Kollision zwischen der virtuellen zweiten Gliedmaße 5 und dem virtuellen dreidimensionalen Interaktionsobjekt 9 ist eine Kollisionserkennungseinheit 10 vorgesehen, die bei Detektion einer Kollision ein Signal übereinen Lautsprecher 11 ausgibt. Zu diesem Zweck ist die Kollisionserkennungseinheit 10 sowohl mit dem ersten Generator 7 als auch mit dem zweiten Generator 8 verbunden. Für die stereoskopische Anzeigevorrichtung 4 ist eine Anzeigesteuereinheit 12 vorgesehen, die die Ausgangssignale des ersten Generators 7 und des zweiten Generators 8 verarbeitet und damit die stereoskopische Anzeigevorrichtung 4 ansteuert.
Um die virtuelle zweite Gliedmaße 5 in Abhängigkeit der Aktionspotentiale einzelner Muskelgruppen der realen zweiten Gliedmaße 13 in Position und Lage verändern zu können, umfasst die erfindungsgemäße Vorrichtung in einer bevorzugten Ausführungsform Sensoren 14 zur Erfassung des Elektromyogramms von Muskelgruppen der zweiten Gliedmaße 13, wobei die Sensoren 14 übereine Steuereinheit 15 mit dem ersten Generator 7 zur Änderung von Position und Lage der virtuellen zweiten Gliedmaße 5 in Abhängigkeit der über die Sensoren 14 erfassten Aktionspotentiale verbunden sind.
Auch die Kollisionserkennungseinheit 10 kann zur Änderung von Position und Lage der virtuellen zweiten Gliedmaße 5 in Abhängigkeit detektierter Kollisionen mit dem ersten Generator 7 verbunden sein.
7/14
Im dargestellten Ausführungsbeispiel umfasst die Erfassungseinheit 1 auch einen nicht näher dargestellten Tiefensensor, der ebenfalls mit dem ersten Generator 7 verbunden ist. Dieser erzeugt somit nicht nur ein virtuelles Modell der zweiten Gliedmaße 5, sondern auch ein virtuelles Modell der ersten Gliedmaße 16, sodass sich für den Benutzer in der stereoskopischen Ansicht ein vollständiger virtueller Raum mit einer ersten virtuellen Gliedmaße 16, einer zweiten virtuellen Gliedmaße 5 und einem virtuellen dreidimensionalen Interaktionselement 9 ergibt.
Um ein Interaktionselement aus einem nicht näher dargestellten Interaktionselementspeicher in Abhängigkeit einer Geste auswählen zu können, ist der erste Generator 7 mit einer Gestenerkennungseinheit 17 verbunden, die entweder über die Erfassungseinheit 1 oder bereits über die erzeugten Modelle der ersten oder zweiten Gliedmaße 5, 16 die von Benutzer mit der jeweiligen Gliedmaße durchgeführte Geste erkennt, worauf der erste Generator in Abhängigkeit der erkannten Geste ein entsprechendes virtuelles Interaktionselement 9 auswählt.
8/14
Patentanwälte
Dipl.-Ing. Helmut Hübscher
Dipl.-Ing. Gerd Hübscher
Dipl.-Ing. Karl Winfried Hellmich
Spittelwiese 4, 4020 Linz (41505) E1/IV

Claims (13)

Patentansprüche
1. Vorrichtung mit einer Erfassungseinheit (1) für die Position und Lage einer ersten Gliedmaße eines Benutzers (3) und mit einer Anzeigevorrichtung (4) zur Darstellung einer zweiten Gliedmaße (5), dadurch gekennzeichnet, dass die Anzeigevorrichtung (4) stereoskopisch ausgebildet ist und mit der Erfassungseinheit (1) eine gemeinsame Bezugsebene (6) als Bezugssystem aufweist, dass zur Anzeige über die stereoskopische Anzeigevorrichtung (4) ein erster Generator (7) für eine hinsichtlich Position und Lage der ersten Gliedmaße (2) um die Bezugsebene (6) gespiegelte virtuelle zweite Gliedmaße und ein zweiter Generator (8) für ein dreidimensionales Interaktionsobjekt zur Anzeige an einer gegenüber der Bezugsebene (6) vorgegebenen Position und Lage vorgesehen ist und dass die Vorrichtung eine Kollisionserkennungseinheit (10) zur Ausgabe eines Signals bei Detektion einer Kollision zwischen der virtuellen zweiten Gliedmaße und dem virtuellen dreidimensionalen Interaktionsobjekt aufweist.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass Sensoren zur Erfassung des Elektromyogramms von Muskelgruppen der zweiten Gliedmaße des Benutzers (3) vorgesehen sind, die über eine Steuereinheit mit dem ersten Generator (7) zur Änderung von Position und Lage der virtuellen zweiten Gliedmaße in Abhängigkeit der erfassten Aktionspotentiale verbunden sind.
3. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Kollisionserkennungseinheit (10) zur Änderung von Position und Lage der virtuellen zweiten Gliedmaße in Abhängigkeit der detektierten Kollisionen mit dem ersten Generator (7) verbunden ist.
4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Erfassungseinheit (1) einen Tiefensensor umfasst, mit dem der erste Generator (7) zur Erzeugung eines virtuellen Modells der zweiten Gliedmaße (5) an einer um die Bezugsebene (6) gespiegelten Position und Lage der ersten Gliedmaße (2) als virtuelle zweite Gliedmaße (5) verbunden ist.
5. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der erste Generator (7) einen Interaktionselementspeicher aufweist und mit einer Gestenerkennungseinheit (17) zur Auswahl eines der Interaktionselemente aus dem Interaktionselementspeicher in Abhängigkeit der erkannten Geste verbunden ist.
6. Verfahren zum Betrieb einer Vorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Position und Lage einer ersten Gliedmaße (2) eines Benutzers (3) bezogen auf eine der Sagittalebene des Benutzers (3) entsprechenden Bezugsebene (6) erfasst und einem ersten Generator (7) zugeführt wird, der eine hinsichtlich Position und Lage der ersten Gliedmaße (2) um die Bezugsebene (6) gespiegelte virtuelle zweite Gliedmaße (5) zur Anzeige über eine stereoskopische Anzeigevorrichtung (4) erzeugt, wobei ein zweiter Generator (8) ein dreidimensionales Interaktionsobjekt an einer gegenüber der Bezugsebene (6) vorgegebenen Position und Lage erzeugt und wobei eine Kollisionserkennungseinheit (10) bei Detektion einer Kollisionen zwischen der virtuellen zweiten Gliedmaße (5) und dem virtuellen dreidimensionalen Interaktionsobjekt ein Signals ausgibt.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass der zweite Generator (7, 8) das dreidimensionale Interaktionselement (9) nur dann erzeugt, wenn die erste und/oder zweite Gliedmaße (2, 5) eine vorgegebene Mindestentfernung zur Bezugsebene (6) unterschreitet.
8. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass eine Gestenerkennungseinheit (17) die mit der ersten oder zweiten Gliedmaße (2, 5) durchgeführte Geste erkennt und der zweite Generator (8) ein dreidimensionales
9/14
10/14
Interaktionselement (9) aus einem Interaktionselementspeicher in Abhängigkeit der erkannten Geste zur Anzeige auswählt.
11/14
FIG.1
12/14
13/14
FIG. 2
AT600472017A 2017-06-07 2017-06-07 Vorrichtung mit einer Erfassungseinheit für die Position und Lage einer ersten Gliedmasse eines Benutzers AT520385B1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
AT600472017A AT520385B1 (de) 2017-06-07 2017-06-07 Vorrichtung mit einer Erfassungseinheit für die Position und Lage einer ersten Gliedmasse eines Benutzers
US16/619,384 US20200146618A1 (en) 2017-06-07 2018-05-17 Device with a detection unit for the position and orientation of a first limb of a user
PCT/AT2018/050011 WO2018223163A1 (de) 2017-06-07 2018-05-17 VORRICHTUNG MIT EINER ERFASSUNGSEINHEIT FÜR DIE POSITION UND LAGE EINER ERSTEN GLIEDMAßE EINES BENUTZERS
EP18729547.2A EP3634229A1 (de) 2017-06-07 2018-05-17 VORRICHTUNG MIT EINER ERFASSUNGSEINHEIT FÜR DIE POSITION UND LAGE EINER ERSTEN GLIEDMAßE EINES BENUTZERS

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
AT600472017A AT520385B1 (de) 2017-06-07 2017-06-07 Vorrichtung mit einer Erfassungseinheit für die Position und Lage einer ersten Gliedmasse eines Benutzers

Publications (2)

Publication Number Publication Date
AT520385A1 true AT520385A1 (de) 2019-03-15
AT520385B1 AT520385B1 (de) 2020-11-15

Family

ID=62554911

Family Applications (1)

Application Number Title Priority Date Filing Date
AT600472017A AT520385B1 (de) 2017-06-07 2017-06-07 Vorrichtung mit einer Erfassungseinheit für die Position und Lage einer ersten Gliedmasse eines Benutzers

Country Status (4)

Country Link
US (1) US20200146618A1 (de)
EP (1) EP3634229A1 (de)
AT (1) AT520385B1 (de)
WO (1) WO2018223163A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB202006090D0 (en) * 2020-04-24 2020-06-10 Secr Defence Training Device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010006301A1 (de) * 2010-01-30 2011-04-21 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vorrichtung und Verfahren zur Reduzierung von Phantomschmerzen bei Amputierten
US20150054850A1 (en) * 2013-08-22 2015-02-26 Seiko Epson Corporation Rehabilitation device and assistive device for phantom limb pain treatment
WO2015034308A1 (ko) * 2013-09-09 2015-03-12 울산대학교 산학협력단 외형적 대칭인 신체 질환을 위한 통증 치료장치
US20150242998A1 (en) * 2014-02-26 2015-08-27 Seiko Epson Corporation Display system, health apparatus, and display control method
KR20160092836A (ko) * 2015-01-28 2016-08-05 울산대학교 산학협력단 가상현실을 이용한 외형적으로 대칭적이지 않은 질환을 위한 통증 치료 장치
US20160249008A1 (en) * 2015-02-24 2016-08-25 Seiko Epson Corporation Display apparatus, display method, and program
US20160263345A1 (en) * 2014-03-13 2016-09-15 Gary Stephen Shuster Treatment of Phantom Limb Syndrome and Other Sequelae of Physical Injury

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4025230B2 (ja) * 2003-03-31 2007-12-19 株式会社東芝 疼痛治療支援装置及び仮想空間に幻肢画像を動画的に表示する方法
WO2015094112A1 (en) * 2013-12-20 2015-06-25 Integrum Ab System and method for neuromuscular rehabilitation comprising predicting aggregated motions

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010006301A1 (de) * 2010-01-30 2011-04-21 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vorrichtung und Verfahren zur Reduzierung von Phantomschmerzen bei Amputierten
US20150054850A1 (en) * 2013-08-22 2015-02-26 Seiko Epson Corporation Rehabilitation device and assistive device for phantom limb pain treatment
WO2015034308A1 (ko) * 2013-09-09 2015-03-12 울산대학교 산학협력단 외형적 대칭인 신체 질환을 위한 통증 치료장치
US20150242998A1 (en) * 2014-02-26 2015-08-27 Seiko Epson Corporation Display system, health apparatus, and display control method
US20160263345A1 (en) * 2014-03-13 2016-09-15 Gary Stephen Shuster Treatment of Phantom Limb Syndrome and Other Sequelae of Physical Injury
KR20160092836A (ko) * 2015-01-28 2016-08-05 울산대학교 산학협력단 가상현실을 이용한 외형적으로 대칭적이지 않은 질환을 위한 통증 치료 장치
US20160249008A1 (en) * 2015-02-24 2016-08-25 Seiko Epson Corporation Display apparatus, display method, and program

Also Published As

Publication number Publication date
EP3634229A1 (de) 2020-04-15
WO2018223163A1 (de) 2018-12-13
AT520385B1 (de) 2020-11-15
US20200146618A1 (en) 2020-05-14

Similar Documents

Publication Publication Date Title
DE102016212236A1 (de) Interaktionssystem und -verfahren
DE102005022005A1 (de) Verfahren und Gerät zur Erleichterung der Bewegungskontrolle von Körperteilen
EP3394660B1 (de) Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system
AT520385B1 (de) Vorrichtung mit einer Erfassungseinheit für die Position und Lage einer ersten Gliedmasse eines Benutzers
WO2008058783A1 (de) Integrierter schaltkreis zur erkennung von bewegungen von personen
WO2004052691A1 (de) Verfahren und vorrichtung zur bestimmung der 3d-position von pkw-insassen
DE102015102459B4 (de) Verfahren und Vorrichtung zur Ansteuerung eines Simulators
EP2317910A1 (de) Verfahren zur visualisierung mehrkanaliger signale
EP1665023B1 (de) Verfahren und vorrichtung zur steuerung eines graphiksystems der virtuellen realität mittels interaktionen
DE102020100366A1 (de) Verfahren zur 3D-Bewegungsanalyse und Sofortfeedback für Trainingsübungen
EP3307159B1 (de) Verfahren sowie vorrichtung zur bestimmung einer gewollten bewegung einer gliedmasse
DE102016211209A1 (de) Steuerung eines Kraftfahrzeugs
AT525369B1 (de) Testumfeld für urbane Mensch-Maschine Interaktion
DE102008034200A1 (de) Verfahren und Vorrichtung zum Informieren eines Nutzers über die Lage einer Informationsquelle in Bezug auf die Nutzerposition
DE102016205849B4 (de) Virtual Reality-System und Verfahren zum Betreiben eines solchen
DE102016008348B3 (de) Kontrolle einer Trainingsbewegung
DE102015003881A1 (de) Verfahren zum Bereitstellen einer Simulation einer virtuellen Umgebung mit zumindest einem Teil eines Kraftfahrzeugs und Kraftfahrzeugsimulationsanordnung
DE102012103971A1 (de) Verfahren und Testeinrichtung zur Durchführung von Tests mit einer Prothese
EP3234733B1 (de) Verfahren zur steuerung eines fahrzeugsystems
DE102022111332A1 (de) Verfahren zum Einrichten einer orthopädietechnischen Vorrichtung
DE102020111179B3 (de) Verfahren zur Steuerung eines Roboters sowie System
DE4340941C2 (de) Bewegungsgeber zur simulierten Bewegung in einer virtuellen Umgebung
DE102020205898B3 (de) Trainingsgerät zum Trainieren eines Piloten eines Luftfahrzeugs
DE102010012132A1 (de) Verfahren und Vorrichtung zur Rückführung von Tastkräften und/oder -momenten bei einem Handamputierten
AT503007B1 (de) Verfahren und anordnung zum abbilden eines gegenstandes