WO2023214028A1 - Verfahren zum einrichten einer orthopädietechnischen vorrichtung - Google Patents

Verfahren zum einrichten einer orthopädietechnischen vorrichtung Download PDF

Info

Publication number
WO2023214028A1
WO2023214028A1 PCT/EP2023/061967 EP2023061967W WO2023214028A1 WO 2023214028 A1 WO2023214028 A1 WO 2023214028A1 EP 2023061967 W EP2023061967 W EP 2023061967W WO 2023214028 A1 WO2023214028 A1 WO 2023214028A1
Authority
WO
WIPO (PCT)
Prior art keywords
reality
movement
extension
user
displayed
Prior art date
Application number
PCT/EP2023/061967
Other languages
English (en)
French (fr)
Inventor
Andreas Bohland
Christian DAUR
Alexander GLIER
Dries GLORIEUX
Sven Zarling
Erik Albrecht-Laatsch
Mark SCHÖNEMEIER
Roland Auberger
Marcus Eder
Original Assignee
Ottobock Se & Co. Kgaa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ottobock Se & Co. Kgaa filed Critical Ottobock Se & Co. Kgaa
Publication of WO2023214028A1 publication Critical patent/WO2023214028A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/60Artificial legs or feet or parts thereof
    • A61F2/64Knee joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/5044Designing or manufacturing processes
    • A61F2/5046Designing or manufacturing processes for designing or making customized prostheses, e.g. using templates, finite-element analysis or CAD-CAM techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/60Artificial legs or feet or parts thereof
    • A61F2/66Feet; Ankle joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • A61F2002/704Operating or control means electrical computer-controlled, e.g. robotic control

Definitions

  • the invention relates to a method for the computer-based setup of an orthopedic device that is worn on the body of a patient equipped with it.
  • the invention also relates to a system for this purpose.
  • orthopedic technical devices are in particular orthoses, prostheses, exoskeletons and possibly also wheelchairs.
  • Orthoses are products that support, support, protect or restrict the freedom of movement of a part of the patient's body, such as a joint, in order to avoid overuse.
  • Prostheses do not replace parts of the patient's body that no longer exist.
  • exoskeletons are mechanical support structures that are intended to support, support or protect the patient's main musculoskeletal system.
  • a patient is understood to mean any user of the orthopedic device. It is therefore the carrier of the orthopedic device.
  • Each orthopedic device is placed on a part of the patient's body. It does not necessarily have to come into contact with the patient's skin. For example, orthoses and exoskeletons are often worn over clothing so that clothing, such as pants, is located between the orthopedic device and the patient's skin.
  • a knee orthosis for example, is attached to the patient's knee or leg.
  • a prosthesis always has an interface element connected to an amputation stump or other body part, which is attached to the respective body part.
  • a prosthetic leg uses a prosthetic socket that represents the interface between the prosthesis and the amputation stump. In this In this case, the amputation stump would be the patient's body part.
  • a liner is typically used between the skin surface of the patient's amputation stump and the prosthetic socket to reduce shear forces acting on the skin.
  • a prosthetic socket for an amputation stump is usually made of a rigid (hardly deformable) material, for example a fiber-reinforced plastic, and forms an important part of the interface between the amputation stump and the prosthesis, which is arranged on the prosthetic socket.
  • Corresponding prosthetic shafts have long been used, particularly for leg prostheses that are to be arranged on an amputation stump, for example a thigh stump.
  • Prosthetic sockets for leg amputees are exposed to particular stress in daily use.
  • the patient's entire weight rests on the prosthetic shaft and thus in particular on the amputation stump, which is arranged in the prosthetic shaft. It is therefore of utmost importance to adapt the prosthetic socket as optimally as possible to the individual circumstances and needs of the patient, in particular to the shape and geometry of the body part in question.
  • the patient is supported by a technically trained user, for example an orthopedic technician, both when setting up and setting up an orthopedic device.
  • an orthopedic technician can make the necessary adjustments so that the orthopedic device fits optimally and results in a gentle movement pattern.
  • Setting up an orthopedic device not only means setting the adjustable parameters of the device, but also the Selection and/or replacement of components as well as their arrangement on the patient's body and/or the alignment of various components to one another.
  • the aim of this procedure is to evaluate the care result and then modify it if necessary.
  • status and/or movement-related data of the orthopedic device are first recorded during a movement sequence.
  • the status and/or movement-related data of the orthopedic technology device can be detected using sensors or sensor systems that are arranged on the orthopedic technology device, are integrated in the orthopedic technology device and/or are provided outside the orthopedic technology device. These can be sensors that are included as standard in the orthopedic device and remain there during normal use by the patient.
  • the movement-related data is usually the information that results directly from the movement of the patient with the orthopedic device and can be determined as physical parameters using sensors. Such parameters can be, for example, determined joint angles, acting forces, torques, speeds and/or movement trajectories.
  • the status-related data are usually fixed settings that are set on the orthopedic device (usually unchanged even when moving or whose changes follow fixed rules).
  • Such status-related data can be, for example, damping settings of prostheses with a knee and/or ankle joint, whereby, for example, a damping curve over the gait cycle can be specified.
  • This status-related data preferably also contains information about the state of the prosthesis control, for example which of various modes such as climbing stairs, cycling or walking on level ground it is in, which part of the gait cycle has just been detected, whether the device is loaded and to what extent.
  • the damping level changes during the gait cycle, whereby a different course of damping over the gait cycle can be selected for different modes such as running or walking or ramp up, ramp down, which is also referred to as status-related data.
  • Sensors can be, for example, cameras and/or depth sensors that use image evaluation to determine corresponding status and/or movement-related data of the orthopedic device.
  • inertial sensors that record acceleration values in at least three spatial directions are also conceivable, allowing information about force vectors and directions of movement to be determined.
  • force sensors that are arranged within the orthopedic device or that are outside the device, for example a force measuring plate, are also conceivable.
  • sensors are also conceivable that are intended for detecting angles of bendable devices or that are intended for detecting other physical parameters.
  • These recorded status and/or movement-related data of the movement sequence are now transmitted to a reality extension device that is used by the user, for example an orthopedic technician or other specialist.
  • a reality extension device that is used by the user, for example an orthopedic technician or other specialist.
  • the previously recorded and transmitted status and/or movement-related data and/or information derived therefrom are now displayed as a reality extension in the reality perceived by the user by the reality extension device.
  • the user in particular the orthopedic technician, to be able to immediately have the necessary data and information of the orthopedic technical device displayed in the field of reality during the adjustment or construction of an orthopedic technical device, so that the user can see the corresponding Measures for adjusting the orthopedic device can be derived immediately.
  • the orthopedic technician is thus able to see the status and/or movement-related data of the orthopedic technology device recorded during the movement sequence while the patient is moving with the orthopedic technology device in question and thus immediately compare the data of the movement sequence with the reality perception of the To be able to correlate the sequence of movements.
  • the user can preferably also make changes to the setting parameters of the orthopedic device via the reality extension devices and directly implement the conclusions drawn.
  • acoustic input e.g. voice commands
  • at least some of the transmitted status and/or movement-related data and/or information derived therefrom are displayed as a reality extension during the movement process into the reality of the movement process perceived by the user by the reality extension device.
  • the orthopedic technician recognizes the recorded movement-related data as well as the status-related data in the form of settings of the orthopedic device while the patient is moving, without having to take his eyes off the patient's movement in order to record the information. Rather, the status and/or movement-related data are directly displayed in the observation of the movement and thus enable the best possible movement analysis of the orthopedic device.
  • This has the particular advantage that the orthopedic technician can interact with the patient as usual during the movement sequence and, for example, can give him instructions.
  • the movement sequence of the movement carried out by the relevant patient with the orthopedic device is recorded by means of a camera connected to the reality extension device and, depending on the recorded movement sequence, at least one spatially accurate representation position is determined with which the data and / or information correlate, whereby the transmitted status and/or movement-related data and/or the information derived therefrom are displayed as a reality extension in the reality perceived by the user at the determined position.
  • the relative orientation of the reality extension device is determined in relation to the movement sequence of the patient in question, in order to display the respective status- and / or movement-related data in reality to the user at the point to which the status- and / or movement-related data relates orthopedic technology device.
  • a movement sequence or a part thereof stored in a data memory and previously recorded is provided, wherein, by means of the reality extension device, the stored and previously recorded movement sequence or a part thereof is displayed as a reality extension in the reality perceived by the user.
  • the stored movement sequence can be a stored, optimal movement sequence or also a previously recorded movement sequence with the same patient, for example with different settings.
  • the data and/or information is displayed on a display device worn in front of the user's eyes in such a way that the data and/or information is displayed as a reality extension in the reality perceived by the user.
  • reality is captured directly by the user's visual sense organs and the necessary data and/or information is superimposed into this reality perceived by the visual sense organs using the reality expansion device, thus expanding the perceived reality.
  • This can be done, for example, using projection glasses, in which the data is projected or displayed onto a glass surface of glasses.
  • the movement sequence of the movement carried out by the patient in question with the orthopedic device is recorded by means of a camera connected to the reality extension device and played back in real time on a display of the reality extension device, with the data and / or information being incorporated into the one on the Display representation of the recorded movement sequence can be displayed as a reality extension into the reality perceived by the user.
  • reality is recorded by a camera and shown 1 to 1 on a display so that the user can use his visual senses to see it can perceive the reality shown on the display.
  • the expansion of reality through the additional data and/or information is now displayed in this representation, so that the originally recorded and represented reality is expanded through the data and information.
  • the status and/or movement-related data are recorded by a sensor source external to the orthopedic device, by a sensor source integrated in the orthopedic device and/or by a patient-related sensor source attached to the patient.
  • the movement sequence of the movement carried out by the relevant patient with the orthopedic device is recorded by means of a camera connected to the reality extension device and that movement-related data and/or data derived therefrom are obtained from the recorded movement sequence by means of an evaluation unit using image recognition carried out on the evaluation unit Information is determined, which is then displayed as an extension of reality.
  • the patient's movement sequence is recorded with the orthopedic device using a detection device and corresponding data and/or information is derived from it, so that the camera together with the detection device forms a type of sensor system.
  • the movement-related data obtained from the image recognition and/or information derived therefrom are then displayed in the user's captured reality as a reality extension using the reality extension device.
  • setting parameters of the orthopedic technology device are transmitted to the reality extension device as status-related data and/or information derived therefrom or are already stored there and are displayed as a reality extension in the reality perceived by the user.
  • targets are set in relation to status and/or movement-related data and/or information derived therefrom be provided in a database, with at least some of the targets being read from the database and displayed as a reality extension in the reality perceived by the user.
  • a target movement sequence is provided in a database, with at least part of the target movement sequence being read out from the database and displayed as a reality extension in the reality perceived by the user.
  • the target movement sequence is therefore a target movement sequence, with such a target movement sequence or a part of it being presented to the user in the perceived reality as an extension of reality, so that during a movement analysis the user can make a comparison between the target movement sequence shown and the actual one can carry out real movements.
  • deviations from the target movement sequence are determined with the help of an evaluation unit depending on the status and/or movement-related data and/or information derived therefrom and are displayed as a reality extension into which the reality perceived by the user is displayed.
  • Such deviations from the target movement sequence ie deviations of the actual values from the specified target values, can be visualized and integrated into the perceived reality as an extension of reality.
  • the evaluation unit is set up to compare the recorded status and/or movement-related data with the stored target movement sequence and thereby determine corresponding deviations.
  • the movement sequence of the movement carried out by the relevant patient with the orthopedic device is recorded by means of a camera connected to the reality extension device and that a virtual twin is created by means of an evaluation unit and stored in a data memory.
  • Such a virtual twin contains in particular the orthopedic device and the movement sequence of the patient carried out with it and enables the movement sequence of the orthopedic device and the patient to be displayed from different viewing directions in order to be able to carry out the best possible and all-encompassing movement analysis.
  • the virtual twin is displayed in the user's field of vision as an extension of reality.
  • a changed movement sequence of the virtual twin is calculated by means of a computing unit depending on a change in the setting values of the orthopedic technology device and/or through a simulation of external influences on the movement sequence, the changed movement sequence being an extension of reality in the user's field of vision is displayed.
  • a deviation between the recorded status and/or movement-related data of the orthopedic technology device and the information derived from the virtual twin is determined by means of the evaluation unit and is displayed in the user's field of vision as an extension of reality.
  • the evaluation unit uses an image recognition unit to recognize movement-related data of the orthopedic technology device from the recorded virtual twin and then compares this with sensor-supported recorded movement-related data of the orthopedic technology device. The result of this comparison, in particular a correspondingly recognized deviation, is then displayed in the user's reality as a reality extension, so that it can be determined that the corresponding sensors of the orthopedic technology device are still functioning correctly.
  • the object is also achieved according to the invention with the system for setting up the orthopedic technology device according to claim 17, the system for carrying out the method being set up as described above.
  • the system has a reality extension device, which can in particular be connected to a camera or comprise a camera.
  • an evaluation unit is provided, which can be controlled by a microprocessor or microcontroller, for example, and is set up accordingly to carry out the method described above.
  • Figure 1 shows a schematic representation of the device for carrying out the method
  • FIG. 1 representation of a prosthetic foot with additional information
  • Figure 6 schematic representation of a superimposed sequence of movements.
  • Figure 1 shows a highly simplified schematic representation of a reality expansion device 10, which in the exemplary embodiment of Figure 1 has a computing unit or evaluation unit 11 and a projection device 12.
  • the computing unit or evaluation unit 11 is designed in such a way that, depending on the application, corresponding programs can be executed, for example image recognition programs.
  • the computing unit 11 is in particular a microprocessor- or microcontroller-controlled computing unit.
  • the projection device 12 is shown in the form of glasses in the exemplary embodiment of FIG. 1, but can also take other technical forms, for example a mobile smartphone with a camera and display.
  • the projection device 12 has two glasses 13 in the form of glasses, which are held in front of the eyes of the user or orthopedic technician when the glasses are worn.
  • Corresponding data or information 20 can then be projected or displayed onto or into the glasses 13, in such a way that these data/information 20 displayed on the glasses 13 can be perceived in the field of view 100 as data/information 20 '.
  • a prosthesis 30 with a shaft, knee joint and prosthetic foot is located in the field of view 100.
  • Status and/or movement-related data are recorded from the prosthesis 30 and transmitted to the computing unit 11.
  • other, external sensors are provided which record corresponding movement-related data and send it to the computing unit 11 transferred.
  • Such sensors can, for example, be a force measuring plate on which the prosthesis 30 rolls.
  • various data/information 20, 20' can now be displayed in the field of view 100, which is recorded during the movement and made available by the sensors of the prosthesis itself or external sensors.
  • Such parameters can be, for example, the relative angle between the lower leg in space and knee angle, axial forces, ankle moment, IMU data (orientation and trajectories in space), knee moments and/or knee angle.
  • the orthopedic technician who uses the reality extension device 10 thus has visual contact during the movement of the prosthesis 30 on the one hand and at the same time visual contact with the recorded data/information 20 'within his field of vision of the 100.
  • various measured values are shown by the arrows, here for example ankle - and knee angles, ground reaction forces, lower leg angles and thigh angles.
  • Figure 2 shows schematically a representation as it could be perceived by the orthopedic technician when wearing the projection device 12 from Figure 1.
  • Shown is a mechatronic prosthetic foot 31, for which additional information is displayed, for example the ground inclination (both the real one and that determined by the foot), ankle moment, ankle angle and IMU data (trajectory and orientation in space) shown at the top left.
  • status information 2T of the prosthesis 30 (FIG. 1) is shown at the top right.
  • the setting value for the dorsiflexion damping D and plantar flexion damping P as well as the current mode are shown, which symbolically represents the “ramp down” mode.
  • Figure 3 shows a schematic representation of a gait cycle of a patient 200 with a prosthetic knee and prosthetic foot.
  • the force vector 22' is displayed and the position 23' of the lower leg in space is highlighted at selected times.
  • the information is displayed in a true location at the position of the patient 200 while the patient moves and carries out a corresponding movement sequence with his prosthesis. If necessary, this information can also remain stationary in the room, even if the patient 200 has already moved on or has stopped moving.
  • further information can also be displayed, such as the course of the knee angle over the entire gait cycle. Deviations from existing data can also be determined so that the user can evaluate the gait pattern.
  • FIG. 4 shows a patient 200 with a prosthesis 30 with a prosthetic foot and prosthetic knee.
  • the patient 200 moves forward and is stabilized by 2 support rods.
  • the appearance points 24' can be recorded as movement-related data and displayed in the orthopedic technician's field of vision, precisely at the location where the appearance points 24' actually lie. From this, for example, the stride length can be calculated in real time and also displayed, as well as the maximum knee bend angle achieved at the top left.
  • entry into a special mode of the prosthesis 30, for example tripping detection can also be visualized at a later point in time.
  • the data can come from the prosthesis itself, be determined by the reality extension device itself (for example the step length) or come from external sensors.
  • Figure 5 shows an exemplary embodiment in which the patient 200 runs up a ramp 300 in the orthopedic technician's field of vision.
  • the prosthesis 30 incorrectly recognizes a staircase and switches to the corresponding staircase mode, which is transmitted to the reality extension device as status-related data of the prosthesis 30.
  • This displays the stair mode in the form of a virtual staircase 310, whereby the orthopedic technician immediately recognizes that the prosthesis 30 is in the wrong mode. This makes troubleshooting easier.
  • Figure 6 shows an example in which a movement sequence of a patient 200 is superimposed. A further additional movement sequence 200' is displayed in the orthopedic technician's field of vision, which, for example, was previously recorded as a virtual twin or artificially generated from corresponding data.
  • the reality extension device can be supported by an additional camera 14 as an external sensor.
  • the extension of reality through a tablet 15 is also shown.
  • the camera of the tablet 15 is aimed at the patient 200 and records his movements.
  • the movement of the patient 200 recorded by the camera of the tablet 15 is then immediately shown on the display and expanded with the corresponding information.

Landscapes

  • Health & Medical Sciences (AREA)
  • Transplantation (AREA)
  • Engineering & Computer Science (AREA)
  • Vascular Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Cardiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manufacturing & Machinery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum computer-basierten Einrichten einer orthopädietechnischen Vorrichtung, die am Körper eines damit ausgerüsteten Patienten getragen wird, wobei das Verfahren die folgenden Schritte umfasst: - Erfassen von status- und/oder bewegungsbezogenen Daten der orthopädietechnischen Vorrichtung während eines Bewegungsablaufes, bei dem der betreffende Patient eine Bewegung mit der orthopädietechnischen Vorrichtung ausführt, - Übertragen der erfassten status- und/oder bewegungsbezogenen Daten des Bewegungsablaufes an eine Realitätserweiterungseinrichtung, die von einem Nutzer verwendet wird, und - Einblenden zumindest eines Teils der übertragenen status- und/oder bewegungsbezogenen Daten und/oder davon abgeleiteten Informationen als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität durch die Realitätserweiterungseinrichtung.

Description

Verfahren zum Einrichten einer orthopädietechnischen Vorrichtung
Die Erfindung betrifft ein Verfahren zum computer-basierten Einrichten einer orthopädietechnischen Vorrichtung, die am Körper eines damit ausgerüsteten Patienten getragen wird. Die Erfindung betrifft ebenso ein System hierzu.
Orthopädietechnische Vorrichtungen sind im Sinne der vorliegenden Erfindung insbesondere Orthesen, Prothesen, Exoskelette und ggf. auch Rollstühle. Orthesen sind Produkte, die ein Körperteil des Patienten, beispielsweise ein Gelenk, stützen, unterstützen, schützen oder in der Bewegungsfreiheit einschränken, um eine Überbeanspruchung zu vermeiden. Prothesen hingegen ersetzen nicht oder nicht mehr vorhandene Körperteile des Patienten. Exoskelette sind insbesondere mechanische Stützstrukturen, die den Hauptbewegungsapparat des Patienten stützen, unterstützen oder schützen sollen.
Unter einem Patienten wird im Folgenden jeder Verwender der orthopädietechnischen Vorrichtung verstanden. Es handelt sich folglich um den Träger der orthopädietechnischen Vorrichtung.
Jede orthopädietechnische Vorrichtung wird an einem Körperteil des Patienten angeordnet. Dabei muss es nicht zwangsläufig mit der Haut des Patienten in Kontakt kommen. Orthesen und Exoskelette werden beispielsweise häufig über der Kleidung getragen, sodass diese, beispielsweise eine Hose, sich zwischen der orthopädietechnischen Vorrichtung und der Haut des Patienten befindet. Dennoch wird beispielsweise eine Knie-Orthese am Knie oder am Bein des Patienten befestigt. Eine Prothese verfügt immer über ein mit einem Amputationsstumpf oder einem anderen Körperteil verbundenes Schnittstellenelement, das an dem jeweiligen Körperteil befestigt wird. Bei einer Beinprothese wird beispielsweise ein Prothesenschaft verwendet, der die Schnittstelle zwischen der Prothese und dem Amputationsstumpf darstellt. In diesem Fall wäre der Amputationsstumpf der Körperteil des Patienten. Zwischen der Hautoberfläche des Amputationsstumpfes des Patienten und dem Prothesenschaft wird in der Regel ein Liner verwendet, um auf die Haut wirkende Scherkräfte zu reduzieren.
Ein Prothesenschaft für einen Amputationsstumpf wird in der Regel aus einem starren (kaum verformbaren) Material, beispielsweise einem faserverstärkten Kunststoff, hergestellt und bildet einen wichtigen Teil des Interfaces zwischen dem Amputationsstumpf und der Prothese, die am Prothesenschaft angeordnet wird. Insbesondere für Beinprothesen, die an einem Amputationsstumpf, beispielsweise einem Oberschenkelstumpf, angeordnet werden sollen, werden entsprechende Prothesenschäfte seit langem verwendet.
Insbesondere Prothesenschäfte für Beinamputierte sind im täglichen Gebrauch besonderen Belastungen ausgesetzt. Beim Gehen lastet das gesamte Gewicht des Patienten auf dem Prothesenschaft und damit insbesondere auf dem Amputationsstumpf, der in dem Prothesenschaft angeordnet wird. Es ist daher von größter Wichtigkeit, den Prothesenschaft möglichst optimal an die individuellen Gegebenheiten und Bedürfnisse des Patienten anzupassen, insbesondere an die Form und Geometrie des betreffenden Körperteils.
Sowohl beim Aufbau als auch bei der Einrichtung einer orthopädietechnischen Vorrichtung wird der Patient von einem technisch geschulten Nutzer unterstützt, beispielsweise einem Orthopädietechniker. Mit seinem Wissen und seiner Erfahrung kann der Orthopädietechniker die notwendigen Einstellungen vornehmen, damit die orthopädietechnische Vorrichtung optimal passt und ein schonendes Bewegungsbild ergibt.
Aus der EP 2 153 370 B1 ist ein System zum Ausrichten von Prothesen bekannt, bei dem sowohl Bewegungsdaten der mit der Prothese ausgerüsteten Person als auch Prothesenausrichtungsfehler aus einer Bewegungsdatenbank ermittelt werden. Diese werden miteinander verglichen um festzustellen, ob die Prothese einem Soll-Wert entspricht oder weiter eingestellt werden muss.
Aus der DE 10 2012 009 507 A1 ist ein Verfahren und eine Vorrichtung zur Bestimmung von Fehlstellungen im Aufbau von Prothesen der unteren Extremitäten bekannt, wobei Intertialmessdaten über zumindest einen Gangzyklus ermittelt und mit Sollwerten verglichen wird.
Aus der DE 10 2018 128 514 B4 ist ein Verfahren zum Durchführen eines statischen Prothesenaufbaus einer Prothese bekannt, wobei mehrere Komponenten aneinander angeordnet werden. Dabei werden eine Ist-Position und eine Ist-Orientierung der aneinander angeordneten Komponenten relativ zueinander anhand erfasster Positionen und Orientierungen von Markierungen ermittelt und mit entsprechenden Sollwerten verglichen.
Vor diesem Hintergrund ist es Aufgabe der vorliegenden Erfindung ein verbessertes Verfahren zum Einrichten einer orthopädietechnischen Vorrichtung vorzuschlagen.
Die Aufgabe wird mit dem Verfahren gemäß Anspruch 1 erfindungsgemäß gelöst. Vorteilhafte Ausgestaltungen der Erfindung finden sich in den entsprechenden Unteransprüchen.
Gemäß Anspruch 1 wird ein Verfahren zum computer-basierten Einrichten einer orthopädietechnischen Vorrichtung, die am Körper eines damit ausgerüsteten Patienten getragen wird, vorgeschlagen, wobei das Verfahren die folgenden Schritte umfasst:
- Erfassen von status- und/oder bewegungsbezogenen Daten der orthopädietechnischen Vorrichtung während eines Bewegungsablaufes, bei dem der betreffende Patienten eine Bewegung mit der orthopädietechnischen Vorrichtung ausführt,
- Übertragen der erfassten status- und/oder bewegungsbezogenen Daten des Bewegungsablaufes an eine Realitätserweiterungseinrichtung, die von einem Nutzer verwendet wird, und
- Einblenden zumindest eines Teils der übertragenen status- und/oder bewegungsbezogenen Daten und/oder davon abgeleiteten Informationen als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität durch die Realitätserweiterungseinrichtung.
Unter dem Einrichten einer orthopädietechnischen Vorrichtung wird dabei nicht nur das Einstellen der einstellbaren Parameter der Vorrichtung verstanden, sondern auch die Auswahl und/oder der Austausch von Komponenten sowie deren Anordnung am Körper des Patienten und/oder die Ausrichtung verschiedener Komponenten zueinander. Mithilfe des vorliegenden Verfahrens soll dabei das Versorgungsergebnis bewertet und dann bei Bedarf modifiziert werden.
Erfindungsgemäß werden dabei zunächst status- und/oder bewegungsbezogene Daten der orthopädietechnischen Vorrichtung während eines Bewegungsablaufes erfasst. Das Erfassen der status- und/oder bewegungsbezogenen Daten der orthopädietechnischen Vorrichtung kann dabei mithilfe von Sensoren oder Sensorsystemen erfolgen, die an der orthopädietechnischen Vorrichtung angeordnet sind, in der orthopädietechnischen Vorrichtung integriert sind und/oder außerhalb der orthopädietechnischen Vorrichtung vorgesehen sind. Es kann sich hierbei um Sensoren handeln, die per se standardmäßig in der orthopädietechnischen Vorrichtung enthalten sind und während des normalen Gebrauchs durch den Patienten auch dort verbleiben. Bei den bewegungsbezogenen Daten handelt es sich in der Regel um jene Informationen, die sich unmittelbar aus der Bewegung des Patienten mit der orthopädietechnischen Vorrichtung ergeben und als physikalische Parameter mithilfe von Sensoren ermittelbar sind. Solche Parameter können bspw. ermittelte Gelenkswinkel, wirkende Kräfte, Drehmomente, Geschwindigkeiten und/oder Bewegungstrajektorien sein. Bei den statusbezogenen Daten handelt es sich in der Regel um feste Einstellungen, die an der orthopädietechnischen Vorrichtung eingestellt sind (in der Regel auch beim Bewegen unverändert oder deren Veränderung festen Regeln folgt). Solche statusbezogenen Daten können beispielsweise Dämpfungseinstellungen von Prothesen mit Knie- und/der Knöchelgelenk sein, wobei beispielsweise ein Dämpfungsverlauf über den Gangzyklus vorgegeben werden kann. Bevorzugt beinhalten diese statusbezogenen Daten auch Informationen zum Zustand der Prothesensteuerung, beispielsweise in welchem von verschiedenen Modi wie etwa Treppensteigen, Fahrradfahren oder ebenes Gehen sich diese befindet, welcher Teil des Gangzykluses gerade erkannt wurde, ob die Vorrichtung belastet ist und in welchem Ausmaß. Z.B. das Dämpfungsniveau ändert sich während des Gangzyklus, wobei ein unterschiedlicher Verlauf der Dämpfung über den Gangzyklus für unterschiedliche Modi wie Laufen oder Gehen oder Rampe rauf, Rampe runter gewählt werden kann, was ebenfalls als statusbezogene Daten bezeichnet wird. Sensoren können hierbei beispielsweise Kameras und/oder Tiefensensoren sein, die mithilfe einer Bildauswertung entsprechende status- und/oder bewegungsbezogene Daten der orthopädietechnischen Vorrichtung ermitteln. Denkbar sind aber auch Iner- tialsensoren, die Beschleunigungswerte in wenigstens 3 Raumrichtungen erfassen, wodurch sich Informationen über Kraftvektoren und Bewegungsrichtungen ermitteln lassen. Denkbar sind aber auch Kraftsensoren, die innerhalb der orthopädietechnischen Vorrichtung angeordnet sind oder die außerhalb der Vorrichtung vorliegen, beispielsweise eine Kraftmessplatte. Denkbar sind aber auch Sensoren, die zum Erfassen von Winkeln abknickbarer Vorrichtungen oder die zum Erfassen von anderen physikalischen Parametern vorgesehen sind.
Diese erfassten status- und/oder bewegungsbezogenen Daten des Bewegungsablaufes werden nun an eine Realitätserweiterungseinrichtung übertragen, die von dem Nutzer, beispielsweise einem Orthopädietechniker oder anderweitigen Fachkraft, verwendet wird. Mithilfe der Realitätserweiterungseinrichtung werden nun die zuvor erfassten und übertragenen status- und/oder bewegungsbezogenen Daten und/oder davon abgeleiteten Informationen als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität durch die Realitätserweiterungseinrichtung eingeblendet.
Mithilfe der vorliegenden Erfindung wird somit möglich, dass der Nutzer insbesondere der Orthopädietechniker, in die Lage versetzt wird, während der Anpassung oder dem Aufbau einer orthopädietechnischen Vorrichtung sofort die notwendigen Daten und Informationen der orthopädietechnischen Vorrichtung in das Realitätssichtfeld eingeblendet zu bekommen, sodass der Nutzer entsprechende Maßnahmen zum Einstellen der orthopädietechnischen Vorrichtung sofort ableiten kann. Der Orthopädietechniker wird somit in die Lage versetzt, noch während der Bewegung des Patienten mit der in Rede stehenden orthopädietechnischen Vorrichtung die während des Bewegungsablaufes erfassten status- und/oder bewegungsbezogenen Daten der orthopädietechnischen Vorrichtung zu sehen und somit die Daten des Bewegungsablaufes sofort mit der Realitätswahrnehmung des Bewegungsablaufes korrelieren zu können. Bevorzugt kann der Nutzer über die Realitätserweiterungseinrichtungen auch Änderungen an den Einstellungsparameter der orthopädietechnischen Vorrichtung vornehmen und so gezogenen Schlussfolgerungen direkt umsetzen. Dies kann bspw. mithilfe einer akustischen Eingabe (bspw. durch Sprachbefehle) erfolgen. Gemäß einer Ausführungsform ist vorgesehen, dass zumindest ein Teil der übertragenen status- und/oder bewegungsbezogenen Daten und/oder davon abgeleiteten Informationen als Realitätserweiterung während des Bewegungsablaufes in die durch den Nutzer wahrgenommene Realität des Bewegungsablaufes durch die Realitätserweiterungseinrichtung eingeblendet werden.
Im Idealfall erkennt somit der Orthopädietechniker während der Bewegung durch den Patienten die erfassten bewegungsbezogenen Daten sowie die statusbezogenen Daten in Form von Einstellungen der orthopädietechnischen Vorrichtung, ohne dass er seinen Blick von der Bewegung des Patienten ablassen muss, um die Informationen zu erfassen. Vielmehr werden die status- und/oder bewegungsbezogenen Daten unmittelbar in die Betrachtung der Bewegung eingeblendet und ermöglichen so eine bestmögliche Bewegungsanalyse der orthopädietechnischen Vorrichtung. Dies hat insbesondere den Vorteil, dass der Orthopädietechniker wie gewohnt während des Bewegungsablaufes mit dem Patienten interagieren kann und diesem beispielsweise Anweisungen geben kann.
Gemäß einer Ausführungsform ist vorgesehen, dass mittels einer mit der Realitätserweiterungseinrichtung verbundenen Kamera der Bewegungsablauf der durch den betreffenden Patienten mit der orthopädietechnischen Vorrichtung ausgeführten Bewegung aufgenommen und in Abhängigkeit von dem aufgenommenen Bewegungsablauf mindestens eine ortstreue Darstellungsposition ermittelt wird, mit der die Daten und/oder Informationen korrelieren, wobei die übertragenen status- und/oder bewegungsbezogenen Daten und/oder die davon abgeleiteten Informationen als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität an der ermittelten Position ortstreu eingeblendet werden.
Hierbei wird die relative Ausrichtung der Realitätserweiterungseinrichtung in Bezug auf den Bewegungsablauf des betreffenden Patienten ermittelt, umso die jeweiligen status- und/oder bewegungsbezogenen Daten dem Nutzer an der Stelle in die Realität einzublenden, auf die sich die status- und/oder bewegungsbezogenen Daten hinsichtlich der orthopädietechnischen Vorrichtung beziehen.
Gemäß einer Ausführungsform ist vorgesehen, dass ein in einem Datenspeicher hinterlegter und zuvor erfasster Bewegungsablauf oder ein Teil davon bereitgestellt wird, wobei mittels der Realitätserweiterungseinrichtung der hinterlegte und zuvor erfasste Bewegungsablauf oder ein Teil davon als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität eingeblendet wird.
Hierdurch wird es dem Orthopädietechniker bzw. Nutzer ermöglicht, einen Vergleich von vorherigen Bewegungsabläufen mit dem aktuellen und in der Realität wahrgenommenen Bewegungsablauf durchzuführen und so die vorgenommenen Anpassungen und Einstellungen mit den vorherigen Bewegungsabläufen zu vergleichen und deren Auswirkungen zu studieren. Bei dem hinterlegten Bewegungsablauf kann es sich dabei um einen hinterlegten, optimalen Bewegungsablauf handeln oder aber auch um einen zuvor, etwa bei anderen Einstellungen, aufgenommenen Bewegungsablauf mit dem gleichen Patienten.
Gemäß einer Ausführungsform ist vorgesehen, dass die Daten und/oder Informationen auf einer vor den Augen des Nutzers getragene Anzeigeeinrichtung derart dargestellt werden, dass die Daten und/oder Informationen als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität eingeblendet werden.
Hierbei wird die Realität direkt durch die visuellen Sinnesorgane des Nutzers erfasst und die notwendigen Daten und/oder Informationen mithilfe der Realitätserweiterungseinrichtung in diese durch die visuellen Sinnesorgane wahrgenommene Realität eingeblendet und somit die wahrgenommene Realität erweitert. Dies kann beispielsweise mithilfe einer Projektionsbrille erfolgen, bei der die Daten auf eine Glasfläche einer Brille projiziert bzw. angezeigt werden.
Gemäß einer Ausführungsform ist vorgesehen, dass mittels einer mit der Realitätserweiterungseinrichtung verbundenen Kamera der Bewegungsablauf der durch den betreffenden Patienten mit der orthopädietechnischen Vorrichtung ausgeführten Bewegung aufgenommen und in Echtzeit auf einem Display der Realitätserweiterungseinrichtung abgespielt wird, wobei die Daten und/oder Informationen in die auf dem Display abspielende Darstellung des aufgenommenen Bewegungsablaufes als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität eingeblendet werden.
In diesem Fall wird die Realität durch eine Kamera aufgenommen und 1 zu 1 auf einem Display dargestellt, sodass der Nutzer mithilfe seiner visuellen Sinnesorgane die auf dem Display dargestellt der Realität wahrnehmen kann. In diese Darstellung wird nun die Realitätserweiterung durch die zusätzlichen Daten und/oder Informationen eingeblendet, sodass die ursprünglich aufgezeichnete und dargestellte Realität durch die Daten und Informationen erweitert wird.
Gemäß einer Ausführungsform ist vorgesehen, dass die status- und/oder bewegungsbezogenen Daten von einer zu der orthopädietechnischen Vorrichtung externen Sensorquelle, von einer in der orthopädietechnischen Vorrichtung integrierten Sensorquelle und/oder von einer an dem Patienten befestigten patientenbezogenen Sensorquelle erfasst werden.
Gemäß einer Ausführungsform ist vorgesehen, dass mittels einer mit der Realitätserweiterungseinrichtung verbundenen Kamera der Bewegungsablauf der durch den betreffenden Patienten mit der orthopädietechnischen Vorrichtung ausgeführten Bewegung aufgenommen und mittels einer Auswerteeinheit aus dem aufgenommenen Bewegungsablauf durch eine auf der Auswerteeinheit ausgeführten Bilderkennung bewegungsbezogene Daten und/oder davon abgeleitete Informationen ermittelt werden, die dann als Realitätserweiterung eingeblendet werden.
In diesem Fall wird mithilfe einer mit Erkennungseinrichtung der Bewegungsablauf des Patienten mit der orthopädietechnischen Vorrichtung erfasst und daraus entsprechende Daten und/oder Informationen abgeleitet, sodass die Kamera zusammen mit der Erkennungseinrichtung eine Art Sensorsystem bildet. Die aus der Bilderkennung gewonnenen bewegungsbezogenen Daten und/oder davon abgeleiteten Informationen werden dann mithilfe der Realitätserweiterungseinrichtung in die erfasste Realität des Nutzers als Realitätserweiterung eingeblendet.
Gemäß einer Ausführungsform ist vorgesehen, dass Einstellparameter der orthopädietechnischen Vorrichtung als statusbezogene Daten und/oder davon abgeleitete Informationen an die Realitätserweiterungseinrichtung übertragen oder dort bereits hinterlegt sind und als Realitätserweiterung in die durch den Nutzerwahrgenommene Realität eingeblendet werden.
Gemäß einer Ausführungsform ist vorgesehen, dass Zielvorgaben in Bezug zu status- und/oder bewegungsbezogenen Daten und/oder davon abgeleiteten Informationen in einer Datenbank bereitgestellt werden, wobei zumindest ein Teil der Zielvorgaben aus der Datenbank ausgelesen und als Realitätserweiterung in die durch den Nutzerwahrgenommene Realität eingeblendet werden.
Hierdurch wird es dem Orthopädietechniker bzw. Nutzer ermöglicht, neben den erfassten status- und/oder bewegungsbezogenen Daten und/oder davon abgeleiteten Informationen als Ist-Werte auch die diesbezüglichen Zielvorgaben als Soll-Werte in der erweiterten Realität angezeigt zu bekommen, wodurch ein schneller Abgleich möglich wird. Bevorzugt wird weiterhin eine Abweichung von den erreichten Ist-Werten gegenüber den Zielvorgaben eingeblendet.
Gemäß einer Ausführungsform ist vorgesehen, dass ein Zielbewegungsablauf in einer Datenbank bereitgestellt wird, wobei zumindest ein Teil des Zielbewegungsablaufes aus der Datenbank ausgelesen als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität eingeblendet wird.
Bei dem Zielbewegungsablauf handelt es sich somit um einen Soll-Bewegungsablauf, wobei ein solcher Soll-Bewegungsablauf bzw. ein Teil davon in die wahrgenommene Realität als Realitätserweiterung dem Nutzer präsentiert wird, sodass bei einer Bewegungsanalyse der Nutzer einen Vergleich zwischen dem dargestellten Zielbewegungsablauf und dem tatsächlichen realen Bewegungsablauf ausführen kann.
Gemäß einer Ausführungsform hierzu ist vorgesehen, dass mithilfe einer Auswerteeinheit in Abhängigkeit von den status- und/oder bewegungsbezogenen Daten und/oder davon abgeleiteten Informationen Abweichungen zu dem Zielbewegungsablauf festgestellt und als Realitätserweiterung in die die durch den Nutzerwahrgenommene Realität eingeblendet wird.
Solche Abweichungen zu dem Zielbewegungsablauf, d. h. Abweichungen der Ist- Werte von den vorgegebenen Soll-Werten, lassen sich visualisieren und in die wahrgenommene Realität als Realitätserweiterung einblenden. Hierbei ist es denkbar, dass die Auswerteeinheit eingerichtet ist, die erfassten status- und/oder bewegungsbezogenen Daten mit dem hinterlegten Zielbewegungsablauf zu vergleichen und dadurch entsprechende Abweichungen festzustellen. Gemäß einer Ausführungsform ist vorgesehen, dass mittels einer mit der Realitätserweiterungseinrichtung verbundenen Kamera der Bewegungsablauf der durch den betreffenden Patienten mit der orthopädietechnischen Vorrichtung ausgeführten Bewegung aufgenommen und mittels einer Auswerteeinheit ein virtueller Zwilling erstellt und in einem Datenspeicher hinterlegt wird.
Ein solcher virtueller Zwilling beinhaltet dabei insbesondere die orthopädietechnischen Vorrichtung sowie den damit ausgeführten Bewegungsablauf des Patienten und ermöglicht die Darstellung des Bewegungsablaufes der orthopädietechnischen Vorrichtung sowie des Patienten aus verschiedenen Blickrichtungen, umso eine bestmögliche und allumfassende Bewegungsanalyse durchführen zu können.
Es ist somit gemäß einer Ausführungsform vorgesehen, dass nach der Aufnahme des Bewegungsablaufes der virtuelle Zwilling als Realitätserweiterung in das Sichtfeld des Nutzers eingeblendet wird.
Es ist gemäß einer Ausführungsform ebenfalls vorgesehen, dass in Abhängigkeit von einer Veränderung der Einstellwerte der orthopädietechnischen Vorrichtung und/oder durch eine Simulation von äußeren Beeinflussungen auf den Bewegungsablauf mittels einer Recheneinheit ein veränderter Bewegungsablauf des virtuellen Zwillings berechnet wird, wobei der veränderte Bewegungsablauf als Realitätserweiterung in das Sichtfeld des Nutzers eingeblendet wird.
Hierdurch wird es möglich, die Auswirkungen einer Veränderung der Einstellwerte der orthopädietechnischen Vorrichtung direkt in der wahrgenommenen Realität visuell zu erfassen.
Es ist gemäß einer Ausführungsform ebenfalls vorgesehen, dass mittels der Auswerteeinheit eine Abweichung zwischen den erfassten status- und/oder bewegungsbezogenen Daten der orthopädietechnischen Vorrichtung und den aus dem virtuellen Zwilling abgeleiteten Informationen ermittelt und als Realitätserweiterung in das Sichtfeld des Nutzers eingeblendet wird. So ist es denkbar, dass die Auswerteeinheit mithilfe einer Bilderkennungseinheit bewegungsbezogenen Daten der orthopädietechnischen Vorrichtung aus dem aufgenommenen virtuellen Zwilling erkennt und diese dann mit sensorgestützten erfassten bewegungsbezogenen Daten der orthopädietechnischen Vorrichtung vergleicht. Das Ergebnis dieses Vergleiches, insbesondere eine entsprechend erkannte Abweichung, wird dann in die Realität des Nutzers als Realitätserweiterung eingeblendet, sodass festgestellt werden kann, die entsprechenden Sensoren der orthopädietechnischen Vorrichtung noch korrekt funktionieren. Die Aufgabe wird im Übrigen auch mit dem System zum Einrichten der orthopädietechnischen Einrichtung gemäß Anspruch 17 erfindungsgemäß gelöst, wobei das System zur Durchführung des Verfahrens wie vorstehend beschrieben eingerichtet ist. Insbesondere weist das System eine Realitätserweiterungseinrichtung auf, die insbesondere mit einer Kamera verbunden sein kann oder eines durch Kamera umfasst. Au- ßerdem ist eine Auswerteeinheit vorgesehen, die beispielsweise Mikroprozessor oder Mikrocontroller gesteuert sein kann und entsprechend zur Durchführung des vorstehend beschriebenen Verfahrens eingerichtet ist.
Die Erfindung wird anhand der beigefügten Figuren beispielhaft näher erläutert. Es zeigen:
Figur 1 schematische Darstellung der Vorrichtung zur Durchführung des Verfahrens;
Figur 2 Darstellung eines Prothesenfußes mit zusätzlichen Informationen;
Figur 3 Darstellung einer Ganganalyse;
Figur 4 schematische Darstellung weitere Informationsdarstellungen;
Figur 5 schematische Darstellung einer Fehlkonfiguration;
Figur 6 schematische Darstellung eines überlagerten Bewegungsablaufes.
Figur 1 zeigt in einer schematisch stark vereinfachten Darstellung eine Realitätserweiterungseinrichtung 10, die im Ausführungsbeispiel der Figur 1 eine Recheneinheit bzw. Auswerteeinheit 11 und eine Projektionseinrichtung 12 hat. Die Recheneinheit bzw. Auswerteeinheit 11 ist dabei so ausgebildet, dass je nach Anwendungsfall entsprechende Programme ausgeführt werden können, beispielsweise Bilderkennungsprogramme. Die Recheneinheit 11 ist dabei insbesondere eine mikroprozessor- oder mikrocontrollergesteuerte Recheneinheit.
Die Projektionseinrichtung 12 ist dabei in Form einer Brille im Ausführungsbeispiel der Figur 1 dargestellt, kann aber auch andere technische Formen annehmen, beispielsweise ein mobiles Smartphone mit Kamera und Display. Die Projektionseinrichtung 12 weist dabei als Brillenform zwei Gläser 13 auf, die beim Tragen der Brille vor den Augen des Nutzers bzw. Orthopädietechniker gehalten werden. Auf oder in die Gläser 13 können dann entsprechende Daten oder Informationen 20 projiziert bzw. angezeigt werden, und zwar dergestalt, dass im Sichtfeld 100 diese auf den Gläsern 13 dargestellten Daten/Informationen 20 im Sichtfeld 100 als Daten/Informationen 20' wahrnehmbar werden.
Im Sichtfeld 100 befindet sich im Ausführungsbeispiel der Figur 1 eine Prothese 30 mit Schaft, Kniegelenk und Prothesenfuß. Aus der Prothese 30 werden dabei status- und/oder bewegungsbezogene Daten erfasst und an die Recheneinheit 11 übermittelt. Weiterhin ist es denkbar, dass noch andere, äußere Sensoren vorgesehen sind, welche entsprechende bewegungsbezogene Daten erfassen und an die Recheneinheit 11 übertragen. Derartige Sensoren können beispielsweise eine Kraftmeßplatte sein, auf der die Prothese 30 abrollt.
Mittels der Realitätserweiterungseinrichtung 10 können nun verschiedene Daten/Infor- mationen 20, 20' in das Sichtfeld 100 eingeblendet werden, die während der Bewegung aufgenommen und von den Sensoren der Prothese selbst oder externen Sensoren zur Verfügung gestellt werden. Solche Parameter können beispielsweise der Relativwinkel zwischen Unterschenkel im Raum und Kniewinkel sein, Axialkräfte, Knöchelmoment, Daten der IMU (Orientierung und Trajektorien im Raum), Kniemomente und/oder Kniewinkel sein.
Der Orthopädietechniker, der die Realitätserweiterungseinrichtung 10 verwendet, hat somit Sichtkontakt während der Bewegung der Prothese 30 einerseits und gleichzeitig Sichtkontakt zu den erfassten Daten/Informationen 20' innerhalb seines Sichtfeld des 100. In dieser Abbildung werden durch die Pfeile verschiedene Messwerte eingeblendet, hier beispielsweise Knöchel- und Kniewinkel, Bodenreaktionskräfte, Unterschenkelwinkel und Oberschenkelwinkel.
Figur 2 zeigt schematisch eine Darstellung, wie sie der Orthopädietechniker beim Tragen der Projektionseinrichtung 12 aus Figur 1 wahrnehmen könnte. Dargestellt ist ein mechatronischer Prothesenfuß 31 , für den zusätzliche Informationen eingeblendet werden, beispielsweise die Bodenneigung (sowohl die reale als auch die vom Fuß bestimmte), Knöchelmoment, Knöchelwinkel sowie oben links dargestellte IMU Daten (Trajektorie und Orientierung im Raum). Außerdem werden darüber hinaus oben rechts Statusinformationen 2T der Prothese 30 (Figur 1 ) dargestellt. Hier ist beispielhaft der Einstellungswert für die Dorsalextensionsdämpfung D und Plantarflexionsdämpfung P sowie der aktuelle Modus eingeblendet, der hier symbolisch den „Rampe runter“ Modus darstellt.
Figur 3 zeigt schematisch die Darstellung eines Gangzyklus eines Patienten 200 mit Prothesenknie und Prothesenfuß. Mithilfe der Realitätserweiterungseinrichtung wird dabei der Kraftvektor 22' eingeblendet sowie die Stellung 23' des Unterschenkels im Raum zu ausgewählten Zeitpunkten hervorgehoben. Die Informationen werden dabei ortstreue an der Position des Patienten 200 eingeblendet, während dieser sich bewegt und einen entsprechenden Bewegungsablauf mit seiner Prothese ausführt. Bei Bedarf können diese Informationen aber auch ortsfest im Raum verbleiben, auch wenn der Patient 200 schon weitergegangen ist oder die Bewegung beendet hat.
Alternativ können auch weitere Informationen dargestellt werden, wie beispielsweise den Verlauf des Kniewinkels über den gesamten Gangzyklus hinweg. Hierbei können auch Abweichungen zu bereits vorhandenen Daten bestimmt werden, sodass durch den Nutzer das Gangbild bewertet werden kann.
In Figur 4 ist ein Patient 200 mit einer Prothese 30 mit Prothesenfuß und Prothesenknie dargestellt. Der Patient 200 bewegt sich dabei vorwärts und wird dabei von 2 Haltestangen stabilisiert.
Mithilfe einer nicht dargestellten Kamera können dabei die Auftrittspunkte 24' als bewegungsbezogene Daten erfasst und in das Sichtfeld des Orthopädietechniker eingeblendet werden, und zwar ortstreue an der Stelle, an der die Auftrittspunkte 24‘tatsäch- lich liegen. Hieraus lässt sich beispielsweise in Echtzeit die Schrittlänge berechnen und ebenfalls einblenden sowie der maximal erreichte Kniebeugewinkel oben links.
Durch ein entsprechendes Symbol angedeutet kann des Weiteren der Eintritt in einen besonderen Modus der Prothese 30, beispielsweise die Stolpererkennung zu einem späteren Zeitpunkt visualisiert werden.
Die Daten können dabei von der Prothese selber stammen, durch die Realitätserweiterungseinrichtung selbst bestimmt werden (beispielsweise die Schrittlänge) oder von externen Sensoren stammen.
Figur 5 zeigt ein Ausführungsbeispiel, bei dem der Patient 200 im Sichtfeld des Orthopädietechnikers eine Rampe 300 hochläuft. Die Prothese 30 erkennt jedoch fälschlicherweise eine Treppe und schaltet in den entsprechenden Treppenmodus, der als statusbezogene Daten der Prothese 30 an die Realitätserweiterungseinrichtung übertragen wird. Diese zeigt den Treppenmodus in Form einer virtuellen Treppe 310 an, wodurch der Orthopädietechniker sofort erkennt, dass sich die Prothese 30 im falschen Modus befindet. Dies erleichtert die Fehlersuche. Figur 6 zeigt schließlich ein Beispiel, bei dem ein Bewegungsablauf eines Patienten 200 überlagert wird. Dabei wird in das Sichtfeld des Orthopädietechnikers ein weiterer zusätzlicher Bewegungsablauf 200' eingeblendet, der beispielsweise zuvor als virtueller Zwilling aufgenommen oder aus entsprechenden Daten künstlich generiert wurde. Der Techniker kann so vergleichen und nachvollziehen, was die letzten Änderungen an der Prothese bewirkt haben. Dabei kann ein Vergleich mit zuvor aufgenommenen Daten des gleichen Patienten erfolgen, physiologisch ideale Daten angezeigt werden und/oder eine Simulation der erwarteten Bewegung dargestellt werden. Dabei kann die Realitätserweiterungseinrichtung durch eine zusätzliche Kamera 14 als externen Sensor unterstützt werden.
Im Ausführungsbeispiel der Figur 6 ist darüber hinaus die Realitätserweiterung durch ein Tablet 15 gezeigt. Die Kamera des Tablet 15 ist dabei auf den Patienten 200 ge- richtet und nimmt dessen Bewegungen auf. Die durch die Kamera des Tablets 15 aufgenommene Bewegung des Patienten 200 wird dann sofort auf dem Display dargestellt und durch die entsprechenden Informationen erweitert.
Bezuqszeichenliste
10 Realitätserweiterungseinrichtung
11 Recheneinheit/Auswerteeinheit
12 Projektionseinrichtung/Brille
13 Gläser der Brille
14 externer Kamera
15 Projektionseinrichtung/Tablet
20 Daten/Informationen
20' Daten/Informationen wahrnehmbar im Sichtfeld
21 ' Statusinformationen
22' Kraftvektor
23' Kniewinkel
24' Auftrittspunkte
30 Prothese
31 Prothesenfuß
100 Sichtfeld
200 Patient
200' überlagerter Bewegungsablauf
300 Rampe
310 Treppe

Claims

Patentansprüche
1 . Verfahren zum computer-basierten Einrichten einer orthopädietechnischen Vorrichtung, die am Körper eines damit ausgerüsteten Patienten (200) getragen wird, wobei das Verfahren die folgenden Schritte umfasst:
- Erfassen von status- und/oder bewegungsbezogenen Daten (20, 20‘) der orthopädietechnischen Vorrichtung während eines Bewegungsablaufes (200‘) , bei dem der betreffende Patienten (200) eine Bewegung mit der orthopädietechnischen Vorrichtung ausführt,
- Übertragen der erfassten status- und/oder bewegungsbezogenen Daten (20, 20‘) des Bewegungsablaufes (200‘) an eine Realitätserweiterungseinrichtung (10), die von einem Nutzer verwendet wird, und
- Einblenden zumindest eines Teils der übertragenen status- und/oder bewegungsbezogenen Daten (20, 20‘) und/oder davon abgeleiteten Informationen (20, 20‘, 2T) als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität durch die Realitätserweiterungseinrichtung (10).
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass zumindest ein Teil der übertragenen status- und/oder bewegungsbezogenen Daten (20, 20‘) und/oder davon abgeleiteten Informationen (20, 20‘, 2T) als Realitätserweiterung während des Bewegungsablaufes (200‘) in die durch den Nutzer wahrgenommene Realität des Bewegungsablaufes (200‘) durch die Realitätserweiterungseinrichtung (10) eingeblendet werden.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass mittels einer mit der Realitätserweiterungseinrichtung (10) verbundenen Kamera (14) der Bewegungsablauf (200‘) der durch den betreffenden Patienten (200) mit der orthopädietechnischen Vorrichtung ausgeführten Bewegung aufgenommen und in Abhängigkeit von dem aufgenommenen Bewegungsablauf (200‘) mindestens eine ortstreue Darstellunqsposition ermittelt wird, mit der die Daten (20, 20‘) und/oder Informationen (20, 20‘) korrelieren, wobei die übertragenen status- und/oder bewegungsbezogenen Daten (20, 20‘) und/oder die davon abgeleiteten Informationen (20, 20‘, 21 ') als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität an der ermittelten Position ortstreu eingeblendet werden.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein in einem Datenspeicher hinterlegter und zuvor erfasster Bewegungsablauf (200‘) oder ein Teil davon bereitgestellt wird, wobei mittels der Realitätserweiterungseinrichtung (10) der hinterlegte und zuvor erfasste Bewegungsablauf (200‘) oder ein Teil davon als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität eingeblendet wird.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Daten (20, 20‘) und/oder Informationen (20, 20‘) auf einer vor den Augen des Nutzers getragene Anzeigeeinrichtung derart dargestellt werden, dass die Daten (20, 20‘) und/oder Informationen (20, 20‘) als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität eingeblendet werden.
6. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass mittels einer mit der Realitätserweiterungseinrichtung (10) verbundenen Kamera (14) der Bewegungsablauf (200‘) der durch den betreffenden Patienten (200) mit der orthopädietechnischen Vorrichtung ausgeführten Bewegung aufgenommen und in Echtzeit auf einem Display der Realitätserweiterungseinrichtung (10) abgespielt wird, wobei die Daten (20, 20‘) und/oder Informationen (20, 20‘) in die auf dem Display abspielende Darstellung des aufgenommenen Bewegungsablaufes (200‘) als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität eingeblendet werden.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die status- und/oder bewegungsbezogenen Daten (20, 20‘) von einer zu der orthopädietechnischen Vorrichtung externen Sensorquelle, von einer in der orthopädietechnischen Vorrichtung integrierten Sensorquelle und/oder von einer an dem Patienten (200) befestigten patientenbezogenen Sensorquelle erfasst werden. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels einer mit der Realitätserweiterungseinrichtung (10) verbundenen Kamera (14) der Bewegungsablauf (200‘) der durch den betreffenden Patienten (200) mit der orthopädietechnischen Vorrichtung ausgeführten Bewegung aufgenommen und mittels einer Auswerteeinheit (11 ) aus dem aufgenommenen Bewegungsablauf (200‘) durch eine auf der Auswerteeinheit (11 ) ausgeführten Bilderkennung bewegungsbezogene Daten (20, 20‘) und/oder davon abgeleitete Informationen (20, 20‘) ermittelt werden, die dann als Realitätserweiterung eingeblendet werden. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Einstellparameter der orthopädietechnischen Vorrichtung als statusbezogene Daten (20, 20',) und/oder davon abgeleitete Informationen (20, 20‘, 21 ‘) an die Realitätserweiterungseinrichtung (10) übertragen oder dort bereits hinterlegt sind und als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität eingeblendet werden. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Zielvorgaben in Bezug zu status- und/oder bewegungsbezogenen Daten (20, 20‘) und/oder davon abgeleiteten Informationen (20, 20‘, 21 ‘) in einer Datenbank bereitgestellt werden, wobei zumindest ein Teil der Zielvorgaben aus der Datenbank ausgelesen und direkt und/oder als Abweichungen der status- und/oder bewegungsbezogenen Daten von den Zielvorgaben als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität eingeblendet werden. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Zielbewegungsablauf in einer Datenbank bereitgestellt wird, wobei zumindest ein Teil des Zielbewegungsablaufes aus der Datenbank ausgelesen als Realitätserweiterung in die durch den Nutzer wahrgenommene Realität eingeblendet wird.
12. Verfahren nach Anspruch 11 , dadurch gekennzeichnet, dass mithilfe einer Auswerteeinheit (11 ) in Abhängigkeit von den status- und/oder bewegungsbezogenen Daten (20, 20‘) und/oder davon abgeleiteten Informationen (20, 20‘, 21 ') Abweichungen zu dem Zielbewegungsablauf festgestellt und als Realitätserweiterung in die die durch den Nutzer wahrgenommene Realität eingeblendet wird.
13. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels einer mit der Realitätserweiterungseinrichtung (10) verbundenen Kamera (14) der Bewegungsablauf (200‘) der durch den betreffenden Patienten (200) mit der orthopädietechnischen Vorrichtung ausgeführten Bewegung aufgenommen und mittels einer Auswerteeinheit (11 ) ein virtueller Zwilling erstellt und in einem Datenspeicher hinterlegt wird.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass nach der Aufnahme des Bewegungsablaufes (200‘) der virtuelle Zwilling als Realitätserweiterung in das Sichtfeld (100) des Nutzers eingeblendet wird.
15. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass in Abhängigkeit von einer Veränderung der Einstellwerte der orthopädietechnischen Vorrichtung und/oder durch eine Simulation von äußeren Beeinflussungen auf den Bewegungsablauf (200‘) mittels einer Recheneinheit (11 ) ein veränderter Bewegungsablauf (200‘) des virtuellen Zwillings berechnet wird, wobei der veränderte Bewegungsablauf (200‘) als Realitätserweiterung in das Sichtfeld (100) des Nutzers eingeblendet wird.
16. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels der Auswerteeinheit (11 ) eine Abweichung zwischen den erfassten status- und/oder bewegungsbezogenen Daten (20, 20‘) der orthopädietechnischen Vorrichtung und den aus dem virtuellen Zwilling abgeleiteten Informationen (20, 20‘, 21 ') ermittelt und als Realitätserweiterung in das Sichtfeld (100) des Nutzers eingeblendet wird.
17. System zum Einrichten einer orthopädietechnischen Einrichtung eingerichtet zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche.
PCT/EP2023/061967 2022-05-06 2023-05-05 Verfahren zum einrichten einer orthopädietechnischen vorrichtung WO2023214028A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022111332.9A DE102022111332A1 (de) 2022-05-06 2022-05-06 Verfahren zum Einrichten einer orthopädietechnischen Vorrichtung
DE102022111332.9 2022-05-06

Publications (1)

Publication Number Publication Date
WO2023214028A1 true WO2023214028A1 (de) 2023-11-09

Family

ID=86497617

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/061967 WO2023214028A1 (de) 2022-05-06 2023-05-05 Verfahren zum einrichten einer orthopädietechnischen vorrichtung

Country Status (2)

Country Link
DE (1) DE102022111332A1 (de)
WO (1) WO2023214028A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012009507A1 (de) 2012-05-14 2013-11-14 Otto Bock Healthcare Gmbh Vorrichtung und Verfahren zur Bestimmung von Fehlstellungen im Aufbau von Prothesen
EP2153370B1 (de) 2007-05-03 2017-02-15 Motek B.V. Verfahren und system zur interaktiven dynamischen echtzeitausrichtung von prothesen
US20170266019A1 (en) * 2013-06-12 2017-09-21 Georg-August-Universitaet Goettingen Stiftung Oeffentlichen Rechts, Universitaetsmedzin Control of Limb Device
US20180301057A1 (en) * 2017-04-14 2018-10-18 REHABILITATION INSTITUTE OF CHICAGO d/b/a Shirley Ryan AbilityLab Prosthetic Virtual Reality Training Interface and Related Methods
DE102018128514B4 (de) 2018-11-14 2021-01-14 Ottobock Se & Co. Kgaa Verfahren und Vorrichtung zum Durchführen eines Prothesenaufbaus
US20210059564A2 (en) * 2017-10-24 2021-03-04 University Of Pittsburgh - Of The Commonwealth System Of Higher Education System and Methods for Gait and Running Functional Improvement and Performance Training
US20220054043A1 (en) * 2018-12-20 2022-02-24 Otto Bock Healthcare Products Gmbh Method for evaluating usage data

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202007006221U1 (de) 2006-04-28 2007-07-12 Schleer, Ralph System zur Betrachtung von Bewegungsabläufen, insbesondere des menschlichen Ganges
DE102020125255A1 (de) 2020-09-28 2022-03-31 Otto Bock Healthcare Products Gmbh Verfahren zum Einrichten einer Steuerung und orthopädietechnische sowie Computerprogrammprodukt

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2153370B1 (de) 2007-05-03 2017-02-15 Motek B.V. Verfahren und system zur interaktiven dynamischen echtzeitausrichtung von prothesen
DE102012009507A1 (de) 2012-05-14 2013-11-14 Otto Bock Healthcare Gmbh Vorrichtung und Verfahren zur Bestimmung von Fehlstellungen im Aufbau von Prothesen
US20170266019A1 (en) * 2013-06-12 2017-09-21 Georg-August-Universitaet Goettingen Stiftung Oeffentlichen Rechts, Universitaetsmedzin Control of Limb Device
US20180301057A1 (en) * 2017-04-14 2018-10-18 REHABILITATION INSTITUTE OF CHICAGO d/b/a Shirley Ryan AbilityLab Prosthetic Virtual Reality Training Interface and Related Methods
US20210059564A2 (en) * 2017-10-24 2021-03-04 University Of Pittsburgh - Of The Commonwealth System Of Higher Education System and Methods for Gait and Running Functional Improvement and Performance Training
DE102018128514B4 (de) 2018-11-14 2021-01-14 Ottobock Se & Co. Kgaa Verfahren und Vorrichtung zum Durchführen eines Prothesenaufbaus
US20220054043A1 (en) * 2018-12-20 2022-02-24 Otto Bock Healthcare Products Gmbh Method for evaluating usage data

Also Published As

Publication number Publication date
DE102022111332A1 (de) 2023-11-09

Similar Documents

Publication Publication Date Title
EP2849645B1 (de) Vorrichtung und verfahren zur bestimmung von fehlstellungen im aufbau von prothesen
EP1542627B1 (de) Positionierung von künstlichen unteren gliedmassenpropriozeptoren
EP2879622B1 (de) Orthesensteuerung
DE102018128514B4 (de) Verfahren und Vorrichtung zum Durchführen eines Prothesenaufbaus
DE102005022005B4 (de) Verfahren und Gerät zur Erleichterung der Bewegungskontrolle von Körperteilen
EP2448527B1 (de) Aktive prothesenvorrichtung mit terrainerfassung und verfahren zum steuern einer aktiven prothesenvorrichtung
WO2023214028A1 (de) Verfahren zum einrichten einer orthopädietechnischen vorrichtung
DE102020100366A1 (de) Verfahren zur 3D-Bewegungsanalyse und Sofortfeedback für Trainingsübungen
WO2019215061A1 (de) Vorrichtung und verfahren zur bildgebung bei der implantation von retinaimplantaten
DE102019122374B4 (de) Verfahren zum Herstellen eines Prothesenschaftes
DE102019101143B4 (de) Verfahren zur Steuerung einer orthetischen oder prothetischen Einrichtung und orthetische oder prothetische Einrichtung
DE102016107743A1 (de) Verfahren zur Steuerung einer Antriebs- und/oder Bremseinrichtung eines orthetischen oder prothetischen, künstlichen Gelenks
DE102020125255A1 (de) Verfahren zum Einrichten einer Steuerung und orthopädietechnische sowie Computerprogrammprodukt
DE102005008605A1 (de) Verfahren zur Herstellung einer äußeren Prothese oder Orthese
WO2004095341A2 (de) Verfahren zur simulation muskulo-skelettaler belastungen eines patienten
DE102019118118B4 (de) Protheseneinrichtung für eine untere Extremität, Einstelleinrichtung für eine Protheseneinrichtung sowie Verfahren zum manuellen Einstellen
WO2023214026A1 (de) Verfahren zum einrichten einer orthopädietechnischen einrichtung
DE102021115467A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Erstellen von Fertigungsdaten für ein orthopädietechnisches Produkt
WO2024003361A1 (de) Verfahren, computerprogramm und system zum einstellen einer orthopädie-technischen versorgung
DE102020110687A1 (de) Verfahren zum Übertragen von Daten
WO2024115647A1 (de) Verfahren und vorrichtung zur erstellung von fertigungsdaten sowie verfahren zur fertigung eines orthopädietechnischen liners
DE102022131756A1 (de) Verfahren und Vorrichtung zur Erstellung von Fertigungsdaten sowie Verfahren zur Fertigung eines orthopädietechnischen Liners
WO2024013166A1 (de) Verfahren und computerprogramm zum erstellen eines digitalen 3d-modells sowie verfahren zum einstellen oder herstellen einer orthopädietechnischen versorgung
EP3979954A1 (de) Verfahren zum betreiben einer orthopädietechnischen einrichtung und entsprechende einrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23725619

Country of ref document: EP

Kind code of ref document: A1