WO2018141960A1 - Trainingsvorrichtung sowie verfahren zur evaluierung von bewegungsablaeufen - Google Patents

Trainingsvorrichtung sowie verfahren zur evaluierung von bewegungsablaeufen Download PDF

Info

Publication number
WO2018141960A1
WO2018141960A1 PCT/EP2018/052807 EP2018052807W WO2018141960A1 WO 2018141960 A1 WO2018141960 A1 WO 2018141960A1 EP 2018052807 W EP2018052807 W EP 2018052807W WO 2018141960 A1 WO2018141960 A1 WO 2018141960A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
sensor
mirror
control unit
training
Prior art date
Application number
PCT/EP2018/052807
Other languages
English (en)
French (fr)
Inventor
Giorgi KHUBUA
Georgi ANASTASOV
Dimitar MAGUREV
Vladimir KONDIC
Original Assignee
Stecnius Ug (Haftungsbeschraenkt)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stecnius Ug (Haftungsbeschraenkt) filed Critical Stecnius Ug (Haftungsbeschraenkt)
Publication of WO2018141960A1 publication Critical patent/WO2018141960A1/de

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports

Definitions

  • the invention relates to a training device for evaluating a user's movements and to a method for evaluating a user's movements.
  • a training device for evaluating movements of a user comprising a mirror having a front and a back, at least one display device, which is provided on the back of the mirror, at least one sensor, on a training area in front of the front directed, and a control unit with the display device and the at least one sensor Information technology is connected.
  • the at least one display device is arranged such that it can be read by the mirror from the training area.
  • the control unit is configured to receive data from the at least one sensor and, based on the data, to control the display device for correcting or confirming the movement sequences of the user.
  • the at least one sensor is a time-of-flight camera (ToF camera), a radar sensor, an infrared sensor, an ultrasonic sensor and / or a combination of a camera and an infrared sensor.
  • ToF camera time-of-flight camera
  • the user performs his exercises on the front of the mirror.
  • the control of the display device by the control unit goes beyond a mere switching on and off when detecting the presence of a user.
  • control unit is connected to the at least one sensor by means of a cable or communicates wirelessly with the sensor, for example via Bluetooth or WLAN.
  • Directed to the user or the front means that the sensors detect the training area or the user in the training area on the front of the mirror and that the display device by the user in the training area or from the front is readable or perceptible.
  • the movement of the user can be detected precisely. If multiple sensors are provided, the individual sensors may be of different types to increase the accuracy of detection.
  • a mirror is understood as meaning a reflecting surface which reflects back light incident on the mirror from the front side.
  • the mirror may for example be a conventional mirror or a safety mirror made of glass or acrylic glass, which transmits part of the light incident on it.
  • Such mirrors are also known as “disposable mirrors” or “spy mirrors”.
  • the mirror can also be a reflective foil, which is attached to a matching body, such as a frame or a support.
  • the training device has, for example, a base body to which the mirror, the sensor and / or the display device is attached.
  • the display device is, for example, a screen (LCD, plasma, or e-ink screen) or an LED matrix.
  • the screen can also be LED, LCD, plasma, E-ink or OLED films.
  • the display device is a projector (beamer).
  • the training device is not only suitable in the field of fitness training with free weights, but can also be used to correct movement sequences in dancing, in other sports, in physiotherapy, rehabilitation (medical rehabilitation) or orthopedics.
  • control unit is configured to receive data from the at least one sensor, to recognize a user movement flow of the user based on this data, to compare the user movement flow with a target movement, and to control the user for differences between the user movement flow and control to draw attention to the desired movement sequence.
  • control unit communicates with sensors outside the training device, in particular wirelessly.
  • sensors may be, for example, motion and / or acceleration sensors in the sports equipment used or worn by the user.
  • the at least one display device is provided directly on the mirror, in particular the display device touches the mirror.
  • the at least one sensor below, above and / or laterally of the mirror is provided so that the operation of the at least one sensor is not affected by the opacity of the mirror.
  • the sensor can be provided in the region of the mirror with respect to a direction perpendicular to the mirror.
  • At least one sensor may also be arranged on the rear side of the mirror so that the least one sensor is directed through the mirror onto the training area. As a result, the movement of the user can be detected more accurately.
  • the mirror has at least one functional area with a high transmission and at least one mirror area with a low transmission, wherein the at least one display device and / or the at least one sensor is arranged on the rear side in a functional area.
  • the high transmission of the functional range can be between 5% and 20%, in particular between 8% and 12%.
  • the low transmission of the mirror areas is below, trying to minimize the transmission. In this way it is ensured that the display device is readable from the front or the sensors can detect the user on the front side from the back.
  • the at least one sensor may be attached to the training device in such a way that its angle and / or position in particular vertical direction and / or horizontal direction with respect to the mirror is adjustable.
  • the at least one sensor alternatively or additionally on a structured light sensor, which has a light source and a light sensor and the use of structured light is set up. In this way, a very accurate and easy detection of the movements and / or the position of the user is possible.
  • the light source and the light sensor can therefore also be used.
  • Structured light sensors are also called structured light cameras.
  • structured light also termed “structured light”, which uses structured light sensors is understood to mean that a predetermined light pattern, for example a line, a grid or a fan, is projected onto the user and the light pattern from the light sensor below taken at a predetermined angle to the light source, wherein the control unit or the light sensor itself can deduce the detected shape, size and / or position of the light pattern on the user and / or on individual body parts on the distance and / or the geometry of the user's surface
  • infrared light is used, and lasers such as line lasers and / or LEDs can be used as the light source.
  • the light sensor may be provided with a band-pass filter to detect only light having the wavelength emitted from the light source.
  • the light sensor may be a combination of a camera and an infrared sensor in order to increase the recognition accuracy.
  • At least two sensors are provided which are adapted to make stereoscopic images of the user, whereby the removal of the user and / or individual body parts from the mirror can be determined reliably.
  • two sensors such as two cameras.
  • the control unit or the sensors themselves can determine the distance from the recorded image data.
  • at least two sensors are provided, wherein at least one of the sensors is a radar sensor, which on the back in a Functional range of the mirror is arranged, and the at least one other sensor is a camera or a time-of-flight camera, which is arranged above, below and / or laterally of the mirror.
  • the advantages of the precise distance measurement by the radar sensor with the high resolution of the time-of-flight camera can be combined.
  • the training device may comprise an identification device, in particular an RFID reader, a bar code scanner and / or a scanner for biometric features. Furthermore, the object is achieved by a method for the evaluation of
  • a training device in particular a training device according to the invention comprising a mirror, at least one output device, in particular at least one display device, at least one sensor, which is directed to the user, and a control unit, the measurement data from the at least one sensor receives and which controls the at least one output device.
  • the method comprises the following steps: a) detecting the user by the at least one sensor, b) determining the user movement sequence of the user by the control unit, c) comparing the user movement sequence with a target movement, d) determining the differences between the user movement sequence and the target motion sequence, and e) outputting a signal based on the determined differences by the at least one output device, wherein the control unit updates a repetition counter if the user movement sequence and the target movement sequence substantially coincide. This allows the control unit to recognize a correct repetition and log the progress of the user's exercise.
  • the value of the repeat counter is output via the display device.
  • the speed of the movement can also be determined and used for the determination.
  • the differences and / or correction suggestions due to the differences may be output, thereby improving the quality of the assistance.
  • the position, speed and / or flexion of the user's joints, the position and / or speed of the user's body and / or the position of the user's skeleton are preferably determined on the basis of the data of the at least one sensor determined.
  • the positions of the user's body, joints and / or skeleton may be displayed in real time on an optical display device of the dispenser, in particular a screen.
  • the positions of the user's body, joints and / or skeleton are output as markers such that the markers coincide with the corresponding body parts of the user's perceived mirror image. In this way, the quality of the assistance can be further improved.
  • the control unit can access predetermined, stored in a memory target movements to be able to compare the appropriate target movement with the user movement sequence.
  • the predetermined target movements can be stored in a memory locally in the training device or the control unit, on a server in a local network and / or on a server on the Internet. It is also conceivable that the control unit obtains target movements in real time from other training devices that are used by the user of these other ones Training device to be executed. In this way users can train with each other even though they are not in the same room.
  • control unit can be taught new target movements or the control unit can determine or calculate new desired movements themselves, which are then deposited by the control unit locally or on a server in the local network or on the Internet.
  • the at least one output device is a screen, with the differences and / or the correction suggestions being output as a representation, in particular as a video of the desired motion sequence, as an animation or as text.
  • the user receives corrective suggestions in a simple and understandable way, as from an experienced trainer.
  • the at least one output device can also or exclusively comprise a loudspeaker, by means of which differences or correction suggestions can be pointed out and / or differences or correction suggestions can be explained.
  • control unit increases or decreases the repeat counter by one if the user movement sequence and the desired movement sequence are substantially coincident.
  • a tolerance range can be predetermined or selected by the user, which determines the permitted deviation of the user movement sequence from the desired movement sequence. If the user movement flow is within this tolerance range, the user movement sequence is judged to be substantially coincident with the target motion sequence.
  • the controller recognizes when the user has completed his exercise, ie, when he has completed the required number of correct repeats. It is also conceivable that the control unit stores information about the training progress, about the exercises performed, completed repetitions as user data, user movement sequences and detected objects, such as devices or clothing. The storage can take place locally in the control unit or on a server in a local network or on the Internet. In one embodiment variant, the control unit recognizes the exercise performed by the user on the basis of the movement sequence and / or the device used by the user. Under a device weights and other training tools are understood. Devices can be detected by the at least one sensor, for example by means of image recognition or signature recognition. In this way, the control unit can perform training without user input, log training courses and / or assist.
  • the user logs on at the beginning, in particular by means of the identification device, whereupon the control unit retrieves user data, in particular training courses of previous training units and / or the current training schedule of the user.
  • the control unit retrieves user data, in particular training courses of previous training units and / or the current training schedule of the user.
  • the identification can be done by means of a user card with an RFID chip or a barcode.
  • biometric features such as face, iris and / or fingerprint recognition.
  • An application by means of the user's smartphone or training without registration is conceivable.
  • control unit can recognize predetermined gestures of the user and perform certain functions on the basis of the recognized gestures. This allows a gesture control.
  • Figure 1 a) and b) a front and rear view of a training device according to the invention
  • - Figure 2 is a sectional view of the exercise device according to the invention according to Figures 1 a) and 1 b) along the axis II-II
  • Figure 3 schematically shows the training device according to Figures 1 a), 1 b) and 2 during operation.
  • FIGS. 1 a), 1 b) and 2 show a training apparatus 10 with a main body 12, a mirror 14, a plurality of sensors 16, a plurality of dispensers 18 (FIG. 1 b) and a control unit 20 (FIG. 1 b) in front of one Wall 21 shown.
  • the training device 10 is suitable for the evaluation and correction of movements of a user B (FIG. 2).
  • FIG. 2 shows the application for correcting movement sequences in the fitness area, other applications in sports, dance or medical applications in rhea, orthopedics or physiotherapy are possible.
  • the mirror 14 On the base body 12, which may for example be a steel frame and which is only indicated in the figures, the mirror 14 is attached.
  • the mirror 14 is in the embodiment shown a conventional or
  • Safety mirror made of glass or acrylic glass, which has been provided with a reflective coating.
  • a reflective coating For example, an aluminum coating was vapor-deposited or pressed onto the glass or the acrylic glass.
  • the mirror is only a reflective film, which is attached to the base body 12 or on the frame or which is clamped by the base body.
  • the mirror 14 has two opposite sides, the side on which the user B performs his exercises is referred to as front V and the area in front of the front V as training area T, and the opposite side represents the rear side R or the technique side.
  • the user B sees the training device 10 thus as shown in Figure 1 a).
  • the mirror 14 has different regions with different degrees of transmittance, namely a plurality of functional regions 22 and at least one mirror region 24.
  • the mirror has a uniform transmittance.
  • the plurality of functional areas 22 of the mirror 14 are shown in dashed lines.
  • the functional areas 22 have a higher transmission compared to the remaining mirror 14, which forms the mirror area 24.
  • the transmission of the functional ranges is between 5% and 20%, in particular between 8% and 12%.
  • the transmission of the mirror areas 24 is smaller than that of the functional areas 22 and should be as small as possible.
  • five functional areas 22 are provided, wherein two rectangular functional areas 22 are located on the left edge of the mirror 14 one above the other. Another rectangular functional area 22 with a larger area is located centrally in the mirror 14.
  • two round functional areas 22 with a small diameter of, for example, a maximum of 5 cm are provided substantially at half the height.
  • the base body 12 is visible, on which four sensors 16 of a first group Si of sensors are arranged.
  • sensors 16 there is a sensor 16 below, a further sensor 16 above, a third sensor 16 on the left side and a fourth sensor 16 on the right side of the mirror 14.
  • the sensors 16 of the first group Si are located in the direction Rs perpendicular to the mirror 14 in the region of the mirror 14.
  • the sensors 16 may be cameras, time-of-flight cameras (ToF cameras), radar sensors, infrared sensors and / or ultrasound sensors.
  • At least one so-called structured light sensor is used as sensor 16, which has a light source, eg a laser and / or LEDs, in particular for infrared light, and at least one light sensor.
  • a light source eg a laser and / or LEDs
  • at least one light sensor e.g. a camera and an infrared sensor are used as light sensors.
  • Structured light sensors also known as structured light cameras, work with one or more light sources and / or with one or more light sensors, such as infrared sensors, line lasers and / or structured LED illuminators.
  • the at least one light sensor is aligned at a predetermined angle to the light source.
  • the structured light sensor or its components can be arranged on the rear side, above, below and / or laterally of the mirror 14.
  • the light-emitting or light-detecting components of the structured light sensor can also be arranged on the back side R of the mirror 14 if the transmission properties of the mirror 14 are changed so as to be transparent to infrared light.
  • the sensors 16 of the first group Si are all cameras or time-of-flight cameras which can record spatial images (3D images) by means of a light transit time measurement.
  • ToF cameras usually operate with infrared light and are therefore not located on the back side R of the mirror 14 because the mirror 14 absorbs infrared light.
  • an identification device 26 is arranged on the base body 12.
  • the identification device 26 may be a bar code scanner, an RFID reader, a fingerprint scanner, an iris scanner and / or a face scanner.
  • the remaining components of the training device 10 are arranged on the rear side R of the mirror 14 shown in FIG. 1 b.
  • Two further sensors 16 of a second group S2 of sensors are mounted on the rear side R of the mirror 14 directly on the mirror 14.
  • These sensors 16 are provided in the two round functional areas 22 of the mirror 14, so that they due to the high transmission of the Functional areas 22 light or other electromagnetic radiation from the front V or the training area T can receive.
  • the sensors 16 of the second group S2 are radar sensors. However, they can also be sensors of the aforementioned types. It is conceivable that individual or all sensors 16 are individually adjustable. This allows their angle or position to be adjusted to align the sensors 16, i. to adjust their exhibition area. In particular, the sensors 16 can be adjusted in the vertical direction Rv and / or the horizontal direction RH with respect to the mirror 14. In the case of using a structured light sensor as at least part of
  • the light source may have a predetermined pattern of light, e.g. a line, grid or fan on which users project and the light pattern is picked up by the light sensor.
  • a predetermined pattern of light e.g. a line, grid or fan on which users project and the light pattern is picked up by the light sensor.
  • infrared light is used.
  • the light pattern is distorted.
  • the distorted light pattern is then detected by the light sensor at the predetermined angle, whereby the distortion generated by the surface and the distance of the user can be determined.
  • the control unit 20 or the light sensor itself determines from the distortion, e.g. the detected shape, size and / or position of the light pattern on the user and / or on individual body parts, the distance and / or the geometry of the surface of the user. If a combination of an infrared sensor and a camera is used as the light sensor of the Structured Light Sensor, the detection accuracy can be further increased.
  • At least two sensors 16 may be provided which receive the user from two different angles. Based on the different viewing angles of the two sensors, the control unit 20 or the sensors 16 themselves determine the distance from the captured image data.
  • measuring ranges of some sensors 16 are indicated by different lines. However, all measuring ranges extend to the front side V of the mirror 14 in the training area T, so that the sensors 16 are directed to the front side V and to the training area T and to the user B on the front side V, respectively.
  • screens 30 are provided as some of the output devices 18.
  • the screens 30 are provided directly on the mirror 14 and touch the mirror 14, so that no stray light from the rear side R of the mirror 14 can pass through the corresponding functional area 22 to the front side V. Thereby, the screens 30 are from the front side V of the mirror 14, i. easy to read from the training area (T).
  • the optical display devices 29 may be conventional flat screens (LCD, plasma, OLED, e-ink). However, it is also conceivable that the screens are LCD, LED, plasma, E-ink or OLED foils, which are attached to the mirror 14 or the base body 12. It is also conceivable that the display device 29 is a projector (beamer).
  • Two further output devices 18 in the form of speakers 32, d. H. Acoustic output devices 18 are also provided on the rear side R.
  • all dispensing devices 18 are attached to the base 12.
  • the output devices 18, in particular the loudspeakers 32 are fastened only to the mirror 14.
  • the control unit 20 is likewise arranged on the rear side R and can be held by the base body 12.
  • the control unit 20 is connected to all sensors 16, the output devices 18 and the identification device 26 in terms of information technology.
  • control unit 20 is connected by means of wireless connections, e.g. Bluetooth or WLAN with the output devices 18, the sensors 16 and / or the identification device 26 communicates.
  • control unit 20 receives data from the sensors 16 and drives the output device 18 based on this data.
  • control unit 20 may communicate with sensors (not shown) outside the training device, in particular wirelessly.
  • sensors may be, for example, motion and / or acceleration sensors in the sports equipment used or worn by the user during exercise.
  • the user B When a user B wants to use the exercise device 10, the user B enters the front side V of the exercise device 10 in the exercise area T.
  • the user B identifies himself to the identification device 26, for example by scanning his membership card of the corresponding gym or the corresponding device.
  • the membership card can have a corresponding RFID chip or a barcode that can be read by the identification device 26.
  • the user B can scan his fingerprint, his iris or his face from the identification device in order to identify himself by means of biometric features.
  • control unit 20 may retrieve user data about the user B. This user data may be stored in a local memory of the training device 10 or the control unit 20 and / or the control unit 20 may obtain this data from a server in a local network or on the Internet. Also, the control unit 20 may receive user data from the user's smartphone.
  • the user data includes information about training histories of previous training sessions, their times, and the current training schedule of the user B. This information, and possibly a greeting, may be output via the output devices 18, in particular via the screens 30 located at the left edge of the mirror 14.
  • the user B then sees his training plan and thus the exercises of the next training that he has to complete.
  • User B can take a closer look at individual exercises, e.g. Example videos let the target movement of the exercise on the screens 30 output, change the exercises or select other functions.
  • the exercise device 10 can be operated by means of gesture control. It is also conceivable that the identification device 26 has a touch-sensitive screen with which the training device 10 can be controlled.
  • the user B is detected at the latest now, but preferably immediately after the identification, by the sensors 16 of both the first group Si and the second group S2. These data are forwarded to the control unit 20.
  • the control unit 20 determines from the data of the sensors 16 the position of the body of the user B as well as the position and diffraction of the body parts and / or joints 34 of the user B.
  • the joints 34 of the upper body of the user B are marked in Figure 2 with dashed circles.
  • the determination is carried out, for example, based on the distance measured by the radar sensors, in conjunction with the image data obtained by means of the cameras, the ToF cameras and / or the structured light sensor.
  • control unit 20 may also determine the position of the user B's skeleton.
  • the position of the user B's skeleton may also be idealized or approximated, as was done with the dashed lines in the user B's body in FIG.
  • control unit 20 can recognize, based on the data of the sensors 16 by means of image recognition, whether and which devices 36 the user B uses.
  • control unit 20 can recognize a signature such as a 1D or 2D barcode on the devices 36 for identifying the devices 36.
  • the user B as devices 36 uses two
  • control unit 20 can now close to the exercise that the user B performs or would like to perform.
  • control unit 20 based on the training plan of the user B or a selection of the user B, knows which exercise the user B is performing or would like to carry out.
  • the control unit 20 then accesses predetermined target movements which indicate how the movements in the exercise which the user B wishes to perform are correctly carried out.
  • These predetermined desired movements are preferably stored in a universally valid, person-independent format, for example, as a time course of the relative movements of the joints 34 to each other or in relation to a body axis and their diffraction.
  • the control unit 20 can retrieve these desired movement sequences from a local memory of the training device 10 or the control unit 20 or load it from a server in the local network or on the Internet.
  • control unit 20 obtains target movements in real time from other training devices (not shown) that are currently being executed by the user of this other training device.
  • the user movement sequences of the user of the other training device are then the desired movement sequences of the user of the training device 10.
  • control unit 20 can also be taught new set movement sequences or the control unit 20 can determine or calculate new desired movement sequences themselves, which are then stored by the control unit locally or on a server in the local network or on the Internet.
  • the control unit 20 thus knows, due to the desired course of motion, as well as an experienced trainer, how the movement performed by the user B should ideally look like.
  • control unit 20 can output on one of the screens 30, preferably the central screen 30, markings 38 which correspond in real time to the position of the joints 34 and of the skeleton.
  • the marks of the joints 34 are shown in FIG. 3 as dots or circles and the skeleton is roughly marked by lines.
  • the output of the markers 38 may, as the control unit 20 knows the position of the user B, be such that the markers 38 overlay the mirror image 40 that the user B sees of himself in the mirror 14.
  • the markers 38 are thus output at the locations on the screen 30 which the user B looks at when looking at the corresponding hinge 34 or body part.
  • the user B thus receives the impression that the markings 38 have been applied to his body.
  • the control unit 20 based on the data of the sensors 16, for example by determining the trajectories of the joints 34, on the movement of the user B, here called user movement process close.
  • the control unit 20 compares the user movement sequence with the target movement of the performed exercise. If the user movement sequence and the target movement sequence do not coincide with one another, but differences exist, the control unit 20 identifies the deviations or the differences from the desired movement sequence, just as an experienced trainer would do. Thereupon, the control unit 20 via the output devices 18, the differences and also suggestions for correcting these differences, so suggestions for improving the sequence of motion from.
  • control unit 20 can output a short warning sound via the loudspeaker 32 and provide linguistic corrections.
  • the correction proposals and the differences are also output via the screens 30, in particular the central screen 30 at the central functional area 22.
  • the control unit 20 outputs on one of the screens 30 a stored video in which a trainer performs the corresponding exercise with correct movement. This video may have loaded the control unit 20 along with the desired motion sequence.
  • correction proposals are output by means of animations.
  • the trajectories of the joints 34 of the user B are output compared to the trajectory of the target movement sequence.
  • the user can then adjust his movement based on the correction suggestions. In this way, the user B can improve his movements and is not in danger of being injured by wrong movements. If the user B executes the movement or repetition of the exercise so well during the exercise that there are no significant differences between the user movement sequence and the desired movement sequence, the control unit recognizes this and repeats the sequence of movements as a successful repetition.
  • control unit 20 may output, for example, a confirming sound through the speakers 32. It is also conceivable that the control unit 20 increases or decreases a repetition counter 42, with which it counts the successful repetitions of the movement sequences by one. This repetition counter 42 can output the control unit 20 via one of the screens 30, for example via one of the screens 30 at the edge of the mirror 14 (FIG. 3).
  • control unit 20 may output the name of the user B, the name of the exercise and / or user information via one of the screens 30 at the edge (FIG. 3).
  • controller 20 may log the progress of training, the number of iterations, the quality of the user movement procedures, and the like throughout the workout.
  • control unit 20 can inform the user B by means of a corresponding output via the dispensers 18 and thus end the exercise.
  • control unit 20 may measure and output the time for time-based exercises such as interval training to be performed. User B can then proceed to the next exercise or stop exercising.
  • control unit 20 stores the executed exercises together with the number of repetitions and other logged data and adds these to the user data of the user B. Then, the control unit 20 may update the user data of the user locally or on the corresponding server.
  • control unit 20 can give the user B a summary of the training via the output devices 18. It is also conceivable that the control unit 20 transmits this summary and / or other of the user data to a smartphone, in particular that of the user.
  • the user B has thus received a training that corresponds to the training with an experienced coach, but without having to engage another person or to have an appointment with this.
  • control unit 20 can conclude on the exercise performed on the basis of the movements performed by the user B movements. Any combination of the mentioned methods for determining the exercise is conceivable.
  • optical output devices 18 are not screens, but other display means.
  • they may be an LED matrix indicating correct or incorrect repetition only through symbols or the like. The correction suggestions can then be made via another screen or speaker.
  • the training device 10 may be designed differently. It is conceivable, for example, that the base body used is a glass or acrylic glass pane on which a mirror foil with the corresponding areas is applied from the front side. On the back of the screen, the screens can be attached as LCD or OLED films, resulting in a particularly compact design.
  • control unit 20 may then, for example, different objects identify and add user data, such as user B's clothing.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Rehabilitation Tools (AREA)

Abstract

Eine Trainingsvorrichtung zur Evaluierung von Bewegungsabläufen eines Benutzers umfasst einen Spiegel (14), der eine Vorderseite (V) und eine Rückseite aufweist, wenigstens eine Anzeigevorrichtung, die auf der Rückseite des Spiegels (14) vorgesehen ist, wenigstens einen Sensor (16), der auf die Vorderseite (V) gerichtet ist, und eine Steuereinheit, die mit der Ausgabevorrichtung und dem wenigstens einen Sensor (16)informationstechnisch verbunden ist. Die wenigstens eine Anzeigevorrichtung ist derart angeordnet, dass sie durch den Spiegel (14) vom Trainingsbereich aus ablesbar ist. Die Steuereinheit ist dazu eingerichtet, Daten von dem wenigstens einen Sensor (16) zu empfangen und auf Basis der Daten die Ausgabevorrichtung zur Korrektur oder Bestätigung der Bewegungsabläufe des Benutzers anzusteuern.Der Sensor (16) ist eine Time-of- Flight Kamera, ein Radarsensor, ein Infrarotsensor, ein Ultraschallsensor und/oder eine Kombination aus einer Kamera und einem Infrarotsensor. Ferner ist ein Verfahren zur Evaluierung von Bewegungsabläufen eines Benutzers gezeigt.

Description

Trainingsvorrichtung sowie Verfahren zur Evaluierung von
Bewegungsabläufen
Die Erfindung betrifft eine Trainingsvorrichtung zur Evaluierung von Bewegungsabläufen eines Benutzers sowie ein Verfahren zur Evaluierung von Bewegungsabläufen eines Benutzers.
Im Sport, insbesondere im Fitness-Bereich, beim Tanz oder auch zur Therapie von Verletzungen oder Bewegungsstörungen, wie nach einem Schlaganfall, wird die korrekte Ausführung von Bewegungsabläufen angestrebt. Falsche Bewegungsabläufe führen zu einer schlechteren Leistung und schlimmstenfalls sogar zu Verletzungen.
Zum Beispiel ist beim Training mit freien Gewichten, also ohne solche Geräte, die den Bewegungsablauf führen, ein Verletzungsrisiko dann gegeben, wenn Übungen inkorrekt ausgeführt werden. Deshalb betreut üblicherweise ein erfahrener Trainer einen Trainierenden, um die Bewegungsabläufe des Anfängers korrigieren zu können. Dadurch werden Verletzung und das Einstudieren falscher Bewegungsabläufe verhindert.
Die Dienste eines erfahrenen Trainers oder Therapeuten in Anspruch zu nehmen, ist jedoch einerseits kostspielig und bedarf andererseits auch terminlicher Abstimmung mit dem Trainer. Es ist somit Aufgabe der Erfindung, eine Trainingsvorrichtung sowie ein
Verfahren zur Evaluierung von Bewegungsabläufen bereitzustellen, die einen Benutzer ohne die Anwesenheit eines Trainers auf inkorrekte Bewegungsabläufe aufmerksam machen.
Die Aufgabe wird gelöst durch eine Trainingsvorrichtung zur Evaluierung von Bewegungsabläufen eines Benutzers, mit einem Spiegel, der eine Vorderseite und eine Rückseite aufweist, wenigstens einer Anzeigevorrichtung, die auf der Rückseite des Spiegels vorgesehen ist, wenigstens einem Sensor, der auf einen Trainingsbereich vor der Vorderseite gerichtet ist, und einer Steuereinheit, die mit der Anzeigevorrichtung und mit dem wenigstens einen Sensor informationstechnisch verbunden ist. Die wenigstens eine Anzeigevorrichtung ist derart angeordnet, dass sie durch den Spiegel vom Trainingsbereich aus ablesbar ist. Die Steuereinheit ist dazu eingerichtet, Daten von dem wenigstens einen Sensor zu empfangen und auf Basis der Daten die Anzeigevorrichtung zur Korrektur oder Bestätigung der Bewegungsabläufe des Benutzers anzusteuern. Der wenigstens eine Sensor ist eine Time-of-Flight Kamera (ToF-Kamera), ein Radarsensor, ein Infrarotsensor, ein Ultraschallsensor und/oder eine Kombination aus einer Kamera und einem Infrarotsensor.
Der Benutzer führt dabei seine Übungen auf der Vorderseite des Spiegels durch. Die Ansteuerung der Anzeigevorrichtung durch die Steuereinheit geht dabei über ein bloßes An- und Ausschalten beim Erkennen der Präsenz eines Benutzers hinaus.
Hierbei bedeutet informationstechnisch, dass die Steuereinheit mit dem wenigstens einen Sensor mittels eines Kabels verbunden ist oder kabellos mit dem Sensor kommuniziert, beispielsweise über Bluetooth oder WLAN.
Auf den Benutzer bzw. die Vorderseite gerichtet, bedeutet dabei, dass die Sensoren den Trainingsbereich bzw. den Benutzer im Trainingsbereich auf der Vorderseite des Spiegels erfassen sowie dass die Anzeigevorrichtung vom Benutzer im Trainingsbereich bzw. von der Vorderseite lesbar oder wahrnehmbar ist.
Durch die Verwendung einer Time-of-Flight Kamera, eines Radarsensors, eines Infrarotsensor, eines Ultraschallsensor und/oder eine Kombination aus einer Kamera und einem Infrarotsensor kann die Bewegung des Benutzers präzise erfasst werden. Wenn mehrere Sensoren vorgesehen sind, können die einzelnen Sensoren von unterschiedlichem Typ sein, um die Genauigkeit der Erfassung zu erhöhen.
Unter einem Spiegel wird im Rahmen dieser Erfindung eine spiegelnde Oberfläche verstanden, die Licht, das von der Vorderseite auf den Spiegel fällt, zurück reflektiert. Der Spiegel kann beispielsweise ein üblicher Spiegel oder ein Sicherheitsspiegel aus Glas oder Acrylglas sein, der einen Teil des auf ihn fallenden Lichtes transmittiert. Solche Spiegel sind auch als„Einwegspiegel" oder „Spionspiegel" bekannt. Der Spiegel kann aber auch eine spiegelnde Folie sein, die an einem passenden Grundkörper, wie einem Rahmen oder einem Träger befestigt ist.
Die Trainingsvorrichtung weist beispielsweise einen Grundkörper auf, an dem der Spiegel, der Sensor und/oder die Anzeigevorrichtung befestigt ist. Die Anzeigevorrichtung ist beispielsweise ein Bildschirm (LCD-, Plasma-, oder E-Ink-Bildschirm) oder eine LED-Matrix. Als Bildschirm können auch LED-, LCD-, Plasma-, E-Ink- oder OLED-Folien eingesetzt werden.
Denkbar ist auch, dass die Anzeigevorrichtung ein Projektor (Beamer) ist.
Dadurch, dass der Benutzer bei der Ausführung seiner Übungen von den Sensoren erfasst wird, ist es möglich, dem Benutzer direkt Rückmeldung zu den von ihm ausgeführten Bewegungsabläufen zu geben. Auf diese Weise kann verhindert werden, dass der Benutzer falsche Bewegungsabläufe einübt oder sich durch falsche Bewegungsabläufe verletzt. Außerdem erfolgt die Rückmeldung, ohne dass der Benutzer seinen Bewegungsablauf unterbrechen muss, da der Benutzer während seiner Übung ohnehin auf den Spiegel schaut. Ein Trainer, der Hilfestellung gibt, ist daher nicht mehr zwingend notwendig.
Die Trainingsvorrichtung eignet sich nicht nur im Bereich des Fitnesstrainings mit freien Gewichten, sondern kann auch zur Korrektur von Bewegungsabläufen beim Tanzen, bei anderen Sportarten, in der Physiotherapie, Reha (medizinische Rehabilitation) oder der Orthopädie angewendet werden.
Zum Beispiel ist die Steuereinheit dazu eingerichtet, Daten von dem wenigstens einen Sensor zu empfangen, auf Basis dieser Daten einen Benutzerbewegungsablauf des Benutzers zu erkennen, den Benutzerbewegungsablauf mit einem Soll-Bewegungsablauf zu vergleichen und den Benutzer durch Steuerung der Anzeigevorrichtung auf Unterschiede zwischen dem Benutzerbewegungsablauf und dem Soll-Bewegungsablauf aufmerksam zu machen.
Möglich ist es auch, dass die Steuereinheit mit Sensoren außerhalb der Trainingsvorrichtung kommuniziert, insbesondere drahtlos. Solche Sensoren können zum Beispiel Bewegungs- und/oder Beschleunigungssensoren in den verwendeten Sportgeräten sein oder vom Benutzer getragen werden. Um eine gute Ablesbarkeit von der Vorderseite aus zu gewährleisten, ist die wenigstens eine Anzeigevorrichtung unmittelbar am Spiegel vorgesehen, insbesondere berührt die Anzeigevorrichtung den Spiegel.
In einer Ausgestaltung der Erfindung ist der wenigstens eine Sensor unterhalb, oberhalb und/oder seitlich des Spiegels vorgesehen, sodass die Funktionsweise des wenigstens einen Sensors nicht durch die Lichtundurchlässigkeit des Spiegels beeinträchtigt wird. Der Sensor kann dabei im Bereich des Spiegels im Bezug auf eine Richtung senkrecht zum Spiegel vorgesehen sein.
Alternativ oder zusätzlich kann wenigstens ein Sensor auch auf der Rückseite des Spiegels so angeordnet sein, dass der wenigstes eine Sensor durch den Spiegel auf den Trainingsbereich gerichtet ist. Dadurch lässt sich die Bewegung des Benutzers genauer erfassen.
Vorzugsweise hat der Spiegel wenigstens einen Funktionsbereich mit einer hohen Transmission und wenigstens einen Spiegelbereich mit einer niedrigen Transmission, wobei die wenigstens eine Anzeigevorrichtung und/oder der wenigstens eine Sensor auf der Rückseite in einem Funktionsbereich angeordnet ist. Die hohe Transmission des Funktionsbereiches kann dabei zwischen 5 % und 20 %, insbesondere zwischen 8 % und 12 % liegen. Die niedrige Transmission der Spiegelbereiche liegt darunter, wobei versucht wird, die Transmission zu minimieren. Auf diese Weise wird gewährleistet, dass die Anzeigevorrichtung von der Vorderseite aus lesbar ist bzw. die Sensoren den Benutzer auf der Vorderseite von der Rückseite aus erfassen können.
Denkbar ist selbstverständlich auch, dass der Spiegel über seine gesamte Fläche eine gleichbleibende hohe Transmission in den genannten Grenzen hat. Um eine optimale Erfassung des Benutzers durch den Sensor zu gewährleisten, kann der wenigstens eine Sensor derart an der Trainingsvorrichtung befestigt sein, dass sein Winkel und/oder seine Position in insbesondere vertikaler Richtung und/oder horizontaler Richtung in Bezug auf den Spiegel verstellbar ist. In einer Ausgestaltung der Erfindung weist der wenigstens eine Sensor alternativ oder zusätzlich einen Structured Light Sensor auf, der eine Lichtquelle und einen Lichtsensor hat und der zur Verwendung von strukturiertem Licht eingerichtet ist. Auf diese Weise ist eine sehr genaue und einfache Erkennung der Bewegungen und/oder der Position des Benutzer möglich. Anstelle der oben genannten Sensoren können also auch die Lichtquelle und der Lichtsensor verwendet werden. Structured Light Sensoren werden auch Structured Light Kameras genannt.
Unter strukturiertem Licht, auch„structured light" genannt, das Structured Light Sensoren verwenden, wird dabei im Rahmen dieser Erfindung verstanden, dass ein vorbestimmtes Lichtmuster, z.B. eine Linie, ein Gitter oder ein Fächer, auf den Benutzer projiziert und das Lichtmuster vom Lichtsensor unter einem vorbestimmten Winkel zur Lichtquelle aufgenommen wird, wobei die Steuereinheit oder der Lichtsensor selbst von der erkannten Form, Größe und/oder Position des Lichtmusters auf dem Benutzer und/oder auf einzelnen Körperteilen auf die Entfernung und/oder die Geometrie der Oberfläche des Benutzers schließen kann. Zum Beispiel wird Infrarotlicht verwendet. Als Lichtquelle können dabei Laser, z.B. Linienlaser, und/oder LED zum Einsatz kommen.
Der Lichtsensor kann mit einem Bandpassfilter versehen sein, um lediglich Licht mit der Wellenlänge zu detektieren, das von der Lichtquelle emittiert wurde.
In einer Ausgestaltung kann der Lichtsensor eine Kombination aus einer Kamera und einem Infrarotsensor sein, um die Erkennungsgenauigkeit zu erhöhen.
Alternativ oder zusätzlich sind wenigstens zwei Sensoren vorgesehen, die dazu eingerichtet sind, stereoskopische Aufnahmen des Benutzers anzufertigen, wodurch zuverlässig die Entfernung des Benutzers und/oder einzelner Körperteile vom Spiegel ermittelt werden kann. Anstelle der oben genannten Sensoren können also auch zwei Sensoren, wie zwei Kameras, verwendet werden.
Anhand der unterschiedlichen Blickwinkel der beiden Sensoren kann die Steuereinheit oder die Sensoren selbst die Entfernung aus den aufgenommenen Bilddaten bestimmen. Vorzugsweise sind wenigstens zwei Sensoren vorgesehen, wobei wenigstens einer der Sensoren ein Radarsensor ist, der auf der Rückseite in einem Funktionsbereich des Spiegels angeordnet ist, und der wenigstens eine andere Sensor eine Kamera oder eine Time-of-Flight Kamera ist, die oberhalb, unterhalb und/oder seitlich des Spiegels angeordnet ist. Auf diese Weise lassen sich die Vorteile der präzisen Abstandsmessung durch den Radarsensor mit der hohen Auflösung der Time-of-Flight Kamera verbinden.
Um eine Identifikation des Benutzers an der Trainingsvorrichtung zu ermöglichen, kann die Trainingsvorrichtung eine Identifikationsvorrichtung aufweisen, insbesondere ein RFID-Lesegerät, einen Barcodescanner und/oder einen Scanner für biometrische Merkmale. Ferner wird die Aufgabe gelöst durch ein Verfahren zur Evaluierung von
Bewegungsabläufen eines Benutzers mittels einer Trainingsvorrichtung, insbesondere einer erfindungsgemäßen Trainingsvorrichtung, die einen Spiegel, wenigstens eine Ausgabevorrichtung, insbesondere wenigstens eine Anzeigevorrichtung, wenigstens einen Sensor, der auf den Benutzer gerichtet ist, und eine Steuereinheit umfasst, die Messdaten von dem wenigstens einen Sensor erhält und die die wenigstens eine Ausgabevorrichtung steuert. Das Verfahren weist die folgenden Schritte auf: a) Erfassen des Benutzers durch den wenigstens einen Sensor, b) Bestimmung des Benutzerbewegungsablaufs des Benutzers durch die Steuereinheit, c) Vergleichen des Benutzerbewegungsablaufs mit einem Soll- Bewegungsablauf, d) Ermitteln der Unterschiede zwischen dem Benutzerbewegungsablauf und dem Soll-Bewegungsablauf, und e) Ausgeben eines Signals auf Basis der ermittelten Unterschiede durch die wenigstens eine Ausgabevorrichtung, wobei die Steuereinheit einen Wiederholungszähler aktualisiert, falls der Benutzerbewegungsablauf und der Soll-Bewegungsablauf im Wesentlichen übereinstimmen. Dadurch kann die Steuereinheit eine korrekt ausgeführte Wiederholung erkennen und den Trainingsfortschritt des Benutzers protokollieren.
Beispielsweise wird der Wert des Wiederholungszählers über die Anzeigevorrichtung ausgegeben. Dabei kann die Geschwindigkeit der Bewegung ebenfalls ermittelt werden und zur Bestimmung verwendet werden.
Vorzugsweise kann als Signal die Unterschiede und/oder Korrekturvorschläge aufgrund der Unterschiede ausgegeben werden, wodurch die Qualität der Hilfestellung verbessert wird. Um den Benutzer und/oder den Benutzerbewegungsablauf präzise erfassen zu können, wird vorzugsweise die Position, Geschwindigkeit und/oder Beugung von Gelenken des Benutzers, die Position und/oder Geschwindigkeit des Körpers des Benutzers und/oder die Stellung des Skeletts des Benutzers anhand der Daten des wenigstens einen Sensors ermittelt. Um dem Benutzer eine einfache Kontrolle seiner Bewegungen zu ermöglichen, können die Positionen des Körpers, der Gelenke und/oder des Skeletts des Benutzers in Echtzeit auf einer optischen Anzeigevorrichtung der Ausgabevorrichtung, insbesondere einem Bildschirm angezeigt werden.
Beispielsweise werden die Positionen des Körpers, der Gelenke und/oder des Skeletts des Benutzers als Markierungen derart ausgegeben, dass die Markierungen mit den entsprechenden Körperteilen des vom Benutzer wahrgenommenen Spiegelbildes des Benutzers übereinstimmen. Auf diese Weise lässt sich die Qualität der Hilfestellung weiter verbessern.
Vorzugsweise kann die Steuereinheit auf vorbestimmte, in einem Speicher hinterlegte Soll-Bewegungsabläufe zugreifen, um jeweils den passenden Soll- Bewegungsablauf mit dem Benutzerbewegungsablauf vergleichen zu können. Die vorbestimmten Soll-Bewegungsabläufe können in einem Speicher lokal in der Trainingsvorrichtung bzw. der Steuereinheit, auf einem Server in einem lokalen Netzwerk und/oder auf einem Server im Internet hinterlegt sein. Denkbar ist auch, dass die Steuereinheit Soll-Bewegungsabläufe in Echtzeit von anderen Trainingsvorrichtungen erhält, die von dem Benutzer dieser anderen Trainingsvorrichtung gerade ausgeführt werden. Auf diese Weise können Benutzer miteinander trainieren, obwohl sie nicht im gleichen Raum sind.
Auch können der Steuereinheit neue Soll-Bewegungsabläufe beigebracht werden oder die Steuereinheit kann neue Soll-Bewegungsabläufe selber bestimmen oder kalkulieren, die dann von der Steuereinheit lokal oder auf einem Server im lokalen Netzwerk oder im Internet hinterlegt werden.
Beispielsweise ist die wenigstens eine Ausgabevorrichtung ein Bildschirm, wobei die Unterschiede und/oder die Korrekturvorschläge als Darstellung, insbesondere als Video des Soll-Bewegungsablaufes, als Animation oder als Text ausgegeben werden. Auf diese Weise erhält der Benutzer auf einfache und verständliche Weise Korrekturvorschläge wie von einem erfahrenen Trainer.
Die wenigstens eine Ausgabevorrichtung kann auch oder ausschließlich einen Lautsprecher umfassen, durch den auf Unterschiede bzw. Korrekturvorschläge hingewiesen und/oder Unterschiede bzw. Korrekturvorschläge erklärt werden können.
In einer Ausgestaltung der Erfindung erhöht oder verringert die Steuereinheit den Widerholungszähler um eins, falls der Benutzerbewegungsablauf und der Soll- Bewegungsablauf im Wesentlichen übereinstimmen.
Dabei kann ein Toleranzbereich vorbestimmt sein oder vom Benutzer ausgewählt werden, der die erlaubte Abweichung des Benutzerbewegungsablaufs vom Soll-Bewegungsablauf bestimmt. Liegt der Benutzerbewegungsablauf innerhalb dieses Toleranzbereiches wird der Benutzerbewegungsablauf als im Wesentlichen mit dem Soll-Bewegungsablauf übereinstimmend bewertet.
Zum Beispiel erkennt die Steuereinheit, wenn der Benutzer seine Übung absolviert hat, d. h. wenn er die geforderte Anzahl an korrekten Wiederholungen durchgeführt hat. Auch ist es denkbar, dass die Steuereinheit Informationen über den Trainingsfortschritt, über die durchgeführten Übungen, absolvierten Wiederholungen als Benutzerdaten, Benutzerbewegungsabläufe und erkannte Objekte, wie Geräte oder Kleidung, speichert. Dabei kann die Speicherung lokal in der Steuereinheit oder auf einem Server in einem lokalen Netzwerk oder im Internet erfolgen. In einer Ausführungsvariante erkennt die Steuereinheit anhand des Bewegungsablaufs und/oder des vom Benutzer verwendeten Gerätes die vom Benutzer durchgeführte Übung. Unter einem Gerät werden auch Gewichte und sonstige Trainingsutensilien verstanden. Geräte können durch den wenigstens einen Sensor, beispielsweise mittels Bilderkennung oder Signaturerkennung, erfasst werden. Auf diese Weise kann die Steuereinheit ohne eine Eingabe seitens des Benutzers durch das Training führen, Trainingsverläufe protokollieren und/oder Hilfestellung geben.
In einer Ausgestaltung der Erfindung meldet sich der Benutzer zu Beginn, insbesondere mittels der Identifikationsvorrichtung an, woraufhin die Steuereinheit Benutzerdaten abruft, insbesondere Trainingsverläufe vorhergehender Trainingseinheiten und/oder den aktuellen Trainingsplan des Benutzers. Auf diese Weise kann der Benutzer in seinem Training unterstützt werden. Die Identifizierung kann dabei mittels einer Benutzerkarte mit einem RFID-Chip oder einem Barcode erfolgen. Denkbar ist aber auch eine Erkennung von biometrischen Merkmalen, wie eine Gesichts-, Iris- und/oder Fingerabdruckerkennung. Auch eine Anmeldung mittels des Smartphones des Benutzers oder ein Training ohne Anmeldung ist denkbar.
Um die Bedienung der Trainingsvorrichtung weiter zu vereinfachen, kann die Steuereinheit vorbestimmte Gesten des Benutzers erkennen und aufgrund der erkannten Gesten bestimmte Funktionen ausführen. Dadurch ist eine Gestensteuerung möglich.
Denkbar ist auch die Steuerung der Trainingsvorrichtung mittels eines berührungsempfindlichen Bildschirms (Touch-Screen). Weitere Vorteile und Merkmale der Erfindung ergeben sich aus der nachfolgenden Beschreibung sowie aus den beigefügten Zeichnungen, auf die Bezug genommen wird. In den Zeichnungen zeigen:
Figur 1 a) und b) eine Vorder- beziehungsweise Rückansicht einer erfindungsgemäßen Trainingsvorrichtung, - Figur 2 eine Schnittansicht der erfindungsgemäßen Trainingsvorrichtung gemäß der Figuren 1 a) und 1 b) entlang der Achse II-II, und Figur 3 schematisch die Trainingsvorrichtung gemäß den Figuren 1 a), 1 b) und 2 während des Betriebs.
In den Figuren 1 a), 1 b) und 2 ist eine Trainingsvorrichtung 10 mit einem Grundkörper 12, einem Spiegel 14, mehreren Sensoren 16, mehreren Ausgabevorrichtungen 18 (Fig. 1 b) und einer Steuereinheit 20 (Fig. 1 b) vor einer Wand 21 dargestellt.
Die Trainingsvorrichtung 10 eignet sich zur Evaluierung und Korrektur von Bewegungsabläufen eines Benutzers B (Fig. 2). Obwohl das gezeigte Ausführungsbeispiel die Anwendung zur Korrektur von Bewegungsabläufen im Fitnessbereich zeigt, sind andere Anwendungen im Sport, beim Tanzen oder medizinische Anwendungen in der Rhea, der Orthopädie oder der Physiotherapie möglich.
Am Grundkörper 12, der beispielsweise ein Stahlrahmen sein kann und der in den Figuren nur angedeutet ist, ist der Spiegel 14 befestigt. Der Spiegel 14 ist in der gezeigten Ausführungsform ein herkömmlicher oder
Sicherheitsspiegel aus Glas oder Acrylglas, das mit einer reflektierenden Beschichtung versehen wurde. Beispielsweise wurde auf das Glas oder das Acrylglas eine Aluminiumbeschichtung aufgedampft oder aufgepresst.
Denkbar ist jedoch auch, dass der Spiegel nur eine spiegelnde Folie ist, die am Grundkörper 12 bzw. am Rahmen befestigt ist oder die vom Grundkörper aufgespannt wird.
Der Spiegel 14 hat zwei sich gegenüberliegende Seiten, wobei die Seite, an der der Benutzer B seine Übungen durchführt, als Vorderseite V und der Bereich vor der Vorderseite V als Trainingsbereich T bezeichnet wird, und die entgegengesetzte Seite die Rückseite R oder die Technikseite darstellt. Der Benutzer B sieht die Trainingsvorrichtung 10 also so, wie sie in Figur 1 a) dargestellt ist.
Zudem weist der Spiegel 14 verschiedene Bereiche mit unterschiedlich hohem Transmissionsgrad auf, nämlich mehrere Funktionsbereiche 22 und wenigstens einen Spiegelbereich 24. Denkbar ist selbstverständlich auch, dass der Spiegel einen einheitlichen Transmissionsgrad hat.
In Figur 1 a) sind die mehreren Funktionsbereiche 22 des Spiegels 14 gestrichelt dargestellt. Die Funktionsbereiche 22 haben eine höhere Transmission im Vergleich zum übrigen Spiegel 14, der den Spiegelbereich 24 bildet.
Die Transmission der Funktionsbereiche liegt zwischen 5 % und 20 %, insbesondere zwischen 8 % und 12 %.
Dagegen ist die Transmission der Spiegelbereiche 24 kleiner als die der Funktionsbereiche 22 und sollte so klein wie möglich sein.
Im gezeigten Ausführungsbeispiel sind fünf Funktionsbereiche 22 vorgesehen, wobei sich zwei rechteckige Funktionsbereiche 22 am linken Rand des Spiegels 14 übereinander befinden. Ein weiterer rechteckiger Funktionsbereich 22 mit größerer Fläche befindet sich zentral im Spiegel 14.
Seitlich neben dem großen zentralen Funktionsbereich 22 sind im Wesentlichen auf halber Höhe zwei runde Funktionsbereiche 22 mit einem geringen Durchmesser von beispielsweise maximal 5 cm vorgesehen.
Um den Spiegel 14 herum ist der Grundkörper 12 sichtbar, an dem vier Sensoren 16 einer ersten Gruppe Si von Sensoren angeordnet sind. Im gezeigten Ausführungsbeispiel befindet sich ein Sensor 16 unterhalb, ein weiterer Sensor 16 oberhalb, ein dritter Sensor 16 seitlich links und ein vierter Sensor 16 seitlich rechts vom Spiegel 14.
Wie in Figur 2 zu sehen, befinden sich die Sensoren 16 der ersten Gruppe Si in Richtung Rs senkrecht zum Spiegel 14 im Bereich des Spiegels 14.
Die Sensoren 16 können Kameras, Time-of-Flight Kameras (ToF-Kameras), Radarsensoren, Infrarotsensoren und/oder Ultraschallsensoren sein.
Denkbar ist auch, dass wenigstens ein sogenannter Structured Light Sensor als Sensor 16 verwendet wird, der eine Lichtquelle, z.B. einen Laser und/oder LEDs, insbesondere für Infrarotlicht, und wenigstens einen Lichtsensor aufweist. Zum Beispiel kommen eine Kamera und ein Infrarotsensor als Lichtsensoren zum Einsatz. Structured Light Sensoren, auch Structured Light Kameras genannt, arbeiten mit einem oder mehreren Lichtquellen und/oder mit einem oder mehreren Lichtsensoren wie zum Beispiel Infrarotsensor, Linienlasern und/oder mit strukturierten LED-Beleuchtungen. Der wenigstens eine Lichtsensor ist dabei in einem vorbestimmten Winkel zur Lichtquelle ausgerichtet.
Der Structured Light Sensor bzw. seine Komponenten können auf der Rückseite, oberhalb, unterhalb und/oder seitlich des Spiegels 14 angeordnet werden. In einigen Fällen, insbesondere wenn Infrarotlicht verwendet wird, können die lichtemittierenden oder lichtdetektierenden Komponenten des Structured Light Sensors auch auf der Rückseite R des Spiegels 14 angeordnet werden, wenn die Transmissionseigenschaften des Spiegels 14 derart geändert werden, dass er für Infrarotlicht durchlässig ist. Im gezeigten Ausführungsbeispiel sind die Sensoren 16 der ersten Gruppe Si alle Kameras oder Time-of-Flight Kameras, die mittels einer Lichtlaufzeitmessung räumliche Bilder (3D-Bilder) aufnehmen können.
Diese ToF-Kameras arbeiten üblicherweise mit Infrarotlicht und sind deshalb nicht auf der Rückseite R des Spiegels 14 angeordnet, da der Spiegel 14 Infrarotlicht absorbiert.
Außerdem ist am Grundkörper 12 eine Identifikationsvorrichtung 26 angeordnet. Die Identifikationsvorrichtung 26 kann ein Barcodescanner, ein RFID- Lesegerät, ein Fingerabdruckscanner, ein Irisscanner und/oder ein Gesichtsscanner sein. Auf der in Figur 1 b) dargestellten Rückseite R des Spiegels 14 sind die übrigen Komponenten der Trainingsvorrichtung 10 angeordnet.
Zwei weitere Sensoren 16 einer zweiten Gruppe S2 von Sensoren sind auf der Rückseite R des Spiegels 14 direkt am Spiegel 14 befestigt.
Diese Sensoren 16 sind in den beiden runden Funktionsbereichen 22 des Spiegels 14 vorgesehen, sodass sie aufgrund der hohen Transmission der Funktionsbereiche 22 Licht oder andere elektromagnetische Strahlung von der Vorderseite V bzw. dem Trainingsbereich T empfangen können.
Beispielsweise sind die Sensoren 16 der zweiten Gruppe S2 Radarsensoren. Sie können jedoch auch Sensoren der zuvor genannten Typen sein. Denkbar ist, dass einzelne oder sämtliche Sensoren 16 individuell verstellbar sind. Dadurch kann ihr Winkel oder ihre Position eingestellt werden, um die Sensoren 16 auszurichten, d.h. ihren Messebereich einzustellen. Insbesondere lassen sich die Sensoren 16 in vertikaler Richtung Rv und/oder horizontaler Richtung RH in Bezug auf den Spiegel 14 verstellen. Im Falle der Verwendung eines Structured Light Sensors als zumindest Teil der
Sensoren 16 oder ausschließlich, sind eine Lichtquelle und ein Lichtsensor vorgesehen. Dabei kann die Lichtquelle ein vorbestimmtes Lichtmuster, z.B. eine Linie, ein Gitter oder einen Fächer, auf den Benutzer projizieren und das Lichtmuster wird vom Lichtsensor aufgenommen. Zum Beispiel wird Infrarotlicht verwendet.
In Abhängigkeit von der Entfernung und der Oberfläche des Benutzers an der Stelle, die von der Lichtquelle beleuchtet wird, wird das Lichtmuster verzerrt.
Das verzerrte Lichtmuster wird dann vom Lichtsensor unter dem vorbestimmten Winkel erfasst, wodurch die von der Oberfläche und dem Abstand des Benutzers erzeugte Verzerrung bestimmt werden kann.
Die Steuereinheit 20 oder der Lichtsensor selbst ermitteln anhand der Verzerrung, z.B. der erkannten Form, Größe und/oder Position des Lichtmusters auf dem Benutzer und/oder auf einzelnen Körperteilen die Entfernung und/oder die Geometrie der Oberfläche des Benutzers. Wenn als Lichtsensor des Structured Light Sensors eine Kombination eines Infrarotsensors und einer Kamera zum Einsatz kommt, kann die Detektionsgenauigkeit weiter erhöht werden.
Alternativ oder zusätzlich können wenigstens zwei Sensoren 16 vorgesehen sein, die den Benutzer aus zwei verschiedenen Blickwinkeln aufnehmen. Anhand der unterschiedlichen Blickwinkel der beiden Sensoren kann die Steuereinheit 20 oder die Sensoren 16 selbst die Entfernung aus den aufgenommenen Bilddaten bestimmen.
In Figur 2 sind die Messbereiche einiger Sensoren 16 durch verschiedenartige Linien angedeutet. Alle Messbereiche erstrecken sich jedoch auf die Vorderseite V des Spiegels 14 in den Trainingsbereich T, sodass die Sensoren 16 auf die Vorderseite V sowie auf den Trainingsbereich T bzw. auf den Benutzer B auf der Vorderseite V gerichtet sind.
In den übrigen drei Funktionsbereichen 22 des Spiegels 14 sind als einige der Ausgabevorrichtungen 18 jeweils optische Anzeigevorrichtungen 29, im gezeigten Ausführungsbeispiel Bildschirme 30, vorgesehen. Die Bildschirme 30 sind unmittelbar am Spiegel 14 vorgesehen und berühren den Spiegel 14, sodass kein Streulicht von der Rückseite R des Spiegels 14 durch den entsprechenden Funktionsbereich 22 zur Vorderseite V gelangen kann. Dadurch sind die Bildschirme 30 von der Vorderseite V des Spiegels 14, d.h. vom Trainingsbereich (T) aus gut ablesbar.
Die optischen Anzeigevorrichtungen 29 können übliche Flachbildschirme (LCD, Plasma, OLED, E-Ink) sein. Denkbar ist jedoch auch, dass die Bildschirme LCD-, LED-, Plasma-, E-Ink oder OLED-Folien sind, die am Spiegel 14 oder am Grundkörper 12 befestigt sind. Denkbar ist auch, dass die Anzeigevorrichtung 29 ein Projektor (Beamer) ist.
Zwei weitere Ausgabevorrichtungen 18 in Form von Lautsprechern 32, d. h. akustische Ausgabevorrichtungen 18, sind ebenfalls auf der Rückseite R vorgesehen.
In der gezeigten Ausführungsform sind sämtliche Ausgabevorrichtungen 18 am Grundkörper 12 befestigt. Denkbar ist jedoch auch, dass die Ausgabevorrichtungen 18, insbesondere die Lautsprecher 32, nur am Spiegel 14 befestigt sind.
Die Steuereinheit 20 ist ebenfalls auf der Rückseite R angeordnet und kann vom Grundkörper 12 gehalten werden. Die Steuereinheit 20 ist mit sämtlichen Sensoren 16, den Ausgabevorrichtungen 18 und mit der Identifikationsvorrichtung 26 informationstechnisch verbunden.
In der gezeigten Ausführungsform wird dies durch Kabel erreicht. Denkbar ist jedoch auch, dass die Steuereinheit 20 mittels drahtlosen Verbindungen, z.B. Bluetooth oder WLAN mit den Ausgabevorrichtungen 18, den Sensoren 16 und/oder der Identifikationsvorrichtung 26 kommuniziert.
Zur Unterstützung des Benutzers B empfängt die Steuereinheit 20 Daten von den Sensoren 16 und steuert die Ausgabevorrichtung 18 auf Basis dieser Daten an.
Möglich ist es auch, dass die Steuereinheit 20 mit Sensoren (nicht gezeigt) außerhalb der Trainingsvorrichtung kommuniziert, insbesondere drahtlos. Solche Sensoren können zum Beispiel Bewegungs- und/oder Beschleunigungssensoren in den verwendeten Sportgeräten sein oder die vom Benutzer während des Trainings getragen werden.
Wenn ein Benutzer B die Trainingsvorrichtung 10 verwenden möchte, tritt der Benutzer B auf die Vorderseite V der Trainingsvorrichtung 10 in den Trainingsbereich T.
Zunächst identifiziert sich der Benutzer B an der Identifikationsvorrichtung 26, beispielsweise durch Einscannen seines Mitgliedsausweises des entsprechenden Fitnessstudios oder der entsprechenden Einrichtung. Hierfür kann der Mitgliedsausweis einen entsprechenden RFID-Chip oder einen Barcode haben, der von der Identifikationsvorrichtung 26 eingelesen werden kann.
Denkbar ist auch, dass der Benutzer B seinen Fingerabdruck, seine Iris oder sein Gesicht von der Identifikationsvorrichtung scannen lässt, um sich mittels biometrischer Merkmale zu identifizieren.
Denkbar ist jedoch auch, dass mittels der Sensoren 16 das Gesicht erkannt und von der Steuereinheit 20 ausgewertet wird, sodass eine zusätzliche Identifikationsvorrichtung 26 nicht benötigt wird. Nach der Identifikation kann die Steuereinheit 20 Benutzerdaten über den Benutzer B abrufen. Diese Benutzerdaten können in einem lokalen Speicher der Trainingsvorrichtung 10 bzw. der Steuereinheit 20 hinterlegt sein und/oder die Steuereinheit 20 kann diese Daten von einem Server in einem lokalen Netzwerk oder im Internet beziehen. Auch kann die Steuereinheit 20 vom Smartphone des Benutzers Benutzerdaten erhalten.
Die Benutzerdaten enthalten Informationen über Trainingsverläufe vorhergehender Trainingseinheiten, deren Zeiten und den aktuellen Trainingsplan des Benutzer B. Diese Informationen und gegebenenfalls eine Begrüßung können über die Ausgabevorrichtungen 18 ausgegeben werden, insbesondere über die Bildschirme 30, die sich am linken Rand des Spiegels 14 befinden.
Der Benutzer B sieht dann seinen Trainingsplan und damit die Übungen des nächsten Trainings, die er zu absolvieren hat. Der Benutzer B kann sich einzelne Übungen genauer ansehen, sich z.B. Beispielvideos den Soll-Bewegungsablauf der Übung über die Bildschirme 30 ausgeben lassen, die Übungen ändern oder sonstige Funktionen auswählen.
Um eine Funktionen auszuwählen, kann er dafür vorbestimmte Gesten ausführen, die von den Sensoren 16 aufgenommen und von der Steuereinheit 20 erkannt werden, sodass die Trainingsvorrichtung 10 mittels Gestensteuerung bedient werden kann. Denkbar ist auch, dass die Identifikationsvorrichtung 26 einen berührungsempfindlichen Bildschirm hat, mit der die Trainingsvorrichtung 10 gesteuert werden kann.
Möchte der Benutzer B nun mit dem Training beginnen, so wählt er die entsprechende Funktion aus bzw. macht die dazu passende Geste. Die Geste wird von der Steuereinheit 20 erkannt und das Training beginnt.
Der Benutzer B wird spätestens jetzt, vorzugsweise jedoch unmittelbar nach der Identifikation, von den Sensoren 16 sowohl der ersten Gruppe Si als auch der zweiten Gruppe S2 erfasst. Diese Daten werden an die Steuereinheit 20 weitergeleitet. Die Steuereinheit 20 bestimmt anhand der Daten der Sensoren 16 die Position des Körpers des Benutzers B sowie die Position und Beugung der Körperteile und/oder Gelenke 34 des Benutzers B. Die Gelenke 34 des Oberkörpers des Benutzers B sind in Figur 2 mit gestrichelten Kreisen markiert.
Die Bestimmung erfolgt beispielsweise anhand des Abstandes, der durch die Radarsensoren gemessen wurde, im Zusammenspiel mit den Bilddaten, die mittels der Kameras, der ToF-Kameras und/oder des Structured Light Sensors gewonnen wurden.
Außerdem kann die Steuereinheit 20 auch die Stellung des Skeletts des Benutzers B bestimmen. Die Stellung des Skeletts des Benutzers B kann auch idealisiert oder angenähert werden, wie dies mit den gestrichelten Linien im Körper des Benutzers B in Figur 2 getan wurde.
Darüber hinaus kann die Steuereinheit 20 aufgrund der Daten der Sensoren 16 mittels Bilderkennung erkennen, ob und welche Geräte 36 der Benutzer B verwendet. Alternativ kann von der Steuereinheit 20 eine Signatur wie ein 1 D- oder 2D-Barcode auf den Geräten 36 zur Identifizierung der Geräte 36 erkannt werden. In der gezeigten Ausführungsform benutzt der Benutzer B als Geräte 36 zwei
Kurzhanteln in den Händen.
Anhand der erkannten Geräte 36 kann die Steuereinheit 20 nun auf die Übung schließen, die der Benutzer B durchführt bzw. durchführen möchte.
Denkbar ist jedoch auch, dass die Steuereinheit 20 aufgrund des Trainingsplans des Benutzers B oder einer Auswahl des Benutzers B weiß, welche Übung der Benutzer B durchführt bzw. durchführen möchte.
Die Steuereinheit 20 greift daraufhin auf vorbestimmte Soll- Bewegungsabläufe zu, die angeben, wie die Bewegungsabläufe in der Übung, die der Benutzer B durchführt bzw. durchführen möchte, korrekterweise ausgeführt werden. Diese vorbestimmten Soll-Bewegungsabläufe sind vorzugsweise in einem allgemeingültigen, personenunabhängigen Format hinterlegt, beispielsweise als zeitlicher Verlauf der relativen Bewegungen der Gelenke 34 zueinander oder in Bezug auf eine Körperachse sowie ihrer Beugung. Die Steuereinheit 20 kann diese Soll-Bewegungsabläufe aus einem lokalen Speicher der Trainingsvorrichtung 10 bzw. der Steuereinheit 20 abrufen oder von einem Server im lokalen Netzwerk oder im Internet laden.
Denkbar ist auch, dass die Steuereinheit 20 Soll-Bewegungsabläufe in Echtzeit von anderen Trainingsvorrichtungen (nicht gezeigt) erhält, die von dem Benutzer dieser anderen Trainingsvorrichtung gerade ausgeführt werden. Die Benutzerbewegungsabläufe des Benutzers der anderen Trainingsvorrichtung sind dann die Soll-Bewegungsabläufe des Benutzer der Trainingsvorrichtung 10.
Auch können der Steuereinheit 20 neue Soll-Bewegungsabläufe beigebracht werden oder die Steuereinheit 20 kann neue Soll-Bewegungsabläufe selber bestimmen oder kalkulieren, die dann von der Steuereinheit lokal oder auf einem Server im lokalen Netzwerk oder im Internet hinterlegt werden.
Die Steuereinheit 20 weiß somit aufgrund des Soll-Bewegungsablaufs, genauso wie ein erfahrener Trainer, wie die vom Benutzer B durchgeführte Bewegung im Idealfall auszusehen hat.
Während der Benutzer B die Übung durchführt, d. h. Bewegungen ausführt, wird er weiterhin ständig von den Sensoren 16 erfasst.
Wie in Figur 3 dargestellt, kann die Steuereinheit 20 dabei auf einem der Bildschirme 30, vorzugsweise dem zentralen Bildschirm 30, Markierungen 38 ausgeben, die in Echtzeit die der Position der Gelenke 34 und des Skeletts entsprechen. Die Markierungen der Gelenke 34 sind in Figur 3 als Punkte oder Kreise gezeigt und das Skelett wird durch Linien grob markiert.
Die Ausgabe der Markierungen 38 kann, da die Steuereinheit 20 die Position des Benutzers B kennt, so erfolgen, dass die Markierungen 38 mit dem Spiegelbild 40, das der Benutzer B von sich im Spiegel 14 sieht, überlagern.
Die Markierungen 38 werden also an den Stellen auf dem Bildschirm 30 ausgegeben, die der Benutzer B ansieht, wenn er zürn entsprechenden Gelenk 34 oder Körperteil schaut. Der Benutzer B erhält somit den Eindruck, als ob die Markierungen 38 an seinem Körper aufgebracht wurden. Gleichzeitig kann die Steuereinheit 20 aufgrund der Daten der Sensoren 16, beispielsweise durch Bestimmung der Trajektorien der Gelenke 34, auf die Bewegung des Benutzers B, hier Benutzerbewegungsablauf genannt, schließen.
Die Steuereinheit 20 vergleicht dann den Benutzerbewegungsablauf mit dem Soll-Bewegungsablauf der ausgeführten Übung. Stimmen der Benutzerbewegungsablauf und der Soll-Bewegungsablauf nicht miteinander überein, sondern bestehen Unterschiede, identifiziert die Steuereinheit 20 die Abweichungen bzw. die Unterschiede gegenüber dem Soll-Bewegungsablauf, ebenso wie ein erfahrener Trainer dies tun würde. Daraufhin gibt die Steuereinheit 20 über die Ausgabevorrichtungen 18 die Unterschiede und zudem Vorschläge zur Korrektur dieser Unterschiede, also Vorschläge zur Verbesserung des Bewegungsablaufes, aus.
Beispielsweise kann die Steuereinheit 20 über den Lautsprecher 32 einen kurzen Warnton ausgeben lassen und sprachlich Korrekturen geben. Auch über die Bildschirme 30, insbesondere den zentralen Bildschirm 30 am zentralen Funktionsbereich 22 werden die Korrekturvorschläge und die Unterschiede ausgegeben. Beispielsweise gibt die Steuereinheit 20 auf einem der Bildschirme 30 ein gespeichertes Video aus, in dem ein Trainer die entsprechende Übung mit korrektem Bewegungsablauf durchführt. Dieses Video kann die Steuereinheit 20 zusammen mit dem Soll- Bewegungsablauf geladen haben.
Denkbar ist auch, dass die Korrekturvorschläge mittels Animationen ausgegeben werden. Zum Beispiel werden die Trajektorien der Gelenke 34 des Benutzers B im Vergleich zur Trajektorie des Soll-Bewegungsablaufes ausgegeben.
Auch eine Ausgabe der Korrekturvorschläge als Text ist denkbar.
Der Benutzer kann dann seinen Bewegungsablauf aufgrund der Korrekturvorschläge anpassen. Auf diese Weise kann der Benutzer B seine Bewegungsabläufe verbessern und ist nicht der Gefahr ausgesetzt, sich durch falsche Bewegungsabläufe zu verletzen. Führt der Benutzer B während der Übung den Bewegungsablauf bzw. eine Wiederholung der Übung so gut aus, dass keine wesentlichen Unterschiede zwischen dem Benutzerbewegungsablauf und dem Soll-Bewegungsablauf bestehen, erkennt dies die Steuereinheit 20 und wertet diese Wiederholung des Bewegungsablaufs als erfolgreiche Wiederholung.
In diesem Fall kann die Steuereinheit 20 beispielsweise einen bestätigenden Ton über die Lautsprecher 32 ausgeben. Denkbar ist auch, dass die Steuereinheit 20 einen Wiederholungszähler 42, mit dem sie die erfolgreichen Wiederholungen der Bewegungsabläufe zählt, um eins erhöht oder verringert. Diesen Wiederholungszähler 42 kann die Steuereinheit 20 über einen der Bildschirme 30, beispielsweise über einen der Bildschirme 30 am Rand des Spiegels 14, ausgeben (Fig. 3).
Außerdem kann die Steuereinheit 20 über einen der Bildschirme 30 am Rand den Namen des Benutzers B, den Namen der Übung und/oder Benutzerinformationen ausgeben (Fig. 3).
Außerdem kann die Steuereinheit 20 während des gesamten Trainings den Trainingsfortschritt, die Anzahl an Wiederholungen, die Qualität der Benutzerbewegungsabläufe und ähnliche Werte protokollieren.
Hat der Benutzer B die vorgesehene Anzahl an korrekten Wiederholungen für diese Übung absolviert, kann die Steuereinheit 20 den Benutzer B durch eine entsprechende Ausgabe über die Ausgabevorrichtungen 18 informieren und damit die Übung beenden.
Auch kann die Steuereinheit 20 die Zeit messen und ausgeben, damit zeitbasierte Übungen, wie ein Intervalltraining, durchgeführt werden können. Der Benutzer B kann dann mit der nächsten Übung fortfahren oder das Training beenden.
Beendet der Benutzer B das Training, so speichert die Steuereinheit 20 die ausgeführten Übungen mitsamt der Anzahl der Wiederholungen sowie weiteren protokollierten Daten und fügt diese den Benutzerdaten des Benutzers B hinzu. Dann kann die Steuereinheit 20 die Benutzerdaten des Benutzers lokal oder auf dem entsprechenden Server aktualisieren.
Zudem kann die Steuereinheit 20 dem Benutzer B über die Ausgabevorrichtungen 18 eine Zusammenfassung des Trainings geben. Denkbar ist auch, dass die Steuereinheit 20 diese Zusammenfassung und/oder andere der Benutzerdaten an ein Smartphone, insbesondere das des Benutzers, übermittelt.
Der Benutzer B hat somit ein Training erhalten, das dem Training mit einem erfahrenen Trainer entspricht, ohne dafür jedoch eine weitere Person engagieren oder sich mit dieser verabreden zu müssen.
Die beschriebene Situation ist lediglich ein Beispiel, von dem abgewichen werden kann.
Denkbar ist zum Beispiel, dass die Steuereinheit 20 anhand der vom Benutzer B durchgeführten Bewegungsabläufe auf die durchgeführte Übung schließen kann. Auch eine beliebige Kombination der erwähnten Methoden zur Bestimmung der Übung ist denkbar.
Denkbar ist auch, dass die optischen Ausgabevorrichtungen 18 keine Bildschirme sind, sondern andere Anzeigemittel. Beispielsweise können sie eine LED-Matrix sein, die lediglich über Symbole oder Ähnlichem eine korrekte oder inkorrekte Wiederholung anzeigt. Die Korrekturvorschläge können dann über einen anderen Bildschirm oder Lautsprecher erfolgen.
Auch kann die Trainingsvorrichtung 10 anders ausgeführt sein. Denkbar ist zum Beispiel, dass als Grundkorper eine Glas- oder Acrylglasscheibe zum Einsatz kommt, an der von der Vorderseite eine Spiegelfolie mit den entsprechenden Bereichen aufgebracht ist. An der Rückseite der Scheibe können die Bildschirme als LCD- oder OLED-Folien befestigt sein, sodass sich ein besonders kompakter Aufbau ergibt.
Möglich ist es auch, dass mittels der Sensoren 16 nicht nur die Bewegung des Benutzers B erfasst wird, sondern auch der Benutzer B selbst und seine Umgebung. Die Steuereinheit 20 kann beispielsweise dann verschiedene Objekte identifizieren und den Benutzerdaten hinzufügen, wie die Kleidung des Benutzers B.

Claims

Patentansprüche
1 . Trainingsvorrichtung zur Evaluierung von Bewegungsabläufen eines Benutzers (B), mit einem Spiegel (14), der eine Vorderseite (V) und eine Rückseite (R) aufweist, wenigstens einer Anzeigevorrichtung (29), die auf der Rückseite (R) des Spiegels (14) vorgesehen ist, wenigstens einem Sensor (16), der auf einen Trainingsbereich (T) vor der Vorderseite (V) gerichtet ist, und einer Steuereinheit (20), die mit der wenigstens einen Anzeigevorrichtung (29) und dem wenigstens einen Sensor (16) informationstechnisch verbunden ist, wobei die Anzeigevorrichtung (29) derart angeordnet ist, dass die sie durch den Spiegel (14) vom Trainingsbereich (T) aus ablesbar ist, und wobei die Steuereinheit (20) dazu eingerichtet ist, Daten von dem wenigstens einen Sensor (16) zu empfangen und auf Basis der Daten die wenigstens eine Anzeigevorrichtung (29) zur Korrektur oder Bestätigung der Bewegungsabläufe des Benutzers (B) anzusteuern, dadurch gekennzeichnet, dass der wenigstens eine Sensor (16) eine Time-of- Flight Kamera, ein Radarsensor, ein Infrarotsensor, ein Ultraschallsensor und/oder eine Kombination aus einer Kamera und einem Infrarotsensor ist.
2. Trainingsvorrichtung nach Anspruch 1 , dadurch gekennzeichnet, dass die wenigstens eine Anzeigevorrichtung (29) unmittelbar am Spiegel (14) vorgesehen ist, insbesondere den Spiegel (14) berührt.
3. Trainingsvorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der wenigstens eine Sensor (16) unterhalb, oberhalb und/oder seitlich des Spiegels (14) vorgesehen ist, und/oder der wenigstens eine Sensor (16) auf der Rückseite (R) des Spiegels (14) so angeordnet ist, dass der wenigstes eine Sensor (16) durch den Spiegel (14) auf den Trainingsbereich (T) gerichtet ist.
4. Trainingsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Spiegel (14) wenigstens einen Funktionsbereich (22) mit einer hoher Transmission und wenigstens einen Spiegelbereich (24) mit einer niedrigen Transmission hat, wobei die wenigstens eine Anzeigevorrichtung (29) und/oder der wenigstens eine Sensor (16) auf der Rückseite (R) in einem der Funktionsbereiche (22) angeordnet ist.
5. Trainingsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der wenigstens eine Sensor (16) derart an der Trainingsvorrichtung (10) befestigt ist, dass sein Winkel und/oder seine Position in insbesondere vertikaler Richtung (Rv) und/oder horizontaler Richtung (RH) in Bezug auf den Spiegel (14) verstellbar ist.
6. Trainingsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der wenigstens eine Sensor (16) alternativ oder zusätzlich einen Structured Light Sensor aufweist, der eine Lichtquelle und einen Lichtsensor hat und zur Verwendung von strukturiertem Licht eingerichtet ist und/oder dass alternativ oder zusätzlich wenigstens zwei Sensoren (16) vorgesehen sind, die dazu eingerichtet sind, stereoskopische Aufnahmen des Benutzers anzufertigen.
7. Trainingsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Trainingsvorrichtung (10) eine Identifikationsvorrichtung (26) aufweist, insbesondere ein RFID-Lesegerät, einen Barcodescanner und/oder einen Scanner für biometrische Merkmale.
8. Verfahren zur Evaluierung von Bewegungsabläufen eines Benutzers mittels einer Trainingsvorrichtung (10), insbesondere nach einem der vorhergehenden Ansprüche, die einen Spiegel (14), wenigstens eine Ausgabevorrichtung (18), insbesondere wenigstens eine Anzeigevorrichtung (29) wenigstens einen Sensor (16), der auf den Benutzer (B) gerichtet ist, und eine Steuereinheit (20) umfasst, die Messdaten von dem wenigstens einen Sensor (16) erhält und die die wenigstens eine Ausgabevorrichtung (18) steuert, mit den folgenden Schritten: a) Erfassen des Benutzers (B) durch den wenigstens einen Sensor (16), b) Bestimmung des Benutzerbewegungsablauf des Benutzers (B) durch die Steuereinheit (20), c) Vergleichen des Benutzerbewegungsablauf mit einem Soll- Bewegungsablauf, d) Ermitteln der Unterschiede zwischen dem Benutzerbewegungsablauf und dem Soll-Bewegungsablauf, und e) Ausgeben eines Signals auf Basis der ermittelten Unterschiede durch die wenigstens eine Ausgabevorrichtung (18), wobei die Steuereinheit (20) einen Wiederholungszähler aktualisiert, falls der Benutzerbewegungsablauf und der Soll-Bewegungsablauf im Wesentlichen übereinstimmen.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass als Signal die Unterschiede und/oder Korrekturvorschläge aufgrund der Unterschiede ausgegeben werden.
10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass zur Erfassung des Benutzers (B) und/oder des Benutzerbewegungsablaufs die
Position, Geschwindigkeit und/oder Beugung von Gelenken (34) des Benutzers (B), die Position und/oder Geschwindigkeit des Körpers des Benutzers (B) und/oder die Stellung des Skeletts des Benutzers (B) anhand der Daten des wenigstens einen Sensors (16) ermittelt wird.
1 1 . Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die Positionen des Körpers, der Gelenke (34) und/oder des Skeletts des Benutzers (B) in Echtzeit auf einer optischen Anzeigevorrichtung (29) der Ausgabevorrichtung (28), insbesondere einem Bildschirm (30) angezeigt werden.
12. Verfahren nach Anspruch 1 1 , dadurch gekennzeichnet, dass die Positionen des Körpers, der Gelenke (34) und/oder des Skeletts des Benutzers (B) als Markierungen derart ausgegeben werden, dass die Markierungen mit den entsprechenden Körperteilen des vom Benutzer (B) wahrgenommenen Spiegelbildes des Benutzers (B) übereinstimmen.
13. Verfahren nach einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, dass die Steuereinheit (20) auf vorbestimmte, in einem Speicher hinterlegte Soll- Bewegungsabläufe zugreifen kann und/oder Soll-Bewegungsabläufe in Echtzeit von anderen Trainingsvorrichtungen erhält, die von dem Benutzer dieser anderen Trainingsvorrichtung gerade ausgeführt werden.
14. Verfahren nach einem der Ansprüche 8 bis 13, dadurch gekennzeichnet, dass die wenigstens eine Ausgabevorrichtung (18) ein Bildschirm (30) ist, wobei die Unterschiede und/oder die Korrekturvorschläge als Darstellung, insbesondere als Video des Soll-Bewegungsablaufes, als Animation oder als Text ausgegeben werden.
15. Verfahren nach einem der Ansprüche 8 bis 14, dadurch gekennzeichnet, dass die Steuereinheit (20) den Wiederholungszähler um eins erhöht oder verringert, falls der Benutzerbewegungsablauf und der Soll-Bewegungsablauf im Wesentlichen übereinstimmen.
16. Verfahren nach einem der Ansprüche 8 bis 15, dadurch gekennzeichnet, dass die Steuereinheit (20) anhand des Benutzerbewegungsablaufs und/oder anhand des vom Benutzer (B) verwendeten Gerätes (36) die vom Benutzer (B) durchgeführte Übung erkennt.
17. Verfahren nach einem der Ansprüche 8 bis 16, dadurch gekennzeichnet, dass sich der Benutzer (B) zu Beginn, insbesondere mittels der Identifikationsvorrichtung (26) anmeldet, woraufhin die Steuereinheit (20) Benutzerdaten abruft, insbesondere Trainingsverläufe vorhergehender Trainingseinheiten und/oder den aktuellen Trainingsplan des Benutzers (B).
18. Verfahren nach einem der Ansprüche 8 bis 17, dadurch gekennzeichnet, dass die Steuereinheit (20) vorbestimmte Gesten des Benutzers (B) erkennt und aufgrund der erkannten Gesten bestimmte Funktionen ausführt.
PCT/EP2018/052807 2017-02-03 2018-02-05 Trainingsvorrichtung sowie verfahren zur evaluierung von bewegungsablaeufen WO2018141960A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017102144.2A DE102017102144A1 (de) 2017-02-03 2017-02-03 Trainingsvorrichtung sowie Verfahren zur Evaluierung von Bewegungsabläufen
DE102017102144.2 2017-02-03

Publications (1)

Publication Number Publication Date
WO2018141960A1 true WO2018141960A1 (de) 2018-08-09

Family

ID=61258187

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/052807 WO2018141960A1 (de) 2017-02-03 2018-02-05 Trainingsvorrichtung sowie verfahren zur evaluierung von bewegungsablaeufen

Country Status (2)

Country Link
DE (1) DE102017102144A1 (de)
WO (1) WO2018141960A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108939516A (zh) * 2018-09-20 2018-12-07 鎏玥(上海)科技有限公司 一种无人智能运动器械
US11083344B2 (en) 2012-10-11 2021-08-10 Roman Tsibulevskiy Partition technologies

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113261036A (zh) * 2018-10-17 2021-08-13 斯费瑞股份公司 锻炼模块
FR3097395B1 (fr) * 2019-06-15 2022-01-21 Mathilde Amoros Système de mur-miroir multimédia pour salle d’exercice physique

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277195A (ja) * 2008-04-18 2009-11-26 Panasonic Electric Works Co Ltd 情報表示システム
US20100022351A1 (en) * 2007-02-14 2010-01-28 Koninklijke Philips Electronics N.V. Feedback device for guiding and supervising physical exercises
US20130145272A1 (en) * 2011-11-18 2013-06-06 The New York Times Company System and method for providing an interactive data-bearing mirror interface
US20130171601A1 (en) * 2010-09-22 2013-07-04 Panasonic Corporation Exercise assisting system
DE102014010352A1 (de) * 2014-07-10 2016-01-14 Iconmobile Gmbh Interaktiver Spiegel

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10134296B2 (en) 2013-10-03 2018-11-20 Autodesk, Inc. Enhancing movement training with an augmented reality mirror

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100022351A1 (en) * 2007-02-14 2010-01-28 Koninklijke Philips Electronics N.V. Feedback device for guiding and supervising physical exercises
JP2009277195A (ja) * 2008-04-18 2009-11-26 Panasonic Electric Works Co Ltd 情報表示システム
US20130171601A1 (en) * 2010-09-22 2013-07-04 Panasonic Corporation Exercise assisting system
US20130145272A1 (en) * 2011-11-18 2013-06-06 The New York Times Company System and method for providing an interactive data-bearing mirror interface
DE102014010352A1 (de) * 2014-07-10 2016-01-14 Iconmobile Gmbh Interaktiver Spiegel

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Jung-Unternehmer wollen WINNER bei ISPO BRANDNEW Digital werden", 24 January 2017 (2017-01-24), pages 1 - 5, XP055465551, Retrieved from the Internet <URL:https://www.ispo.com/trends/id_79695254/elevator-pitch-entscheidet-bei-ispo-brandnew-digital.html> [retrieved on 20180409] *
ANONYMOUS: "SOLOS - Our prototype is back to our "headquarter"", 10 November 2016 (2016-11-10), pages 1 - 1, XP055465542, Retrieved from the Internet <URL:https://www.facebook.com/solosmirrors/photos/a.1132177933541391.1073741827.1130067323752452/1164034307022420/?type=3> [retrieved on 20180409] *
ANONYMOUS: "SOLOS - Transporting our prototype via subway of Munich", 8 November 2016 (2016-11-08), pages 1 - 1, XP055465544, Retrieved from the Internet <URL:https://www.facebook.com/solosmirrors/photos/a.1132177933541391.1073741827.1130067323752452/1161255287300322/?type=3> [retrieved on 20180409] *
ANONYMOUS: "SOLOS - Two great days at HVB | Facebook", 12 November 2016 (2016-11-12), pages 1 - 1, XP055465548, Retrieved from the Internet <URL:https://www.facebook.com/solosmirrors/photos/pcb.1166029446822906/1166029213489596/?type=3> [retrieved on 20180409] *
LEANDRO CRUZ ET AL: "Kinect and RGBD Images: Challenges and Applications", GRAPHICS, PATTERNS AND IMAGES TUTORIALS (SIBGRAPI-T), 2012 25TH SIBGRAPI CONFERENCE ON, IEEE, 22 August 2012 (2012-08-22), pages 36 - 49, XP032283171, ISBN: 978-1-4673-5091-4, DOI: 10.1109/SIBGRAPI-T.2012.13 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11083344B2 (en) 2012-10-11 2021-08-10 Roman Tsibulevskiy Partition technologies
US11529025B2 (en) 2012-10-11 2022-12-20 Roman Tsibulevskiy Technologies for computing
US11882967B2 (en) 2012-10-11 2024-01-30 Roman Tsibulevskiy Technologies for computing
CN108939516A (zh) * 2018-09-20 2018-12-07 鎏玥(上海)科技有限公司 一种无人智能运动器械

Also Published As

Publication number Publication date
DE102017102144A1 (de) 2018-08-09

Similar Documents

Publication Publication Date Title
DE102017116558B4 (de) Verfahren zur Führung von Bewegungsabläufen sowie Trainingsvorrichtung zur Führung von Bewegungsabläufen
WO2018141960A1 (de) Trainingsvorrichtung sowie verfahren zur evaluierung von bewegungsablaeufen
DE602005003214T2 (de) Verfahren und system zur perzeptuellen eignungsprüfung eines fahrers
DE60308245T2 (de) System zur Iriserkennung
DE102008016215B4 (de) Informationsvorrichtungsbediengerät
WO2017211817A1 (de) Bedienvorrichtung mit eyetrackereinheit und verfahren zum kalibrieren einer eyetrackereinheit einer bedienvorrichtung
EP3142043B1 (de) Vorrichtung und verfahren zur optischen aufnahme von abdrücken von durchbluteten hautbereichen
DE102012108838A1 (de) Verfahren und Vorrichtung zur Aufnahme von Fingerabdrücken auf Basis von Fingerabdruckscannern in zuverlässig hoher Qualität
DE112014006382T5 (de) Anzeigesteuervorrichtung, Anzeigesteuerverfahren der Anzeigesteuervorrichtung, Augen-Blickrichtungs-Detektionssystem und Kalibrations-Steuerverfahren von Augen-Blickrichtungs-Detektionssystem
DE102011054452A1 (de) Vorrichtung und Verfahren zum Zusammenstellen von Instrumentensets
EP3194197A1 (de) Anzeige- und bedienvorrichtung, insbesondere für ein kraftfahrzeug, bedienelement und kraftfahrzeug
DE102005024796A1 (de) Verfahren und Vorrichtung zum Bestimmen neurologischer Beeinträchtigungen
DE202015000225U1 (de) Vorrichtung zur Kontrolle von Spielabläufen im Dartspiel
EP2316540B1 (de) Trainingsstation und Fitnessstation mit der Trainingsstation
WO2018082745A1 (de) Verfahren und vorrichtung zur genauen lagebestimmung von pfeilartigen objekten relativ zu oberflächen
DE102020100366A1 (de) Verfahren zur 3D-Bewegungsanalyse und Sofortfeedback für Trainingsübungen
DE102019129846A1 (de) Verfahren zur Erfassung, Analyse und Optimierung von Bewegungsausführungen im Sportbereich und Reha-Bereich
DE102020131513B3 (de) Vorrichtung und Verfahren zur berührungslosen optischen Abbildung eines ausgewählten Oberflächenbereiches einer Hand
DE102008012520B4 (de) Interaktives Projektionssystem und Verfahren zu dessen Steuerung
DE102015217838A1 (de) Vorrichtung zur Unterstützung einer Wartung bei medizintechnischen Geräten
EP3561458A1 (de) Verfahren zur erfassung einer räumlichen verteilung einer messbaren physikalischen grösse
WO2013093040A1 (de) Verfahren und system zur darstellung mindestens eines bilds zumindest einer anwendung auf einer anzeigevorrichtung
DE102019207032A1 (de) Positionsbasierte einstellung von anzeigeinhalten
DE102018219667A1 (de) Erfassungssystem
DE102015120246A1 (de) System zur Unterstützung von Bewegungs-Übungen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18706656

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18706656

Country of ref document: EP

Kind code of ref document: A1