WO2023239025A1 - 사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및 웨어러블 장치, 이들의 동작 방법 - Google Patents

사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및 웨어러블 장치, 이들의 동작 방법 Download PDF

Info

Publication number
WO2023239025A1
WO2023239025A1 PCT/KR2023/003975 KR2023003975W WO2023239025A1 WO 2023239025 A1 WO2023239025 A1 WO 2023239025A1 KR 2023003975 W KR2023003975 W KR 2023003975W WO 2023239025 A1 WO2023239025 A1 WO 2023239025A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
exercise
wearable device
motion
exercise motion
Prior art date
Application number
PCT/KR2023/003975
Other languages
English (en)
French (fr)
Inventor
조희영
김학준
배수정
이상윤
김수경
안치영
김지수
김필구
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220127283A external-priority patent/KR20230170541A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP23745369.1A priority Critical patent/EP4311488A1/en
Priority to US18/347,869 priority patent/US20230398031A1/en
Publication of WO2023239025A1 publication Critical patent/WO2023239025A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb

Definitions

  • Specific embodiments relate to an electronic device and/or a wearable device that provides evaluation information of a user's exercise movement, and/or a method of operating the electronic device and/or the wearable device.
  • a walking assistance device refers to an instrument or device that helps patients who cannot walk on their own due to various diseases or accidents, for example, to perform walking exercises for rehabilitation treatment or other purposes.
  • a walking assistance device is mounted on the user's body to assist the user with the muscle strength necessary for walking, assists the user to walk in a normal walking pattern, and/or assists the user in exercising.
  • An electronic device includes an input module including a circuitry that receives a user input for selecting an exercise program to be performed by a user wearing a wearable device, and the user's input during the exercise process according to the selected exercise program.
  • a communication module including a communication circuit that receives sensor data containing movement information from the wearable device, determines a measurement value of the user's exercise motion based on the sensor data, and represents an exercise motion standard of the selected exercise program.
  • GUI graphical user interface
  • a method of operating an electronic device includes receiving a user input for selecting an exercise program to be performed by a user wearing a wearable device, and including movement information of the user in an exercise process according to the selected exercise program.
  • the method may include outputting a graphical user interface in which a first visual guide object including one or more second indicators is displayed.
  • the computer-readable recording medium when executed by a processor, may record instructions that cause the processor to perform the method of operating an electronic device described in this disclosure.
  • FIG. 1 is a diagram illustrating an overview of a wearable device worn on a user's body according to an embodiment.
  • FIG. 2 is a diagram illustrating an exercise management system including a wearable device and an electronic device according to an embodiment.
  • FIG. 3 shows a schematic diagram of the back of a wearable device according to one embodiment.
  • Figure 4 shows a left side view of a wearable device according to one embodiment.
  • FIGS. 5A and 5B are diagrams illustrating the configuration of a control system for a wearable device according to an embodiment.
  • FIG. 6 is a diagram for explaining mutual operations between a wearable device and an electronic device according to an embodiment.
  • FIG. 7 is a diagram illustrating the configuration of an electronic device according to an embodiment.
  • FIG. 8 is a flowchart explaining a method of operating an electronic device and a wearable device according to an embodiment.
  • FIG. 10 is a diagram illustrating providing evaluation information of a user's exercise motion through a GUI of an electronic device and a wearable device, according to an embodiment.
  • FIG. 11 is a diagram for explaining evaluation of a user's exercise motion according to an embodiment.
  • FIG. 12 is a diagram illustrating a screen of a GUI including visual guide objects according to an embodiment.
  • FIGS. 14A and 14B are diagrams for explaining a second visual guide object according to an embodiment.
  • FIG. 15 is a diagram illustrating various examples of a second visual guide object according to stability evaluation of a user's body movement according to an embodiment.
  • FIG. 19 is a diagram illustrating providing evaluation information of a user's exercise motion through an avatar object and a wearable device according to an embodiment.
  • the inertial measurement device 135 measures the upper body movement value of the user 110 corresponding to the movement value of the waist support frame (or base body (base body 80 in FIG. 3) of the wearable device 100.
  • the movement value of the waist support frame measured by the inertial measurement device 135 may be estimated to be the upper body movement value of the user 110.
  • the exercise management system 200 may include a wearable device 100 worn on the user's body, an electronic device 210, another wearable device 220, and a server 230. In one embodiment, exercise management system 200 omits at least one of these devices (e.g., other wearable device 220 or server 230) or includes one or more of the other devices (e.g., wearable device 100). A dedicated controller device) can be added.
  • the wearable device 100 may be worn on the user's body in a walking assistance mode to assist the user's movements.
  • the wearable device 100 may be worn on the user's legs to help the user walk by generating assistive force to assist the user's leg movements.
  • the wearable device 100 generates a resistance force to hinder the user's body movement or an assistive force to assist the user's body movement in order to enhance the user's exercise effect in the exercise assistance mode, thereby applying pressure to the user's body. It can be done.
  • the user selects an exercise program (e.g., squat, split lunge, dumbbell squat, lunge and knee up) that he/she wants to exercise using the wearable device 100 through the electronic device 210. ), stretching, etc.) and/or exercise intensity applied to the wearable device 100 can be selected.
  • an exercise program e.g., squat, split lunge, dumbbell squat, lunge and knee up
  • stretching, etc. stretching, etc.
  • the wearable device 100 may control the driving module of the wearable device 100 according to the exercise program selected by the user and obtain sensor data including the user's movement information through a sensor module including at least one sensor. .
  • the wearable device 100 may adjust the strength of the resistance or assistance force applied to the user according to the exercise intensity selected by the user. For example, the wearable device 100 may control the driving module to generate a resistance force corresponding to the exercise intensity selected by the user.
  • the wearable device 100 may be used to measure the user's physical capabilities in conjunction with the electronic device 210.
  • the wearable device 100 may operate in a physical ability measurement mode, which is a mode for measuring the user's physical ability, under the control of the electronic device 210, and may use sensor data acquired by the user's movement in the physical ability measurement mode as an electronic device. It can be transmitted to device 210.
  • the electronic device 210 may estimate the user's physical capabilities by analyzing sensor data received from the wearable device 100.
  • the electronic device 210 may extract the user's motion value from sensor data and evaluate the user's exercise motion based on the extracted motion value.
  • the electronic device 210 may provide exercise motion measurement values and exercise motion evaluation information regarding the user's exercise motion to the user through a graphical user interface.
  • the electronic device 210 may execute a program (e.g., an application) for controlling the wearable device 100, and the user may control the operation or setting values (e.g., of the wearable device 100) of the wearable device 100 through the program.
  • a program e.g., an application
  • Torque intensity output from the driving module e.g., the driving modules 35 and 45 of FIG. 3 including a driving circuit
  • the torque output from the sound output module e.g., the sound output module 550 of FIGS. 5A and 5B
  • the size of the audio and the brightness of the light unit (e.g., the light unit 85 in FIG. 3) can be adjusted.
  • a program running on the electronic device 210 may provide a graphical user interface (GUI) for interaction with the user.
  • GUI graphical user interface
  • the electronic device 210 may be of various types.
  • electronic device 210 includes a portable communication device (e.g., a smartphone), a computer device, an access point, a portable multimedia device, or a home appliance device (e.g., a television, an audio device, a projector device).
  • a portable communication device e.g., a smartphone
  • computer device e.g., a computer
  • access point e.g., a portable multimedia device
  • a home appliance device e.g., a television, an audio device, a projector device.
  • it is not limited to the above-described devices.
  • the electronic device 210 may be connected to the server 230 using short-range wireless communication or cellular communication.
  • the server 230 may receive user profile information of a user using the wearable device 100 from the electronic device 210, and store and manage the received user profile information.
  • User profile information may include, for example, information about at least one of name, age, gender, height, weight, or body mass index (BMI).
  • BMI body mass index
  • the server 230 may receive exercise history information about exercises performed by the user from the electronic device 210, and store and manage the received exercise history information.
  • the server 230 may provide the electronic device 210 with various exercise programs or physical ability measurement programs that can be provided to the user.
  • the wearable device 100 and/or the electronic device 210 may be connected to another wearable device 220.
  • Other wearable devices 220 may be, for example, wireless earphones 222, smartwatches 224, or smartglasses 226, but are not limited to the above-described devices.
  • the smartwatch 224 may measure a bio-signal including the user's heart rate information and transmit the measured bio-signal to the electronic device 210 and/or the wearable device 100.
  • the electronic device 210 can estimate the user's heart rate information (e.g., current heart rate, maximum heart rate, average heart rate) based on the biosignal received from the smartwatch 224, and provide the estimated heart rate information to the user. You can.
  • the user's exercise result information, physical ability information, and/or exercise motion evaluation information evaluated by the electronic device 210 is transmitted to another wearable device 220 to allow the user to use the other wearable device 220.
  • can be provided to Status information of the wearable device 100 may also be transmitted to another wearable device 220 and provided to the user through the other wearable device 220 .
  • the wearable device 100, the electronic device 210, and another wearable device 220 may be connected to each other through wireless communication (eg, Bluetooth communication, Wi-Fi communication).
  • the wearable device 100 provides feedback (e.g., visual feedback, auditory feedback, tactile feedback) corresponding to the state of the wearable device 100 according to the control signal received from the electronic device 210. (or print).
  • the wearable device 100 may provide visual feedback through a light unit (e.g., the light unit 85 in FIG. 3) and an audio output module (e.g., the audio output module in FIGS. 5A and 5B). Auditory feedback can be provided through 550)).
  • the wearable device 100 may include a haptic module and provide tactile feedback in the form of vibration to the user's body through the haptic module.
  • the electronic device 210 may also provide (or output) feedback (e.g., visual feedback, auditory feedback, tactile feedback) corresponding to the state of the wearable device 100.
  • the electronic device 210 may present personalized exercise goals to the user in an exercise assistance mode.
  • the personalized exercise goal may include an exercise amount target for each type of exercise (e.g., strength exercise, balance exercise, aerobic exercise) that the user wishes to exercise, as determined by the electronic device 210 and/or the server 230.
  • the server 230 may transmit information about the determined exercise amount target value to the electronic device 210.
  • the electronic device 210 and/or the server 230 may include a database storing information about a plurality of exercise programs that can be provided to the user through the wearable device 100.
  • the electronic device 210 and/or the server 230 may recommend an exercise program suitable for the user.
  • Exercise goals may include, for example, at least one of improving muscle strength, improving muscle stamina, improving cardiorespiratory endurance, improving core stability, improving flexibility, or improving symmetry.
  • the electronic device 210 and/or the server 230 may store and manage the exercise program performed by the user and the results of the exercise program.
  • the lighting unit 85 may be disposed outside the base body 80.
  • the lighting unit 85 may include a light source (eg, a light emitting diode (LED)).
  • the lighting unit 85 may emit light under the control of a control module (not shown) (eg, the control module 510 in FIGS. 5A and 5B).
  • the control module may control the lighting unit 85 so that visual feedback corresponding to the state of the wearable device 100 is provided (or output) to the user through the lighting unit 85.
  • the interior of the base body 80 includes a control module, an inertial measurement device (not shown) (e.g., an inertial measurement device 135 in FIG. 1, an inertial measurement device 522 in FIG. 5B), and a communication module ( (not shown) (e.g., the communication module 516 of FIGS. 5A and 5B) and a battery (not shown) may be disposed.
  • the base body 80 can protect the control module, inertial measurement device, communication module, and battery.
  • the control module may generate a control signal that controls the operation of the wearable device 100.
  • the control module may include a control circuit including at least one processor and memory for controlling the actuators of the driving modules 35 and 45.
  • the control module may further include a power supply module (not shown) for supplying battery power to each component of the wearable device 100.
  • the waist fastener 60 may be connected to the waist support frame 20 and may fix the waist support frame 20 to the user's waist.
  • the waist fastener 60 may include, for example, a pair of belts.
  • the first actuator and the second actuator may each include a motor that generates power (or torque) by receiving power from a battery.
  • the motor can generate a force to assist the user's body movement (assistive force) or a force to hinder the body movement (resistive force).
  • the control module may adjust the intensity and direction of force generated by the motor by adjusting the voltage and/or current supplied to the motor.
  • the leg support frames 50 and 55 may support the user's legs (eg, thighs) when the wearable device 100 is worn on the user's legs.
  • the leg support frames 50 and 55 may transmit the power (torque) generated by the drive modules 35 and 45 to the user's thighs, and the power may act as an external force applied to the user's leg movements.
  • One end of the leg support frames (50, 55) is connected to the joint member and can be rotated, and the other end of the leg support frames (50, 55) is connected to the thigh fastening portions (1, 2), so that the leg support frame (50, 55) may support the user's thigh and transmit the power generated by the drive modules (35, 45) to the user's thigh.
  • the leg support frames 50 and 55 may push or pull the user's thighs.
  • the leg support frames 50 and 55 may extend along the longitudinal direction of the user's thighs.
  • the leg support frames 50 and 55 may be bent to surround at least a portion of the user's thigh circumference.
  • the leg support frames 50 and 55 may include a first leg support frame 55 for supporting the user's right leg and a second leg support frame 50 for supporting the user's left leg.
  • the first thigh fastener 2 may include a first cover, a first fastener frame, and a first strap
  • the second thigh fastener 1 may include a second cover, a second fastener frame, and It may include a second strap.
  • the first cover and the second cover may apply the torque generated by the driving modules 35 and 45 to the user's thigh.
  • the first cover and the second cover are disposed on one side of the user's thigh and can push or pull the user's thigh.
  • the first cover and the second cover may be placed on the front of the user's thigh, for example.
  • the first cover and the second cover may be arranged along the circumferential direction of the user's thigh.
  • the first cover and the second cover may extend to both sides around the other ends of the leg support frames 50 and 55, and may include curved surfaces corresponding to the user's thighs.
  • One end of the first cover and the second cover may be connected to the fastening frame, and the other end may be connected to a strap.
  • the first strap may surround the remaining portion not surrounded by the first cover and the first fastening frame around the user's right thigh, and the second strap may surround the second cover and the second fastening frame around the user's left thigh.
  • the remaining part that is not wrapped can be wrapped.
  • the first strap and the second strap may include, for example, an elastic material (eg, a band).
  • FIGS. 5A and 5B are diagrams illustrating the configuration of a control system for a wearable device according to an embodiment.
  • the driving module 530 may include a motor 534 capable of generating power (eg, torque) and a motor driver circuit 532 for driving the motor 534.
  • a drive module 530 including one motor driver circuit 532 and one motor 534 is shown, but this is only an example.
  • FIG. 5B as in the control system 500-1 shown in FIG. 5B, there are a plurality of motor driver circuits 532 and 532-1 and a plurality of motors 534 and 534-1 (e.g., two or more). ) can be.
  • the driving module 530 including the motor driver circuit 532 and the motor 534 may correspond to the first driving module 45 in FIG.
  • the driving module 530-1 including may correspond to the second driving module 35 of FIG. 3.
  • the description of each of the motor driver circuit 532 and motor 534 described below may also be applied to the motor driver circuit 532-1 and motor 534-1 shown in FIG. 5B.
  • sensor module 520 may include a sensor circuit including at least one sensor.
  • the sensor module 520 may include sensor data including movement information of the user or movement information of the wearable device 100.
  • the sensor module 520 may transmit the acquired sensor data to the control module 510.
  • the sensor module 520 may include an inertial measurement device 522 and an angle sensor (eg, a first angle sensor 520 and a second angle sensor 520-1) as shown in FIG. 5B.
  • the inertial measurement device 522 can measure the user's upper body movement value.
  • the inertial measurement device 522 may sense the acceleration of the X-axis, Y-axis, and Z-axis and the angular velocity of the X-axis, Y-axis, and Z-axis according to the user's movement.
  • the inertial measurement device 522 may be used, for example, to measure at least one of forward and backward tilt, left and right tilt, or rotation of the user's body.
  • the inertial measurement device 522 may acquire movement values (e.g., acceleration values and angular velocity values) of the waist support frame of the wearable device (e.g., the waist support frame 20 of FIG. 3). Waist support frame 100 )
  • the movement value may correspond to the user's upper body movement value.
  • the angle sensor can measure the hip joint angle value according to the user's leg movement.
  • Sensor data that can be measured by the angle sensor may include, for example, a hip joint angle value of the right leg, a hip joint angle value of the left leg, and information about the direction of movement of the leg.
  • the first angle sensor 520 in FIG. 5B may acquire the hip joint angle value of the user's right leg
  • the second angle sensor 520-1 may obtain the hip joint angle value of the user's left leg. You can.
  • Each of the first angle sensor 520 and the second angle sensor 520-1 may include, for example, an encoder and/or a Hall sensor.
  • the angle sensor can obtain movement values of the leg support frame of the wearable device.
  • the first angle sensor 520 acquires the movement value of the first leg support frame 55
  • the second angle sensor 520-1 acquires the movement value of the second leg support frame 50. can do.
  • the movement value of the leg support frame may correspond to the hip joint angle value.
  • the sensor module 520 is a position sensor for acquiring the position value of the wearable device 100, a proximity sensor for detecting the proximity of an object, a biosignal sensor for detecting the user's biosignal, or an ambient temperature sensor. It may further include at least one of the temperature sensors for measuring.
  • the input module 540 may receive commands or data to be used in a component of the wearable device 100 (e.g., the processor 512) from outside the wearable device 100 (e.g., a user).
  • Input module 540 may include input component circuitry.
  • Input module 540 may include, for example, keys (e.g., buttons) or a touch screen.
  • the sound output module 550 may output sound signals to the outside of the wearable device 100.
  • the sound output module 550 may provide auditory feedback to the user.
  • the sound output module 550 provides guide sound signals (e.g., drive start sound, motion error notification sound, exercise start notification sound), music content, or specific information (e.g., exercise result information, exercise motion evaluation information). It may include a speaker that plays a guide voice for auditory notification.
  • control system 500 may further include a battery (not shown) to supply power to each component of the wearable device 100.
  • the wearable device 100 may convert battery power to suit the operating voltage of each component of the wearable device 100 and supply it to each component.
  • the driving module 530 may generate an external force applied to the user's legs under the control of the control module 510.
  • the driving module 530 may generate torque applied to the user's legs based on the control signal generated by the control module 510.
  • the control module 510 may transmit a control signal to the motor driver circuit 532.
  • the motor driver circuit 532 may control the operation of the motor 534 by generating a current signal (or voltage signal) corresponding to the control signal and supplying it to the motor 534. In some cases, a current signal may not be supplied to the motor 534.
  • the motor 534 When the motor 534 is driven by supplying a current signal to the motor 534, it may generate torque for an auxiliary force that assists the movement of the user's legs or a resistance force that hinders the movement of the user's legs.
  • the control module 510 controls the overall operation of the wearable device 100 and can generate control signals to control each component (eg, the communication module 516 and the driving module 530).
  • the control module 510 may include at least one processor 512 and memory 514.
  • At least one processor 512 may control at least one other component (e.g., a hardware or software component) of the wearable device 100 connected to the processor 512, for example by executing software, and may execute various data. Processing or calculations can be performed.
  • the software may include an application for providing a GUI.
  • processor 512 stores instructions or data received from another component (e.g., communication module 516) in memory 514; Commands or data stored in the memory 514 are processed, and the resulting data after processing can be stored in the memory 514.
  • the processor 512 is a main processor (e.g., a central processing unit or an application processor) or an auxiliary processor that can operate independently or together (e.g., a graphics processing unit, a neural processing unit (NPU)). , an image signal processor, a sensor hub processor, or a communication processor).
  • the auxiliary processor may be implemented separately from the main processor or as part of it.
  • each 'processor' contains processing circuitry.
  • Memory 514 may store various data used by at least one component of control module 510 (eg, processor 512). Data may include, for example, input data or output data for software, sensor data, and instructions related thereto. Memory 514 may include volatile memory or non-volatile memory (eg, RAM, DRAM, SRAM).
  • the communication module 516 provides direct (e.g., direct) communication between the control module 510 and other components of the wearable device 100 or an external electronic device (e.g., the electronic device 210 of FIG. 2 or another wearable device 220). It can support the establishment of a wired) communication channel or a wireless communication channel, and the performance of communication through the established communication channel.
  • the communication module 516 may include a communication circuit to perform communication functions. For example, the communication module 516 may receive a control signal from an electronic device (e.g., the electronic device 210) and may transmit sensor data obtained by the sensor module 520 to the electronic device.
  • communication module 516 operates independently of processor 512 and may include one or more communication processors (not shown) that support direct (e.g., wired) communication or wireless communication.
  • the communication module 516 may include a wireless communication module (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) and/or a wired communication module.
  • the corresponding communication module is, for example, a short-range communication network such as Bluetooth, wireless fidelity (WiFi), or infrared data association (IrDA), or a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network.
  • the wearable device 100 may communicate with other components and/or external electronic devices through a long-distance communication network such as LAN or WAN.
  • control systems 500 and 500-1 may further include a haptic module (not shown).
  • the haptic module may provide tactile feedback to the user under the control of the processor 512.
  • the haptic module can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • Haptic modules may include motors, piezoelectric elements, or electrical stimulation devices.
  • the haptic module may be located in at least one of the base body (eg, base body 80), the first thigh fastening unit 2, or the second thigh fastening unit 1.
  • FIG. 6 is a diagram for explaining mutual operations between a wearable device and an electronic device according to an embodiment.
  • the wearable device 100 can communicate with the electronic device 210.
  • the electronic device 210 may be a user terminal of a user using the wearable device 100 or a dedicated controller device for the wearable device 100.
  • the wearable device 100 and the electronic device 210 may be connected to each other through short-range wireless communication (eg, Bluetooth communication, Wi-Fi communication).
  • the electronic device 210 may check the status of the wearable device 100 or execute an application for controlling or operating the wearable device 100.
  • a user interface (UI) screen for controlling the operation of the wearable device 100 or determining the operation mode of the wearable device 100 is displayed on the display 212 of the electronic device 210.
  • the UI may be, for example, a graphical user interface (GUI).
  • the user may issue commands to control the operation of the wearable device 100 (e.g., to a walking assistance mode, an exercise assistance mode, or a physical ability measurement mode) through a GUI screen on the display 212 of the electronic device 210.
  • You can input an execution command or change the settings of the wearable device 100.
  • the electronic device 210 may generate a control command (or control signal) corresponding to an operation control command or setting change command input by the user, and transmit the generated control command to the wearable device 100.
  • the wearable device 100 may operate according to the received control command, and may transmit control results according to the control command and/or sensor data measured by the sensor module of the wearable device 100 to the electronic device 210.
  • the electronic device 210 may provide result information (e.g., walking ability information, exercise ability information, exercise motion evaluation information) derived by analyzing control results and/or sensor data to the user through a GUI screen.
  • the processor 710 may control at least one other component (eg, hardware or software component) of the electronic device 210 and may perform various data processing or calculations. According to one embodiment, as at least part of data processing or computation, the processor 710 stores commands or data received from another component (e.g., the communication module 730) in the memory 720, and the memory 720 ) can be processed, and the resulting data can be stored in the memory 720.
  • another component e.g., the communication module 730
  • the processor 710 is a main processor (e.g., central processing unit or application processor) or an auxiliary processor that can operate independently or together (e.g., graphics processing unit, neural network processing unit (NPU), image signal processor , sensor hub processor, or communication processor).
  • main processor e.g., central processing unit or application processor
  • auxiliary processor e.g., graphics processing unit, neural network processing unit (NPU), image signal processor , sensor hub processor, or communication processor.
  • the memory 720 may store various data used by at least one component (eg, the processor 710 or the communication module 730) of the electronic device 210. Data may include, for example, input data or output data for a program (eg, application) and instructions related thereto. Memory 720 may include at least one instruction executable by processor 710. Memory 720 may include volatile memory or non-volatile memory.
  • the communication module 730 provides direct communication (e.g., wearable device 100, other wearable device 220, server 230 as shown in FIG. 2) and the electronic device 210. : It can support the establishment of a wired) communication channel or a wireless communication channel, and the performance of communication through the established communication channel.
  • the communication module 730 may include a communication circuit to perform a communication function.
  • Communication module 730 operates independently of processor 710 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • the communication module 730 is a wireless communication module that performs wireless communication (e.g., a Bluetooth communication module, a cellular communication module, a Wi-Fi communication module, or a GNSS communication module) or a wired communication module (e.g., a LAN communication module). , or a power line communication module).
  • the communication module 730 transmits a control command to the wearable device 100 and receives sensor data including body movement information of the user wearing the wearable device 100 from the wearable device 100. ) may receive at least one of status data or control result data corresponding to a control command.
  • the input module 760 may receive instructions or data to be used in a component of the electronic device 210 (e.g., the processor 710) from outside the electronic device 210 (e.g., a user).
  • Input module 760 may include input component circuitry and may receive user input.
  • Input module 760 may include, for example, keys (e.g., buttons) or a touch screen.
  • the electronic device 210 uses the wearable device 100 when the user performs an exercise that repeatedly performs the same type of exercise movement (e.g., squat, split lunge, dumbbell squat, lunge and knee-up). Through this, the user's movements can be sensed in real time.
  • the electronic device 210 analyzes the user's movement information (e.g., upper body tilt value, hip joint angle value) acquired by one or more sensors of the wearable device 100 and provides exercise motion evaluation information and/or correction of the exercise motion to the user. Feedback information can be provided through the GUI.
  • the user may select the exercise program and/or exercise intensity he or she wishes to perform through the input module 760.
  • processor 710 may provide the user with the user's personalized exercise goal.
  • the processor 710 sends a control command to the communication module 730 to request the start of measurement of the user's exercise motion to the wearable device 100. ) can be controlled to transmit.
  • the processor 710 may evaluate the user's exercise motion based on an exercise motion standard representing a standard angle value for each exercise motion.
  • the exercise movement standard may be indicated by body movement values for standard movements displayed for each exercise program.
  • the memory 720 may store information about exercise operation standards for each exercise program.
  • the processor 710 may express the measured value of the user's exercise movement compared to the exercise movement standard as graphic elements such as graphs and icons through the first visual guide object.
  • the upper body tilt value and both hip joint angle difference values shown in the user's current exercise movement are provided to the user through the first visual guide object, along with information about the upper body tilt value and both hip joint angle difference values for the desired exercise movement. can be provided effectively. Through the first visual guide object, the user can easily recognize which body part needs to be corrected and how to correct the desired exercise movement.
  • the first indicator of the first visual guide object may indicate a plurality of exercise motion reference ranges corresponding to different exercise motion evaluation levels.
  • the one or more second indicators may include at least one of a second indicator indicating an exercise motion measurement value based on the user's previous exercise motion or a second indicator indicating an exercise motion measurement value based on the user's current exercise motion in real time.
  • the second indicator representing the exercise motion measurement value based on the previous exercise motion may be, for example, the maximum or high value of the user's upper body tilt value based on the user's previous exercise motion or the user's both hip joints based on the user's previous exercise motion. It may represent at least one of the maximum value or the highest value of the hip joint angle difference value between the hip joint angles.
  • the first indicator may indicate an exercise motion reference range for an exercise program selected by the user
  • one or more second indicators may indicate a measurement value of the user's exercise motion in real time.
  • one or more second indicators may be changed to a color corresponding to the exercise motion reference range.
  • the first visual guide object may further include one or more third indicators indicating an angle range indicated by a fixed reference line and an angle line whose display changes depending on the user's motor motion measurement value.
  • the color expressed in the first visual guide object of one or more third indicators may vary depending on the evaluation standard range to which the motor motion measurement value belongs.
  • the one or more third indicators include an angle range indicated by a reference line for the user's upper body tilt value and an angle line corresponding to the maximum or high value of the user's upper body tilt value as determined from the user's previous exercise movements.
  • the processor 710 may determine an exercise motion measurement value corresponding to the user's body movement stability based on sensor data received from the wearable device 100.
  • the processor 710 may generate one or more second visual guide objects (eg, second visual guide objects 1220 and 1230 of FIG. 12 ) representing the determined body movement stability.
  • the display module 740 may output a graphical user interface in which the second visual guide object appears.
  • the second visual guide object may be provided through one screen of the GUI along with the first visual guide object.
  • one or more second visual guide objects may be a second visual guide object (e.g., second visual guide object 1220) indicating left-right stability with respect to the user's body movement or rotational stability with respect to the user's body movement. Containing at least one of the second visual guide objects (e.g., the second visual guide object 1230) that represents,
  • the processor 710 controls the communication module 730 to transmit the user's exercise motion evaluation information to the wearable device 100, thereby causing the wearable device 100 to send a feedback signal corresponding to the exercise motion evaluation information. It can be provided to the user. For example, if the exercise program involves repeatedly performing the same exercise action multiple times, the processor 710 determines exercise motion evaluation information for the exercise motion at the end of each exercise motion of the user, and evaluates the determined exercise motion.
  • the communication module 730 can be controlled to transmit a feedback signal corresponding to information to the wearable device 100.
  • the wearable device 100 outputs a guide voice in response to the feedback signal received from the electronic device 210 through an audio output module (e.g., the audio output module 550 in FIGS.
  • the wearable device 100 may output a guide voice corresponding to one of 'very good', 'good', or 'incorrect' as an evaluation of the user's exercise motion, or a guide voice related to correction of the exercise motion. You can.
  • FIG. 8 is a flowchart explaining a method of operating an electronic device and a wearable device according to an embodiment.
  • at least one of the operations in FIG. 8 may be performed simultaneously or in parallel with other operations, and the order between the operations may be changed. Additionally, at least one of the operations may be omitted, and another operation may be additionally performed.
  • the electronic device 210 may receive a user input for selecting an exercise program to be performed by the user wearing the wearable device 100.
  • the electronic device 210 may recommend exercise programs suitable for the user's physical characteristics, and the user may select an exercise program ( Examples include squats, half squats, stretches, split lunges, dumbbell squats, and lunges and knee-ups.
  • the electronic device 210 may provide the user with a GUI that can control and set the wearable device 100 through a program (eg, an application).
  • the electronic device 210 selects the wearable device ( A control command may be transmitted to 100) to notify the user of the start of exercise and to request measurement of the user's exercise motion.
  • a control command may be transmitted to 100
  • Setting data on exercise details set by the user for the exercise program may be included in the control command and transmitted to the wearable device 100.
  • the wearable device 100 may use a sensor module to acquire sensor data containing movement information according to the user's movement during the user's exercise process.
  • the wearable device 100 may acquire the tilt value of the user's upper body using an inertial measurement device and acquire the hip joint angle value of each of the user's both hip joints using an angle sensor.
  • the wearable device 100 extracts the maximum value or the highest value among the upper body tilt values measured during the user's daily exercise process, and among the hip joint angle values of each hip joint measured during the exercise movement process. The maximum or highest value can be extracted.
  • the wearable device 100 may measure a movement value for at least one of forward and backward tilt, left and right tilt, or rotation of the upper body using an inertial measurement device.
  • the electronic device 210 may receive sensor data containing the user's movement information from the wearable device 100 during the user's exercise process according to the exercise program.
  • the electronic device 210 may measure the user's exercise movement based on sensor data.
  • the electronic device 210 may determine the user's exercise motion measurement value based on sensor data.
  • the electronic device 210 may determine an exercise motion measurement value that includes at least one of the user's upper body tilt value or the hip joint angle difference value between both hip joints of the user based on the sensor data. For example, the electronic device 210 may determine at least one of the maximum tilt value of the user's upper body measured in the user's previous exercise motion or the maximum value of the hip joint angle difference between both hip joints as the exercise motion measurement value.
  • the electronic device 210 may determine whether the user's exercise movement has ended. In one embodiment, the electronic device 210 may determine whether the user's exercise movement has ended based on a pattern shown in sensor data. For example, as a result of analyzing the sensor data, if it is estimated that the user is taking the basic posture (e.g., standing posture) indicated in the exercise program, or if the user's body movement value is not detected for a certain period of time, the electronic device (210 ) may determine that the user has finished the exercise movement.
  • the basic posture e.g., standing posture
  • the electronic device 210 may re-perform the process of determining the user's exercise motion measurement value based on the sensor data. there is.
  • the electronic device 210 determines the user's exercise movement based on information about the exercise movement standard for each exercise program. can be evaluated, and a GUI showing a visual guide object expressing exercise motion evaluation information can be output.
  • the electronic device 210 may compare the exercise motion standard and the user's measured exercise motion and determine the user's exercise motion evaluation information based on the comparison result.
  • the electronic device 210 may visualize and express feedback on the user's exercise movements through a visual guide object.
  • the electronic device 210 displays a GUI in which a first visual guide object including a first indicator indicating an exercise movement standard of an exercise program selected by the user and one or more second indicators indicating a determined exercise movement measurement value is displayed. Can be printed.
  • the first visual guide object may further include one or more third indicators indicating an angle range defined by a fixed reference line and an angle line whose display changes according to the user's motor motion measurement value.
  • the electronic device 210 determines an exercise motion measurement value corresponding to the user's body movement stability based on the sensor data received from the wearable device 100, and one or more second visual guide objects representing the determined body movement stability appear.
  • a GUI can be printed.
  • the first visual guide object and the second visual guide object may be provided together through one screen of the GUI or may be provided separately through different screens.
  • the electronic device 210 may transmit the user's exercise motion evaluation information to the wearable device 100.
  • the wearable device 100 may output a feedback signal representing the exercise motion evaluation information in operation 860.
  • the wearable device 100 may provide evaluation feedback on the user's exercise movement to the user based on the feedback signal. For example, the wearable device 100 may output a guide voice in response to a feedback signal through an audio output module.
  • the electronic device 210 may determine whether the user's exercise has ended. In one embodiment, the electronic device 210 is configured to: when the number of repetitions of the user's exercise motion reaches the end number, when a predefined time has elapsed, or when a command to end the exercise motion measurement mode is received through a user input. In at least one case, it may be determined that the user's exercise has ended.
  • the electronic device 210 may re-perform the operations from operation 835 for the next exercise operation. If it is determined that the user's exercise has ended (in the case of 'Yes' in operation 865), in operation 870, the electronic device 210 outputs exercise result information according to the performance of the user's exercise program through the GUI. You can. Exercise result information may include, for example, an estimate of the total calories burned by the user's exercise, exercise performance time, and information about the final evaluation of the exercise movement.
  • Figure 9 is a flowchart illustrating a process for providing evaluation information on a user's exercise motion according to an embodiment.
  • at least one of the operations in FIG. 9 may be performed simultaneously or in parallel with other operations, and the order between the operations may be changed. Additionally, at least one of the operations may be omitted, and another operation may be additionally performed.
  • the electronic device 210 may receive a user input for selecting an exercise program to be performed by the user.
  • the user may perform an exercise operation according to an exercise program while wearing the wearable device 100.
  • the wearable device 100 may acquire sensor data containing the user's movement information through sensors during the user's exercise movement and transmit the acquired sensor data to the electronic device 210.
  • the wearable device 100 may transmit to the electronic device 210 the maximum value of the upper body tilt value and the maximum value of the hip joint angle values of both hip joints measured during the user's daily exercise movement.
  • the electronic device 210 may display the angle value and reference angle range of the measured movement motion on the first visual guide object.
  • the electronic device 210 displays a first indicator indicating a plurality of exercise motion reference ranges corresponding to different exercise motion evaluation levels on the first visual guide object, and displays the exercise measured in the user's previous exercise motion.
  • a second indicator indicating a motion measurement value (e.g., maximum value of upper body tilt value, maximum value of hip joint angle difference between both hip joints) may be displayed.
  • the electronic device 210 may further display one or more third indicators indicating an angle range defined by a reference line fixed to the first visual guide object and an angle line whose display changes depending on the measurement value of the user's motor motion. Additionally, the electronic device 210 may output one or more second visual guide objects indicating body movement stability evaluated during the user's immediately preceding exercise process.
  • the electronic device 210 may determine exercise motion evaluation information about the user's exercise motion.
  • the electronic device 210 may evaluate the user's exercise motion by comparing the reference angle value of the exercise motion defined for each exercise program with the angle value of the user's exercise motion measured from the user's motion information.
  • the electronic device 210 may determine the final evaluation level (e.g., very good, good, incorrect) for the user's immediately preceding exercise motion based on the exercise motion reference ranges.
  • FIG. 10 is a diagram illustrating providing evaluation information of a user's exercise motion through a GUI of an electronic device and a wearable device, according to an embodiment.
  • the electronic device 210 displays a guide image 1025 to guide the exercise process of the exercise program selected by the user 110 through a screen 1020 of the GUI.
  • the guide image 1025 may be provided upon request by the user 110 before the user 110 starts the exercise movement, during the exercise movement, or after the exercise movement ends.
  • the user 110 may perform a series of exercise movements according to the selected exercise program. For example, if the user 110 selects the exercise program of split lunge, the user 110 wears the wearable device 100 and starts from the basic movement 1032 of standing with the right leg and left leg spread forward and left. You can perform a series of exercise movements in which you take the intermediate action (1034) of bending your legs forward and then take the basic action (1036) of standing with your right and left legs spread back and forth. The series of exercise movements may correspond to one exercise movement defined in split lunge. The user 110 repeats the series of exercise movements as many times as the target number of repetitions.
  • One screen 1040 of the GUI also displays the evaluation level of the user's exercise behavior (e.g., very good, good, poor) and exercise behavior measurements determined based on sensor data (e.g., upper body tilt value, hip joint angle of both hips). difference value) can be displayed.
  • One screen 1040 may also display at least one of an estimate of calories burned by exercise up to the current point in time (1062), the number of exercise movement repetitions performed to date (1064), or a heart rate (1066).
  • the heart rate 1066 may be determined, for example, by analyzing biometric signals obtained from a sensor of a smartwatch worn by the user 110 (e.g., smartwatch 224 in FIG. 20B) or a smart band.
  • the electronic device 210 may transmit exercise motion evaluation information about the immediately preceding exercise motion to the wearable device 100.
  • the wearable device 100 may provide the user 100 with a feedback signal according to the received exercise motion evaluation information. For example, the wearable device 100 may play a notification sound corresponding to 'very good', 'good', or 'incorrect' depending on the user's exercise motion evaluation level.
  • the user 110 can exercise freely without location or space restrictions through the wearable device 100 and the electronic device 210, and clearly recognizes the body part to be corrected and the target exercise movement standard in the exercise movement. Correction of exercise movements can be performed in real time.
  • the wearable device 100 enables accurate measurement of the user's exercise movement, and provides professional coaching for the exercise movement by providing feedback information on exercise movement evaluation to the user through graphic elements for each exercise movement element.
  • the wearable device 100 acquires sensor data containing the user's body movement information in an exercise movement such as the middle movement of a split lunge through sensors, and transmits the obtained sensor data to the electronic device 210. You can.
  • the electronic device 210 may evaluate the user's exercise movement based on sensor data acquired through the wearable device 100.
  • the electronic device 210 may evaluate the exercise movement of the user 110 with respect to various evaluation factors for the split lunge exercise movement. For example, the electronic device 210 may evaluate the hip joint angle difference 1110 between both hip joints of the user 110 based on sensor data. The hip joint angle difference is an evaluation factor for determining whether the leg of the user 110 goes down and comes up at an appropriate angle during the user's exercise movement. The electronic device 210 may evaluate the upper body tilt 1120 of the user 110 based on sensor data. The upper body tilt is an evaluation factor for determining whether the user 110's pelvis is tilted forward/backward when performing an exercise movement. The electronic device 210 may evaluate the left and right stability 1130 of the body movement of the user 110 based on sensor data.
  • Left and right stability is an evaluation factor for determining whether the pelvis is tilted to the left or right during the user's (110) exercise movement.
  • the electronic device 210 may evaluate rotational stability 1140 for body movement of the user 110 based on sensor data.
  • Rotational stability is an evaluation factor for determining whether the pelvis rotates during the exercise movement of the user 110.
  • the electronic device 210 may evaluate the user's exercise movement for each of the above evaluation factors according to the evaluation criteria shown in Table 1 below.
  • the electronic device 210 may determine which evaluation level the user's exercise motion measurement value corresponds to for each evaluation factor based on the standards for each evaluation factor.
  • the evaluation criteria below are just examples and are not limited thereto.
  • hip joint angle difference upper body tilt left and right stability rotational stability standard 90 ⁇ 110° Pelvic tilt angle -20° parallel parallel very good 90 ⁇ 110° Standard ⁇ 3° Standard ⁇ 10° Standard ⁇ 10° good 80 ⁇ 89°, 111 ⁇ 120° Standard ⁇ 5° Standard ⁇ 20° Standard ⁇ 20° inaccuracy Other ranges Other ranges Other ranges Other ranges Other ranges Other ranges Other ranges Other ranges
  • FIG. 12 is a diagram illustrating a screen of a GUI including visual guide objects according to an embodiment.
  • one screen 1200 of the GUI may provide a first visual guide object 1210 indicating exercise motion standards for an exercise program performed by the user and measurement values of the user's exercise motion.
  • One screen 1200 further provides a second visual guide object 1220 indicating left-right stability for body movement measured in the user's exercise motion and a second visual guide object 1230 indicating rotational stability for body movement. can do.
  • One screen 1200 may provide a comprehensive evaluation level (e.g., very good, good, incorrect) 1240 of the user's exercise motion and an exercise motion measurement value 1215 measured for the user's exercise motion. .
  • the exercise motion measurement value 1215 displayed on the screen 1200 is the maximum value of the user's upper body tilt measured through the inertial measurement device of the wearable device 100 during the user's immediately preceding exercise motion and the wearable device It may include the maximum value of the hip joint angle difference between both hip joints of the user measured through the angle sensor at (100).
  • the indicators appearing on the first visual guide object 1210, the evaluation level 1240, and the colors of the second visual guide objects 1220 and 1230 are the evaluation results of each evaluation element for the user's exercise movement. It may vary depending on.
  • FIGS. 13A, 13B, and 13C are diagrams for explaining various examples of a first visual guide object according to an embodiment.
  • the first visual guide object 1310 shown in FIG. 13A, the first visual guide object 1340 shown in FIG. 13B, and the first visual guide object 1370 shown in FIG. 13C are displayed according to the user's exercise movement type. Various examples of the first visual guide object are shown.
  • the first visual guide object 1310 may represent an exercise motion standard of an exercise program (e.g., split lunge) and an exercise motion measurement value for the user's exercise motion based on the circular edge area 1312. .
  • the shape of the edge area 1312 is not limited to a circle, and the shape of the edge area 1312 may vary.
  • An avatar object (or icon object) 1320 representing a representative posture of an exercise program (e.g., split lunge) performed by the user is displayed in the central portion of the first visual guide object 1310, and an avatar object (or icon object) 1320 is displayed depending on the type of exercise program. The posture of the object 1320 may be displayed differently.
  • the first visual guide object 1310 may include first indicators 1313, 1314, 1315, 1316, 1317, and 1318 indicating exercise operation standards of the exercise program selected by the user.
  • the first indicators 1313, 1314, 1315, 1316, 1317, and 1318 may be displayed adjacent to the edge area 1312.
  • the first indicators 1313, 1314, 1315, 1316, 1317, and 1318 may indicate a plurality of exercise motion reference ranges corresponding to different exercise motion evaluation levels.
  • the first indicators 1314 and 1315 indicate an exercise movement reference range corresponding to an evaluation level of 'good' for the hip joint angle difference value
  • the first indicator 1313 indicates 'excellent' for the hip joint angle difference value.
  • the first indicators 1317 and 1318 indicate a reference range of exercise motion corresponding to an evaluation level of 'good' for the upper body tilt value
  • the first indicator 1316 represents an evaluation level of 'very good' for the upper body tilt value.
  • the corresponding exercise motion reference range can be indicated.
  • the electronic device 210 displays different exercise motion evaluation levels corresponding to the first visual guide object 1310 based on the exercise motion criteria for the selected exercise program (e.g., split lunge). A plurality of exercise motion reference ranges can be displayed.
  • the first indicators (1313, 1314, 1315, 1316, 1317, and 1318) have different evaluation levels depending on the evaluation levels corresponding to the first indicators (1313, 1314, 1315, 1316, 1317, and 1318), respectively. It can be expressed in color. Reference values (e.g., 80, 90, 110, 120, 15, 25) defining a reference range for exercise operation may be displayed around the first indicators (1313, 1314, 1315, 1316, 1317, and 1318).
  • the first visual guide object 1310 may include second indicators 1326, 1328, 1332, and 1334 indicating measurement values of the user's exercise motion.
  • the second indicator 1326 represents the maximum value of the hip joint angle difference between both hip joints of the user determined in the previous exercise action
  • the second indicator 1328 represents the maximum value of the tilt value of the user's upper body determined in the previous exercise action. It can be expressed.
  • the second indicator 1332 may display in real time the hip joint angle difference value between both hip joints determined from the user's current exercise motion
  • the second indicator 1334 may display the current upper body tilt value determined from the user's current exercise motion in real time. there is.
  • the color of each of the second indicators 1326, 1328, 1332, and 1334 may vary depending on the evaluation standard range to which the exercise motion measurement value belongs.
  • the first visual guide object 1310 may include third indicators 1327 and 1329.
  • the third indicator 1327 includes a reference line 1322 for the hip joint angle difference value between both hip joints of the user and an angle line (e.g., corresponding to the maximum value of the hip joint angle difference value between both hip joints of the user determined in the user's previous exercise motion).
  • the angle range defined by the second indicator 1326 may be indicated.
  • the third indicator 1329 includes a reference line (e.g., a vertical line) 1324 for the user's upper body tilt value and an angle line (e.g., a second indicator) corresponding to the maximum value of the user's upper body tilt value determined from the user's previous exercise motion. (1328)) can represent the angular range defined by.
  • the colors expressed by the third indicators 1327 and 1329 may vary depending on the evaluation standard range to which the second indicators 1326 and 1328 belong, respectively.
  • the color of the third indicator 1329 is expressed in blue if the evaluation of the user's upper body motion evaluated in the previous exercise motion is 'very good', green if it is 'good', and yellow if it is 'inaccurate'. It can be expressed as The user can intuitively recognize the evaluation level of the upper body motion and leg motion in the previous exercise motion based on the colors of the third indicators 1327 and 1329.
  • the third indicators 1327 and 1329 may be expressed in a fan shape, but are not limited thereto.
  • the first visual guide object 1340 shown in FIG. 13B is an exercise program in which the user performs an exercise movement in which only one of both legs is moved (e.g., leg swing, lunge and knee up). It may be the first visual guide object displayed when performing up), single leg sprint, or straight leg kick back.
  • the illustrated first visual guide object 1340 is an example of a first visual guide object when performing a leg swing.
  • the first visual guide object 1340 may represent an exercise motion standard of an exercise program (e.g., leg swing) and an exercise motion measurement value for the user's exercise motion based on the circular edge area 1342.
  • An avatar object 1350 representing a representative posture of an exercise program (eg, leg swing) performed by the user may be displayed in the center of the first visual guide object 1340.
  • the first visual guide object 1340 includes first indicators 1343, 1344, and 1345 indicating exercise motion reference ranges for the difference in angles of both hip joints of the exercise program selected by the user and exercise motion for upper body tilt. It may include first indicators 1346, 1347, and 1348 indicating reference ranges. In one embodiment, the first indicators 1343, 1344, 1345, 1346, 1347, and 1348 may be expressed in different colors depending on the corresponding evaluation level.
  • the first visual guide object 1340 includes a second indicator 1356 indicating the maximum value of the hip joint angle difference between both hip joints of the user determined in the previous exercise action and the tilt value of the user's upper body determined in the previous exercise action. It may include a second indicator 1358 indicating the maximum value. In one embodiment, the first visual guide object 1340 includes a second indicator 1362 that indicates in real time the hip joint angle difference value between both hip joints determined in the user's current exercise motion and the current upper body tilt determined in the user's current exercise motion. It may include a second indicator 1364 that indicates the value in real time. In one embodiment, the color of each of the second indicators 1356, 1358, 1362, and 1364 may vary depending on the evaluation standard range to which the exercise motion measurement value belongs.
  • the first visual guide object 1370 shown in FIG. 13C allows the user to perform an exercise program (e.g., squat, half squat, kneeling squat) in which both legs move simultaneously. It may be the first visual guide object displayed when The illustrated first visual guide object 1370 is an example of a first visual guide object when performing a half squat.
  • an exercise program e.g., squat, half squat, kneeling squat
  • the illustrated first visual guide object 1370 is an example of a first visual guide object when performing a half squat.
  • the first visual guide object 1370 may represent an exercise motion standard of an exercise program (e.g., half squat) and an exercise motion measurement value for the user's exercise motion based on the circular edge area 1372.
  • An avatar object 1380 representing a representative posture of an exercise program (eg, half squat) performed by the user may be displayed in the center of the first visual guide object 1370.
  • the first visual guide object 1370 includes first indicators 1373, 1374, and 1375 indicating exercise motion reference ranges for the difference in angles of both hip joints of the exercise program selected by the user and exercise motion for upper body tilt. It may include first indicators 1376, 1377, and 1378 indicating reference ranges. In one embodiment, the first indicators 1373, 1374, 1375, 1376, 1377, and 1378 may be expressed in different colors depending on the corresponding evaluation level.
  • the first visual guide object 1370 is located between the reference line 1382 for the hip joint angle difference value between both hips of the user and the maximum value of the hip joint angle difference value between both hip joints of the user determined from the user's previous exercise movements. It may include a third indicator 1387 indicating the angle range defined by the corresponding angle line (e.g., the second indicator 1386).
  • the first visual guide object 1370 includes a reference line 1384 for the user's upper body tilt value and an angle line (e.g., a second indicator 1388) corresponding to the maximum value of the user's upper body tilt value determined from the user's previous exercise motion.
  • the second visual guide object 1440 may be expressed as a circle defined by the edge area 1442, but is not limited thereto.
  • the second visual guide object 1440 includes a fixed reference line (e.g., horizontal line) 1450, an avatar object 1444 whose inclination changes displayed according to a motor motion measurement value corresponding to the rotational stability of the body movement, and body movement. It may include a color object 1464 whose color changes according to the exercise motion evaluation level of the exercise motion measurement value corresponding to the rotational stability of .
  • the expressed inclination of the avatar object 1444 and the color object 1464 may vary depending on the degree of rotational stability of the user's body movement measured based on sensor data.
  • the avatar object 1444 may be expressed, for example, as an icon in the shape of a person viewed from above.
  • the area of the color object 1464 may be defined by a line segment 1462 and an edge area 1442 whose slope varies depending on the degree of rotational stability.
  • the shape of the color object 1464 may be semicircular, but is not limited thereto.
  • the evaluation level for left-right stability when the evaluation level for left-right stability is 'very good', it is expressed as a second visual guide object 1510, and when it is 'good', the direction in which the body is tilted (e.g., right or left) Accordingly, it may be expressed as a second visual guide object 1522 or a second visual guide object 1524. If the evaluation level for left and right stability is 'inaccurate', it may be expressed as a second visual guide object 1532 or a second visual guide object 1534 depending on the direction in which the body is tilted.
  • the second visual guide object 1532 expresses the avatar object and the color object in a more inclined form than the second visual guide object 1522, and the second visual guide object 1534 displays the avatar object and the color object in a more inclined form than the second visual guide object 1524.
  • Avatar objects and color objects can be expressed in a more tilted form.
  • the color object of the second visual guide object 1510 is expressed in blue
  • the color object of the second visual guide objects 1522 and 1524 is expressed in green
  • the color object of the second visual guide object 1532 is expressed in green.
  • color objects may be expressed in yellow, but are not limited to this.
  • the evaluation level for rotational stability when the evaluation level for rotational stability is 'very good', it is expressed as a second visual guide object 1540, and when it is 'good', it is expressed as the body's rotation direction (e.g., clockwise or counterclockwise). Depending on the direction, it may be expressed as a second visual guide object 1552 or a second visual guide object 1554. If the evaluation level for rotational stability is 'inaccurate', it may be expressed as a second visual guide object 1562 or a second visual guide object 1564 depending on the rotation direction of the body.
  • Figure 16 is a diagram for explaining changes in visual guide objects according to a user's exercise performance according to an embodiment.
  • a state 1620 in which the user 110 starts the first exercise movement and performs the split lunge exercise movement the user 110 is monitored through sensors (e.g., inertial measurement device, angle sensor) of the wearable device 100. Body movement information may be measured, and sensor data including body movement information may be transmitted to the electronic device 210. Until this time, the first exercise movement of the user 110 has not yet been completed, so the area 1625 that provides the exercise movement evaluation information of the user 110 is the same as the area 1615 in the previous state 1610. It is maintained.
  • sensors e.g., inertial measurement device, angle sensor
  • the electronic device 210 displays the wearable device 100 acquired during the first exercise movement of the user 110.
  • the first exercise movement of the user 110 can be evaluated by analyzing the sensor data.
  • the electronic device 210 may provide exercise motion evaluation information that evaluates the exercise motion of the user 110 to the user 110 through an area 1635 of the GUI.
  • One screen 1635 displays exercise motion measurement values for the first exercise motion of the user 110 through the second indicators (e.g., upper body tilt value, hip joint angle difference value of both hip joints, left and right stability of body movement, and body movement measurement value) through the second indicators. rotational stability) can be provided.
  • the evaluation level of 'inaccurate' may be presented in one area 1635.
  • the number of repetitions of the exercise movement is updated to '1', and the estimated calories consumed by the first exercise movement can be displayed through the GUI.
  • the body movement information of the user 110 is measured again through the sensors of the wearable device 100, and the body movement Sensor data containing information may be transmitted to the electronic device 210. Since the second exercise movement of the user 110 has not yet been completed until this point, the area 1645 providing the exercise movement evaluation information remains the same as the area 1635 in the previous state 1640.
  • the electronic device 210 uses the wearable device 100 acquired during the second exercise movement of the user 110.
  • the second exercise movement of the user 110 can be evaluated by analyzing the sensor data.
  • the electronic device 210 may provide exercise motion evaluation information that evaluates the exercise motion of the user 110 to the user 110 through an area 1655 of the GUI.
  • One screen 1655 may provide exercise motion measurement values for the second exercise motion of the user 110 through second indicators. If the overall evaluation level for the second exercise movement is determined to be 'very good', the evaluation level of 'very good' may be presented in one area 1655.
  • the number of repetitions of the exercise movement is updated to '2', and the estimated calories consumed until the second exercise movement can be displayed through the GUI.
  • FIG. 17 is a diagram illustrating a first visual guide object that provides evaluation information on a user's exercise motion in the form of a gauge, according to an embodiment.
  • the first visual guide object 1720 displays the current exercise motion along with exercise motion reference ranges corresponding to the split lunge exercise motion standard.
  • a second indicator 1730 indicating the measured hip joint angle difference between both hip joints of the user 110 and a second indicator 1740 indicating the upper body tilt value of the user 110 measured in the current exercise motion may be displayed.
  • the exercise motion measurement values indicated by the second indicator 1730 and the second indicator 1740 in real time may vary.
  • the second indicators 1730 and 1740 may indicate measurement values of the user's exercise movements in real time.
  • the first visual guide object 1760 displays the exercise corresponding to the exercise movement standard of the split lunge.
  • a second indicator 1770 indicating the hip joint angle difference value between both hip joints of the user 110 measured in the current intermediate motion along with the motion reference ranges, and a second indicator 1770 indicating the upper body tilt value of the user 110 measured in the current exercise motion. 2 indicator 1780 can be displayed.
  • the second indicator 1770 when the hip joint angle difference value indicated by the second indicator 1770 is included in the exercise motion reference range indicated by the first indicator, the second indicator 1770 changes to a color corresponding to the exercise motion reference range. It can be. If the upper body tilt value indicated by the second indicator 1780 is included in the exercise motion reference range indicated by the first indicator, the second indicator 1780 may be changed to a color corresponding to the exercise motion reference range. Because the second indicators (1770, 1780) reflect the user's exercise movements in real time, the user 110 performs exercise movement correction based on changes in the second indicators (1770, 1780). You can try it right away while you're at it, and you can effectively recognize the degree to which correction is needed in real time.
  • the first visual guide object 1760 includes a third indicator indicating an angular range defined by the reference line 1772 and the second indicator 1770, and the reference line 1782 and the second indicator 1780. ) may include a third indicator indicating the angular range defined by .
  • the reference line 1772 may correspond to the reference line 1732, and the reference line 1782 may correspond to the reference line 1742.
  • FIG. 18 is a diagram illustrating the transformation of an avatar object in a first visual guide object according to a user's exercise motion according to an embodiment.
  • a first visual guide object 1822 to visually display exercise motion evaluation information of the user 110 may be displayed in one area 1820 of the GUI.
  • the avatar object 1824 included in the first visual guide object 1822 may reflect the current motion of the user 110 in real time.
  • the shape of the avatar object 1824 may be changed to correspond to the current motion (particularly, leg motion) of the user 110. Through a change in the shape of the avatar object 1824, the user 110 can intuitively recognize his or her current movement.
  • the first visual guide object 1822 includes a second indicator 1826 indicating the maximum value of the hip joint angle difference value evaluated in the previous first exercise motion of the user 110, and the maximum value of the upper body tilt value evaluated in the previous first exercise motion.
  • a second indicator 1828 and reference lines 1827 and 1829 may be displayed.
  • the first visual guide object 1822 may display third indicators defined by the reference lines 1827 and 1829 and the second indicators 1826 and 1828.
  • the electronic device 210 evaluates the exercise motion determined during the second exercise of the user 110.
  • Information may be provided through one area 1870 of the GUI.
  • the first visual guide object 1882 provided in one area 1870 includes a second indicator 1886 indicating the maximum hip joint angle difference value determined during the second exercise movement of the user 110 and a second indicator 1886 indicating the maximum value during the second exercise movement of the user 110.
  • a second indicator 1888 indicating the maximum value of the determined upper body tilt value may be displayed.
  • the avatar object 1884 may change its shape to correspond to the current motion of the user 110.
  • the first visual guide object 1882 may display third indicators defined by the reference lines 1827 and 1829 and the second indicators 1886 and 1888.
  • FIG. 19 is a diagram illustrating providing evaluation information of a user's exercise motion through an avatar object and a wearable device according to an embodiment.
  • the graphic elements 1932, 1934, 1936, and 1938 may be displayed in a fan shape for each body part, and can be used to correct the exercise movement for each body part in evaluating the exercise movement of the user 110 through colors according to the evaluation level. It can intuitively express the necessary body parts.
  • information about the body part that needs correction of the exercise motion may be transmitted from the electronic device 210 to the wearable device 100, and the wearable device 100 may send information about the body part that needs correction of the exercise motion.
  • Haptic feedback e.g. vibration
  • the wearable device 100 is fastened near the waist of the user 110 and the first thigh.
  • Haptic feedback can be generated near the area.
  • the wearable device 100 can also play a guide voice (e.g., 'Please raise your upper body higher', lower your right leg further') to guide the user 110 in corrective methods for exercise movements through the sound output module. It may be possible.
  • the user 110 can immediately recognize a body part that needs correction during an exercise movement through haptic feedback and/or a guide voice.
  • FIGS. 20A and 20B are diagrams illustrating examples of providing a GUI including visual guide objects through various electronic devices according to an embodiment.
  • the electronic device 210 or the wearable device 100 may provide exercise motion evaluation information about exercise motion to the user in conjunction with the smartwatch 224.
  • sensor data about the user's body movement is obtained through the wearable device 100, and the user An evaluation of motor movements may be performed.
  • the first visual guide object 2042 and the second visual guide object 2044 indicating the evaluation results of the exercise motion may be provided to the user through the display of the smartwatch 224.
  • the first visual guide object 2042 and the second visual guide object 2044 may be simultaneously output on one screen of the display of the smartwatch 224 or alternately at regular time intervals.
  • first, second, or first or second may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device.
  • Software and/or data may be used on any type of machine, component, physical device, virtual equipment, or computer storage medium to be interpreted by or to provide instructions or data to a processing device. It can be permanently or temporarily embodied in the device.
  • Software may be distributed over networked computer systems and stored or executed in a distributed manner.
  • Software and data may be stored on a computer-readable recording medium.
  • Various embodiments of the present disclosure may be implemented as software including one or more instructions stored in a storage medium (eg, memory 514) that can be read by a machine.
  • the processor of the device may call at least one instruction among one or more instructions stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called.
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • methods according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store TM ) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Rehabilitation Tools (AREA)

Abstract

사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및 웨어러블 장치,이들의 동작 방법이 개시된다. 전자 장치는 웨어러블 장치를 착용한 사용자가 수행할 운동 프로그램을 선택하는 사용자 입력을 수신하는 입력 모듈, 운동 프로그램에 따른 운동 과정에서 사용자의 움직임 정보가 포함된 센서 데이터를 웨어러블 장치로부터 수신하는 통신 모듈, 센서 데이터에 기초하여 사용자의 운동 동작 측정 값을 결정하고, 운동 프로그램의 운동 동작 기준을 나타내는 제1 인디케이터 및 운동 동작 측정 값을 나타내는 하나 이상의 제2 인디케이터를 포함하는 제1 시각적 가이드 객체를 생성하는 프로세서, 및 제1 시각적 가이드 객체가 나타난 그래픽 사용자 인터페이스를 출력하는 디스플레이 모듈을 포함한다.

Description

사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및 웨어러블 장치, 이들의 동작 방법
특정 실시예들은 사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및/또는 웨어러블 장치, 및/또는 전자 장치 및/또는 웨어러블 장치의 동작 방법에 관한 것이다.
일반적으로, 보행 보조 장치(walking assistance device)는 예를 들어 각종 질환이나 사고 등으로 인하여 스스로 걷지 못하는 환자들이 재활 치료 또는 다른 목적을 위한 보행 운동을 할 수 있도록 도와주는 기구 또는 장치를 말한다. 최근 고령화 사회가 심화됨에 따라 다리 관절의 문제로 정상적인 보행이 어렵거나 보행에 대해 불편을 호소하는 사람들이 증가하여 보행 보조 장치에 대한 관심도 높아지고 있다. 보행 보조 장치는 사용자의 신체에 장착되어 사용자가 보행하는데 필요한 근력을 보조(assistance)해 주고, 사용자가 정상적인 보행 패턴으로 보행하도록 보조하고/하거나 운동을 보조할 수 있다.
일 실시예에 따른 전자 장치는, 웨어러블 장치를 착용한 사용자가 수행할 운동 프로그램을 선택하는 사용자 입력을 수신하는 회로(circuitry)를 포함하는 입력 모듈, 상기 선택된 운동 프로그램에 따른 운동 과정에서 상기 사용자의 움직임 정보가 포함된 센서 데이터를 상기 웨어러블 장치로부터 수신하는 통신 회로를 포함하는 통신 모듈, 상기 센서 데이터에 기초하여 상기 사용자의 운동 동작 측정 값을 결정하고, 상기 선택된 운동 프로그램의 운동 동작 기준을 나타내는 제1 인디케이터 및 상기 결정된 운동 동작 측정 값을 나타내는 하나 이상의 제2 인디케이터를 포함하는 제1 시각적 가이드 객체를 생성하는 적어도 하나의 프로세서, 및 상기 제1 시각적 가이드 객체가 나타난 그래픽 사용자 인터페이스(graphical user interface; GUI)를 출력하는 디스플레이를 포함하는 디스플레이 모듈을 포함할 수 있다.
일 실시예에 따른 전자 장치의 동작 방법은, 웨어러블 장치를 착용한 사용자가 수행할 운동 프로그램을 선택하는 사용자 입력을 수신하는 동작, 상기 선택된 운동 프로그램에 따른 운동 과정에서 상기 사용자의 움직임 정보가 포함된 센서 데이터를 상기 웨어러블 장치로부터 수신하는 동작, 상기 센서 데이터에 기초하여 상기 사용자의 운동 동작 값을 결정하는 동작, 및 상기 선택된 운동 프로그램의 운동 동작 기준을 나타내는 제1 인디케이터 및 상기 결정된 운동 동작 측정 값을 나타내는 하나 이상의 제2 인디케이터를 포함하는 제1 시각적 가이드 객체가 나타난 그래픽 사용자 인터페이스를 출력하는 동작을 포함할 수 있다.
일 실시예에 따른 컴퓨터 판독 가능한 기록매체는, 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 본 개시에서 설명된 전자 장치의 동작 방법을 수행하게 하는 인스트럭션들(instructions)을 기록할 수 있다.
다른 특징들 및 측면들은 다음의 상세한 설명, 도면 및 청구범위로부터 명백해질 것이다.
본 개시의 특정 실시예들의 상기 및 다른 측면, 특징들 및 이점들은 첨부된 도면과 함께 다음의 상세한 설명으로부터 더욱 명백해질 것이다:
도 1은 일 실시예에 따른 사용자의 신체에 착용되는 웨어러블 장치의 개요(overview)를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 웨어러블 장치와 전자 장치를 포함하는 운동 관리 시스템을 설명하기 위한 도면이다.
도 3는 일 실시예에 따른 웨어러블 장치의 후면 개략도를 나타낸다.
도 4는 일 실시예에 따른 웨어러블 장치의 좌측 측면도를 나타낸다.
도 5a 및 도 5b는 일 실시예에 따른 웨어러블 장치의 제어 시스템의 구성을 도시하는 도면들이다.
도 6은 일 실시예에 따른 웨어러블 장치와 전자 장치 간의 상호 동작을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 전자 장치의 구성을 도시하는 도면이다.
도 8은 일 실시예에 따른 전자 장치 및 웨어러블 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 9는 일 실시예에 따른 사용자의 운동 동작 평가 정보를 제공하는 과정을 설명하기 위한 흐름도이다.
도 10은 일 실시예에 따른 전자 장치의 GUI 및 웨어러블 장치를 통해 사용자의 운동 동작 평가 정보를 제공하는 것을 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 사용자의 운동 동작을 평가하는 것을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 시각적 가이드 객체들을 포함하는 GUI의 일 화면을 도시하는 도면이다.
도 13a, 도 13b 및 도 13c는 일 실시예에 따른 제1 시각적 가이드 객체의 다양한 예들을 설명하기 위한 도면들이다.
도 14a 및 도 14b는 일 실시예에 따른 제2 시각적 가이드 객체를 설명하기 위한 도면들이다.
도 15는 일 실시예에 따른 사용자의 신체 움직임의 안정성 평가에 따른 제2 시각적 가이드 객체의 다양한 예들을 설명하기 위한 도면이다.
도 16은 일 실시예에 따른 사용자의 운동 수행에 따른 시각적 가이드 객체들의 변화를 설명하기 위한 도면이다.
도 17은 일 실시예에 따른 사용자의 운동 동작 평가 정보를 게이지(gauge) 형태로 제공하는 제1 시각적 가이드 객체를 설명하기 위한 도면이다.
도 18은 일 실시예에 따른 사용자의 운동 동작에 따라 제1 시각적 가이드 객체 내의 아바타 객체가 변형되는 것을 설명하기 위한 도면이다.
도 19는 일 실시예에 따른 사용자의 운동 동작 평가 정보를 아바타 객체 및 웨어러블 장치를 통해 제공하는 것을 설명하기 위한 도면이다.
도 20a 및 도 20b는 일 실시예에 따른 다양한 전자 장치를 통해 시각적 가이드 객체들을 포함하는 GUI를 제공하는 예들을 도시하는 도면들이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 사용자의 신체에 착용되는 웨어러블 장치의 개요를 설명하기 위한 도면이다.
도 1을 참조하면, 일 실시예에서 웨어러블 장치(100)는 사용자(110)의 신체에 착용되어 사용자(110)의 보행(walking), 운동(exercise) 및/또는 작업(work)을 보조해 주는 장치일 수 있다. 일 실시예에서, 웨어러블 장치(100)는 사용자(110)의 신체 능력(예: 보행 능력, 운동 능력, 운동 동작(exercise posture))을 측정하는데 이용될 수도 있다. 실시예들에서 '웨어러블 장치'의 용어는 '웨어러블 로봇', '보행 보조 장치', 또는 '운동 보조 장치'로 대체될 수 있다. 사용자(110)는 사람 또는 동물일 수 있으며, 이에 제한되지는 않는다. 웨어러블 장치(100)는 사용자(110)의 신체(예: 하체(다리, 발목, 무릎 등), 상체(몸통, 팔, 손목 등), 또는 허리)에 착용되어 사용자(110)의 신체 움직임에 보조력(assistance force) 및/또는 저항력(resistance force)의 외력을 가할 수 있다. 보조력은 사용자(110)의 신체 움직임 방향과 동일한 방향으로 적용되는 힘으로, 사용자(110)의 신체 움직임을 도와주는 힘을 나타낸다. 저항력은 사용자(110)의 신체 움직임 방향에 반대되는 방향으로 적용되는 힘으로, 사용자(110)의 신체 움직임을 방해하는 힘을 나타낸다. '저항력'의 용어는 '운동 부하'로도 지칭될 수 있다.
일 실시예에서, 웨어러블 장치(100)는 사용자(110)의 보행을 보조하는 보행 보조 모드로 동작할 수 있다. 보행 보조 모드에서, 웨어러블 장치(100)는 웨어러블 장치(100)의 구동 모듈(120)로부터 발생한 보조력을 사용자(110)의 신체에 가하는 것에 의해 사용자(110)의 보행을 도울 수 있다. 웨어러블 장치(100)는 사용자(110)의 보행에 필요한 힘을 보조해 줌으로써 사용자(110)의 독립적인 보행을 가능하게 하거나 또는 장시간 보행을 가능하게 하여 사용자(110)의 보행 능력을 확장시켜 줄 수 있다. 웨어러블 장치(100)는 보행 습관이나 보행 자세가 비정상인 보행자의 보행을 개선시키는데 도움을 줄 수도 있다.
일 실시예에서, 웨어러블 장치(100)는 사용자(110)의 운동 효과를 강화하기 위한 운동 보조 모드로 동작할 수 있다. 운동 보조 모드에서, 웨어러블 장치(100)는 구동 회로(driving circuitry)를 포함하는 구동 모듈(120)로부터 발생하는 저항력을 사용자(110)의 신체에 가하는 것에 의해 사용자(110)의 신체 움직임을 방해하거나 사용자(110)의 신체 움직임에 저항을 줄 수 있다. 웨어러블 장치(100)가 사용자(110)의 허리(또는 골반)와 다리(예: 허벅지)에 착용되는 힙(hip) 타입의 웨어러블 장치인 경우, 웨어러블 장치(100)는 다리에 착용된 상태로 사용자(110)의 다리 움직임에 운동 부하를 제공하여 사용자(110)의 다리에 대한 운동 효과를 보다 강화시킬 수 있다. 일 실시예에서, 웨어러블 장치(100)는 사용자(110)의 운동을 보조하기 위해 보조력을 사용자(110)의 신체에 가할 수도 있다. 예를 들어, 장애인 또는 노인이 웨어러블 장치(100)를 착용하여 운동을 하고자 하는 경우, 웨어러블 장치(100)는 운동 과정에서 신체 움직임을 도와주기 위한 보조력을 제공할 수 있다. 일 실시예에서, 웨어러블 장치(100)는 일부 운동 구간에서는 보조력을 제공하고, 다른 운동 구간에서는 저항력을 제공하는 것과 같이, 보조력과 저항력을 운동 구간 또는 시간 구간별로 조합하여 제공할 수도 있다.
일 실시예에서, 웨어러블 장치(100)는 사용자(110)의 신체 능력을 측정하기 위한 신체 능력 측정 모드로 동작할 수 있다. 웨어러블 장치(100)는 사용자가 보행이나 운동을 수행하는 과정에서 웨어러블 장치(100)에 구비된 센서들(예: 각도 센서(125), 관성 측정 장치(inertial measurement unit; IMU)(135))를 이용하여 사용자의 움직임 정보를 측정하고, 측정된 움직임 정보를 기초로 사용자의 신체 능력을 평가할 수 있다. 예를 들어, 웨어러블 장치(100)에 의해 측정된 사용자(100)의 움직임 정보를 통해 사용자(110)의 보행 지표 또는 운동 능력 지표(예: 근력, 지구력, 밸런스, 운동 동작)가 추정될 수 있다. 신체 능력 측정 모드는 사용자의 운동 동작을 측정하기 위한 운동 동작 측정 모드를 포함할 수 있다.
본 개시의 다양한 실시예들에서는 설명의 편의를 위해 도 1에 도시된 것과 같은 힙(hip) 타입의 웨어러블 장치(100)를 예를 들어 설명하나 이에 한정되는 것은 아니다. 위에서 설명한 것과 같이 웨어러블 장치(100)는 허리 및 다리(특히 허벅지) 이외의 다른 신체 부위(예: 상박, 하박, 손, 종아리, 발)에도 착용될 수도 있고, 착용되는 신체 부위에 따라 웨어러블 장치(100)의 형태와 구성이 달라질 수 있다.
일 실시예에 따르면, 웨어러블 장치(100)는 웨어러블 장치(100)가 사용자(110)의 신체에 착용되었을 때 사용자(110)의 신체를 지지하기 위한 지지 프레임(예: 도 3의 다리 지지 프레임(50, 55), 허리 지지 프레임(20)), 사용자(110)의 신체 움직임(예: 다리 움직임, 상체 움직임)에 대한 움직임 정보를 포함하는 센서 데이터를 획득하는 센서 모듈(예: 적어도 하나의 센서를 포함하는 도 5a의 센서 모듈(520)), 사용자(110)의 다리에 적용되는 토크를 발생시키는 구동 모듈(120)(예: 도 3의 구동 모듈(35, 45)) 및 웨어러블 장치(100)를 제어하는 제어 모듈(130)(예: 도 5a 및 도 5b의 제어 모듈(510))을 포함할 수 있다.
센서 모듈은 각도 센서(125) 및 관성 측정 장치(135)를 포함할 수 있다. 각도 센서(125)는 사용자(110)의 고관절 각도 값에 대응하는 웨어러블 장치(100)의 다리 지지 프레임의 회전 각도를 측정할 수 있다. 각도 센서(125)에 의해 측정되는 다리 지지 프레임의 회전 각도는 사용자(110)의 고관절 각도 값(또는 다리 각도 값)이라고 추정될 수 있다. 각도 센서(125)는 예를 들어 엔코더(encoder) 및/또는 홀 센서(hall sensor)를 포함할 수 있다. 일 실시예에서, 각도 센서(125)는 사용자(110)의 오른쪽 고관절 부근과 왼쪽 고관절 부근에 각각 존재할 수 있다. 관성 측정 장치(135)는 가속도 센서 및/또는 각속도 센서를 포함할 수 있고, 사용자(110)의 움직임에 따른 가속도 및/또는 각속도의 변화를 측정할 수 있다. 관성 측정 장치(135)는 예를 들어 웨어러블 장치(100)의 허리 지지 프레임(또는 베이스 바디(도 3의 베이스 바디(80))의 움직임 값에 대응하는 사용자(110)의 상체 움직임 값을 측정할 수 있다. 관성 측정 장치(135)에 의해 측정되는 허리 지지 프레임의 움직임 값은 사용자(110)의 상체 움직임 값이라고 추정될 수 있다.
일 실시예에서, 제어 모듈(130) 및 관성 측정 장치(135)는 웨어러블 장치(100)의 베이스 바디(예: 도 3의 베이스 바디(80)) 내에 배치될 수 있다. 베이스 바디는 사용자(110)가 웨어러블 장치(100)를 착용한 상태에서 사용자(110)의 요부(허리 부위)에 위치할 수 있다. 베이스 바디는 웨어러블 장치(100)의 허리 지지 프레임의 외부에 형성 또는 부착될 수 있다. 베이스 바디는 사용자(110)의 요부에 장착되어 사용자의 허리에 쿠션감을 제공할 수 있고, 허리 지지 프레임과 함께 사용자(110)의 허리를 지지할 수 있다.
도 2는 일 실시예에 따른 웨어러블 장치와 전자 장치를 포함하는 운동 관리 시스템을 설명하기 위한 도면이다.
도 2를 참조하면, 운동 관리 시스템(200)은 사용자의 신체에 착용되는 웨어러블 장치(100), 전자 장치(210), 다른 웨어러블 장치(220), 및 서버(230)를 포함할 수 있다. 일 실시예에서, 운동 관리 시스템(200)에는 이 장치들 중 적어도 하나(예: 다른 웨어러블 장치(220) 또는 서버(230))가 생략되거나 또는 하나 이상의 다른 장치(예: 웨어러블 장치(100)의 전용 컨트롤러 장치)가 추가될 수 있다.
일 실시예에서, 웨어러블 장치(100)는 보행 보조 모드에서 사용자의 신체에 착용되어 사용자의 움직임을 보조할 수 있다. 예를 들어, 웨어러블 장치(100)는 사용자의 다리에 착용되어 사용자의 다리 움직임을 보조하기 위한 보조력을 발생시킴으로써 사용자의 보행을 도와줄 수 있다.
일 실시예에서, 웨어러블 장치(100)는 운동 보조 모드에서 사용자의 운동 효과를 강화하기 위하여 사용자의 신체 움직임을 방해하기 위한 저항력 또는 사용자의 신체 움직임을 도와주기 위한 보조력을 생성하여 사용자의 신체에 가할 수 있다. 운동 보조 모드에서 사용자는 전자 장치(210)를 통해 웨어러블 장치(100)를 이용하여 운동하고자 하는 운동 프로그램(예: 스쿼트, 스플릿 런지(split lunge), 덤벨 스쿼트, 런지 앤 니 업(lunge and knee up), 스트레칭 등) 및/또는 웨어러블 장치(100)에 적용되는 운동 강도를 선택할 수 있다. 웨어러블 장치(100)는 사용자가 선택한 운동 프로그램에 따라 웨어러블 장치(100)의 구동 모듈을 제어하고, 적어도 하나의 센서를 포함하는 센서 모듈을 통해 사용자의 움직임 정보를 포함하는 센서 데이터를 획득할 수 있다. 웨어러블 장치(100)는 사용자가 선택한 운동 강도에 따라 사용자에게 적용되는 저항력 또는 보조력의 세기를 조절할 수 있다. 예를 들어, 웨어러블 장치(100)는 사용자가 선택한 운동 강도에 대응하는 저항력이 발생하도록 구동 모듈을 제어할 수 있다.
일 실시예에서, 웨어러블 장치(100)는 전자 장치(210)와 연동하여 사용자의 신체 능력을 측정하는데 이용될 수 있다. 웨어러블 장치(100)는 전자 장치(210)의 제어 하에 사용자의 신체 능력을 측정하기 위한 모드인 신체 능력 측정 모드로 동작할 수 있고, 신체 능력 측정 모드에서 사용자의 움직임에 의해 획득된 센서 데이터를 전자 장치(210)에 전송할 수 있다. 전자 장치(210)는 웨어러블 장치(100)로부터 수신한 센서 데이터를 분석하여 사용자의 신체 능력을 추정할 수 있다.
전자 장치(210)는 웨어러블 장치(100)와 통신할 수 있고, 웨어러블 장치(100)를 원격으로 제어하거나 또는 웨어러블 장치(100)의 상태(예: 부팅 상태, 충전 사태, 센싱 상태, 에러 상태)에 대한 상태 정보를 사용자에게 제공할 수 있다. 전자 장치(210)는 웨어러블 장치(100)로부터 웨어러블 장치(100)의 센서에 의해 획득된 센서 데이터를 수신할 수 있고, 수신한 센서 데이터를 기초로 사용자의 신체 능력이나 운동 결과를 추정할 수 있다. 일 실시예에서, 사용자가 웨어러블 장치(100)를 착용하고 운동할 때, 웨어러블 장치(100)는 센서들을 이용하여 사용자의 움직임 정보를 포함하는 센서 데이터를 획득하고, 획득된 센서 데이터를 전자 장치(210)에 전송할 수 있다. 전자 장치(210)는 센서 데이터로부터 사용자의 움직임 값을 추출하고, 추출된 움직임 값에 기초하여 사용자의 운동 동작을 평가할 수 있다. 전자 장치(210)는 사용자의 운동 동작에 대한 운동 동작 측정 값과 운동 동작 평가 정보를 그래픽 사용자 인터페이스를 통해 사용자에게 제공할 수 있다.
일 실시예에서, 전자 장치(210)는 웨어러블 장치(100)를 제어하기 위한 프로그램(예: 어플리케이션)을 실행시킬 수 있고, 사용자는 해당 프로그램을 통해 웨어러블 장치(100)의 동작이나 설정 값(예: 구동 모듈(예: 구동 회로를 포함하는 도 3의 구동 모듈(35, 45))로부터 출력되는 토크 세기, 음향 출력 모듈(예: 도 5a 및 도 5b의 음향 출력 모듈(550))로부터 출력되는 오디오의 크기, 라이트 유닛(예: 도 3의 라이트 유닛(85))의 밝기)을 조정할 수 있다. 전자 장치(210)에서 실행되는 프로그램은 사용자와의 인터랙션을 위한 그래픽 사용자 인터페이스(graphical user interface; GUI)를 제공할 수 있다. 전자 장치(210)는 다양한 형태의 장치가 될 수 있다. 예를 들어, 전자 장치(210)는 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 액세스 포인트(access point), 휴대용 멀티미디어 장치, 또는 가전 장치(예: 텔레비전, 오디오 장치, 프로젝터 장치)를 포함할 수 있으나, 전술한 장치들에 한정되지 않는다.
일 실시예에 따르면, 전자 장치(210)는 근거리 무선 통신 또는 셀룰러 통신을 이용하여 서버(230)와 연결될 수 있다. 서버(230)는 전자 장치(210)로부터 웨어러블 장치(100)를 이용하는 사용자의 사용자 프로파일 정보를 수신하고, 수신한 사용자 프로파일 정보를 저장 및 관리할 수 있다. 사용자 프로파일 정보는 예를 들어 이름, 나이, 성별, 키, 몸무게, 또는 BMI(body mass index) 중 적어도 하나에 대한 정보를 포함할 수 있다. 서버(230)는 사용자에 의해 수행된 운동에 대한 운동 이력 정보를 전자 장치(210)로부터 수신하고, 수신한 운동 이력 정보를 저장 및 관리할 수 있다. 서버(230)는 사용자에게 제공될 수 있는 다양한 운동 프로그램이나 신체 능력 측정 프로그램을 전자 장치(210)에 제공할 수 있다.
일 실시예에 따르면, 웨어러블 장치(100) 및/또는 전자 장치(210)는 다른 웨어러블 장치(220)와 연결될 수 있다. 다른 웨어러블 장치(220)는 예를 들어 무선 이어폰(222), 스마트워치(224) 또는 스마트글래스(226)일 수 있으나, 전술한 장치들에 한정되지 않는다. 일 실시예에서, 스마트워치(224)는 사용자의 심박수 정보를 포함하는 생체 신호를 측정할 수 있고, 측정된 생체 신호를 전자 장치(210) 및/또는 웨어러블 장치(100)에 전송할 수 있다. 전자 장치(210)는 스마트워치(224)로부터 수신한 생체 신호에 기초하여 사용자의 심박수 정보(예: 현재 심박수, 최대 심박수, 평균 심박수)를 추정할 수 있고, 추정한 심박수 정보를 사용자에게 제공할 수 있다.
일 실시예에서, 전자 장치(210)에 의해 평가된 사용자의 운동 결과 정보, 신체 능력 정보, 및/또는 운동 동작 평가 정보는 다른 웨어러블 장치(220)로 전달되어 다른 웨어러블 장치(220)를 통해 사용자에게 제공될 수 있다. 웨어러블 장치(100)의 상태 정보도 다른 웨어러블 장치(220)로 전달되어 다른 웨어러블 장치(220)를 통해 사용자에게 제공될 수 있다. 일 실시예에서, 웨어러블 장치(100), 전자 장치(210) 및 다른 웨어러블 장치(220) 간에는 무선 통신(예: 블루투스 통신, 와이파이 통신)을 통해 서로 연결될 수 있다.
일 실시예에서, 웨어러블 장치(100)는 전자 장치(210)로부터 수신한 제어 신호에 따라 웨어러블 장치(100)의 상태에 대응되는 피드백(예: 시각적 피드백, 청각적 피드백, 촉각적 피드백)을 제공(또는 출력)할 수 있다. 예를 들어, 웨어러블 장치(100)는 라이트 유닛(예: 도 3의 라이트 유닛(85))을 통해 시각적 피드백을 제공할 수 있고, 음향 출력 모듈(예: 도 5a 및 도 5b의 음향 출력 모듈(550))을 통해 청각적 피드백을 제공할 수 있다. 웨어러블 장치(100)는 햅틱 모듈을 포함할 수 있고, 햅틱 모듈을 통해 사용자의 신체에 진동 형태의 촉각적 피드백을 제공할 수 있다. 전자 장치(210)도 웨어러블 장치(100)의 상태에 대응되는 피드백(예: 시각적 피드백, 청각적 피드백, 촉각적 피드백)을 제공(또는 출력)할 수 있다.
일 실시예에서, 전자 장치(210)는 운동 보조 모드에서 사용자에게 개인화된 운동 목표를 제시할 수 있다. 개인화된 운동 목표는 전자 장치(210) 및/또는 서버(230)에 의해 결정된, 사용자가 운동하고자 하는 운동 타입들(예: 근력 운동, 밸런스 운동, 유산소 운동) 각각의 운동량 목표치를 포함할 수 있다. 서버(230)가 운동량 목표치를 결정한 경우, 서버(230)는 결정한 운동량 목표치에 대한 정보를 전자 장치(210)에 전송할 수 있다. 전자 장치(210)는 근력 운동, 유산소 운동 및 밸런스 운동의 운동 타입들의 운동량 목표치를 수행하고자 하는 운동 프로그램(예: 스쿼트, 스플릿 런지, 런지 앤 니업) 및/또는 사용자의 신체 특성(예: 나이, 키, 몸무게, BMI)에 맞게 개인화하여 제시할 수 있다. 전자 장치(210)는 각 운동 타입의 운동량 목표치를 나타내는 GUI 화면을 디스플레이에 표시할 수 있다.
일 실시예에 있어서, 전자 장치(210) 및/또는 서버(230)는 웨어러블 장치(100)를 통해 사용자에게 제공될 수 있는 복수의 운동 프로그램들에 대한 정보가 저장된 데이터베이스를 포함할 수 있다. 사용자의 운동 목적을 달성하기 위해 전자 장치(210) 및/또는 서버(230)는 사용자에게 적합한 운동 프로그램을 추천할 수 있다. 운동 목적은, 예를 들어, 근력 향상, 근체력 향상, 심폐지구력 향상, 코어 안정성 향상, 유연성 향상, 또는 대칭성 향상 중 적어도 하나를 포함할 수 있다. 전자 장치(210) 및/또는 서버(230)는 사용자가 수행한 운동 프로그램 및 운동 프로그램에 대한 수행 결과 등을 저장하고, 관리할 수 있다.
도 3는 일 실시예에 따른 웨어러블 장치의 후면 개략도를 나타낸다. 도 4는 일 실시예에 따른 웨어러블 장치의 좌측 측면도를 나타낸다.
도 3 및 도 4를 참조하면, 일 실시예에 따른 웨어러블 장치(100)는 베이스 바디(80), 허리 지지 프레임(20), 구동 모듈(35, 45), 다리 지지 프레임(50, 55), 허벅지 체결부(1, 2), 및 허리 체결부(60)를 포함할 수 있다. 베이스 바디(80)는 라이팅(lighting) 유닛(85)을 포함할 수 있다. 일 실시예에서, 웨어러블 장치(100)에는 이들 구성요소들 중 적어도 하나(예: 라이팅 유닛(85))가 생략되거나, 하나 이상의 다른 구성요소(예: 햅틱 모듈)가 추가될 수 있다.
베이스 바디(80)는 사용자가 웨어러블 장치(100)를 착용한 상태에서 사용자의 요부에 위치할 수 있다. 베이스 바디(80)는 사용자의 요부에 장착되어 사용자의 허리에 쿠션감을 제공할 수 있고, 사용자의 허리를 지지할 수 있다. 베이스 바디(80)는 사용자가 웨어러블 장치(100)를 착용한 상태에서 웨어러블 장치(100)가 중력에 의하여 하방으로 이탈되지 않도록 사용자의 둔부(엉덩이 부위) 위에 걸쳐질 수 있다. 베이스 바디(80)는 사용자가 웨어러블 장치(100)를 착용한 상태에서 웨어러블 장치(100)의 중량의 일부를 사용자의 허리로 분산시킬 수 있다. 베이스 바디(80)는 허리 지지 프레임(20)과 연결될 수 있다. 베이스 바디(80)의 양 단부에는 허리 지지 프레임(20)과 연결될 수 있는 허리 지지 프레임 연결 요소(미도시)가 구비될 수 있다.
일 실시예에서, 베이스 바디(80)의 외부에 라이팅 유닛(85)이 배치될 수 있다. 라이팅 유닛(85)은 광원(예: LED(light emitting diode))을 포함할 수 있다. 라이팅 유닛(85)은 제어 모듈(미도시)(예: 도 5a 및 도 5b의 제어 모듈(510))의 제어에 따라 빛을 방출할 수 있다. 실시예에 따라, 제어 모듈은 웨어러블 장치(100)의 상태에 대응되는 시각적 피드백이 라이팅 유닛(85)을 통해 사용자에게 제공(또는 출력)될 수 있도록 라이팅 유닛(85)을 제어할 수 있다.
허리 지지 프레임(20)은 베이스 바디(80)의 양 단부로부터 연장될 수 있다. 허리 지지 프레임(20)의 내측에는 사용자의 요부가 수용될 수 있다. 허리 지지 프레임(20)은 적어도 하나 이상의 강체(rigid body) 빔(beam)을 포함할 수 있다. 각각의 빔은 사용자의 요부를 둘러쌀 수 있도록 기 설정된 곡률을 가지는 곡선 형상일 수 있다. 허리 지지 프레임(20)의 단부에는 허리 체결부(60)가 연결될 수 있다. 허리 지지 프레임(20)에는 구동 모듈(35, 45)이 연결될 수 있다.
일 실시예에서, 베이스 바디(80)의 내부에는 제어 모듈, 관성 측정 장치(미도시)(예: 도 1의 관성 측정 장치(135), 도 5b의 관성 측정 장치(522)), 통신 모듈(미도시)(예: 도 5a 및 도 5b의 통신 모듈(516)) 및 배터리(미도시)가 배치될 수 있다. 베이스 바디(80)는 제어 모듈, 관성 측정 장치, 통신 모듈 및 배터리를 보호할 수 있다. 제어 모듈은 웨어러블 장치(100)의 동작을 제어하는 제어 신호를 생성할 수 있다. 제어 모듈은 구동 모듈(35, 45)의 액츄에이터를 제어하기 위한 적어도 하나의 프로세서 및 메모리를 포함하는 제어 회로를 포함할 수 있다. 제어 모듈은 웨어러블 장치(100)의 각 구성요소들에 배터리의 전력을 공급하기 위한 전력 공급 모듈(미도시)을 더 포함할 수 있다.
일 실시예에서, 웨어러블 장치(100)는 하나 이상의 센서로부터 센서 데이터를 획득하는 센서 모듈(미도시)(예: 도 5a의 센서 모듈(520))을 포함할 수 있다. 센서 모듈은 사용자의 움직임에 따라 변하는 센서 데이터를 획득할 수 있다. 일 실시예에서, 센서 모듈은 사용자의 움직임 정보 및/또는 웨어러블 장치(100)의 구성요소의 움직임 정보가 포함된 센서 데이터를 획득할 수 있다. 센서 모듈은 예를 들어 사용자의 상체 움직임 값 또는 허리 지지 프레임(20)의 움직임 값을 측정하기 위한 관성 측정 장치(예: 도 1의 관성 측정 장치(135), 도 5b의 관성 측정 장치(522)) 및 사용자의 고관절 각도 값 또는 다리 지지 프레임(50, 55)의 움직임 값을 측정하기 위한 각도 센서(예: 도 1의 각도 센서(125), 도 5b의 제1 각도 센서(520) 및 제 2 각도 센서(520-1))를 포함할 수 있으나, 이제 한정되지는 않는다. 예를 들어, 센서 모듈은 위치 센서, 온도 센서, 생체 신호 센서 또는 근접 센서 중 적어도 하나를 더 포함할 수 있다.
허리 체결부(60)는 허리 지지 프레임(20)에 연결될 수 있고, 허리 지지 프레임(20)을 사용자의 허리에 고정시킬 수 있다. 허리 체결부(60)는 예를 들어 한 쌍의 벨트를 포함할 수 있다.
구동 모듈(35, 45)은 제어 모듈에 의해 생성된 제어 신호에 기초하여 사용자의 신체에 적용되는 외력(또는 토크)을 발생시킬 수 있다. 예를 들어, 구동 모듈(35, 45)는 사용자의 다리에 적용되는 보조력 또는 저항력을 발생시킬 수 있다. 일 실시예에서, 구동 모듈(35, 45)은 사용자의 오른쪽 고관절 위치에 대응되는 곳에 위치하는 제1 구동 모듈(45) 및 사용자의 왼쪽 고관절 위치에 대응되는 곳에 위치하는 제2 구동 모듈(35)을 포함할 수 있다. 제1 구동 모듈(45)은 제1 액츄에이터 및 제1 조인트 부재를 포함할 수 있고, 제2 구동 모듈(35)은 제2 액츄에이터 및 제2 조인트 부재를 포함할 수 있다. 제1 액츄에이터는 제1 조인트 부재로 전달되는 동력을 제공하고, 제2 액츄에이터는 제2 조인트 부재로 전달되는 동력을 제공할 수 있다. 제1 액츄에이터 및 제2 액츄에이터는 각각 배터리로부터 전력을 제공받아 동력(또는 토크)을 생성하는 모터를 포함할 수 있다. 모터는 전력이 공급되어 구동될 때 사용자의 신체 움직임을 보조하기 위한 힘(보조력)이나 신체 움직임을 방해하는 힘(저항력)을 발생시킬 수 있다. 일 실시예에서, 제어 모듈은 모터에 공급되는 전압 및/또는 전류를 조절하여 모터에 의해 발생되는 힘의 세기 및 힘의 방향을 조절할 수 있다.
일 실시예에서, 제1 조인트 부재 및 제2 조인트 부재는 각각 제1 액츄에이터 및 제2 액츄에이터로부터 동력을 전달받고, 전달받은 동력을 기초로 사용자의 신체에 외력을 가할 수 있다. 제1 조인트 부재 및 제2 조인트 부재는 각각 사용자의 관절부에 대응하는 위치에 배치될 수 있다. 제1 조인트 부재의 일측은 제1 액츄에이터에 연결되고, 타측은 제1 다리 지지 프레임(55)에 연결될 수 있다. 제1 조인트 부재는 제1 액츄에이터로부터 전달받은 동력에 의해 회전될 수 있다. 제1 조인트 부재의 일측에는 제1 조인트 부재의 회전 각도(사용자의 관절 각도에 대응함)를 측정하기 위한 각도 센서로서 동작할 수 있는 엔코더 또는 홀 센서가 배치될 수 있다. 제2 조인트 부재의 일측은 제2 액츄에이터에 연결되고, 타측은 제2 다리 지지 프레임(50)에 연결될 수 있다. 제2 조인트 부재는 제2 액츄에이터로부터 전달받은 동력에 의해 회전될 수 있다. 제2 조인트 부재의 일측에도 제2 조인트 부재의 회전 각도를 측정하기 위한 각도 센서로서 동작할 수 있는 엔코더 또는 홀 센서가 배치될 수 있다.
일 실시예에서, 제1 액츄에이터는 제1 조인트 부재의 측 방향에 배치될 수 있고, 제2 액츄에이터는 제2 조인트 부재의 측 방향에 배치될 수 있다. 제1 액츄에이터의 회전축 및 제1 조인트 부재의 회전축은 서로 이격되도록 배치될 수 있고, 제2 액츄에이터의 회전축 및 제2 조인트 부재의 회전축도 서로 이격되도록 배치될 수 있다. 다만, 이에 한정되는 것은 아니고, 액츄에이터 및 조인트 부재는 회전축을 공유할 수도 있다. 일 실시예에서, 각각의 액츄에이터는 조인트 부재와 이격되어 배치될 수도 있다. 이 경우 구동 모듈(35, 45)은 액츄에이터로부터 조인트 부재로 동력을 전달하는 동력 전달 모듈(미도시)을 더 포함할 수 있다. 동력 전달 모듈은 기어(gear)와 같은 회전체일 수도 있고, 와이어(wire), 케이블, 스트링(string), 스프링, 벨트, 또는 체인과 같은 길이 방향의 부재일 수도 있다. 다만, 실시예의 범위가 전술된 액츄에이터와 조인트 부재 간의 위치 관계 및 동력 전달 구조에 의해 제한되는 것은 아니다.
일 실시예에서, 다리 지지 프레임(50, 55)은 웨어러블 장치(100)가 사용자의 다리에 착용되었을 때 사용자의 다리(예: 허벅지)를 지지할 수 있다. 다리 지지 프레임(50, 55)은 예를 들어 구동 모듈(35, 45)에서 생성된 동력(토크)을 사용자의 허벅지에 전달할 수 있고, 해당 동력이 사용자의 다리 움직임에 가해지는 외력으로서 작용할 수 있다. 다리 지지 프레임(50, 55)의 일 단부는 조인트 부재와 연결되어 회동될 수 있고, 다리 지지 프레임(50, 55)의 타 단부는 허벅지 체결부(1, 2)에 연결됨에 따라, 다리 지지 프레임(50, 55)은 사용자의 허벅지를 지지하면서 구동 모듈(35, 45)에서 생성된 동력을 사용자의 허벅지에 전달할 수 있다. 예를 들어, 다리 지지 프레임(50, 55)은 사용자의 허벅지를 밀거나 당길 수 있다. 다리 지지 프레임(50, 55)은 사용자의 허벅지의 길이 방향을 따라서 연장될 수 있다. 다리 지지 프레임(50, 55)은 절곡되어 사용자의 허벅지 둘레의 적어도 일부를 감쌀 수 있다. 다리 지지 프레임(50, 55)은 사용자의 오른쪽 다리를 지지하기 위한 제1 다리 지지 프레임(55) 및 사용자의 왼쪽 다리를 지지하기 위한 제2 다리 지지 프레임(50)을 포함할 수 있다.
허벅지 체결부(1, 2)는 다리 지지 프레임(50, 55)에 연결되고, 다리 지지 프레임(50, 55)을 허벅지에 고정시킬 수 있다. 허벅지 체결부(1, 2)는 제1 다리 지지 프레임(55)을 사용자의 오른쪽 허벅지에 고정시키기 위한 제1 허벅지 체결부(2) 및 제2 다리 지지 프레임(50)을 사용자의 왼쪽 허벅지에 고정시키기 위한 제2 허벅지 체결부(1)를 포함할 수 있다.
일 실시예에서, 제1 허벅지 체결부(2)는 제1 커버, 제1 체결 프레임 및 제1 스트랩을 포함할 수 있고, 제2 허벅지 체결부(1)는 제2 커버, 제2 체결 프레임 및 제2 스트랩을 포함할 수 있다. 제1 커버 및 제2 커버는 구동 모듈(35, 45)에서 발생된 토크를 사용자의 허벅지에 가할 수 있다. 제1 커버 및 제2 커버는 사용자의 허벅지의 일측에 배치되어, 사용자의 허벅지를 밀거나 당길 수 있다. 제1 커버 및 제2 커버는 예를 들어 사용자의 허벅지의 전면에 배치될 수 있다. 제1 커버 및 제2 커버는 사용자의 허벅지의 둘레 방향을 따라 배치될 수 있다. 제1 커버 및 제2 커버는 다리 지지 프레임(50, 55)의 타 단부를 중심으로 양측으로 연장될 수 있고, 사용자의 허벅지에 대응하는 만곡면을 포함할 수 있다. 제1 커버 및 제2 커버의 일단은 체결 프레임에 연결되고, 타단은 스트랩에 연결될 수 있다.
제1 체결 프레임 및 제2 체결 프레임은 예를 들어 사용자의 허벅지의 적어도 일부의 둘레를 감싸도록 배치되어, 사용자의 허벅지가 다리 지지 프레임(50, 55)으로부터 이탈되는 것을 방지 또는 줄일 수 있다. 제1 체결 프레임은 제1 커버와 제1 스트랩 사이를 이어주는 체결 구조를 가지고, 제2 체결 프레임은 제2 커버와 제2 스트랩 사이를 이어주는 체결 구조를 가질 수 있다.
제1 스트랩은 사용자의 오른쪽 허벅지의 둘레에서 제1 커버 및 제1 체결 프레임이 감싸지 않는 나머지 부분을 둘러쌀 수 있고, 제2 스트랩은 사용자의 왼쪽 허벅지의 둘레에서 제2 커버 및 제2 체결 프레임이 감싸지 않는 나머지 부분을 둘러쌀 수 있다. 제1 스트랩 및 제2 스트랩은 예를 들어 탄성이 있는 소재(예: 밴드)를 포함할 수 있다.
도 5a 및 도 5b는 일 실시예에 따른 웨어러블 장치의 제어 시스템의 구성을 도시하는 도면들이다.
도 5a를 참조하면, 웨어러블 장치(100)는 제어 시스템(500)에 의해 제어될 수 있다. 제어 시스템(500)은 제어 회로를 포함하는 제어 모듈(510), 통신 회로를 포함하는 통신 모듈(516), 적어도 하나의 센서를 포함하는 센서 모듈(520), 구동 회로를 포함하는 구동 모듈(530), 회로를 포함하는 입력 모듈(540) 및 회로를 포함하는 음향 출력 모듈(550)을 포함할 수 있다. 일 실시예에서, 제어 시스템(500)에는 이들 구성요소들 중 적어도 하나(예: 음향 출력 모듈(550))가 생략되거나, 하나 이상의 다른 구성요소(예: 햅틱 모듈)가 추가될 수 있다.
구동 모듈(530)은 동력(예: 토크)을 발생시킬 수 있는 모터(534) 및 모터(534)를 구동시키기 위한 모터 드라이버 회로(532)를 포함할 수 있다. 도 5a의 실시예에서는 하나의 모터 드라이버 회로(532) 및 하나의 모터(534)를 포함하는 구동 모듈(530)이 도시되어 있으나, 이는 예시일 뿐이다. 도 5b를 참조하면, 도 5b에 도시된 제어 시스템(500-1)에서와 같이 모터 드라이버 회로(532, 532-1) 및 모터(534, 534-1)는 각각 복수 개(예: 2개 이상)일 수 있다. 모터 드라이버 회로(532) 및 모터(534)를 포함하는 구동 모듈(530)은 도 3의 제1 구동 모듈(45)에 대응할 수 있고, 모터 드라이버 회로(532-1) 및 모터(534-1)를 포함하는 구동 모듈(530-1)은 도 3의 제2 구동 모듈(35)에 대응할 수 있다. 아래에서 설명되는 모터 드라이버 회로(532) 및 모터(534) 각각에 대한 설명은 도 5b에 도시된 모터 드라이버 회로(532-1) 및 모터(534-1)에도 적용될 수 있다.
도 5a로 돌아오면, 센서 모듈(520)은 적어도 하나의 센서를 포함하는 센서 회로를 포함할 수 있다. 센서 모듈(520)은 사용자의 움직임 정보 또는 웨어러블 장치(100)의 움직임 정보를 포함하는 센서 데이터를 포함할 수 있다. 센서 모듈(520)은 획득된 센서 데이터를 제어 모듈(510)에 전달할 수 있다. 센서 모듈(520)는 도 5b에 도시된 것과 같은 관성 측정 장치(522) 및 각도 센서(예: 제1 각도 센서(520), 제2 각도 센서(520-1))를 포함할 수 있다. 관성 측정 장치(522)는 사용자의 상체 움직임 값을 측정할 수 있다. 예를 들어, 관성 측정 장치(522)는 사용자의 움직임에 따른 X축, Y축 및 Z축의 가속도 및 X축, Y축 및 Z축의 각속도를 센싱할 수 있다. 관성 측정 장치(522)는 예를 들어 사용자 신체의 앞뒤 기울어짐, 좌우 기울어짐 또는 회전 중 적어도 하나를 측정하는데 이용될 수 있다. 또한, 관성 측정 장치(522)는 웨어러블 장치의 허리 지지 프레임(예: 도 3의 허리 지지 프레임(20)의 움직임 값(예: 가속도 값 및 각속도 값)을 획득할 수 있다. 허리 지지 프레임(100)의 움직임 값은 사용자의 상체 움직임 값에 대응할 수 있다.
각도 센서는 사용자의 다리 움직임에 따른 고관절 각도 값을 측정할 수 있다. 각도 센서에 의해 측정될 수 있는 센서 데이터는 예를 들어 오른쪽 다리의 고관절 각도 값, 왼쪽 다리의 고관절 각도 값 및 다리의 운동 방향에 대한 정보를 포함할 수 있다. 예를 들어, 도 5b의 제1 각도 센서(520)는 사용자의 오른쪽 다리의 고관절 각도 값을 획득할 수 있고, 제2 각도 센서(520-1)는 사용자의 왼쪽 다리의 고관절 각도 값을 획득할 수 있다. 제1 각도 센서(520) 및 제2 각도 센서(520-1) 각각은 예를 들어 엔코더 및/또는 홀 센서를 포함할 수 있다. 또한, 각도 센서는 웨어러블 장치의 다리 지지 프레임의 움직임 값을 획득할 수 있다. 예를 들어, 제1 각도 센서(520)는 제1 다리 지지 프레임(55)의 움직임 값을 획득하고, 제2 각도 센서(520-1)는 제2 다리 지지 프레임(50)의 움직임 값을 획득할 수 있다. 다리 지지 프레임의 움직임 값은 고관절 각도 값에 대응할 수 있다.
일 실시예에서, 센서 모듈(520)은 웨어러블 장치(100)의 위치 값을 획득하기 위한 위치 센서, 객체의 근접을 감지하기 위한 근접 센서, 사용자의 생체 신호를 검출하기 위한 생체 신호 센서 또는 주변 온도를 측정하기 위한 온도 센서 중 적어도 하나를 더 포함할 수 있다.
입력 모듈(540)은 웨어러블 장치(100)의 구성요소(예: 프로세서(512))에 사용될 명령어 또는 데이터를 웨어러블 장치(100)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(540)은 입력 컴포넌트 회로를 포함할 수 있다. 입력 모듈(540)은 예를 들어 키(예: 버튼) 또는 터치 스크린을 포함할 수 있다.
음향 출력 모듈(550)은 음향 신호를 웨어러블 장치(100)의 외부로 출력할 수 있다. 음향 출력 모듈(550)은 사용자에게 청각적 피드백을 제공할 수 있다. 예를 들어, 음향 출력 모듈(550)은 가이드 음향 신호(예: 구동 시작음, 동작 오류 알림음, 운동 시작 알림음), 음악 콘텐츠 또는 특정 정보(예: 운동 결과 정보, 운동 동작 평가 정보)를 청각적으로 알리기 위한 가이드 음성을 재생하는 스피커를 포함할 수 있다.
일 실시예에서, 제어 시스템(500)은 웨어러블 장치(100)의 각 구성요소에 전력을 공급하기 위한 배터리(미도시)를 더 포함할 수 있다. 웨어러블 장치(100)는 배터리의 전력을 웨어러블 장치(100)의 각 구성요소의 동작 전압에 맞게 변환하여 각 구성요소에 공급할 수 있다.
구동 모듈(530)은 제어 모듈(510)의 제어 하에 사용자의 다리에 적용되는 외력을 발생시킬 수 있다. 구동 모듈(530)은 제어 모듈(510)에 의해 생성된 제어 신호에 기초하여 사용자의 다리에 적용되는 토크를 발생시킬 수 있다. 제어 모듈(510)은 제어 신호를 모터 드라이버 회로(532)로 전송할 수 있다. 모터 드라이버 회로(532)는 제어 신호에 대응하는 전류 신호(또는 전압 신호)를 생성하여 모터(534)에 공급함으로써 모터(534)의 동작을 제어할 수 있다. 경우에 따라 모터(534)에 전류 신호가 공급되지 않을 수도 있다. 모터(534)는 모터(534)에 전류 신호가 공급되어 구동될 때 사용자의 다리 움직임을 보조하는 보조력 또는 다리 움직임을 방해하는 저항력을 위한 토크를 발생시킬 수 있다.
제어 모듈(510)은 웨어러블 장치(100)의 전체적인 동작을 제어하며, 각각의 구성요소(예: 통신 모듈(516), 구동 모듈(530))를 제어하기 위한 제어 신호를 생성할 수 있다. 제어 모듈(510)은 적어도 하나의 프로세서(512) 및 메모리(514)를 포함할 수 있다.
적어도 하나의 프로세서(512)는 예를 들어 소프트웨어를 실행하여 프로세서(512)에 연결된 웨어러블 장치(100)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 소프트웨어는 GUI의 제공을 위한 애플리케이션을 포함할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(512)는 다른 구성요소(예: 통신 모듈(516))로부터 수신된 명령(instructions) 또는 데이터를 메모리(514)에 저장하고, 메모리(514)에 저장된 명령 또는 데이터를 처리하며, 처리 후의 결과 데이터를 메모리(514)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(512)는 메인 프로세서(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(예: 그래픽 처리 장치, 신경망 처리 장치(neural processing unit; NPU), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 보조 프로세서는 메인 프로세서와 별개로, 또는 그 일부로서 구현될 수 있다. 여기에서, 각 '프로세서'는 처리 회로를 포함한다.
메모리(514)는 제어 모듈(510)의 적어도 하나의 구성요소(예: 프로세서(512))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어, 센서 데이터, 및 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(514)는 휘발성 메모리 또는 비휘발성 메모리(예: RAM, DRAM, SRAM)를 포함할 수 있다.
통신 모듈(516)은 제어 모듈(510)과 웨어러블 장치(100)의 다른 구성요소 또는 외부의 전자 장치(예: 도 2의 전자 장치(210) 또는 다른 웨어러블 장치(220)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(516)은 통신 기능을 수행하기 위한 통신 회로를 포함할 수 있다. 통신 모듈(516)은 예를 들어 전자 장치(예: 전자 장치(210))로부터 제어 신호를 수신할 수 있고, 센서 모듈(520)에 의해 획득된 센서 데이터를 전자 장치에 전송할 수 있다. 일 실시예에 따르면, 통신 모듈(516)은 프로세서(512)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서(미도시)를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(516)은 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 및/또는 유선 통신 모듈을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 예를 들어 블루투스, WiFi(wireless fidelity), 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크, 또는 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크를 통하여 웨어러블 장치(100)의 다른 구성요소 및/또는 외부의 전자 장치와 통신할 수 있다.
일 실시예에서, 제어 시스템(500, 500-1)은 햅틱 모듈(미도시)을 더 포함할 수 있다. 햅틱 모듈은 프로세서(512)의 제어 하에 사용자에게 촉각적 피드백을 제공할 수 있다. 햅틱 모듈은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈은 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다. 일 실시예에서, 햅틱 모듈은 베이스 바디(예: 베이스 바디(80)), 제1 허벅지 체결부(2) 또는 제2 허벅지 체결부(1) 중 적어도 하나에 위치할 수 있다.
도 6은 일 실시예에 따른 웨어러블 장치와 전자 장치 간의 상호 동작을 설명하기 위한 도면이다.
도 6을 참조하면, 웨어러블 장치(100)는 전자 장치(210)와 통신할 수 있다. 예를 들어, 전자 장치(210)는 웨어러블 장치(100)를 사용하는 사용자의 사용자 단말 또는 웨어러블 장치(100)를 위한 전용 컨트롤러 장치일 수 있다. 일 실시예에 따르면, 웨어러블 장치(100)와 전자 장치(210)는 근거리 무선 통신(예: 블루투스 통신, 와이파이 통신)을 통해 서로 연결될 수 있다.
일 실시예에서, 전자 장치(210)는 웨어러블 장치(100)의 상태를 확인하거나 웨어러블 장치(100)를 제어 또는 운용하기 위한 어플리케이션을 실행할 수 있다. 어플리케이션의 실행에 의해 전자 장치(210)의 디스플레이(212)에 웨어러블 장치(100)의 동작을 제어하거나 또는 웨어러블 장치(100)의 동작 모드를 결정하기 위한 사용자 인터페이스(user interface; UI)의 화면이 표시될 수 있다. UI는 예를 들어 그래픽 사용자 인터페이스(GUI)일 수 있다.
일 실시예에서, 사용자는 전자 장치(210)의 디스플레이(212) 상의 GUI 화면을 통해 웨어러블 장치(100)의 동작을 제어하기 위한 명령(예: 보행 보조 모드, 운동 보조 모드 또는 신체 능력 측정 모드로의 실행 명령)을 입력하거나 웨어러블 장치(100)의 설정을 변경할 수 있다. 전자 장치(210)는 사용자가 입력한 동작 제어 명령 또는 설정 변경 명령에 대응하는 제어 명령(또는 제어 신호)을 생성하고, 생성된 제어 명령을 웨어러블 장치(100)로 전송할 수 있다. 웨어러블 장치(100)는 수신된 제어 명령에 따라 동작할 수 있고, 제어 명령에 따른 제어 결과 및/또는 웨어러블 장치(100)의 센서 모듈에 의해 측정된 센서 데이터를 전자 장치(210)로 전송할 수 있다. 전자 장치(210)는 제어 결과 및/또는 센서 데이터를 분석하여 도출한 결과 정보(예: 보행 능력 정보, 운동 능력 정보, 운동 동작 평가 정보)를 GUI 화면을 통해 사용자에게 제공할 수 있다.
도 7은 일 실시예에 따른 전자 장치의 구성을 도시하는 도면이다.
도 7을 참고하면, 전자 장치(210)는 프로세서(710), 메모리(720), 통신 모듈(730), 디스플레이 모듈(740), 음향 출력 모듈(750) 및 입력 모듈(760)을 포함할 수 있다. 일 실시예에서, 전자 장치(210) 에는 이들 구성요소들 중 적어도 하나(예: 음향 출력 모듈(750))가 생략되거나, 하나 이상의 다른 구성요소(예: 센서 모듈, 배터리)가 추가될 수 있다.
프로세서(710)는 전자 장치(210)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(710)는 다른 구성요소(예: 통신 모듈(730))로부터 수신된 명령 또는 데이터를 메모리(720)에 저장하고, 메모리(720)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 메모리(720)에 저장할 수 있다.
일 실시예에 따르면, 프로세서(710)는 메인 프로세서(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(예: 그래픽 처리 장치, 신경망 처리 장치(NPU), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다.
메모리(720)는 전자 장치(210)의 적어도 하나의 구성요소(예: 프로세서(710) 또는 통신 모듈(730))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 프로그램(예: 어플리케이션) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(720)는 프로세서(710)에 의해 실행 가능한 적어도 하나의 명령어를 포함할 수 있다. 메모리(720)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.
통신 모듈(730)은 전자 장치(210)와 다른 전자 장치(예: 예를 들어 도 2에 도시된 것과 같은 웨어러블 장치(100), 다른 웨어러블 장치(220), 서버(230)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(730)은 통신 기능을 수행하기 위한 통신 회로를 포함할 수 있다. 통신 모듈(730)은 프로세서(710)(예: 애플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(730)은 무선 통신을 수행하는 무선 통신 모듈 (예: 블루투스 통신 모듈, 셀룰러 통신 모듈, 와이파이 통신 모듈, 또는 GNSS 통신 모듈) 또는 유선 통신 모듈 (예: LAN 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 통신 모듈(730)은 예를 들어 웨어러블 장치(100)에 제어 명령을 전송하고, 웨어러블 장치(100)로부터 웨어러블 장치(100)를 착용한 사용자의 신체 움직임 정보가 포함된 센서 데이터, 웨어러블 장치(100)의 상태 데이터, 또는 제어 명령에 대응하는 제어 결과 데이터 중 적어도 하나를 수신할 수 있다.
디스플레이 모듈(740)은 전자 장치(210)의 외부(예: 사용자)에 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(740)은 예를 들어 LCD 또는 OLED 디스플레이, 홀로그램 장치, 또는 프로젝터 장치를 포함할 수 있다. 디스플레이 모듈(740)은 디스플레이 구동을 제어하기 위한 제어 회로를 더 포함할 수 있다. 일 실시예에서, 디스플레이 모듈(740)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 더 포함할 수 있다.
음향 출력 모듈(750)은 음향 신호를 전자 장치(210)의 외부로 출력할 수 있다. 음향 출력 모듈(750)은 웨어러블 장치(100)의 상태에 기초한 가이드 음향 신호(예: 구동 시작음, 동작 오류 알림음), 음악 콘텐츠 또는 가이드 음성을 재생하는 스피커를 포함할 수 있다. 웨어러블 장치(100)가 사용자의 신체에 올바르게 착용되지 않은 것으로 결정된 경우, 예를 들어, 음향 출력 모듈(750)은 사용자에게 비정상 착용을 알리거나 정상 착용을 유도하기 위한 가이드 음성을 출력할 수 있다. 음향 출력 모듈(750)은 예를 들어 사용자의 운동을 평가한 운동 평가 정보 또는 운동 결과 정보에 대응하는 가이드 음성을 출력할 수도 있다.
입력 모듈(760)은 전자 장치(210)의 구성요소(예: 프로세서(710))에 사용될 명령어 또는 데이터를 전자 장치(210)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(760)은 입력 컴포넌트 회로를 포함할 수 있고, 사용자 입력을 수신할 수 있다. 입력 모듈(760)은 예를 들어 키(예: 버튼) 또는 터치 스크린을 포함할 수 있다.
일 실시예에 따르면, 전자 장치(210)는 사용자가 동일한 형태의 운동 동작을 반복적으로 수행하는 운동(예: 스쿼트, 스플릿 런지,덤벨 스쿼트, 런지 앤 니업)을 수행하는 경우, 웨어러블 장치(100)를 통해 사용자의 동작을 실시간으로 센싱할 수 있다. 전자 장치(210)는 웨어러블 장치(100)의 하나 이상의 센서에 의해 획득된 사용자의 움직임 정보(예: 상체 기울기 값, 고관절 각도 값)를 분석하여 사용자에게 운동 동작 평가 정보 및/또는 운동 동작의 교정을 위한 피드백 정보를 GUI를 통해 제공할 수 있다. 운동 동작 평가 정보는 예를 들어 사용자의 운동 동작에 대한 평가 레벨(예: 매우 좋음(great), 좋음(good), 부정확(bad)) 및 운동 동작의 각 평가 요소(예: 상체 기울기 값, 양쪽 고관절 각도 차이)에 대한 측정 값에 대한 정보를 포함할 수 있다. 운동 동작의 교정을 위한 피드백 정보는 예를 들어 사용자의 운동 동작에 대한 평가 레벨을 향상시키기 위하여 사용자가 각 평가 요소별로 운동 동작을 어떻게 교정해야 하는지에 대한 정보를 포함할 수 있다. 사용자는 웨어러블 장치(100)와 전자 장치(210)를 통해, 전문가의 도움 없이도 운동 동작이 적절한지 여부에 대한 판단을 받아볼 수 있고, 자신의 운동 동작에 대한 정확한 측정 값을 제공받을 수 있다. 사용자는 전자 장치(210)를 통해 제공되는 운동 동작 평가 정보 및/또는 상기 피드백 정보에 의해 바람직한 운동 동작에 대해 명확하게 인지하고, 운동 동작의 교정을 효과적으로 수행할 수 있게 된다.
일 실시예에서, 전자 장치(210)는 웨어러블 장치(100)를 착용한 사용자가 수행할 운동 프로그램을 선택하는 사용자 입력을 수신하는 입력 모듈(760), 상기 선택된 운동 프로그램에 따른 운동 과정에서 사용자의 움직임 정보가 포함된 센서 데이터를 웨어러블 장치(100)로부터 수신하는 통신 모듈(730), 센싱 데이터를 분석하여 사용자의 운동 동작에 대한 평가 정보를 나타내기 위한 시각적 가이드 객체(visual guide object)를 생성하는 프로세서(710) 및 시각적 가이드 객체가 나타난 GUI를 출력하는 디스플레이 모듈(740)을 포함할 수 있다.
일 실시예에서, 사용자는 입력 모듈(760)을 통해 자신이 수행하고자 하는 운동 프로그램 및/또는 운동 강도를 선택할 수 있다. 사용자가 운동 프로그램 및/또는 운동 강도를 선택하는 경우, 프로세서(710)는 사용자에게 사용자의 개인화된 운동량 목표치를 제공할 수 있다. 사용자가 운동을 시작하기 위한 준비를 마치고 GUI를 통해 운동 시작 명령을 입력하면, 프로세서(710)는 통신 모듈(730)로 하여금 사용자의 운동 동작의 측정 시작을 요청하기 위한 제어 명령을 웨어러블 장치(100)로 전송하도록 제어할 수 있다.
사용자의 운동이 시작된 후, 통신 모듈(730)은 웨어러블 장치(100)로부터 사용자의 상체 움직임에 대응하는 상체 움직임 값 또는 사용자의 다리 움직임에 대응하는 고관절 각도 값 중 적어도 하나를 포함하는 센서 데이터를 수신할 수 있다. 프로세서(710)은 수신한 센서 데이터에 기초하여 사용자의 운동 동작 측정 값을 결정할 수 있다. 프로세서(710)는 센서 데이터에 기초하여 사용자의 상체 기울기 값 또는 사용자의 양쪽 고관절 간의 고관절 각도 차이 값 중 적어도 하나를 포함하는 운동 동작 측정 값을 결정할 수 있다. 예를 들어, 프로세서(710)는 사용자의 이전 운동 동작에서 측정된 사용자의 상체 기울기 값의 최댓값 또는 높은 값, 또는 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값 또는 높은 값 중 적어도 하나를 운동 동작 측정 값으로 결정할 수 있다. 프로세서(710)에 의해 결정되는 운동 동작 측정 값의 종류는 전술한 예들에 한정되지 않으며, 프로세서(710)는 사용자가 수행하는 운동 프로그램에서 정의된 하나 이상의 운동 동작 평가 요소에 대응하는 운동 동작 측정 값을 결정할 수 있다.
일 실시예에서, 프로세서(710)는 사용자에 의해 선택된 운동 프로그램의 운동 동작 기준을 나타내는 제1 인디케이터 및 상기 결정된 운동 동작 측정 값을 나타내는 하나 이상의 제2 인디케이터를 포함하는 제1 시각적 가이드 객체(예: 도 12의 제1 시각적 객체(1210))를 생성할 수 있다. 디스플레이 모듈(740)은 제1 시각적 가이드 객체가 나타난 GUI를 출력할 수 있다. 디스플레이 모듈(740)은 GUI를 통해 사용자의 운동 동작에 대한 피드백을 시각화하여 제공할 수 있다.
일 실시예에서, 프로세서(710)는 운동 동작별 표준 각도 값을 나타내는 운동 동작 기준을 기반으로 사용자의 운동 동작을 평가할 수 있다. 운동 동작 기준은 운동 프로그램마다 표시된 표준 동작에 대한 신체 움직임 값에 의해 표시될 수 있다. 메모리(720)는 각 운동 프로그램의 운동 동작 기준에 대한 정보를 저장할 수 있다. 프로세서(710)는 제1 시각적 가이드 객체를 통해 운동 동작 기준에 대비한 사용자의 운동 동작 측정 값을 그래프와 아이콘 등의 그래픽 엘리먼트로 표현할 수 있다. 일 실시예에서, 제1 시각적 가이드 객체를 통해 바람직한 운동 동작에 대한 상체 기울기 값과 양쪽 고관절 각도 차이 값에 대한 정보와 함께 사용자의 현재 운동 동작에서 나타난 상체 기울기 값과 양쪽 고관절 각도 차이 값이 사용자에게 효과적으로 제공될 수 있다. 사용자는 제1 시각적 가이드 객체를 통해 바람직한 운동 동작을 위해서는 어떠한 신체 부위를 어떻게 교정해야 하는지를 용이하게 인식할 수 있게 된다.
일 실시예에서, 제1 시각적 가이드 객체의 제1 인디케이터는 서로 다른 운동 동작 평가 레벨에 대응하는 복수의 운동 동작 기준 범위들을 나타낼 수 있다. 하나 이상의 제2 인디케이터는 사용자의 이전 운동 동작에 기초한 운동 동작 측정 값을 나타내는 제2 인디케이터 또는 사용자의 현재 운동 동작에 기초한 운동 동작 측정 값을 실시간으로 나타내는 제2 인디케이터 중 적어도 하나를 포함할 수 있다. 이전 운동 동작에 기초한 운동 동작 측정 값을 나타내는 제2 인디케이터는, 예를 들어, 사용자의 이전 운동 동작에 기초한 사용자의 상체 기울기 값의 최댓값 또는 높은 값 또는 사용자의 상기 이전 운동 동작에 기초한 사용자의 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값 또는 높은 값 중 적어도 하나를 나타낼 수 있다.
일 실시예에서, 하나 이상의 제2 인디케이터는 하나 이상의 제2 인디케이터가 나타내는 운동 동작 측정 값이 속하는 평가 기준 범위에 따라 제1 시각적 가이드 객체 내에서 표현되는 컬러가 달라질 수 있다.
일 실시예에서, 제1 인디케이터는 사용자에 의해 선택된 운동 프로그램에 대한 운동 동작 기준 범위를 나타낼 수 있고, 하나 이상의 제2 인디케이터는 사용자의 운동 동작 측정 값을 실시간으로 나타낼 수 있다. 운동 동작 측정 값이 제1 인디케이터가 나타내는 운동 동작 기준 범위에 포함되는 경우, 하나 이상의 제2 인디케이터는 상기 운동 동작 기준 범위에 대응하는 컬러로 변경될 수 있다.
일 실시예에서, 제1 시각적 가이드 객체는 고정된 기준 라인과 사용자의 운동 동작 측정 값에 따라 표시가 변하는 각도 라인에 의해 표시되는 각도 범위를 나타내는 하나 이상의 제3 인디케이터를 더 포함할 수 있다. 하나 이상의 제3 인디케이터는 운동 동작 측정 값이 속하는 평가 기준 범위에 따라 제1 시각적 가이드 객체 내에서 표현되는 컬러가 달라질 수 있다. 일 실시예에서, 하나 이상의 제3 인디케이터는, 사용자의 상체 기울기 값에 대한 기준 라인과 사용자의 이전 운동 동작에서 결정된 사용자의 상체 기울기 값의 최댓값 또는 높은 값에 대응하는 각도 라인에 의해 표시되는 각도 범위를 나타내는 제3 인디케이터, 또는 사용자의 양쪽 고관절 간의 고관절 각도 차이 값에 대한 기준 라인과 사용자의 이전 운동 동작에서 결정된 상기 사용자의 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값 또는 높은 값에 대응하는 각도 라인에 의해 표시되는 각도 범위를 나타내는 제3 인디케이터 중 적어도 하나를 포함할 수 있다.
일 실시예에서, 제1 시각적 가이드 객체는 사용자가 선택한 운동 프로그램의 대표 운동 동작에 대응하는 형태를 가지는 아바타 객체를 더 포함할 수 있다. 일 실시예에서, 아바타 객체는 제1 시각적 가이드 객체의 중앙 부분에 표현될 수 있고, 아바타 객체 위로 하나 이상의 제3 인디케이터가 오버레이(overlay)되어 표현될 수 있다. 일 실시예에서, 아바타 객체는 사용자의 운동 동작에 따라 표현되는 동작이 달라질 수 있다. 사용자의 운동 수행 과정에서 운동 동작이 변화될 때, 아바타 객체는 변화되는 사용자의 운동 동작에 따라 형태가 변경될 수 있다. 일 실시예에서, 아바타 객체를 통해 사용자의 운동 동작 평가 기준별로 결정된 운동 동작 평가 정보가 제공될 수도 있다. 아바타 객체의 각 신체 부위 영역별로 사용자의 신체 부위별 운동 동작 평가 정보가 그래픽 엘리먼트를 통해 제공될 수 있다.
일 실시예에서, 프로세서(710)는 웨어러블 장치(100)로부터 수신한 센서 데이터에 기초하여 사용자의 신체 움직임 안정성에 대응하는 운동 동작 측정 값을 결정할 수 있다. 프로세서(710)는 결정된 신체 움직임 안정성을 나타내는 하나 이상의 제2 시각적 가이드 객체(예: 도 12의 제2 시각적 가이드 객체(1220, 1230))를 생성할 수 있다. 디스플레이 모듈(740)은 제2 시각적 가이드 객체가 나타난 그래픽 사용자 인터페이스를 출력할 수 있다. 일 실시예에서, 제2 시각적 가이드 객체는 제1 시각적 가이드 객체와 함께 GUI의 일 화면을 통해 제공될 수 있다.
일 실시예에서, 하나 이상의 제2 시각적 가이드 객체는 사용자의 신체 움직임에 대한 좌우 안정성을 나타내는 제2 시각적 가이드 객체(예: 제2 시각적 가이드 객체(1220)) 또는 사용자의 신체 움직임에 대한 회전 안정성을 나타내는 제2 시각적 가이드 객체(예: 제2 시각적 가이드 객체(1230))중 적어도 하나를 포함하는,
일 실시예에서, 하나 이상의 제2 시각적 가이드 객체는 고정된 기준 라인, 상기 신체 움직임 안정성에 대응하는 운동 동작 측정 값에 따라 표시되는 기울기가 변하는 아바타 객체, 및 신체 움직임 안정성에 대응하는 운동 동작 측정 값의 운동 동작 평가 레벨에 따라 컬러가 변하는 컬러 객체를 포함할 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에서, 프로세서(710)는 통신 모듈(730)이 사용자의 운동 동작 평가 정보를 웨어러블 장치(100)로 전송하도록 제어함으로써 웨어러블 장치(100)로 하여금 운동 동작 평가 정보에 대응하는 피드백 신호를 사용자에게 제공하도록 할 수 있다. 예를 들어, 운동 프로그램이 동일한 운동 동작을 여러 번 반복 수행하는 것인 경우, 프로세서(710)는 사용자의 매 운동 동작이 끝날 때마다 운동 동작에 대한 운동 동작 평가 정보를 결정하고, 결정된 운동 동작 평가 정보에 대응하는 피드백 신호를 웨어러블 장치(100)로 전송하도록 통신 모듈(730)을 제어할 수 있다. 웨어러블 장치(100)는 매 운동 동작이 끝날 때마다 전자 장치(210)로부터 수신한 피드백 신호에 대한 가이드 음성을 음향 출력 모듈(예: 도 5a 및 도 5b의 음향 출력 모듈(550))을 통해 출력할 수 있다. 예를 들어, 웨어러블 장치(100)는 사용자의 운동 동작에 대한 평가로서 '매우 좋음', '좋음' 또는 '부정확' 중 어느 하나에 대응하는 가이드 음성이나 운동 동작의 교정과 관련된 가이드 음성을 출력할 수 있다.
도 8은 일 실시예에 따른 전자 장치 및 웨어러블 장치의 동작 방법을 설명하기 위한 흐름도이다. 일 실시예에서, 도 8의 동작들 중 적어도 하나의 동작은 다른 동작과 동시 또는 병렬적으로 수행될 수 있고, 동작들 간의 순서는 변경될 수 있다. 또한, 동작들 중 적어도 하나의 동작은 생략될 수 있고, 다른 동작이 추가적으로 수행될 수도 있다.
도 8을 참조하면, 동작(810)에서 전자 장치(210)는 웨어러블 장치(100)를 착용한 사용자가 수행할 운동 프로그램을 선택하는 사용자 입력을 수신할 수 있다. 일 실시예에서, 전자 장치(210)는 사용자의 신체적 특성에 적합한 운동 프로그램들을 추천할 수 있고, 사용자는 전자 장치(210)의 GUI를 통해 제공되는 추천 운동 프로그램들의 리스트 중에서 운동하고자 하는 운동 프로그램(예: 스쿼트, 하프 스쿼트(half squat), 스트레칭, 스플릿 런지, 덤벨 스쿼트, 런지 앤 니업)을 선택할 수 있다. 전자 장치(210)는 프로그램(예: 어플리케이션)을 통해 웨어러블 장치(100)를 제어 및 설정할 수 있는 GUI를 사용자에게 제공할 수 있다.
사용자가 GUI를 통해 운동 프로그램의 선택 및 운동 세부 사항들(예: 운동 시간, 운동 동작 반복 횟수, 운동 강도)에 대한 설정을 완료하는 경우, 동작(815)에서 전자 장치(210)는 웨어러블 장치(100)에 사용자의 운동 시작을 알리고 사용자의 운동 동작의 측정을 요청하기 위한 제어 명령을 전송할 수 있다. 사용자가 운동 프로그램에 대해 설정한 운동 세부 사항들에 대한 설정 데이터는 상기 제어 명령에 포함되어 웨어러블 장치(100)로 전송될 수 있다.
동작(820)에서, 웨어러블 장치(100)는 전자 장치(210)로부터 상기 제어 명령을 수신하고, 사용자가 웨어러블 장치(100)를 착용한 상태인 것이 확인된 경우, 사용자의 운동 동작을 측정하기 위한 운동 동작 측정 모드로의 동작을 시작할 수 있다.
동작(825)에서, 웨어러블 장치(100)는 센서 모듈을 이용하여 사용자의 운동 과정에서 사용자의 움직임에 따른 움직임 정보가 포함된 센서 데이터를 획득할 수 있다. 예를 들어, 웨어러블 장치(100)는 관성 측정 장치를 이용하여 사용자의 상체 기울기 값을 획득하고, 각도 센서를 이용하여 사용자의 양쪽 고관절 각각의 고관절 각도 값을 획득할 수 있다. 일 실시예에서, 웨어러블 장치(100)는 사용자의 일 횟수 동안의 운동 동작 과정 중에서 측정되는 상체 기울기 값들 중 최댓값 또는 높은 값을 추출하고, 상기 운동 동작 과정 중에서 측정되는 양쪽 고관절 각각의 고관절 각도 값들 중 최댓값 또는 높은 값을 추출할 수 있다. 웨어러블 장치(100)는 관성 측정 장치를 이용하여 상체의 앞뒤 기울어짐, 좌우 기울어짐 또는 회전 중 적어도 하나에 대한 움직임 값을 측정할 수 있다.
동작(830)에서, 웨어러블 장치(100)는 획득된 센서 데이터를 전자 장치(210)로 전송할 수 있다. 예를 들어, 웨어러블 장치(100)는 사용자의 일 횟수 동안의 운동 동작 과정 중에서 측정된 상체 기울기 값의 최댓값 및 양쪽 고관절 각각의 고관절 각도 값의 최댓값을 전자 장치(210)에 전송할 수 있다. 일 실시예에서, 웨어러블 장치(100)는 사용자의 운동 과정 중에 실시간으로 또는 주기적으로 센서 데이터를 전자 장치(210)에 전송할 수 있다.
동작(835)에서, 전자 장치(210)는 운동 프로그램에 따른 사용자의 운동 과정에서 사용자의 움직임 정보가 포함된 센서 데이터를 웨어러블 장치(100)로부터 수신할 수 있다.
동작(840)에서, 전자 장치(210)는 센서 데이터에 기초하여 사용자의 운동 동작을 측정할 수 있다. 전자 장치(210)는 센서 데이터에 기초하여 사용자의 운동 동작 측정 값을 결정할 수 있다. 전자 장치(210)는 센서 데이터에 기초하여 사용자의 상체 기울기 값 또는 사용자의 양쪽 고관절 간의 고관절 각도 차이 값 중 적어도 하나를 포함하는 운동 동작 측정 값을 결정할 수 있다. 예를 들어, 전자 장치(210)는 사용자의 이전 운동 동작에서 측정된 사용자의 상체 기울기 값의 최댓값 또는 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값 중 적어도 하나를 운동 동작 측정 값으로 결정할 수 있다.
동작(845)에서, 전자 장치(210)는 사용자의 운동 동작이 종료되었는지 여부를 결정할 수 있다. 일 실시예에서, 전자 장치(210)는 센서 데이터에 나타난 패턴을 기초로 사용자의 운동 동작 종료 여부를 판단할 수 있다. 예를 들어, 센서 데이터를 분석한 결과 사용자가 운동 프로그램에 표시된 기본 자세(예: 서 있는 자세)를 취하고 있는 것으로 추정되거나 또는 일정 시간 동안 사용자의 신체 움직임 값이 검출되지 않는 경우, 전자 장치(210)는 사용자가 운동 동작을 종료한 것으로 결정할 수 있다.
사용자의 운동 동작이 종료되지 않은 것으로 결정된 경우(동작(845)에서 '아니오'인 경우), 전자 장치(210)는 센서 데이터를 기초로 사용자의 운동 동작 측정 값을 결정하는 과정을 다시 수행할 수 있다.
사용자의 운동 동작이 종료된 것으로 결정된 경우(동작(845)에서 '예'인 경우), 동작(850)에서 전자 장치(210)는 운동 프로그램별 운동 동작 기준에 대한 정보를 기초로 사용자의 운동 동작을 평가하고, 운동 동작 평가 정보가 표현된 시각적 가이드 객체가 나타난 GUI를 출력할 수 있다. 전자 장치(210)는 운동 동작 기준과 사용자의 측정된 운동 동작을 비교하고, 상기 비교 결과에 기초하여 사용자의 운동 동작 평가 정보를 결정할 수 있다. 전자 장치(210)는 시각적 가이드 객체를 통해 사용자의 운동 동작에 대한 피드백을 시각화하여 표현할 수 있다.
일 실시예에서, 전자 장치(210)는 사용자가 선택된 운동 프로그램의 운동 동작 기준을 나타내는 제1 인디케이터 및 결정된 운동 동작 측정 값을 나타내는 하나 이상의 제2 인디케이터를 포함하는 제1 시각적 가이드 객체가 나타난 GUI를 출력할 수 있다. 제1 시각적 가이드 객체는 고정된 기준 라인과 사용자의 운동 동작 측정 값에 따라 표시가 변하는 각도 라인에 의해 정의되는 각도 범위를 나타내는 하나 이상의 제3 인디케이터를 더 포함할 수 있다. 전자 장치(210)는 웨어러블 장치(100)로부터 수신한 센서 데이터에 기초하여 사용자의 신체 움직임 안정성에 대응하는 운동 동작 측정 값을 결정하고, 결정된 신체 움직임 안정성을 나타내는 하나 이상의 제2 시각적 가이드 객체가 나타난 GUI를 출력할 수 있다. 제1 시각적 가이드 객체와 제2 시각적 가이드 객체는 GUI의 일 화면을 통해 함께 제공되거나 또는 다른 화면들을 통해 따로 제공될 수 있다.
동작(855)에서, 전자 장치(210)는 사용자의 운동 동작 평가 정보를 웨어러블 장치(100)로 전송할 수 있다.
웨어러블 장치(100)가 전자 장치(210)로부터 운동 동작 평가 정보를 수신하는 경우, 동작(860)에서 웨어러블 장치(100)는 운동 동작 평가 정보를 나타내는 피드백 신호를 출력할 수 있다. 웨어러블 장치(100)는 피드백 신호에 기초하여 사용자의 운동 동작에 대한 평가 피드백을 사용자에게 제공할 수 있다. 예를 들어, 웨어러블 장치(100)는 피드백 신호에 대한 가이드 음성을 음향 출력 모듈을 통해 출력할 수 있다.
동작(865)에서, 전자 장치(210)는 사용자의 운동이 종료되었는지 여부를 결정할 수 있다. 일 실시예에서, 전자 장치(210)는 사용자의 운동 동작의 반복 횟수가 종료 횟수에 도달한 경우, 미리 정의된 시간이 흐른 경우 또는 사용자 입력을 통해 운동 동작 측정 모드의 종료 명령을 수신한 경우 중 적어도 하나의 경우에 사용자의 운동이 종료된 것으로 결정할 수 있다.
사용자의 운동이 종료되지 않은 것으로 결정된 경우(동작(865)에서 '아니오'인 경우), 전자 장치(210)는 다음 회차의 운동 동작에 대해 동작(835)부터의 동작들을 다시 수행할 수 있다. 사용자의 운동이 종료된 것으로 결정된 경우(동작(865)에서 '예'인 경우), 동작(870)에서 전자 장치(210)는 사용자의 운동 프로그램의 수행에 따른 운동 결과 정보를 GUI를 통해 출력할 수 있다. 운동 결과 정보는 예를 들어 사용자의 운동에 의해 총 소비된 칼로리 추정치, 운동 수행 시간, 및 운동 동작에 대한 최종 평가에 대한 정보를 포함할 수 있다.
동작(875)에서, 웨어러블 장치(100)는 사용자의 운동이 종료되었는지 여부를 결정할 수 있다. 일 실시예에서, 전자 장치(210)는 전자 장치(210) 또는 사용자 입력을 통해 운동 동작 측정 모드의 종료 명령을 수신한 경우에 사용자의 운동이 종료된 것으로 결정할 수 있다. 사용자의 운동이 종료되지 않은 것으로 결정된 경우(동작(875)에서 '아니오'인 경우), 웨어러블 장치(100)는 다음 회차의 운동 동작에 대한 센서 데이터를 획득하는 동작(825)부터의 동작들을 다시 수행할 수 있다. 사용자의 운동이 종료된 것으로 결정된 경우(동작(875)에서 '예'인 경우), 동작(880)에서 웨어러블 장치(100)는 운동 동작 측정 모드를 종료할 수 있다. 웨어러블 장치(100)는 운동 동작 측정 모드로의 동작이 종료된 경우 대기 모드로 진입할 수 있다.
도 9는 일 실시예에 따른 사용자의 운동 동작 평가 정보를 제공하는 과정을 설명하기 위한 흐름도이다. 일 실시예에서, 도 9의 동작들 중 적어도 하나의 동작은 다른 동작과 동시 또는 병렬적으로 수행될 수 있고, 동작들 간의 순서는 변경될 수 있다. 또한, 동작들 중 적어도 하나의 동작은 생략될 수 있고, 다른 동작이 추가적으로 수행될 수도 있다.
도 9를 참조하면, 동작(910)에서 전자 장치(210)는 사용자가 수행할 운동 프로그램을 선택하는 사용자 입력을 수신할 수 있다.
동작(920)에서, 전자 장치(210)는 GUI에 나타난 제1 시각적 가이드 객체에 제1 인디케이터들을 통해 사용자가 선택된 운동 프로그램에서 평가하는 운동 동작의 기준 각도 값 및 기준 각도 범위를 표시할 수 있다. 기준 각도 값 및 기준 각도 범위는 각각 사용자가 운동 동작 과정에서 달성해야 할 신체(예: 상체, 다리)의 바람직한 각도 값과 바람직한 각도 범위를 나타낼 수 있다.
동작(930)에서, 사용자는 웨어러블 장치(100)를 착용한 상태로 운동 프로그램에 따른 운동 동작을 수행할 수 있다. 웨어러블 장치(100)는 사용자의 운동 동작 과정에서 센서들을 통해 사용자의 움직임 정보가 포함된 센서 데이터를 획득하고, 획득한 센서 데이터를 전자 장치(210)로 전송할 수 있다. 웨어러블 장치(100)는 예를 들어 사용자의 일 횟수 동안의 운동 동작 과정 중에서 측정된 상체 기울기 값의 최댓값 및 양쪽 고관절 각각의 고관절 각도 값의 최댓값을 전자 장치(210)에 전송할 수 있다.
동작(940)에서, 전자 장치(210)는 웨어러블 장치(100)로부터 직전 운동 동작에 대한 움직임 정보를 수신할 수 있다. 동작(950)에서, 전자 장치(210)는 수신한 움직임 정보로부터 측정된 사용자의 운동 동작의 각도 값과 기준 각도 값을 비교할 수 있다.
동작(960)에서, 전자 장치(210)는 제1 시각적 가이드 객체에 측정된 운동 동작의 각도 값과 기준 각도 범위를 표시할 수 있다. 일 실시예에서, 전자 장치(210)는 제1 시각적 가이드 객체에 서로 다른 운동 동작 평가 레벨에 대응하는 복수의 운동 동작 기준 범위들을 나타내는 제1 인디케이터를 표시하고, 사용자의 직전 운동 동작에서 측정된 운동 동작 측정 값(예: 상체 기울기 값의 최댓값, 양쪽 고관절의 고관절 각도 차이 값의 최댓값)을 나타내는 제2 인디케이터를 표시할 수 있다. 전자 장치(210)는 제1 시각적 가이드 객체에 고정된 기준 라인과 사용자의 운동 동작 측정 값에 따라 표시가 변하는 각도 라인에 의해 정의되는 각도 범위를 나타내는 하나 이상의 제3 인디케이터를 더 표시할 수 있다. 또한, 전자 장치(210)는 사용자의 직전 운동 과정에서 평가된 신체 움직임 안정성을 나타내는 하나 이상의 제2 시각적 가이드 객체를 출력할 수도 있다.
동작(970)에서, 전자 장치(210)는 사용자의 운동 동작에 대한 운동 동작 평가 정보를 결정할 수 있다. 전자 장치(210)는 운동 프로그램별로 정의된 운동 동작의 기준 각도 값과 사용자의 움직임 정보로부터 측정된 사용자의 운동 동작의 각도 값을 비교하여 사용자의 운동 동작을 평가할 수 있다. 전자 장치(210)는 운동 동작 기준 범위들을 기준으로 사용자의 직전 운동 동작에 대한 최종 평가 레벨(예: 매우 좋음, 좋음, 부정확)을 결정할 수 있다.
동작(980)에서, 전자 장치(210)는 웨어러블 장치(100)에 운동 동작 평가 정보를 전송할 수 있다. 웨어러블 장치(100)는 수신한 운동 동작 평가 정보에 기반하여 사용자의 운동 동작 평가 정보를 알리기 위한 피드백 신호를 출력할 수 있다. 예를 들어, 웨어러블 장치(100)는 사용자의 직전 운동 동작에 대한 최종 평가 레벨에 대한 가이드 음성을 출력할 수 있다.
도 10은 일 실시예에 따른 전자 장치의 GUI 및 웨어러블 장치를 통해 사용자의 운동 동작 평가 정보를 제공하는 것을 설명하기 위한 도면이다.
도 10을 참조하면, 일 실시예에 따른 전자 장치(210)는 어플리케이션을 통해 사용자(110)의 운동 수행을 돕고, 운동 동작을 평가하기 위한 GUI를 제공할 수 있다. GUI의 일 화면(1010)을 통해, 전자 장치(210)는 사용자(110)가 선택할 수 있는 운동 프로그램들의 리스트(1015)를 제공할 수 있다.
사용자(110)가 수행하고자 하는 운동 프로그램을 선택한 경우, 전자 장치(210)는 GUI의 일 화면(1020)을 통해 사용자(110)가 선택한 운동 프로그램의 운동 동작 과정을 가이드하기 위한 가이드 영상(1025)을 제공할 수 있다. 가이드 영상(1025)은 사용자(110)가 운동 동작을 시작하기 전이나 운동 동작 중, 또는 운동 동작이 끝난 이후에 사용자(110)의 제공 요청 시에 제공될 수 있다.
사용자(110)는 선택된 운동 프로그램에 따라 일련의 운동 동작 과정을 수행할 수 있다. 예를 들어, 사용자(110)가 스플릿 런지의 운동 프로그램을 선택한 경우, 사용자(110)는 웨어러블 장치(100)를 착용하고 오른쪽 다리와 왼쪽 다리를 앞뒤로 벌리고 서 있는 기본 동작(1032)에서 시작하여 왼쪽 다리를 앞으로 내딛으면서 굽히는 중간 동작(1034)을 취한 후에 다시 오른쪽 다리와 왼쪽 다리를 앞뒤로 벌리고 서 있는 기본 동작(1036)을 취하는 일련의 운동 동작 과정을 수행할 수 있다. 상기 일련의 운동 동작 과정이 스플릿 런지에서 정의된 1회의 운동 동작들에 해당할 수 있다. 사용자(110)는 해당 일련의 운동 동작 과정을 목표로 하는 반복 횟수만큼 반복하여 수행하게 된다.
웨어러블 장치(100)는 사용자(110)가 상기 일련의 운동 동작 과정을 수행할 때, 관성 측정 장치 및 각도 센서를 통해 사용자(110)의 상체 기울기 값과 양쪽 고관절의 고관절 각도 값을 측정할 수 있다. 측정된 상체 기울기 값과 양쪽 고관절의 고관절 각도 값은 전자 장치(210)로 전송될 수 있다.
전자 장치(210)는 웨어러블 장치(100)로부터 수신한 센서 데이터를 분석하여 사용자(110)가 수행한 운동 동작(예: 중간 동작(1034))에 대한 평가를 수행하고, 평가 결과를 하나 이상의 시각적 가이드 객체를 통해 나타낼 수 있다. 이와 같은 하나 이상의 시각적 가이드 객체를 포함하는 GUI의 일 화면(1040)이 도시되어 있다. 일 화면(1040)에서는 사용자(110)가 선택한 스플릿 런지의 운동 동작 기준과 사용자의 운동 동작 측정 값을 나타내는 제1 시각적 가이드 객체(1050)가 표시될 수 있다. 일 화면(1040)에서는 웨어러블 장치(100)의 센서 데이터에 기초하여 평가된 사용자(110)의 신체 움직임 안정성을 나타내는 제2 시각적 가이드 객체들(1055, 1056)이 표시될 수 있다. 제2 시각적 가이드 객체(1055)는 사용자의 신체 움직임에 대한 좌우 안정성을 나타내고, 제2 시각적 가이드 객체(1056)는 사용자의 신체 움직임에 대한 회전 안정성을 나타낼 수 있다.
GUI의 일 화면(1040)은 또한 사용자의 운동 동작에 대한 평가 레벨(예: 매우 좋음, 좋음, 부정확) 및 센서 데이터에 기반하여 결정된 운동 동작 측정 값(예: 상체 기울기 값, 양쪽 고관절의 고관절 각도 차이 값)을 표시할 수 있다. 일 화면(1040)은 또한 현재 시점까지 운동에 의해 소비된 칼로리 예상치(1062), 현재까지 수행된 운동 동작 반복 횟수(1064) 또는 심박수(1066) 중 적어도 하나를 표시할 수 있다. 심박수(1066)는 예를 들어 사용자(110)가 착용한 스마트워치(예: 도 20b의 스마트워치(224)) 또는 스마트밴드의 센서로부터 획득된 생체 신호를 분석하는 것에 의해 결정될 수 있다.
직전 운동 동작이 완료되는 경우, 전자 장치(210)는 웨어러블 장치(100)에 직전 운동 동작에 대한 운동 동작 평가 정보를 전송할 수 있다. 웨어러블 장치(100)는 수신한 운동 동작 평가 정보에 따른 피드백 신호를 사용자(100)에게 제공할 수 있다. 예를 들어, 웨어러블 장치(100)는 사용자의 운동 동작 평가 레벨에 따라 '매우 좋음', '좋음' 또는 '부정확'에 대응하는 알림음을 재생할 수 있다.
사용자(110)는 웨어러블 장치(100)와 전자 장치(210)를 통해 위치나 공간의 제약 없이 자유롭게 운동할 수 있고, 운동 동작에서 교정해야 할 신체 부위와 목표로 하는 운동 동작 기준을 명확하게 인지하여 실시간으로 운동 동작의 교정을 수행할 수 있다. 웨어러블 장치(100)를 통해 사용자의 운동 동작에 대한 정확한 측정이 가능하고, 운동 동작 요소별로 그래픽 엘리먼트를 통해 사용자에게 운동 동작 평가에 대한 피드백 정보를 제공함으로써 운동 동작에 대한 전문적인 코칭이 가능해 진다.
도 11은 일 실시예에 따른 사용자의 운동 동작을 평가하는 것을 설명하기 위한 도면이다.
도 11을 참고하면, 사용자(110)가 웨어러블 장치(100)를 착용한 상태로 스플릿 런지의 운동 프로그램을 수행할 때 왼쪽 다리를 앞으로 내딛으면서 굽히는 중간 동작이 도시되어 있다. 일 실시예에서, 웨어러블 장치(100)는 센서들을 통해 스플릿 런지의 중간 동작과 같은 운동 동작에서 사용자의 신체 움직임 정보가 포함된 센서 데이터를 획득하고, 획득된 센서 데이터를 전자 장치(210)에 전송할 수 있다. 전자 장치(210)는 웨어러블 장치(100)를 통해 획득된 센서 데이터를 기초로 사용자의 운동 동작을 평가할 수 있다.
일 실시예에서, 전자 장치(210)는 스플릿 런지의 운동 동작에 대한 다양한 평가 요소들에 대해 사용자(110)의 운동 동작을 평가할 수 있다. 예를 들어, 전자 장치(210)는 센서 데이터에 기반하여 사용자(110)의 양쪽 고관절의 고관절 각도 차이(1110)를 평가할 수 있다. 고관절 각도 차이는 사용자(110)의 사용자의 운동 동작 과정에서 다리가 적절한 각도로 내려갔다가 올라오는지를 판단하기 위한 평가 요소이다. 전자 장치(210)는 센서 데이터에 기반하여 사용자(110)의 상체 기울기(1120)를 평가할 수 있다. 상체 기울기는 사용자(110)가 운동 동작 수행 시 골반이 앞/뒤로 기울지는 않았는지를 판단하기 위한 평가 요소이다. 전자 장치(210)는 센서 데이터에 기반하여 사용자(110)의 신체 움직임에 대한 좌우 안정성(1130)을 평가할 수 있다. 좌우 안정성은 사용자(110) 운동 동작 시 골반이 좌우로 기울지는 않았는지를 판단하기 위한 평가 요소이다. 전자 장치(210)는 센서 데이터에 기반하여 사용자(110)의 신체 움직임에 대한 회전 안정성(1140)을 평가할 수 있다. 회전 안정성은 사용자(110)의 운동 동작 시 골반이 회전하지는 않았는지를 판단하기 위한 평가 요소이다.
일 실시예에서, 전자 장치(210)는 상기의 평가 요소들 각각에 대해 다음의 표 1과 같은 평가 기준에 따라 사용자의 운동 동작을 평가할 수 있다. 전자 장치(210)는 각 평가 요소별 기준을 기초로 사용자의 운동 동작 측정 값이 각 평가 요소별로 어느 평가 레벨에 해당되는지를 결정할 수 있다. 아래 평가 기준은 예시일 뿐이며, 이에 한정되는 것은 아니다.
기준 및 평가 레벨 고관절 각도 차이 상체 기울기 좌우 안정성 회전 안정성
기준 90~110° 골반경사 각도-20° 평행 평행
매우 좋음 90~110° 기준±3° 기준±10° 기준±10°
좋음 80~89°, 111~120° 기준±5° 기준±20° 기준±20°
부정확 그 외 범위 그 외 범위 그 외 범위 그 외 범위
도 12는 일 실시예에 따른 시각적 가이드 객체들을 포함하는 GUI의 일 화면을 도시하는 도면이다.
도 12를 참조하면, GUI의 일 화면(1200)은 사용자가 수행하는 운동 프로그램에 대한 운동 동작 기준 및 사용자의 운동 동작 측정 값을 나타내는 제1 시각적 가이드 객체(1210)를 제공할 수 있다. 일 화면(1200)은 사용자의 운동 동작에서 측정된 신체 움직임에 대한 좌우 안정성을 나타내는 제2 시각적 가이드 객체(1220) 및 상기 신체 움직임에 대한 회전 안정성을 나타내는 제2 시각적 가이드 객체(1230)를 더 제공할 수 있다. 일 화면(1200)은 사용자의 운동 동작에 대한 종합적인 평가 레벨(예: 매우 좋음, 좋음, 부정확)(1240) 및 사용자의 운동 동작에 대해 측정된 운동 동작 측정 값(1215)을 제공할 수 있다. 예를 들어, 일 화면(1200)에 표시되는 운동 동작 측정 값(1215)은 사용자의 직전 운동 동작 과정에서 웨어러블 장치(100)의 관성 측정 장치를 통해 측정된 사용자의 상체 기울기 값의 최댓값 및 웨어러블 장치(100)의 각도 센서를 통해 측정된 사용자의 양쪽 고관절의 고관절 각도 차이 값의 최댓값을 포함할 수 있다. 일 실시예에서, 제1 시각적 가이드 객체(1210)에 나타나는 인디케이터들, 평가 레벨(1240), 제2 시각적 가이드 객체들(1220, 1230)의 컬러는 사용자의 운동 동작에 대한 각 평가 요소의 평가 결과에 따라 달라질 수 있다.
도 13a, 도 13b 및 도 13c는 일 실시예에 따른 제1 시각적 가이드 객체의 다양한 예들을 설명하기 위한 도면들이다.
도 13a에 도시된 제1 시각적 가이드 객체(1310), 도 13b에 도시된 제1 시각적 가이드 객체(1340) 및 도 13c에 도시된 제1 시각적 가이드 객체(1370)는 사용자의 운동 동작 유형별로 표시되는 제1 시각적 가이드 객체의 다양한 예들을 도시한다.
도 13a에 도시된 제1 시각적 가이드 객체(1310)는 사용자가 양쪽 다리를 따로 움직이는 운동 동작을 수행하는 운동 프로그램(예: 스플릿 런지, 리버스 런지(reverse lunge), 스플릿 잭(split jack))을 수행할 때 표시되는 제1 시각적 가이드 객체일 수 있다. 도시된 제1 시각적 가이드 객체(1310)는 스플릿 런지를 수행할 때의 제1 시각적 가이드 객체의 일례이다.
일 실시예에서, 제1 시각적 가이드 객체(1310)는 원형의 에지 영역(1312) 기초로 운동 프로그램(예: 스플릿 런지)의 운동 동작 기준과 사용자의 운동 동작에 대한 운동 동작 측정 값을 나타낼 수 있다. 다만, 에지 영역(1312)의 형태는 원형에 한정되지 않으며, 에지 영역(1312)의 형태는 다양할 수 있다. 제1 시각적 가이드 객체(1310)의 중앙 부분에 사용자가 수행하는 운동 프로그램(예: 스플릿 런지)의 대표 자세를 나타내는 아바타 객체(또는 아이콘 객체)(1320)가 표시되고, 운동 프로그램의 종류에 따라 아바타 객체(1320)의 자세는 다르게 표시될 수 있다.
일 실시예에서, 제1 시각적 가이드 객체(1310)는 사용자에 의해 선택된 운동 프로그램의 운동 동작 기준을 나타내는 제1 인디케이터들(1313, 1314, 1315, 1316, 1317, 1318)을 포함할 수 있다. 제1 인디케이터들(1313, 1314, 1315, 1316, 1317, 1318)은 에지 영역(1312)에 인접하여 표시될 수 있다. 제1 인디케이터들(1313, 1314, 1315, 1316, 1317, 1318)은 서로 다른 운동 동작 평가 레벨에 대응하는 복수의 운동 동작 기준 범위들을 나타낼 수 있다. 예를 들어, 제1 인디케이터(1314, 1315)는 고관절 각도 차이 값에 대해 '좋음'의 평가 레벨에 대응하는 운동 동작 기준 범위를 나타내고, 제1 인디케이터(1313)는 고관절 각도 차이 값에 대해 '매우 좋음'의 평가 레벨에 대응하는 운동 동작 기준 범위를 나타낼 수 있다. 제1 인디케이터(1317, 1318)는 상체 기울기 값에 대해 '좋음'의 평가 레벨에 대응하는 운동 동작 기준 범위를 나타내고, 제1 인디케이터(1316)는 상체 기울기 값에 대해 '매우 좋음'의 평가 레벨에 대응하는 운동 동작 기준 범위를 나타낼 수 있다. 전자 장치(210)는 사용자가 특정한 운동 프로그램을 선택하면, 선택된 운동 프로그램(예: 스플릿 런지)에 대한 운동 동작 기준을 기초로 제1 시각적 가이드 객체(1310)에 서로 다른 운동 동작 평가 레벨에 대응하는 복수의 운동 동작 기준 범위들을 표시할 수 있다. 일 실시예에서, 제1 인디케이터들(1313, 1314, 1315, 1316, 1317, 1318)은 각각 제1 인디케이터들(1313, 1314, 1315, 1316, 1317, 1318)에 대응하는 평가 레벨에 따라 서로 다른 컬러로 표현될 수 있다. 제1 인디케이터들(1313, 1314, 1315, 1316, 1317, 1318)의 주변에는 운동 동작 기준 범위를 정의하는 기준 값들(예: 80, 90, 110, 120, 15, 25)이 표시될 수 있다.
일 실시예에서, 제1 시각적 가이드 객체(1310)는 사용자의 운동 동작 측정 값을 나타내는 제2 인디케이터들(1326, 1328, 1332, 1334)을 포함할 수 있다. 예를 들어, 제2 인디케이터(1326)은 이전 운동 동작에서 결정된 사용자의 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값을 나타내고, 제2 인디케이터(1328)은 이전 운동 동작에서 결정된 사용자의 상체 기울기 값의 최댓값을 나타낼 수 있다. 제2 인디케이터(1332)는 사용자의 현재 운동 동작에서 결정된 현재 양쪽 고관절 간의 고관절 각도 차이 값을 실시간으로 나타내고, 제2 인디케이터(1334)는 사용자의 현재 운동 동작에서 결정된 현재 상체 기울기 값을 실시간으로 나타낼 수 있다. 일 실시예에서, 제2 인디케이터들(1326, 1328, 1332, 1334) 각각은 운동 동작 측정 값이 속하는 평가 기준 범위에 따라 표현되는 컬러가 달라질 수 있다.
일 실시예에서, 제1 시각적 가이드 객체(1310)는 제3 인디케이터들(1327, 1329)을 포함할 수 있다. 제3 인디케이터(1327)는 사용자의 양쪽 고관절 간의 고관절 각도 차이 값에 대한 기준 라인(1322)과 사용자의 이전 운동 동작에서 결정된 사용자의 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값에 대응하는 각도 라인(예: 제2 인디케이터(1326))에 의해 정의되는 각도 범위를 나타낼 수 있다. 제3 인디케이터(1329)는 사용자의 상체 기울기 값에 대한 기준 라인(예: 수직선)(1324)과 사용자의 이전 운동 동작에서 결정된 사용자의 상체 기울기 값의 최댓값에 대응하는 각도 라인(예: 제2 인디케이터(1328))에 의해 정의되는 각도 범위를 나타낼 수 있다. 제3 인디케이터들(1327, 1329)은 각각 제2 인디케이터(1326, 1328)가 속하는 평가 기준 범위에 따라 표현되는 컬러가 달라질 수 있다. 예를 들어, 제3 인디케이터(1329)의 컬러는 이전 운동 동작에서 평가된 사용자의 상체 동작의 평가가 '매우 좋음'이면 파란색으로 표현되고, '좋음'이면 초록색으로 표현되며, '부정확'이면 노란색으로 표현될 수 있다. 사용자는 제3 인디케이터들(1327, 1329)의 컬러를 기초로 이전 운동 동작에서 상체 동작과 다리 동작의 평가 레벨이 어떠했는지를 직관적으로 인지할 수 있다. 일 실시예에서, 제3 인디케이터들(1327, 1329)은 부채꼴 형태로 표현될 수 있으나, 이에 한정되는 것은 아니다.
도 13b에 도시된 제1 시각적 가이드 객체(1340)는 사용자가 양쪽 다리 중 어느 하나의 다리만을 움직이는 운동 동작을 수행하는 운동 프로그램(예: 레그 스윙(leg swing), 런지 및 니 업(lunge and knee up), 싱글 레그 스프린트(single leg sprint), 스트레이트 레그 킥 백(straight leg kick back))을 수행할 때 표시되는 제1 시각적 가이드 객체일 수 있다. 도시된 제1 시각적 가이드 객체(1340)는 레그 스윙을 수행할 때의 제1 시각적 가이드 객체의 일례이다.
일 실시예에서, 제1 시각적 가이드 객체(1340)는 원형의 에지 영역(1342) 기초로 운동 프로그램(예: 레그 스윙)의 운동 동작 기준과 사용자의 운동 동작에 대한 운동 동작 측정 값을 나타낼 수 있다. 제1 시각적 가이드 객체(1340)의 중앙 부분에 사용자가 수행하는 운동 프로그램(예: 레그 스윙)의 대표 자세를 나타내는 아바타 객체(1350)가 표시될 수 있다.
일 실시예에서, 제1 시각적 가이드 객체(1340)는 사용자가 선택한 운동 프로그램의 양쪽 고관절 각도 차이에 대한 운동 동작 기준 범위들을 나타내는 제1 인디케이터들(1343, 1344, 1345) 및 상체 기울기에 대한 운동 동작 기준 범위들을 나타내는 제1 인디케이터들(1346, 1347, 1348)을 포함할 수 있다. 일 실시예에서, 제1 인디케이터들(1343, 1344, 1345, 1346, 1347, 1348)은 각각 대응하는 평가 레벨에 따라 서로 다른 컬러로 표현될 수 있다.
일 실시예에서, 제1 시각적 가이드 객체(1340)는 이전 운동 동작에서 결정된 사용자의 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값을 나타내는 제2 인디케이터(1356) 및 이전 운동 동작에서 결정된 사용자의 상체 기울기 값의 최댓값을 나타내는 제2 인디케이터(1358)를 포함할 수 있다. 일 실시예에서, 제1 시각적 가이드 객체(1340)는 사용자의 현재 운동 동작에서 결정된 현재 양쪽 고관절 간의 고관절 각도 차이 값을 실시간으로 나타내는 제2 인디케이터(1362) 및 사용자의 현재 운동 동작에서 결정된 현재 상체 기울기 값을 실시간으로 나타내는 제2 인디케이터(1364)를 포함할 수 있다. 일 실시예에서, 제2 인디케이터들(1356, 1358, 1362, 1364) 각각은 운동 동작 측정 값이 속하는 평가 기준 범위에 따라 표현되는 컬러가 달라질 수 있다.
본 명세서의 각 실시예는 본 명세서에 설명된 임의의 다른 실시예(들)과 결합되어 이용될 수 있다.
일 실시예에서, 제1 시각적 가이드 객체(1340)는 사용자의 양쪽 고관절 간의 고관절 각도 차이 값에 대한 기준 라인(1352)과 사용자의 이전 운동 동작에서 결정된 사용자의 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값에 대응하는 각도 라인(예: 제2 인디케이터(1356))에 의해 정의되는 각도 범위를 나타내는 제3 인디케이터(1357)를 포함할 수 있다. 제1 시각적 가이드 객체(1340)는 사용자의 상체 기울기 값에 대한 기준 라인(1354)과 사용자의 이전 운동 동작에서 결정된 사용자의 상체 기울기 값의 최댓값에 대응하는 각도 라인(예: 제2 인디케이터(1358))에 의해 정의되는 각도 범위를 나타내는 제3 인디케이터(1359)를 포함할 수 있다. 제3 인디케이터들(1357, 1359)은 각각 제2 인디케이터(1356, 1358)가 속하는 평가 기준 범위에 따라 표현되는 컬러가 달라질 수 있다.
도 13c에 도시된 제1 시각적 가이드 객체(1370)는 사용자가 양쪽 다리가 동시에 움직이는 운동 동작을 수행하는 운동 프로그램(예: 스쿼트, 하프 스쿼트(half squat), 닐링 스쿼트(kneeling squat))을 수행할 때 표시되는 제1 시각적 가이드 객체일 수 있다. 도시된 제1 시각적 가이드 객체(1370)는 하프 스쿼트를 수행할 때의 제1 시각적 가이드 객체의 일례이다.
일 실시예에서, 제1 시각적 가이드 객체(1370)는 원형의 에지 영역(1372) 기초로 운동 프로그램(예: 하프 스쿼트)의 운동 동작 기준과 사용자의 운동 동작에 대한 운동 동작 측정 값을 나타낼 수 있다. 제1 시각적 가이드 객체(1370)의 중앙 부분에 사용자가 수행하는 운동 프로그램(예: 하프 스쿼트)의 대표 자세를 나타내는 아바타 객체(1380)가 표시될 수 있다.
일 실시예에서, 제1 시각적 가이드 객체(1370)는 사용자가 선택한 운동 프로그램의 양쪽 고관절 각도 차이에 대한 운동 동작 기준 범위들을 나타내는 제1 인디케이터들(1373, 1374, 1375) 및 상체 기울기에 대한 운동 동작 기준 범위들을 나타내는 제1 인디케이터들(1376, 1377, 1378)을 포함할 수 있다. 일 실시예에서, 제1 인디케이터들(1373, 1374, 1375, 1376, 1377, 1378)은 각각 대응하는 평가 레벨에 따라 서로 다른 컬러로 표현될 수 있다.
일 실시예에서, 제1 시각적 가이드 객체(1370)는 이전 운동 동작에서 결정된 사용자의 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값을 나타내는 제2 인디케이터(1386) 및 이전 운동 동작에서 결정된 사용자의 상체 기울기 값의 최댓값을 나타내는 제2 인디케이터(1388)를 포함할 수 있다. 일 실시예에서, 제1 시각적 가이드 객체(1370)는 사용자의 현재 운동 동작에서 결정된 현재 양쪽 고관절 간의 고관절 각도 차이 값을 실시간으로 나타내는 제2 인디케이터(1392) 및 사용자의 현재 운동 동작에서 결정된 현재 상체 기울기 값을 실시간으로 나타내는 제2 인디케이터(1394)를 포함할 수 있다. 일 실시예에서, 제2 인디케이터들(1386, 1388, 1392, 1394) 각각은 운동 동작 측정 값이 속하는 평가 기준 범위에 따라 표현되는 컬러가 달라질 수 있다.
일 실시예에서, 제1 시각적 가이드 객체(1370)는 사용자의 양쪽 고관절 간의 고관절 각도 차이 값에 대한 기준 라인(1382)과 사용자의 이전 운동 동작에서 결정된 사용자의 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값에 대응하는 각도 라인(예: 제2 인디케이터(1386))에 의해 정의되는 각도 범위를 나타내는 제3 인디케이터(1387)를 포함할 수 있다. 제1 시각적 가이드 객체(1370)는 사용자의 상체 기울기 값에 대한 기준 라인(1384)과 사용자의 이전 운동 동작에서 결정된 사용자의 상체 기울기 값의 최댓값에 대응하는 각도 라인(예: 제2 인디케이터(1388))에 의해 정의되는 각도 범위를 나타내는 제3 인디케이터(1389)를 포함할 수 있다. 제3 인디케이터들(1387, 1389)은 각각 제2 인디케이터(1386, 1388)가 속하는 평가 기준 범위에 따라 표현되는 컬러가 달라질 수 있다.
도 14a 및 도 14b는 일 실시예에 따른 제2 시각적 가이드 객체를 설명하기 위한 도면들이다.
도 14a를 참조하면, 사용자의 신체 움직임에 대한 좌우 안정성을 나타내는 제2 시각적 가이드 객체(1410)의 일례가 도시되어 있다. 일 실시예에서, 제2 시각적 가이드 객체(1410)는 에지 영역(1412)에 의해 정의되는 원형으로 표현될 수 있으나, 이에 한정되는 것은 아니다. 제2 시각적 가이드 객체(1410)는 고정된 기준 라인(예: 수평선)(1420), 신체 움직임의 좌우 안정성에 대응하는 운동 동작 측정 값에 따라 표시되는 기울기가 변하는 아바타 객체(1414), 및 신체 움직임의 좌우 안정성에 대응하는 운동 동작 측정 값의 운동 동작 평가 레벨에 따라 컬러가 변하는 컬러 객체(1434)를 포함할 수 있다. 예를 들어, 컬러 객체(1434)는 신체 움직임의 좌우 안정성에 대한 운동 동작 평가 레벨이 '매우 좋음'이면 파란색으로 표현되고, '좋음'이면 초록색으로 표현되며, '부정확'이면 노란색으로 표현될 수 있다. 아바타 객체(1414) 및 컬러 객체(1434)는 센서 데이터에 기초하여 측정된 사용자의 신체 움직임의 좌우 안정성의 정도에 따라 표현되는 기울기가 달라질 수 있다. 아바타 객체(1414)는 예를 들어 사람의 정면 형상에 대응되는 아이콘으로 표현될 수 있다. 컬러 객체(1434)의 영역은 좌우 안정성의 정도에 따라 기울기가 달라지는 선분(1432)과 에지 영역(1412)에 정의될 수 있다. 일 실시예에서, 컬러 객체(1434)의 형태는 반원 모양일 수 있으나 이에 한정되는 것은 아니다.
도 14b를 참조하면, 사용자의 신체 움직임에 대한 회전 안정성을 나타내는 제2 시각적 가이드 객체(1440)의 일례가 도시되어 있다. 일 실시예에서, 제2 시각적 가이드 객체(1440)는 에지 영역(1442)에 의해 정의되는 원형으로 표현될 수 있으나, 이에 한정되는 것은 아니다. 제2 시각적 가이드 객체(1440)는 고정된 기준 라인(예: 수평선)(1450), 신체 움직임의 회전 안정성에 대응하는 운동 동작 측정 값에 따라 표시되는 기울기가 변하는 아바타 객체(1444), 및 신체 움직임의 회전 안정성에 대응하는 운동 동작 측정 값의 운동 동작 평가 레벨에 따라 컬러가 변하는 컬러 객체(1464)를 포함할 수 있다. 아바타 객체(1444) 및 컬러 객체(1464)는 센서 데이터에 기초하여 측정된 사용자의 신체 움직임의 회전 안정성의 정도에 따라 표현되는 기울기가 달라질 수 있다. 아바타 객체(1444)는 예를 들어 사람을 위에서 바라본 형상의 아이콘으로 표현될 수 있다. 컬러 객체(1464)의 영역은 회전 안정성의 정도에 따라 기울기가 달라지는 선분(1462)과 에지 영역(1442)에 정의될 수 있다. 일 실시예에서, 컬러 객체(1464)의 형태는 반원 모양일 수 있으나 이에 한정되는 것은 아니다.
도 15는 일 실시예에 따른 사용자의 신체 움직임의 안정성 평가에 따른 제2 시각적 가이드 객체의 다양한 예들을 설명하기 위한 도면이다.
도 15를 참조하면, 사용자가 스플릿 런지의 운동 동작을 수행할 때 전자 장치(210)가 사용자의 신체 움직임에 대한 좌우 안정성 및 회전 안정성의 평가 레벨에 따라 제2 시각적 가이드 객체를 표현하는 다양한 예들이 도시되어 있다. 일 실시예에서, 전자 장치(210)는 웨어러블 장치(100)의 관성 측정 장치를 통해 사용자의 신체 움직임에 대한 좌우 기울기 및 회전 정도를 인식할 수 있고, 전자 장치(210)는 웨어러블 장치(100)에 의해 인식된 신체의 좌우 기울기 및 회전 각도를 기초로 좌우 안정성과 회전 안정성을 각각 나타내는 제2 시각적 가이드 객체를 GUI를 통해 제공할 수 있다. 전자 장치(210)는 제2 시각적 가이드 객체에서 좌우 안정성 또는 회전 안정성 정도의 평가 레벨에 따라 표현을 다르게 하여 출력할 수 있다.
일 실시예에서, 좌우 안정성에 대한 평가 레벨이 '매우 좋음'인 경우에는 제2 시각적 가이드 객체(1510)와 같이 표현되고, '좋음'인 경우에는 신체가 기울어진 방향(예: 오른쪽 또는 왼쪽)에 따라 제2 시각적 가이드 객체(1522) 또는 제2 시각적 가이드 객체(1524)와 같이 표현될 수 있다. 좌우 안정성에 대한 평가 레벨이 '부정확'인 경우에는 신체가 기울어진 방향에 따라 제2 시각적 가이드 객체(1532) 또는 제2 시각적 가이드 객체(1534)와 같이 표현될 수 있다. 제2 시각적 가이드 객체(1532)는 제2 시각적 가이드 객체(1522)보다 더 기울어진 형태로 아바타 객체와 컬러 객체가 표현되고, 제2 시각적 가이드 객체(1534)는 제2 시각적 가이드 객체(1524)보다 더 기울어진 형태로 아바타 객체와 컬러 객체가 표현될 수 있다. 일 실시예에서, 제2 시각적 가이드 객체(1510)의 컬러 객체는 파란색으로 표현되고, 제2 시각적 가이드 객체들(1522, 1524)의 컬러 객체는 초록색으로 표현되며, 제2 시각적 가이드 객체들(1532, 1534)의 컬러 객체는 노란색으로 표현될 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에서, 회전 안정성에 대한 평가 레벨이 '매우 좋음'인 경우에는 제2 시각적 가이드 객체(1540)와 같이 표현되고, '좋음'인 경우에는 신체의 회전 방향(예: 시계 방향 또는 반시계 방향)에 따라 제2 시각적 가이드 객체(1552) 또는 제2 시각적 가이드 객체(1554)와 같이 표현될 수 있다. 회전 안정성에 대한 평가 레벨이 '부정확'인 경우에는 신체의 회전 방향에 따라 제2 시각적 가이드 객체(1562) 또는 제2 시각적 가이드 객체(1564)와 같이 표현될 수 있다. 제2 시각적 가이드 객체(1562)는 제2 시각적 가이드 객체(1552)보다 더 기울어진 형태로 아바타 객체와 컬러 객체가 표현되고, 제2 시각적 가이드 객체(1564)는 제2 시각적 가이드 객체(1554)보다 더 기울어진 형태로 아바타 객체와 컬러 객체가 표현될 수 있다. 일 실시예에서, 제2 시각적 가이드 객체(1540)의 컬러 객체는 파란색으로 표현되고, 제2 시각적 가이드 객체들(1552, 1554)의 컬러 객체는 초록색으로 표현되며, 제2 시각적 가이드 객체들(1562, 1564)의 컬러 객체는 노란색으로 표현될 수 있으나, 이에 한정되는 것은 아니다.
도 16은 일 실시예에 따른 사용자의 운동 수행에 따른 시각적 가이드 객체들의 변화를 설명하기 위한 도면이다.
도 16을 참조하면, 사용자(110)가 웨어러블 장치(100)를 착용하고 스플릿 런지의 운동 동작을 수행할 때 사용자(110)의 운동 동작에 따른 시각적 가이드 객체의 변화가 도시되어 있다. 사용자(110)가 스플릿 런지의 1회차 운동 동작을 준비하는 상태(1610)에서 전자 장치(210)를 통해 제공되는 GUI의 일 영역(1615)에는 스플릿 런지의 운동 동작 기준에 대응하는 운동 동작 기준 범위들이 표시된 제1 시각적 가이드 객체가 출력될 수 있다. 아직 한 번도 운동 동작이 수행되지 않았기 때문에, 일 영역(1615)에서 제1 시각적 가이드 객체와 제2 시각적 가이드 객체에 사용자(110)의 운동 동작 측정 값이 표시되어 있지 않다.
사용자(110)가 1회차 운동 동작을 시작하여 스플릿 런지의 운동 동작을 수행하는 상태(1620)에서는, 웨어러블 장치(100)의 센서들(예: 관성 측정 장치, 각도 센서)을 통해 사용자(110)의 신체 움직임 정보가 측정되고, 신체 움직임 정보를 포함하는 센서 데이터가 전자 장치(210)에 전송될 수 있다. 이 때까지는 아직 사용자(110)의 1회차 운동 동작이 완료되지 않았기 때문에 사용자(110)의 운동 동작 평가 정보를 제공하는 일 영역(1625)은 이전 상태(1610)에서의 일 영역(1615)과 동일하게 유지된다.
사용자(110)가 1회차 운동 동작을 완료하고, 2회차 운동 동작을 준비하는 상태(1630)가 되면, 전자 장치(210)는 사용자(110)의 1회차 운동 동작 동안 획득된 웨어러블 장치(100)의 센서 데이터를 분석하여 사용자(110)의 1회차 운동 동작을 평가할 수 있다. 전자 장치(210)는 사용자(110)의 운동 동작을 평가한 운동 동작 평가 정보를 GUI의 일 영역(1635)을 통해 사용자(110)에게 제공할 수 있다. 일 화면(1635)에는 제2 인디케이터들을 통해 사용자(110)의 1회차 운동 동작에 대한 운동 동작 측정 값(예: 상체 기울기 값, 양쪽 고관절의 고관절 각도 차이 값, 신체 움직임의 좌우 안정성, 신체 움직임의 회전 안정성)이 제공될 수 있다. 1회차 운동 동작에 대한 종합적인 평가 레벨이 '부정확'인 것으로 결정되었다면, 일 영역(1635)에 '부정확'의 평가 레벨이 제시될 수 있다. 1회차 운동 동작이 완료되어 운동 동작 반복 횟수는 '1'로 업데이트되고, 1회차 운동 동작에 의해 소비된 칼로리 예상치가 GUI를 통해 표시될 수 있다.
사용자(110)가 2회차 운동 동작을 시작하여 스플릿 런지의 운동 동작을 수행하는 상태(1640)에서는, 웨어러블 장치(100)의 센서들을 통해 다시 사용자(110)의 신체 움직임 정보가 측정되고, 신체 움직임 정보를 포함하는 센서 데이터가 전자 장치(210)에 전송될 수 있다. 이 때까지는 아직 사용자(110)의 2회차 운동 동작이 완료되지 않았기 때문에 운동 동작 평가 정보를 제공하는 일 영역(1645)은 이전 상태(1640)에서의 일 영역(1635)과 동일하게 유지된다.
사용자(110)가 2회차 운동 동작을 완료하고, 3회차 운동 동작을 준비하는 상태(1650)가 되면, 전자 장치(210)는 사용자(110)의 2회차 운동 동작 동안 획득된 웨어러블 장치(100)의 센서 데이터를 분석하여 사용자(110)의 2회차 운동 동작을 평가할 수 있다. 전자 장치(210)는 사용자(110)의 운동 동작을 평가한 운동 동작 평가 정보를 GUI의 일 영역(1655)을 통해 사용자(110)에게 제공할 수 있다. 일 화면(1655)에는 제2 인디케이터들을 통해 사용자(110)의 2회차 운동 동작에 대한 운동 동작 측정 값이 제공될 수 있다. 2회차 운동 동작에 대한 종합적인 평가 레벨이 '매우 좋음'인 것으로 결정되었다면, 일 영역(1655)에 '매우 좋음'의 평가 레벨이 제시될 수 있다. 2회차 운동 동작이 완료되어 운동 동작 반복 횟수는 '2'로 업데이트되고, 2회차 운동 동작까지 소비된 칼로리 예상치가 GUI를 통해 표시될 수 있다.
도 17은 일 실시예에 따른 사용자의 운동 동작 평가 정보를 게이지 형태로 제공하는 제1 시각적 가이드 객체를 설명하기 위한 도면이다.
도 17을 참조하면, 사용자(110)가 웨어러블 장치(100)를 착용하고 스플릿 런지의 운동 동작을 수행할 때 사용자(110)의 운동 동작에 따른 제1 시각적 가이드 객체의 변화가 도시되어 있다. 일 실시예에서, 제1 시각적 가이드 객체는 사용자(110)의 현재 운동 동작에 대한 운동 동작 측정 값을 표시할 수 있다. 운동 동작 측정 값을 나타내는 제2 인디케이터는 게이지 형태로 표현될 수 있으나, 이에 한정되는 것은 아니다.
사용자(110)가 스플릿 런지의 운동 동작을 수행하고 있는 상태(1710)일 때, 제1 시각적 가이드 객체(1720)는 스플릿 런지의 운동 동작 기준에 대응하는 운동 동작 기준 범위들과 함께 현재 운동 동작에서 측정되는 사용자(110)의 양쪽 고관절 간의 고관절 각도 차이 값을 나타내는 제2 인디케이터(1730) 및 현재 운동 동작에서 측정되는 사용자(110)의 상체 기울기 값을 나타내는 제2 인디케이터(1740)를 표시할 수 있다. 사용자의 운동 동작 변화에 따라, 제2 인디케이터(1730) 및 제2 인디케이터(1740)는 실시간으로 가리키는 운동 동작 측정 값이 달라질 수 있다. 제2 인디케이터들(1730, 1740)은 사용자의 운동 동작 측정 값을 실시간으로 나타낼 수 있다. 일 실시예에서, 제1 시각적 가이드 객체(1720)는 기준 라인(1732)과 제2 인디케이터(1730)에 의해 정의되는 각도 범위를 나타내는 제3 인디케이터, 및 기준 라인(1742) 및 제2 인디케이터(1740)에 의해 정의되는 각도 범위를 나타내는 제3 인디케이터를 포함할 수 있다.
사용자(110)가 스플릿 런지의 운동 동작들 중에서 왼쪽 다리를 앞으로 내딛으면서 굽히는 중간 동작을 수행한 상태(1750)일 때, 제1 시각적 가이드 객체(1760)는 스플릿 런지의 운동 동작 기준에 대응하는 운동 동작 기준 범위들과 함께 현재 중간 동작에서 측정되는 사용자(110)의 양쪽 고관절 간의 고관절 각도 차이 값을 나타내는 제2 인디케이터(1770) 및 현재 운동 동작에서 측정되는 사용자(110)의 상체 기울기 값을 나타내는 제2 인디케이터(1780)를 표시할 수 있다.
일 실시예에서, 제2 인디케이터(1770)가 나타내는 고관절 각도 차이 값이 제1 인디케이터가 나타내는 운동 동작 기준 범위에 포함되는 경우, 제2 인디케이터(1770)는 해당 운동 동작 기준 범위에 대응하는 컬러로 변경될 수 있다. 제2 인디케이터(1780)가 나타내는 상체 기울기 값이 제1 인디케이터가 나타내는 운동 동작 기준 범위에 포함되는 경우, 제2 인디케이터(1780)는 해당 운동 동작 기준 범위에 대응하는 컬러로 변경될 수 있다. 제2 인디케이터들(1770, 1780)은 사용자의 운동 동작을 실시간으로 반영하기 때문에, 사용자(110)는 제2 인디케이터들(1770, 1780)의 변화를 기초로 운동 동작의 교정을 운동 동작을 수행하고 있는 중에 바로 시도할 수 있고, 실시간으로 교정이 필요한 정도를 효과적으로 인식할 수 있다. 또한, 사용자(110)의 중간 동작의 수행 중에 제2 인디케이터들(1770, 1780)이 평가 레벨이 '좋음' 또는 '매우 좋음'에 대응하는 운동 동작 기준 범위에 포함되어 제2 인디케이터들(1770, 1780)의 컬러가 변경되는 경우, 사용자(110)는 중간 동작을 마치고 기본 동작으로 복귀할 시점임을 효과적으로 인식할 수 있다.
일 실시예에서, 제1 시각적 가이드 객체(1760)는 기준 라인(1772)과 제2 인디케이터(1770)에 의해 정의되는 각도 범위를 나타내는 제3 인디케이터, 및 기준 라인(1782) 및 제2 인디케이터(1780)에 의해 정의되는 각도 범위를 나타내는 제3 인디케이터를 포함할 수 있다. 기준 라인(1772)는 기준 라인(1732)에 대응하고, 기준 라인(1782)는 기준 라인(1742)에 대응할 수 있다.
도 18은 일 실시예에 따른 사용자의 운동 동작에 따라 제1 시각적 가이드 객체 내의 아바타 객체가 변형되는 것을 설명하기 위한 도면이다.
도 18을 참조하면, 사용자(110)가 웨어러블 장치(100)를 착용하고 스플릿 런지의 운동 동작을 수행할 때 사용자(110)의 운동 동작에 따른 시각적 가이드 객체의 변화가 도시되어 있다. 사용자(110)가 스플릿 런지의 1회차 운동 동작을 완료하고, 2회차 운동 동작을 준비하는 상태(1810)가 되면, 전자 장치(210)는 사용자(110)의 1회차 운동 동작 동안 결정된 운동 동작 평가 정보를 GUI의 일 영역(1820)을 통해 제공될 수 있다.
GUI의 일 영역(1820)에는 사용자(110)의 운동 동작 평가 정보를 시각적으로 나타내기 위한 제1 시각적 가이드 객체(1822)가 표시될 수 있다. 제1 시각적 가이드 객체(1822)에 포함된 아바타 객체(1824)는 사용자(110)의 현재 동작을 실시간으로 반영할 수 있다. 사용자(110)의 현재 동작(특히, 다리 동작)에 대응되도록 아바타 객체(1824)의 형태가 변경될 수 있다. 아바타 객체(1824)의 형태 변화를 통해 사용자(110)는 자신의 현재 동작을 직관적으로 인식할 수 있다. 제1 시각적 가이드 객체(1822)는 사용자(110)의 이전 1회차 운동 동작에서 평가된 고관절 각도 차이 값의 최댓값을 나타내는 제2 인디케이터(1826), 이전 1회차 운동 동작에서 평가된 상체 기울기 값의 최댓값을 나타내는 제2 인디케이터(1828) 및 기준 라인들(1827, 1829)을 표시할 수 있다. 제1 시각적 가이드 객체(1822)는 기준 라인들(1827, 1829)과 제2 인디케이터들(1826, 1828)에 의해 정의되는 제3 인디케이터들을 표시할 수 있다.
사용자(110)가 2회차 운동 동작을 시작하고, 스플릿 런지의 운동 동작들 중 왼쪽 다리를 앞으로 내딛으면서 굽히는 중간 동작을 수행하는 상태(1830)에서, 웨어러블 장치(100)의 센서들을 통해 다시 사용자(110)의 신체 움직임 정보가 측정되고, 신체 움직임 정보를 포함하는 센서 데이터가 전자 장치(210)에 전송될 수 있다. 이 때, GUI의 일 영역(1840)에 나타난 제1 시각적 가이드 객체(1852)는 사용자(110)의 2회차 운동 동작에 대한 운동 동작 평가 정보를 실시간으로 나타낼 수 있다. 제1 시각적 가이드 객체(1852)에 포함된 아바타 객체(1854)는 사용자(110)의 현재 동작에 따라 형태가 변형될 수 있다. 상태(1830)에서는, 아바타 객체(1854)의 동작도 사용자(110)의 동작에 따라 왼쪽 다리를 앞으로 내딛으면서 굽히는 중간 동작에 대응하는 형태로 변형될 수 있다.
제1 시각적 가이드 객체(1852)는 사용자(110)의 현재 2회차 운동 동작에서 평가된 고관절 각도 차이 값을 나타내는 제2 인디케이터(1856), 현재 2회차 운동 동작에서 평가된 상체 기울기 값을 나타내는 제2 인디케이터(1858) 및 기준 라인들(1827, 1829)을 표시할 수 있다. 사용자의 운동 동작에 따라 제2 인디케이터들(1856, 1858)은 실시간으로 변할 수 있다. 제1 시각적 가이드 객체(1852)는 기준 라인들(1827, 1829)과 제2 인디케이터들(1856, 1858)에 의해 정의되는 제3 인디케이터들을 표시할 수 있다. 일 실시예에서, 2회차 운동 동작 과정에서, 고관절 각도 차이 값이 최댓값에 도달하는 시점에 고관절 각도 차이 값에 대한 운동 동작 평가 정보가 결정되고, 상체 기울기 값이 최댓값에 도달하는 시점에 상체 기울기 값에 대한 운동 동작 평가 정보가 결정될 수 있다.
사용자(110)가 스플릿 런지의 2회차 운동 동작을 완료하고, 3회차 운동 동작을 준비하는 상태(1860)가 되면, 전자 장치(210)는 사용자(110)의 2회차 운동 동작 동안 결정된 운동 동작 평가 정보를 GUI의 일 영역(1870)을 통해 제공될 수 있다. 일 영역(1870)에 제공되는 제1 시각적 가이드 객체(1882)는 사용자(110)의 2회차 운동 동작 동안에서 결정된 고관절 각도 차이 값이 최댓값을 나타내는 제2 인디케이터(1886) 및 2회차 운동 동작 동안에서 결정된 상체 기울기 값의 최댓값을 나타내는 제2 인디케이터(1888)를 표시할 수 있다. 아바타 객체(1884)는 사용자(110)의 현재 동작에 대응되도록 형태가 변할 수 있다. 제1 시각적 가이드 객체(1882)는 기준 라인들(1827, 1829)과 제2 인디케이터들(1886, 1888)에 의해 정의되는 제3 인디케이터들을 표시할 수 있다.
도 19는 일 실시예에 따른 사용자의 운동 동작 평가 정보를 아바타 객체 및 웨어러블 장치를 통해 제공하는 것을 설명하기 위한 도면이다.
도 19을 참조하면, 전자 장치(210)에 의해 제공되는 GUI의 일 화면(1910)에서, 아바타 객체(1930)를 통해 사용자(110)의 운동 동작 평가 기준별로 결정된 운동 동작 평가 정보(1920)가 제공될 수도 있다. 일 실시예에서, 아바타 객체(1930)는 실시간으로 사용자(110)의 운동 동작에 대한 평가 정보를 나타낼 수 있다. 아바타 객체(1930)의 각 신체 부위 영역별로 사용자(110)의 신체 부위별 운동 동작 평가 정보가 그래픽 엘리먼트(1932, 1934, 1936, 1938)를 통해 제공될 수 있다. 신체 부위별 운동 동작 평가 기준에 따라 결정된 평가 레벨에 따라 각 그래픽 엘리먼트(1932, 1934, 1936, 1938)의 컬러가 달라질 수 있다. 그래픽 엘리먼트(1932, 1934, 1936, 1938)는 예를 들어 각 신체 부위별로 부채꼴 형태로 표시될 수 있고, 평가 레벨에 따른 컬러를 통해 사용자(110)의 운동 동작 평가에서 신체 부위별로 운동 동작의 교정이 필요한 신체 부위를 직관적으로 표현해 줄 수 있다.
일 실시예에 따르면, 운동 동작의 교정이 필요한 신체 부위에 대한 정보는 전자 장치(210)로부터 웨어러블 장치(100)로 전송될 수 있고, 웨어러블 장치(100)는 운동 동작이 교정이 필요한 신체 부위에 대응하는 곳에 햅틱 모듈을 통해 햅틱 피드백(예: 진동)을 발생시킬 수 있다. 예를 들어, 사용자(110)의 운동 동작에 대한 평가 결과, 상체 기울기와 오른쪽 다리의 무릎 각도의 교정이 필요한 것으로 결정된 경우, 웨어러블 장치(100)는 사용자(110)의 허리 부근 및 제1 허벅지 체결부 부근에 햅틱 피드백을 발생시킬 수 있다. 웨어러블 장치(100)는 또한 음향 출력 모듈을 통해 사용자(110)에게 운동 동작에 대한 교정 방식을 가이드하기 위한 가이드 음성(예: '상체를 더 세워주세요', 오른쪽 다리를 더 내려 주세요')을 재생할 수도 있다. 사용자(110)는 햅틱 피드백 및/또는 가이드 음성을 통해 운동 동작 중에 교정이 필요한 신체 부위를 바로 인지할 수 있다.
도 20a 및 도 20b는 일 실시예에 따른 다양한 전자 장치를 통해 시각적 가이드 객체들을 포함하는 GUI를 제공하는 예들을 도시하는 도면들이다.
도 20a를 참조하면, 전자 장치(210) 또는 웨어러블 장치(100)는 텔레비전(예: 스마트 TV)와 연동하여 사용자에게 운동 동작에 대한 운동 동작 평가 정보를 제공할 수 있다. 텔레비전의 디스플레이를 통해 제공되는 일 화면(2010)에는 예를 들어 사용자의 운동 동작을 촬영한 이미지 또는 가이드 운동 동작 이미지(2015), 여러 시각적 가이드 객체들을 포함하는 사용자의 운동 동작 평가 정보(2020), 기타 운동 관련 정보가 제공될 수 있다. 예를 들어, 사용자의 운동 동작에 대한 운동 동작 기준과 사용자의 운동 동작 측정 값을 나타내는 제1 시각적 가이드 객체와 신체 움직임 안정성을 나타내는 제2 시각적 가이드 객체들을 포함하는 운동 동작 평가 정보(2020)가 제공될 수 있다. 기타 운동 관련 정보는 예를 들어 현재 시점까지 운동에 의해 소비된 칼로리 예상치(2032), 현재까지 수행된 운동 동작 반복 횟수(2034) 또는 심박수(2036) 중 적어도 하나에 대한 정보를 포함할 수 있다.
도 20b를 참조하면, 전자 장치(210) 또는 웨어러블 장치(100)는 스마트워치(224)와 연동하여 사용자에게 운동 동작에 대한 운동 동작 평가 정보를 제공할 수 있다. 사용자가 웨어러블 장치(100)와 스마트워치(224)를 착용한 상태에서 운동 동작을 수행하는 경우, 웨어러블 장치(100)를 통해 사용자의 신체 움직임에 대한 센서 데이터가 획득되고, 센서 데이터에 기초하여 사용자의 운동 동작에 대한 평가가 수행될 수 있다. 운동 동작에 대한 평가 결과를 나타내는 제1 시각적 가이드 객체(2042) 및 제2 시각적 가이드 객체(2044)는 스마트워치(224)의 디스플레이를 통해 사용자에게 제공될 수 있다. 일 실시예에서, 제1 시각적 가이드 객체(2042) 및 제2 시각적 가이드 객체(2044)는 스마트워치(224)의 디스플레이의 한 화면에 동시에 출력되거나 또는 일정 시간 간격으로 번갈아 출력될 수 있다.
본 개시의 다양한 실시예들 및 이에 사용된 용어들은 본 개시에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 개시에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 개시의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. 따라서, 본 명세서에서 각 "모듈"은 회로를 포함할 수 있다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 또는 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다. 본 개시의 다양한 실시예들은 기기(machine)에 의해 읽을 수 있는 저장 매체(storage medium)(예: 메모리(514))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서는 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 개시에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
본 개시(disclosure)는 다양한 실시예들을 참조하여 예시 및 설명되었지만, 다양한 실시예들은 제한(limiting)이 아니라 예시를 위한 것임이 이해될 것이다. 첨부된 특허청구범위 및 그 균등물을 포함하는 본 개시의 진정한 사상 및 전체 범위를 벗어나지 않고, 형태 및 세부사항의 다양한 변경이 이루어질 수 있음이 당업자에 의해 더 이해될 것이다. 또한, 본 명세서에 기재된 임의의 실시예(들)는 본 명세서에 기재된 임의의 다른 실시예(들)와 함께 사용될 수 있음이 이해될 것이다.

Claims (15)

  1. 전자 장치(210)에 있어서,
    웨어러블 장치(100)의 사용자가 수행할 운동 프로그램의 선택을 위한 사용자 입력을 수신하는 입력 회로를 포함하는 입력 모듈(760);
    상기 선택된 운동 프로그램에 따라 상기 사용자에 의해 수행될 운동에 대한 상기 사용자의 움직임 정보가 포함된 센서 데이터를 상기 웨어러블 장치(100)로부터 수신하는 통신 회로를 포함하는 통신 모듈(730);
    상기 센서 데이터에 기초하여 상기 사용자의 운동 동작 측정 값을 결정하고, 상기 선택된 운동 프로그램의 운동 동작 기준을 나타내는 제1 인디케이터 및 상기 결정된 운동 동작 측정 값을 나타내는 하나 이상의 제2 인디케이터를 포함하는 제1 시각적 가이드 객체를 생성하는 적어도 하나의 프로세서(710); 및
    상기 제1 시각적 가이드 객체가 나타날 그래픽 사용자 인터페이스(graphical user interface; GUI)를 출력하는 디스플레이를 포함하는 디스플레이 모듈(740)
    을 포함하는 전자 장치.
  2. 제1항에 있어서,
    상기 하나 이상의 제2 인디케이터는,
    상기 사용자의 이전 운동 동작에 기초한 운동 동작 측정 값을 나타내는 제2 인디케이터 및/또는 상기 사용자의 현재 운동 동작에 기초한 운동 동작 측정 값을 실시간으로 나타내는 제2 인디케이터 중 적어도 하나를 포함하는,
    전자 장치.
  3. 제2항에 있어서,
    상기 이전 운동 동작에 기초한 운동 동작 측정 값을 나타내는 상기 제2 인디케이터는,
    상기 사용자의 상기 이전 운동 동작에 기초한 상기 사용자의 상체 기울기 값의 최댓값, 또는 상기 사용자의 상기 이전 운동 동작에 기초한 상기 사용자의 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값 중 적어도 하나를 나타내는,
    전자 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 하나 이상의 제2 인디케이터는,
    상기 하나 이상의 제2 인디케이터가 나타내는 운동 동작 측정 값이 속하는 평가 기준 범위에 따라 상기 제1 시각적 가이드 객체 내에서 표현되는 컬러가 달라지는,
    전자 장치.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 제1 인디케이터는, 상기 선택된 운동 프로그램에 대한 운동 동작 기준 범위를 나타내고,
    상기 하나 이상의 제2 인디케이터는,
    상기 사용자의 운동 동작 측정 값을 실시간으로 나타내고,
    상기 적어도 하나의 프로세서는, 상기 운동 동작 측정 값이 상기 제1 인디케이터가 나타내는 상기 운동 동작 기준 범위에 포함되는 경우, 상기 운동 동작 기준 범위에 대응하는 컬러로 변경되도록 하는,
    전자 장치.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 제1 인디케이터는,
    서로 다른 운동 동작 평가 레벨에 대응하는 복수의 운동 동작 기준 범위들을 나타내는,
    전자 장치.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 제1 시각적 가이드 객체는,
    고정된 기준 라인과 상기 사용자의 운동 동작 측정 값에 따라 표시가 변하는 각도 라인에 의해 표시되는 각도 범위를 나타내는 하나 이상의 제3 인디케이터
    를 더 포함하고,
    상기 하나 이상의 제3 인디케이터는,
    상기 운동 동작 측정 값이 속하는 평가 기준 범위에 따라 상기 제1 시각적 가이드 객체 내에서 표현되는 컬러가 달라지는,
    전자 장치
  8. 제7항에 있어서,
    상기 하나 이상의 제3 인디케이터는,
    상기 사용자의 상체 기울기 값에 대한 기준 라인과 상기 사용자의 이전 운동 동작에 기초한 상기 사용자의 상체 기울기 값의 최댓값에 대응하는 각도 라인에 의해 표시되는 각도 범위를 나타내는 제3 인디케이터, 또는
    상기 사용자의 양쪽 고관절 간의 고관절 각도 차이 값에 대한 기준 라인과 상기 사용자의 이전 운동 동작에 기초한 상기 사용자의 양쪽 고관절 간의 고관절 각도 차이 값의 최댓값에 대응하는 각도 라인에 의해 표시되는 각도 범위를 나타내는 제3 인디케이터
    중 적어도 하나를 포함하는 전자 장치.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(710)는,
    상기 센서 데이터에 기초하여 상기 사용자의 신체 움직임 안정성에 대응하는 운동 동작 측정 값을 결정하고, 상기 신체 움직임 안정성을 나타내는 하나 이상의 제2 시각적 가이드 객체를 생성하고,
    상기 디스플레이 모듈(740)은,
    상기 제2 시각적 가이드 객체가 나타난 그래픽 사용자 인터페이스를 출력하는,
    전자 장치.
  10. 제9항에 있어서,
    상기 하나 이상의 제2 시각적 가이드 객체는,
    상기 사용자의 신체 움직임에 대한 좌우 안정성을 나타내는 제2 시각적 가이드 객체 및/또는 상기 사용자의 신체 움직임에 대한 회전 안정성을 나타내는 제2 시각적 가이드 객체 중 적어도 하나를 포함하는,
    전자 장치.
  11. 제9항에 있어서,
    상기 하나 이상의 제2 시각적 가이드 객체는,
    고정된 기준 라인, 상기 신체 움직임 안정성에 대응하는 운동 동작 측정 값에 따라 표시되는 기울기가 변하는 아바타 객체, 및 상기 신체 움직임 안정성에 대응하는 운동 동작 측정 값의 운동 동작 평가 레벨에 따라 컬러가 변하는 컬러 객체를 포함하는,
    전자 장치.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(710)는,
    상기 통신 모듈(730)이 상기 사용자의 운동 동작 평가 정보를 상기 웨어러블 장치(100)로 전송하도록 제어함으로써 상기 웨어러블 장치(100)로 하여금 상기 운동 동작 평가 정보에 대응하는 피드백 신호를 상기 사용자에게 제공하도록 하는,
    전자 장치.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서,
    상기 제1 시각적 가이드 객체는,
    상기 사용자의 운동 동작에 따라 표현되는 동작이 달라지는 아바타 객체
    를 더 포함하고,
    상기 아바타 객체를 통해 상기 사용자의 운동 동작 평가 기준별로 결정된 운동 동작 평가 정보가 제공되는,
    전자 장치.
  14. 전자 장치(210)의 동작 방법에 있어서,
    웨어러블 장치(100)를 착용한 사용자가 수행할 운동 프로그램을 선택하는 사용자 입력을 수신하는 동작;
    상기 선택된 운동 프로그램에 따른 운동 과정에서 상기 사용자의 움직임 정보가 포함된 센서 데이터를 상기 웨어러블 장치(100)로부터 수신하는 동작;
    상기 센서 데이터에 기초하여 상기 사용자의 운동 동작 측정 값을 결정하는 동작; 및
    상기 선택된 운동 프로그램의 운동 동작 기준을 나타내는 제1 인디케이터 및 상기 결정된 운동 동작 측정 값을 나타내는 하나 이상의 제2 인디케이터를 포함하는 제1 시각적 가이드 객체가 나타난 그래픽 사용자 인터페이스를 출력하는 동작
    을 포함하는 동작 방법.
  15. 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 제14항의 방법을 수행하게 하는 인스트럭션들(instructions)을 기록한 컴퓨터 판독 가능한 기록매체.
PCT/KR2023/003975 2022-06-10 2023-03-24 사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및 웨어러블 장치, 이들의 동작 방법 WO2023239025A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP23745369.1A EP4311488A1 (en) 2022-06-10 2023-03-24 Electronic device and wearable device for providing evaluation information on user's exercise motion, and method for operating same
US18/347,869 US20230398031A1 (en) 2022-06-10 2023-07-06 Wearable device and electronic device for providing exercise posture evaluation information of user and operation methods thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0070958 2022-06-10
KR20220070958 2022-06-10
KR10-2022-0127283 2022-10-05
KR1020220127283A KR20230170541A (ko) 2022-06-10 2022-10-05 사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및 웨어러블 장치,이들의 동작 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/347,869 Continuation US20230398031A1 (en) 2022-06-10 2023-07-06 Wearable device and electronic device for providing exercise posture evaluation information of user and operation methods thereof

Publications (1)

Publication Number Publication Date
WO2023239025A1 true WO2023239025A1 (ko) 2023-12-14

Family

ID=88373886

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/003975 WO2023239025A1 (ko) 2022-06-10 2023-03-24 사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및 웨어러블 장치, 이들의 동작 방법

Country Status (1)

Country Link
WO (1) WO2023239025A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140278219A1 (en) * 2013-03-15 2014-09-18 Focus Ventures, Inc. System and Method For Monitoring Movements of a User
KR20170002346A (ko) * 2015-05-07 2017-01-06 삼성전자주식회사 보행 자세에 따른 정보 제공 방법 및 이를 위한 전자 장치
KR101859549B1 (ko) * 2017-11-15 2018-05-21 (주)컬처릿 웨어러블 센서 기반의 동작 훈련 가이드 시스템 및 그 방법
KR20190019824A (ko) * 2017-08-18 2019-02-27 강다겸 자세 가이드 제공 방법 및 그 장치
KR20200074609A (ko) * 2018-12-17 2020-06-25 이화여자대학교 산학협력단 홈 트레이닝 제공 방법 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140278219A1 (en) * 2013-03-15 2014-09-18 Focus Ventures, Inc. System and Method For Monitoring Movements of a User
KR20170002346A (ko) * 2015-05-07 2017-01-06 삼성전자주식회사 보행 자세에 따른 정보 제공 방법 및 이를 위한 전자 장치
KR20190019824A (ko) * 2017-08-18 2019-02-27 강다겸 자세 가이드 제공 방법 및 그 장치
KR101859549B1 (ko) * 2017-11-15 2018-05-21 (주)컬처릿 웨어러블 센서 기반의 동작 훈련 가이드 시스템 및 그 방법
KR20200074609A (ko) * 2018-12-17 2020-06-25 이화여자대학교 산학협력단 홈 트레이닝 제공 방법 및 시스템

Similar Documents

Publication Publication Date Title
AU2019283484B2 (en) Electronic device for providing exercise information using biometric information and operating method thereof
WO2021071142A1 (ko) 의료 데이터를 이용하여 건강관리 서비스를 제공하는 안마 의자 및 의자의 동작 방법
WO2023239025A1 (ko) 사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및 웨어러블 장치, 이들의 동작 방법
WO2023239030A1 (ko) 운동량 측정 기능을 제공하는 전자 장치 및 웨어러블 장치,이들의 동작 방법
WO2015093833A1 (ko) 하지 근력 측정 시스템
WO2021141305A1 (ko) 고객 선호에 따라서 개인화된 맞춤형 마사지를 제공하는 마사지 장치의 관리 시스템 및 그 동작 방법
WO2024076097A1 (ko) 웨어러블 장치와 전자 장치 간의 인터랙션 방법 및 이를 수행하는 웨어러블 장치 및 전자 장치
WO2024106937A1 (ko) 웨어러블 장치의 영점 설정 방법, 및 이를 수행하는 웨어러블 장치 및 전자 장치
WO2023219257A1 (ko) 사용자의 운동 능력 정보를 제공하는 전자 장치 및 웨어러블 장치, 및 이들의 동작 방법
WO2024096320A1 (ko) 웨어러블 장치 및 이의 동작 방법
WO2024106954A1 (ko) 웨어러블 장치 및 이의 동작 방법
WO2024090801A1 (ko) 무선 전력 전송 및 무선 통신을 수행하는 웨어러블 장치 및 이의 동작 방법
WO2024075986A1 (ko) 운동 프로그램을 제공하는 전자 장치 및 웨어러블 장치, 이들의 제어 방법
WO2024085499A1 (ko) 웨어러블 장치의 소모 전력을 줄이기 위한 제어 방법 및 이를 수행하는 웨어러블 장치
WO2024096313A1 (ko) 체결 프레임의 연결을 감지하는 방법 및 그 방법을 수행하는 전자 장치
WO2024014681A1 (ko) 착용 감지 기능을 제공하는 웨어러블 장치 및 웨어러블 장치의 동작 방법
WO2023128619A1 (ko) 사용자의 보행 지표를 추정하는 방법 및 이를 수행하는 전자 장치 및 웨어러블 장치
WO2023153691A1 (ko) 신체 능력 측정 모드를 제공하는 전자 장치 및 웨어러블 장치, 이들의 동작 방법
WO2024080555A1 (ko) 블랙박스 기능을 갖는 웨어러블 장치 및 웨어러블 장치의 동작 방법
WO2024063276A1 (ko) 사용자의 안전을 위한 웨어러블 장치의 제어 방법 및 이를 수행하는 웨어러블 장치
WO2024101705A1 (ko) 웨어러블 장치 및 그 장치를 제어하는 방법
WO2022225235A1 (ko) 웨어러블 장치를 이용한 사용자의 근체력을 측정하는 방법 및 장치
KR20230170541A (ko) 사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및 웨어러블 장치,이들의 동작 방법
WO2017119523A1 (ko) 스마트 벨트 및 그 제어방법
WO2019107592A1 (ko) 스마트 운동 장치, 시스템 및 제어방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2023745369

Country of ref document: EP

Effective date: 20230804