WO2023243959A1 - 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치 - Google Patents

사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치 Download PDF

Info

Publication number
WO2023243959A1
WO2023243959A1 PCT/KR2023/008018 KR2023008018W WO2023243959A1 WO 2023243959 A1 WO2023243959 A1 WO 2023243959A1 KR 2023008018 W KR2023008018 W KR 2023008018W WO 2023243959 A1 WO2023243959 A1 WO 2023243959A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
body posture
injury
posture
risk
Prior art date
Application number
PCT/KR2023/008018
Other languages
English (en)
French (fr)
Inventor
남정우
김성운
신연지
Original Assignee
주식회사 피트릭스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피트릭스 filed Critical 주식회사 피트릭스
Publication of WO2023243959A1 publication Critical patent/WO2023243959A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4528Joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4561Evaluating static posture, e.g. undesirable back curvature
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Definitions

  • the present invention relates to a method for predicting the risk of physical injury based on user posture recognition and a device using the same. More specifically, the present invention relates to a method, device, or system that can predict and manage the risk of physical injury with improved reliability through measurement of posture and behavior in a user's conscious and unconscious states.
  • the person being measured performs a certain movement and the manager of the measuring device operates the measurement in most cases.
  • the measurement is conducted using an image sensor such as a camera, and after capturing the image, the body size or body posture is measured through certain calculations.
  • the measurement results are delivered to the person being measured through a measuring device, app, or printed material. I do it.
  • the present invention provides a method and device for predicting and managing the risk of physical injury with improved reliability by measuring posture by recognizing both the conscious and unconscious states of the user in predicting the risk of physical injury based on user posture recognition.
  • the purpose is to
  • the present invention divides the user's state into a conscious state and an unconscious state and recognizes body posture in the unconscious state to more accurately secure body vulnerabilities that may appear in normal natural movements in measuring risk factors for physical injury.
  • the purpose is to provide a method and device.
  • the present invention provides a method and device that can predict the risk of physical injury more accurately without adding to the user's discomfort by recognizing the natural posture before and after posture measurement without requiring additional separate movements when measuring the user's posture.
  • the purpose is to
  • the present invention provides an injury management solution to minimize the risk of injury to the user's corresponding part according to the results of predicting the risk of physical injury, and provides feedback on body movement by re-measuring the user's posture through the injury management solution.
  • the purpose is to provide a method and device that can
  • a method for predicting the risk of physical injury based on user posture recognition includes providing an image related to body posture measurement; Obtaining image data related to a user's body posture using at least one image sensor; extracting body joint coordinates through segmentation for each body part based on the image data; Recognizing the user's body posture based on the extracted body joint coordinates; measuring physical injury risk factors for at least one joint based on the recognized body posture; and predicting a risk associated with physical injury to at least one body part based on the physical injury risk factors.
  • the step of measuring the physical injury risk factor may be measuring the injury risk factor for each joint based on the tilt of each joint related to the physical injury and the positional deviation from the reference point.
  • an image related to body posture for injury management based on the predicted risk associated with physical injury; Obtaining image data related to the user's body posture for injury management using at least one image sensor; and re-measuring a body injury risk factor for at least one joint based on the recognized body posture based on image data related to the user's body posture for injury management.
  • the step of recognizing the user's body posture it further includes the step of determining whether the user's body posture is a body posture in a conscious state or a body posture in an unconscious state, and the step of measuring the body injury risk factor includes: Injury risk factors for each joint in a conscious state can be measured from body posture in a conscious state, and injury risk factors for each joint in an unconscious state can be measured from body posture in an unconscious state.
  • the step of predicting the risk related to physical injury can calculate the risk related to physical injury for the corresponding body part based on the injury risk factors for each joint in the conscious state and the injury risk factors for each joint in the unconscious state. there is.
  • the risk associated with the physical injury is calculated by applying different weights to each of the joint-specific injury risk factors in the conscious state and the unconscious joint-specific injury risk factors, and the weights are calculated based on the user's age and gender. and may be variably determined based on at least one of body type.
  • the step of determining whether the user's body posture is a body posture in a conscious state or a body posture in an unconscious state is based on whether the user's position is within a predetermined body posture measurement position range. You can decide whether or not.
  • the step of determining whether the user's body posture is a body posture in a conscious state or a body posture in an unconscious state is performed when the point of acquisition of image data related to the user's body posture is within the time range in which the image related to the body posture is provided. Based on whether the user is in a state of awareness, it can be determined whether or not the user is in a state of awareness.
  • the step of determining whether the user's body posture is a body posture in a conscious state or a body posture in an unconscious state is based on whether the recognized body posture of the user is similar to the body posture in the image related to the body posture. It is possible to determine whether the user is in a state of awareness.
  • an apparatus for predicting the risk of physical injury based on user posture recognition includes: a display unit configured to provide an image related to body posture measurement; an image data acquisition unit configured to acquire image data related to a user's body posture using at least one image sensor; a joint extraction unit configured to extract body joint coordinates through segmentation for each body part based on the image data; a body posture recognition unit configured to recognize the user's body posture based on the extracted body joint coordinates; a body injury risk factor measuring unit configured to measure a body injury risk factor for at least one joint based on the recognized body posture; and a physical injury risk prediction unit configured to predict a risk associated with physical injury for at least one body part based on the physical injury risk factor.
  • the physical injury risk factor measurement unit may be configured to measure injury risk factors for each joint based on the tilt of each joint related to the physical injury and the positional deviation from the reference point.
  • the display unit is configured to provide images related to body posture for injury management based on the predicted risk associated with the physical injury
  • the image data acquisition unit manages the user's injury using at least one image sensor.
  • the body injury risk factor measuring unit measures the body for at least one joint based on the body posture recognized based on the image data related to the body posture for injury management of the user. It can be configured to re-measure injury risk factors.
  • the body posture recognition unit recognizes the user's body posture, it further includes a awareness state determination unit configured to determine whether the user's body posture is a body posture in a conscious state or a body posture in an unconscious state,
  • the injury risk factor measuring unit may be configured to measure the injury risk factors for each joint in a conscious state from the body posture in a conscious state, and to measure the injury risk factors for each joint in an unconscious state from the body posture in an unconscious state.
  • the physical injury risk prediction unit may be configured to calculate the risk associated with physical injury for the corresponding body part based on the injury risk factors for each joint in the conscious state and the injury risk factors for each joint in the unconscious state.
  • the physical injury risk prediction unit is configured to calculate the risk associated with the physical injury by applying different weights to each of the joint-specific injury risk factors in the conscious state and the unconscious state's injury risk factors, and the weights may be variably determined based on at least one of the user's age, gender, and body type.
  • the awareness state determination unit may determine whether the user is in a state of awareness based on whether the user's location is within a predetermined body posture measurement position range.
  • the awareness state determination unit may determine whether the user is in a state of awareness based on whether the acquisition point of image data related to the user's body posture is within a time range in which the image related to the body posture is provided.
  • the awareness state determination unit may determine whether the user is in a state of awareness based on whether the recognized body posture of the user is similar to the body posture of an image related to the body posture.
  • a method and device for predicting and managing the risk of physical injury with improved reliability by measuring posture by recognizing both the conscious and unconscious state of the user are provided. can be provided.
  • the user's state is divided into a conscious state and an unconscious state, and body vulnerability that may appear in normal natural movements is more accurately secured in measuring physical injury risk factors through recognition of body posture in the unconscious state. Methods and devices that can do this can be provided.
  • a method and device for more accurately predicting the risk of physical injury without adding to the user's discomfort by recognizing the natural posture before and after posture measurement without requesting any additional motion when measuring the user's posture can be provided.
  • an injury management solution is provided to minimize the risk of injury to the user's corresponding part according to the results of predicting the risk of physical injury, and provides feedback on body movement by re-measuring the user's posture through the injury management solution.
  • Methods and devices that can be provided can be provided.
  • FIG. 1 is a block diagram illustrating the configuration of a physical injury risk prediction device based on user posture recognition according to an embodiment of the present invention.
  • Figure 2 is a block diagram illustrating the configuration of a physical injury risk prediction processing unit for predicting the risk of physical injury based on user posture recognition according to an embodiment of the present invention.
  • Figure 3 is an exemplary diagram illustrating a method of predicting the risk of physical injury through judgment of a user's body posture in a conscious and unconscious state according to an embodiment of the present invention.
  • Figure 4 is an example diagram for explaining a method of determining a user's body posture in a conscious state and an unconscious state according to an embodiment of the present invention.
  • Figure 5 is an example diagram for explaining a method of generating weights applied to each of the injury risk factors in a conscious state and the injury risk factors in an unconscious state according to an embodiment of the present invention.
  • Figure 6 is a flowchart illustrating a method for predicting the risk of physical injury based on user posture recognition according to an embodiment of the present invention.
  • Figure 7 is a flowchart illustrating a method for predicting the risk of physical injury based on user posture recognition and providing feedback according to another embodiment of the present invention.
  • FIG. 1 is a block diagram illustrating the configuration of a physical injury risk prediction device based on user posture recognition according to an embodiment of the present invention.
  • the user posture recognition-based physical injury risk prediction device may include a display unit 100, an image sensor 200, a physical injury risk prediction processing unit 300, and an input unit 400, and includes a display device and It can be configured in various forms including processing devices, such as smart mirrors, kiosks, smart phones, tablet computers, desktop computers, laptop computers, laptops, workstations, etc.
  • processing devices such as smart mirrors, kiosks, smart phones, tablet computers, desktop computers, laptop computers, laptops, workstations, etc.
  • workstation portable computer, wireless phone, mobile phone, digital camera, television, or wearable device. It may consist of a combination of the above, but is not limited to these.
  • the display unit 100 is configured to provide guide images or selection menus related to body posture measurement to users such as the person being measured, for example, a liquid crystal display (LCD) or a light emitting diode (LED).
  • LCD liquid crystal display
  • LED light emitting diode
  • OLED organic light emitting diode
  • MEMS micro electro mechanical systems
  • the image sensor 200 is configured to acquire image data related to the user's body posture, and may be configured in plural pieces to acquire image data from one or more locations as needed.
  • the image sensor 200 may be composed of at least one 2D or 3D camera capable of photographing and capturing the user's appearance, body posture, or movement motion, for example, a depth camera capable of measuring distance or It may be configured in the form of a general color camera and may include one or more of a depth sensor or an infrared sensor.
  • the user's body posture includes not only a static body posture, but also connectivity information between body postures according to dynamic continuous motion behavior, such as behavioral attributes such as speed and smoothness of posture movements. For example, when raising an arm in the posture of attention, a case in which the posture is smoothly connected and a case in which the arm is lifted temporally or slowly may be judged to be different body postures.
  • the body injury risk prediction processing unit 300 extracts body joint coordinates through segmentation for each body part based on image data acquired through the image sensor 200, and based on the extracted body joint coordinates, the user's body configured to recognize posture, measure body injury risk factors for at least one joint based on the recognized body posture, and predict the risk associated with body injury for at least one body part based on the body injury risk factors. You can.
  • the physical injury risk prediction processing unit 300 is configured to recognize the user's body posture (including behavior) and then determine whether the user's body posture is a body posture in a conscious state or a body posture in an unconscious state. It can be configured to measure injury risk factors for each joint in a conscious state from body posture, and also to measure injury risk factors for each joint in an unconscious state from body posture in an unconscious state.
  • the physical injury risk prediction processing unit 300 performs various control and processing operations related to the user's body posture, motion recognition, analysis, and creation of screens and images for user provision, and operates on the control and communication of a plurality of internal components. Or data processing can be performed.
  • the physical injury risk prediction processing unit 300 may include a central processing unit (CPU), an application processor (AP), etc., and includes a memory capable of storing commands or data related to at least one other component. Alternatively, if necessary, the necessary information can be accessed by communicating with external memory.
  • it may include a program or program module that can be executed by one or more processors, and can receive user input in conjunction with the user input unit 400, and the results processed in conjunction with the display unit 100. can be output.
  • the programs or program modules included in the physical injury risk prediction processing unit 300 may be configured in the form of an operating system, application program, or program, and may be used in various types of widely used storage devices. It can be physically stored on the computer.
  • Such a program or program module consists of one or more routines, subroutines, programs, objects, components, instructions, data structures, and specific operations ( It may include various forms for performing a task or executing a specific data type, and is not limited to these forms.
  • a description of specific components of the physical injury risk prediction processing unit 300 will be described in detail later with reference to FIG. 2 .
  • the input unit 400 includes a touch pad, a touch panel, a key pad, a dome switch, a physical button, etc. to receive various inputs for user manipulation and selection. It may include at least one of a jog shuttle, a microphone for receiving the user's voice, and various other types of sensors, but is not limited to these. Additionally, the input unit 400 may have the form of a display integrated with the display unit 100 capable of touch input.
  • the user posture recognition-based physical injury risk prediction device may further include a communication unit, and various data are transmitted through a wired or wireless communication network, etc. according to the input/output operation of the external user terminal or external server and the user through the communication unit. It may be configured to transmit and receive, etc.
  • Figure 2 is a block diagram illustrating the configuration of a physical injury risk prediction processing unit for predicting the risk of physical injury based on user posture recognition according to an embodiment of the present invention.
  • the physical injury risk prediction processing unit 300 includes an image data acquisition unit 310, a joint extraction unit 320, a body posture recognition unit 330, a self-awareness state determination unit 340, and a physical injury risk factor. It may include a measuring unit 350, a physical injury risk prediction unit 360, an injury management solution providing unit 370, and a feedback providing unit 380, and some components may be configured in an integrated form.
  • the image data acquisition unit 310 may be configured to acquire and store image data related to the user's body posture using at least one image sensor 200.
  • the joint extraction unit 320 may be configured to extract body joint coordinates through segmentation for each body part based on the image data received from the image data acquisition unit 310. For example, the body image of the user of interest can be first extracted from an image containing the user's appearance, and the joint coordinates of each body can be extracted from the extracted body image through a segmentation operation for each body part.
  • the body posture recognition unit 330 may be configured to recognize the user's body posture based on the body joint coordinates extracted from the joint extraction unit 320.
  • the awareness state determination unit 340 determines whether the user's body posture is a body posture in a state of awareness that is conscious of posture measurement, or whether the body posture is in a state of awareness that is conscious of posture measurement. It is configured to determine whether the body posture is in an unconscious or unconscious state.
  • the conscious state determination unit 340 is configured to classify the user's state into a conscious state and an unconscious state based on the user's posture and behavior for body posture measurement. For example, the body posture with the user's position predetermined as the first condition.
  • Whether or not the user is in a state of awareness is determined based on whether it exists within the measurement position range, or as a second condition, a guide image related to the body posture measurement to be taken by the user is provided at the point of acquisition of image data related to the user's body posture, or Determine whether the user is in a state of awareness based on whether or not the user is in a state of awareness based on whether it is within the playback time range, or, as a third condition, determine whether the user's perceived body posture is similar to the body posture of the guide image related to the body posture. It may be configured to determine whether a state is present or not. For example, the user's state of awareness can be determined by setting all three conditions as AND conditions.
  • the user's state of awareness can be determined.
  • the physical injury risk factor measurement unit 350 may be configured to measure a physical injury risk factor for at least one joint based on the body posture recognized through the body posture recognition unit 330.
  • the physical injury risk factor measuring unit 350 measures injury risk factors for each joint based on the tilt of each joint related to physical injury, such as the neck joint, spinal joint, shoulder joint, or pelvis, and the positional deviation from the reference point of the corresponding joint. It can be configured.
  • a guide image related to measuring the body posture to be taken by the user is provided through the display unit 100, and when the user assumes the corresponding posture, the physical injury risk factor measurement unit 350 measures the physical injury risk factor in real time.
  • the physical injury risk factor measurement unit 350 determines the conscious state and the unconscious state by distinguishing between the conscious state and the unconscious state in the awareness state determination unit 340 before measuring the physical injury risk factor, thereby It can be configured to measure injury risk factors and to individually measure injury risk factors for each joint in an unconscious state from body posture in an unconscious state.
  • the physical injury risk prediction unit 360 is configured to predict the risk associated with physical injury for at least one body part based on the physical injury risk factors measured by the physical injury risk factor measurement unit 350, and is also configured to predict the risk associated with physical injury for at least one body part in the awareness state. It can be configured to calculate the risk related to physical injury for the corresponding body part based on joint-specific injury risk factors and unconscious joint-specific injury risk factors, and also calculates the overall injury risk based on the injury risk for each body part. It can be configured to calculate the risk together.
  • the physical injury risk prediction unit 360 is also configured to calculate the risk associated with physical injury by applying different weights to each of the joint-specific injury risk factors in the conscious state and the joint-specific injury risk factors in the unconscious state, where the weights are It may be variably determined based on at least one of various factors that can affect the user's physical condition, such as the user's age, gender, body type, occupation, lifestyle pattern, exercise history, injury history, and weight. A more detailed explanation related to weight application will be described later with reference to FIG. 3.
  • the injury management solution providing unit 370 generates an injury management solution based on the injury risk prediction results from the physical injury risk prediction unit 360 and, for example, provides images related to the injury management solution to the user through the display unit 100. can do.
  • the injury management solution may be, for example, a guide image in the form of stretching or exercise content that can minimize the user's risk of physical injury according to the injury risk prediction results.
  • the user Based on the guide video provided as an injury management solution, the user performs stretching or exercise movements shown in the video to obtain body posture image data and extract body joint coordinates to manage the user's injury, as performed in the first body posture measurement step.
  • Body posture recognition in conscious and unconscious states can be performed through body posture recognition, conscious/unconscious state judgment, etc.
  • body posture in conscious and unconscious states can be individually analyzed to determine the appropriate joints.
  • Physical injury risk factors can be re-measured. At this time, it is possible to determine whether the risk of injury for the body part of the joint has been reduced by comparing the re-measured physical injury risk factors for the corresponding joint with the previously measured physical injury risk factors.
  • the feedback provider 380 can predict the risk of physical injury in the corresponding body part based on the remeasured physical injury risk factors and provide feedback on body movement (S770). That is, related to injury management solutions. Provides feedback on the user's stretching and exercise execution, where the feedback may include cautions and recommendations for exercise activities related to injury risk. Additionally, by comparing the re-measured physical injury risk factors with previously measured physical injury risk factors, the results of reduced physical injury risk can be provided.
  • Figure 3 is an exemplary diagram illustrating a method of predicting the risk of physical injury through judgment of a user's body posture in a conscious and unconscious state according to an embodiment of the present invention.
  • a real-time determination is made whether the user's body posture is a conscious body posture or an unconscious body posture, and the body injury risk factor measurement unit 350 determines whether the user's body posture is in a conscious state and Body posture data in an unconscious state can be used individually to measure injury risk factors for each posture.
  • posture-specific injury risk factors can be measured based on measurements for each part of the body posture, such as the tilt angle of the joint, such as head angle, spine angle, shoulder angle, and pelvic angle, and can be measured individually in conscious and unconscious states.
  • Measured physical injury risk factors can be quantitatively listed and prioritized in order of urgency and importance, and each can be individually weighted.
  • the physical injury risk prediction unit 360 applies different weights of w1 and w2 to the conscious physical injury risk factor measurement value (evaluation score) and the unconscious physical injury risk factor measurement value (evaluation score), respectively.
  • Physical injury risk can be predicted through a final comprehensive evaluation of individually scored physical injury risk factors.
  • the final comprehensive evaluation calculates physical injury risk factors measured in a conscious and unconscious state into a weighted quantified score, and the comprehensive evaluation items are for each body part, such as the neck, shoulders, knees, pelvis (hip joint), and waist.
  • Each injury risk can be scored, and based on the injury risk score of each body part, a comprehensive injury risk score can be provided in graphics such as shapes so that users can easily understand it intuitively.
  • Figure 4 is an example diagram for explaining a method of determining a user's body posture in a conscious state and an unconscious state according to an embodiment of the present invention.
  • the conscious state determination unit 340 is divided into a conscious state and an unconscious state based on the user's posture and behavior for body posture measurement.
  • the body posture recognition unit 330 recognizes the user's state. can be performed (S410)
  • the user may be determined whether the user is in a self-aware state based on whether the user's position is within a predetermined body posture measurement position range as a first condition (S420). For example, the user's state of awareness may be determined.
  • the position can be obtained using joint coordinates (x, z) extracted from the image data displayed by the user.
  • the user is in a state of awareness based on whether the acquisition point of image data related to the user's body posture is within the time range in which the guide image related to the body posture measurement to be taken by the user is provided or played.
  • S430 Since the user consciously follows the body posture to be taken through the image provided on the display unit 100, the user's body posture is recognized within the time range in which the guide image is played on the display unit 100. It is determined as a state, and in the time range in which the guide image is not played on the display unit 100, the user's body posture may be determined to be in an unconscious state in which the user is not conscious of the posture measurement.
  • the user may be configured to determine whether the user is in a self-aware state based on whether the user's recognized body posture is similar to the body posture of the guide image related to the body posture (S440). For example, the user's body Based on image analysis of the body posture of the posture and guide video, if the similarity of the body posture is greater than a predetermined standard, both postures can be judged to be similar. More specifically, the joint angles of the three points of interest set to match the body posture in question. And the similarity between the two body postures can be determined based on the relative positions between the joints.
  • the first condition of S420 is an AND condition
  • the second condition of S430 and the third condition of S440 are an OR condition
  • the user's awareness state is determined through the conditional expression of the first condition AND (second condition OR third condition). It is also possible to determine whether the user is conscious or unconscious by logical combinations such as AND and OR of the first condition, second condition, and third condition.
  • the user's natural posture before and after measurement is recognized without requiring any additional movement when measuring the user's body posture, so that the posture is in an unconscious state without adding to the inconvenience in use.
  • the reliability of posture measurement can be improved while securing the user's accurate body vulnerabilities.
  • Figure 5 is an example diagram for explaining a method of generating weights applied to each of the injury risk factors in a conscious state and the injury risk factors in an unconscious state according to an embodiment of the present invention.
  • variable weights may be assigned depending on user characteristics rather than giving consistent weights to all users. You can.
  • variable weight (w1) of the self-awareness state is a variety of factors that can affect the physical state, such as the user's age, gender, body type (body type), occupation, lifestyle pattern, exercise history, injury history, and weight. It is determined according to , and each element can have different specific gravity parameter values for a, b, and c depending on the type of physical injury risk factor.
  • variable weight (w2) in the unconscious state can affect physical conditions such as user age, gender, body type (body type), occupation, lifestyle pattern, exercise history, injury history, and weight. It can be determined according to various factors, and the proportions of a', b', and c' can be applied differently depending on the type of physical injury risk factor. It changes.
  • body type is a classification based on body size such as upper body to lower body ratio, height, shoulder width, etc., and points can be assigned according to predetermined standards for each body type.
  • variable weighting can be applied by applying the following formula when evaluating risk factors for turtle neck injury in the neck of a body part.
  • Figure 6 is a flowchart illustrating a method for predicting the risk of physical injury based on user posture recognition according to an embodiment of the present invention.
  • a guide image related to body posture measurement can be provided to the user through the display unit 100 (S610).
  • Image data related to the user's body posture can be acquired using at least one image sensor 200 through the image data acquisition unit 310 (S620).
  • the body joint coordinates can be extracted through segmentation for each body part based on the image data through the joint extraction unit 320 (S630).
  • the user's body posture can be recognized based on the body joint coordinates extracted through the body posture recognition unit 330 (S640).
  • the awareness state determination unit 340 can determine whether the user's body posture is a conscious body posture or an unconscious body posture.
  • the determination of the user's conscious state and the unconscious state can be made, for example, by the user. Whether the position of the user is within a predetermined body posture measurement position range, whether the acquisition point of image data related to the user's body posture is within the time range in which images related to the body posture are provided, and whether the user's perceived body posture is It can be performed by combining each condition based on whether the image related to the posture is similar to the body posture.
  • the physical injury risk factor measuring unit 350 may measure the physical injury risk factor for at least one joint based on the recognition of the body posture and the determination of the state of awareness (S660). At this time, the physical injury risk factor related to the physical injury can be measured. Injury risk factors for each joint can be measured based on the tilt of each joint and the positional deviation from the reference point. In addition, the step of measuring physical injury risk factors measures the injury risk factors for each joint in a conscious state from the body posture in a conscious state, and also individually measures the injury risk factors for each joint in an unconscious state from the body posture in an unconscious state. can do.
  • the risk related to physical injury for at least one body part can be predicted based on the physical injury risk factors measured through the physical injury risk prediction unit 360. (S670) At this time, the risk related to physical injury is predicted.
  • the step can calculate the risk related to physical injury for the corresponding body part based on the injury risk factors for each joint in the conscious state and the injury risk factors for each joint in the unconscious state.
  • the risk related to physical injury can be calculated by applying different weights to each joint-specific injury risk factor in the conscious state and the joint-specific injury risk factor in the unconscious state, where the weight is the user's age, gender, and body type. , may be variably determined based on at least one of various factors that can affect physical condition, such as occupation, lifestyle pattern, exercise history, injury history, and weight.
  • an injury management solution can be created through the injury management solution providing unit 370, and an image related to the injury management solution can be provided through the display unit 100.
  • Injury management solution This may be in the form of stretching or exercise content that can minimize the user's risk of physical injury according to the injury risk prediction results, and users can receive such injury management solutions through various methods such as personal mobile terminals, kiosks, and e-mail. You can.
  • Figure 7 is a flowchart illustrating a method for predicting the risk of physical injury based on user posture recognition and providing feedback according to another embodiment of the present invention.
  • an image related to the injury management solution can be provided to the user through the display unit 100.
  • the image related to the injury management solution is a body part with the highest risk of injury according to the initial injury risk prediction result. may be related to injury management solutions for multiple body parts.
  • the user's body posture image data obtained in the body posture measurement step (S720), body joint coordinate extraction (S730), and Body posture recognition in conscious and unconscious states can be performed through body posture recognition (S740) and conscious/unconscious state determination (S750).
  • the risk of physical injury for each corresponding body part can be predicted and feedback on the user's body movements can be provided.
  • S770 Injury management provided according to the initial injury risk prediction results. Based on the solution, it predicts the risk of physical injury for the re-measured body part and provides feedback on the user's stretching and exercise execution in relation to the injury management solution, where the feedback provides precautions and precautions for exercise activities related to the risk of injury. Recommendations may be included.

Abstract

본 발명에 의하면, 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법에 있어서, 신체 자세 측정과 관련된 영상을 제공하는 단계, 적어도 하나의 이미지 센서를 이용하여 사용자의 신체 자세와 관련된 이미지 데이터를 획득하는 단계, 이미지 데이터에 기초하여 신체 부위별 분할(segmentation)을 통해 신체 관절 좌표를 추출하는 단계, 추출된 신체 관절 좌표에 기초하여 상기 사용자의 신체 자세를 인식하는 단계, 인식된 신체 자세에 기초하여 적어도 하나의 관절에 대해 신체 부상 위험 인자를 측정하는 단계, 및 부상 위험 인자에 기초하여 적어도 하나의 신체 부위에 대한 신체 부상과 관련된 위험도를 예측하는 단계를 포함하는 신체 부상 위험 예측 방법을 제공할 수 있다.

Description

사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치
본 발명은 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 이용한 장치에 관한 것이다. 보다 구체적으로, 본 발명은 사용자의 자각 상태 및 무자각 상태에서의 자세와 행동 측정을 통해 신뢰성이 개선된 신체 부상 위험을 예측 및 관리할 수 있는 방법, 및 장치 또는 시스템에 관한 것이다.
기존 신체 측정 또는 자세 측정 장치의 경우 피측정인이 일정한 동작을 취하고 있고 측정기 관리인이 조작을 통해 측정하는 방식이 대부분이다. 이때, 측정은 카메라 등의 이미지 센서를 이용하여 실시되고 이미지를 캡처한 후 일정한 연산을 통해서 신체 사이즈 또는 신체 자세를 측정하게 되고, 측정 후 피측정인에게 측정결과를 측정기, 앱 또는 인쇄물을 통해 전달하게 된다.
그러나 이와 같은 종래의 신체 측정 또는 자세 측정 기술은 피측정인이 관리인의 가이드에 따라 자세를 취하면 측정을 하는 방식이라서 피측정인의 자연스러운 자세가 아닌 측정 가이드를 의식적으로 따라함으로써 발생할 수 있는, 즉 자각 상태에서 변형이 된 자세일 가능성이 높다. 이와 같은 자각 상태의 경우 평소의 신체 취약점을 정확하게 획득하거나 정확한 진단이 어려워진다는 문제점이 발생한다.
이에 따라, 피측정인의 신체 및 자세 측정 시에 무자각인 상태와 자각인 상태를 구분하여 측정하고 최종적으로 종합판단을 함으로써 보다 정확하게 신체의 취약점과 그로 인한 부상 위험 예측을 하기 위한 방법 및 장치가 필요하다.
본 발명은 사용자 자세 인식 기반 신체 부상 위험 예측에 있어서, 사용자의 자각 상태 및 무자각 상태를 모두 인식하여 자세 측정을 함으로써 신뢰성이 개선된 신체 부상 위험을 예측 및 관리할 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 사용자의 상태를 자각 상태와 무자각 상태로 구분하고 무자각 상태에서의 신체 자세 인식을 통해 신체 부상 위험 인자 측정에 있어서 평상시 자연스러운 동작에서 나타날 수 있는 신체 취약점을 보다 정확하게 확보할 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 사용자 자세 측정 시에 추가적인 별도의 동작을 요청하지 않고 자세 측정 전후의 자연스러운 자세를 인지함으로써 사용자의 불편함을 가중시키지 않으면서 보다 정확하게 신체 부상 위험을 예측할 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 신체 부상 위험 예측 결과에 따라 사용자의 해당 부위의 부상 위험을 최소화하기 위한 부상 관리 솔루션을 제공하고, 부상 관리 솔루션을 통한 사용자의 자세를 재측정함으로써 신체 움직임에 대한 피드백을 제공할 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명의 해결 과제들은 이상에서 언급한 내용들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따르면, 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법에 있어서, 신체 자세 측정과 관련된 영상을 제공하는 단계; 적어도 하나의 이미지 센서를 이용하여 사용자의 신체 자세와 관련된 이미지 데이터를 획득하는 단계; 상기 이미지 데이터에 기초하여 신체 부위별 분할(segmentation)을 통해 신체 관절 좌표를 추출하는 단계; 상기 추출된 신체 관절 좌표에 기초하여 상기 사용자의 신체 자세를 인식하는 단계; 상기 인식된 신체 자세에 기초하여 적어도 하나의 관절에 대해 신체 부상 위험 인자를 측정하는 단계; 및 상기 신체 부상 위험 인자에 기초하여 적어도 하나의 신체 부위에 대한 신체 부상과 관련된 위험도를 예측하는 단계를 포함하는 신체 부상 위험 예측 방법을 제공할 수 있다.
또한, 상기 신체 부상 위험 인자를 측정하는 단계는 상기 신체 부상과 관련된 각 관절의 기울기 및 기준점으로부터 위치 편차에 기초하여 관절별 부상 위험 인자를 측정하는 것일 수 있다.
또한, 상기 예측된 신체 부상과 관련된 위험도에 기초하여 부상 관리를 위한 신체 자세와 관련된 영상을 제공하는 단계; 적어도 하나의 이미지 센서를 이용하여 상기 사용자의 부상 관리를 위한 신체 자세와 관련된 이미지 데이터를 획득하는 단계; 및 상기 사용자의 부상 관리를 위한 신체 자세와 관련된 이미지 데이터에 기초하여 인식된 신체 자세에 기초하여 적어도 하나의 관절에 대해 신체 부상 위험 인자를 재측정하는 단계를 더 포함할 수 있다.
또한, 상기 사용자의 신체 자세를 인식하는 단계 이후에 상기 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 판단하는 단계를 더 포함하고, 상기 신체 부상 위험 인자를 측정하는 단계는 자각 상태의 신체 자세로부터 자각 상태의 관절별 부상 위험 인자를 측정하고, 또한 무자각 상태의 신체 자세로부터 무자각 상태의 관절별 부상 위험 인자를 측정할 수 있다.
또한, 상기 신체 부상과 관련된 위험도를 예측하는 단계는 상기 자각 상태의 관절별 부상 위험 인자 및 상기 무자각 상태의 관절별 부상 위험 인자에 기초하여 해당 신체 부위에 대한 신체 부상과 관련된 위험도를 산출할 수 있다.
또한, 상기 자각 상태의 관절별 부상 위험 인자 및 상기 무자각 상태의 관절별 부상 위험 인자 각각에 대해 상이한 가중치가 적용됨으로써 상기 신체 부상과 관련된 위험도를 산출하는 것이고, 상기 가중치는 상기 사용자의 나이, 성별 및 체형 유형 중 적어도 하나에 기초하여 가변적으로 결정될 수 있다.
또한, 상기 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 판단하는 단계는 상기 사용자의 위치가 미리 결정된 신체 자세 측정 위치 범위 내에 존재하는지 여부에 기초하여 상기 사용자의 자각 상태의 여부를 결정할 수 있다.
또한, 상기 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 판단하는 단계는 상기 사용자의 신체 자세와 관련된 이미지 데이터의 획득 시점이 상기 신체 자세와 관련된 영상이 제공되는 시간 범위 내에 있는지 여부에 기초하여 상기 사용자의 자각 상태의 여부를 결정할 수 있다.
또한, 상기 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 판단하는 단계는 상기 사용자의 인식된 신체 자세가 상기 신체 자세와 관련된 영상의 신체 자세와 유사한지 여부에 기초하여 상기 사용자의 자각 상태의 여부를 결정할 수 있다.
본 발명의 다른 실시예에 따르면, 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 장치에 있어서, 신체 자세 측정과 관련된 영상을 제공하도록 구성된 디스플레이부; 적어도 하나의 이미지 센서를 이용하여 사용자의 신체 자세와 관련된 이미지 데이터를 획득하도록 구성된 이미지 데이터 획득부; 상기 이미지 데이터에 기초하여 신체 부위별 분할(segmentation)을 통해 신체 관절 좌표를 추출하도록 구성된 관절 추출부; 상기 추출된 신체 관절 좌표에 기초하여 상기 사용자의 신체 자세를 인식하도록 구성된 신체 자세 인식부; 상기 인식된 신체 자세에 기초하여 적어도 하나의 관절에 대해 신체 부상 위험 인자를 측정하도록 구성된 신체 부상 위험 인자 측정부; 및 상기 신체 부상 위험 인자에 기초하여 적어도 하나의 신체 부위에 대한 신체 부상과 관련된 위험도를 예측하도록 구성된 신체 부상 위험 예측부를 포함하는 신체 부상 위험 인자 측정 장치를 제공할 수 있다.
또한, 상기 신체 부상 위험 인자 측정부는 상기 신체 부상과 관련된 각 관절의 기울기 및 기준점으로부터 위치 편차에 기초하여 관절별 부상 위험 인자를 측정하도록 구성될 수 있다.
또한, 상기 디스플레이부는 상기 예측된 신체 부상과 관련된 위험도에 기초하여 부상 관리를 위한 신체 자세와 관련된 영상을 제공하도록 구성되고, 상기 이미지 데이터 획득부는 적어도 하나의 이미지 센서를 이용하여 상기 사용자의 부상 관리를 위한 신체 자세와 관련된 이미지 데이터를 획득하도록 구성되고, 상기 신체 부상 위험 인자 측정부는 상기 사용자의 부상 관리를 위한 신체 자세와 관련된 이미지 데이터에 기초하여 인식된 신체 자세에 기초하여 적어도 하나의 관절에 대해 신체 부상 위험 인자를 재측정하도록 구성될 수 있다.
또한, 상기 신체 자세 인식부에서 상기 사용자의 신체 자세를 인식한 이후에 상기 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 판단하도록 구성된 자각 상태 판단부를 더 포함하고, 상기 신체 부상 위험 인자 측정부는 자각 상태의 신체 자세로부터 자각 상태의 관절별 부상 위험 인자를 측정하고, 또한 무자각 상태의 신체 자세로부터 무자각 상태의 관절별 부상 위험 인자를 측정하도록 구성될 수 있다.
또한, 상기 신체 부상 위험 예측부는 상기 자각 상태의 관절별 부상 위험 인자 및 상기 무자각 상태의 관절별 부상 위험 인자에 기초하여 해당 신체 부위에 대한 신체 부상과 관련된 위험도를 산출하도록 구성될 수 있다.
또한, 상기 신체 부상 위험 예측부는 상기 자각 상태의 관절별 부상 위험 인자 및 상기 무자각 상태의 관절별 부상 위험 인자 각각에 대해 상이한 가중치를 적용함으로써 상기 신체 부상과 관련된 위험도를 산출하도록 구성되고, 상기 가중치는 상기 사용자의 나이, 성별 및 체형 유형 중 적어도 하나에 기초하여 가변적으로 결정될 수 있다.
또한, 상기 자각 상태 판단부는 상기 사용자의 위치가 미리 결정된 신체 자세 측정 위치 범위 내에 존재하는지 여부에 기초하여 상기 사용자의 자각 상태의 여부를 결정할 수 있다.
또한, 상기 자각 상태 판단부는 상기 사용자의 신체 자세와 관련된 이미지 데이터의 획득 시점이 상기 신체 자세와 관련된 영상이 제공되는 시간 범위 내에 있는지 여부에 기초하여 상기 사용자의 자각 상태의 여부를 결정할 수 있다.
또한, 상기 자각 상태 판단부는 상기 사용자의 인식된 신체 자세가 상기 신체 자세와 관련된 영상의 신체 자세와 유사한지 여부에 기초하여 상기 사용자의 자각 상태의 여부를 결정할 수 있다.
본 발명에 의하면, 사용자 자세 인식 기반 신체 부상 위험 예측에 있어서, 사용자의 자각 상태 및 무자각 상태를 모두 인식하여 자세 측정을 함으로써 신뢰성이 개선된 신체 부상 위험을 예측 및 관리할 수 있는 방법 및 장치를 제공할 수 있다.
또한, 본 발명에 의하면, 사용자의 상태를 자각 상태와 무자각 상태로 구분하고 무자각 상태에서의 신체 자세 인식을 통해 신체 부상 위험 인자 측정에 있어서 평상시 자연스러운 동작에서 나타날 수 있는 신체 취약점을 보다 정확하게 확보할 수 있는 방법 및 장치를 제공할 수 있다.
또한, 본 발명에 의하면, 사용자 자세 측정 시에 추가적인 별도의 동작을 요청하지 않고 자세 측정 전후의 자연스러운 자세를 인지함으로써 사용자의 불편함을 가중시키지 않으면서 보다 정확하게 신체 부상 위험을 예측할 수 있는 방법 및 장치를 제공할 수 있다.
또한, 본 발명에 의하면, 신체 부상 위험 예측 결과에 따라 사용자의 해당 부위의 부상 위험을 최소화하기 위한 부상 관리 솔루션을 제공하고, 부상 관리 솔루션을 통한 사용자의 자세를 재측정함으로써 신체 움직임에 대한 피드백을 제공할 수 있는 방법 및 장치를 제공할 수 있다.
본 발명의 효과들은 이상에서 언급한 내용들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 사용자 자세 인식 기반 신체 부상 위험 예측 장치의 구성을 설명하기 위한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 신체 부상 위험 예측 처리부의 구성을 설명하기 위한 블록도이다.
도 3는 본 발명의 일 실시예에 따라 사용자의 자각 상태와 무자각 상태의 신체 자세 판단을 통해 신체 부상 위험을 예측하는 방법을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 사용자의 자각 상태와 무자각 상태의 신체 자세를 판단하는 방법을 설명하기 위한 예시도이다.
도 5는 본 발명의 일 실시예에 따라 자각 상태의 부상 위험 인자 및 무자각 상태의 부상 위험 인자 각각에 대해 적용되는 가중치를 생성하는 방법을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시예에 따라 사용자 자세 인식 기반 신체 부상 위험을 예측하는 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 다른 실시예에 따라 사용자 자세 인식 기반 신체 부상 위험을 예측하고 피드백을 제공하는 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
본 명세서에서 사용되는 "포함한다(comprises)", "포함하는(comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 본 발명의 구성 및 그에 따른 작용 효과는 이하의 상세한 설명을 통해 명확하게 이해될 것이다.
도 1은 본 발명의 일 실시예에 따른 사용자 자세 인식 기반 신체 부상 위험 예측 장치의 구성을 설명하기 위한 블록도이다.
도 1을 참조하면, 사용자 자세 인식 기반 신체 부상 위험 예측 장치는 디스플레이부(100), 이미지 센서(200), 신체 부상 위험 예측 처리부(300) 및 입력부(400)를 포함할 수 있으며, 디스플레이 장치와 처리 장치를 포함한 다양한 형태로 구성될 수 있으며, 예컨대 스마트 미러(smart mirror), 키오스크, 스마트폰(smart phone), 태블릿(tablet) 컴퓨터, 데스크탑(desktop) 컴퓨터, 랩탑(laptop) 컴퓨터, 노트북, 워크스테이션(workstation), 포터블(portable) 컴퓨터, 무선 전화기(wireless phone), 모바일 폰(mobile phone), 디지털 카메라(digital camera), 텔레비전(television), 웨어러블 디바이스(wearable device) 중 어느 하나의 형태 또는 둘 이상의 조합으로 구성될 수 있으며, 이들에 제한되지 않는다.
디스플레이부(100)는 피측정인 등의 사용자에게 신체 자세 측정과 관련된 사용자에게 제공되는 가이드 영상이나 선택 메뉴 등을 제공하도록 구성되며, 예컨대 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이, 퀀텀닷 디스플레이(quantum dot display), 마이크로 LED, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 디스플레이 등을 포함할 수 있으며, 이들에 제한되지 않는다. 또한, 이와 같은 디스플레이부(100)의 일부는 입력부(400)와 결합되어 터치 스크린(touch screen)의 형태로 구현될 수 있다.
이미지 센서(200)는 사용자의 신체 자세와 관련된 이미지 데이터를 획득하도록 구성되며, 필요에 따라 하나 이상의 위치에서 이미지 데이터를 획득할 수 있도록 복수 개로 구성될 수 있다. 이미지 센서(200)는 사용자의 외형, 신체 자세 또는 운동 동작을 촬영 및 캡처(capture)할 수 있는 적어도 하나 이상의 2D 또는 3D 카메라 등으로 구성될 수 있으며, 예컨대 거리 측정이 가능한 깊이(depth) 카메라 또는 일반 컬러 카메라의 형태로 구성될 수 있고, 깊이 센서(depth sensor) 또는 적외선 센서 중 하나 이상을 포함할 수 있다.
본 발명에서 사용자의 신체 자세는 정적인 신체 자세뿐만 아니라, 동적인 연속적인 동작 행동에 따른 신체 자세 간 연결성 정보, 예컨대 자세 움직임의 속도, 부드러움 등 행동 속성을 포함하는 의미를 갖는다. 예를 들어, 차려 자세에서 팔을 드는 경우 부드럽게 자세가 연결되는 경우와, 시간적으로 끊어서 또는 천천히 드는 경우가 서로 다른 신체 자세로 판단될 수 있다.
신체 부상 위험 예측 처리부(300)는 이미지 센서(200)를 통해 획득한 이미지 데이터에 기초하여 신체 부위별 분할(segmentation)을 통해 신체 관절 좌표를 추출하고, 추출된 신체 관절 좌표에 기초하여 사용자의 신체 자세를 인식하고, 인식된 신체 자세에 기초하여 적어도 하나의 관절에 대해 신체 부상 위험 인자를 측정하고, 신체 부상 위험 인자에 기초하여 적어도 하나의 신체 부위에 대한 신체 부상과 관련된 위험도를 예측하도록 구성될 수 있다. 또한, 신체 부상 위험 예측 처리부(300)는 사용자의 신체 자세(행동 포함)를 인식한 이후에 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 판단하도록 구성되고, 자각 상태의 신체 자세로부터 자각 상태의 관절별 부상 위험 인자를 측정하고, 또한 무자각 상태의 신체 자세로부터 무자각 상태의 관절별 부상 위험 인자를 측정하도록 구성될 수 있다.
신체 부상 위험 예측 처리부(300)는 사용자의 신체 자세, 동작 인식, 분석 및 사용자 제공용 화면 및 영상 생성과 관련된 각종 제어 및 처리 동작을 수행하며, 내부의 복수의 구성 요소들의 제어 및 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 예컨대, 신체 부상 위험 예측 처리부(300)는 중앙 처리 장치(CPU), 어플리케이션 프로세서(AP) 등을 포함할 수 있으며, 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있는 메모리를 내부에 포함하거나, 또는 필요한 경우 외부 메모리와 통신하여 필요한 정보에 액세스할 수 있다. 또한, 하나 이상의 프로세서(processor)에 의해 실행될 수 있는 프로그램 또는 프로그램 모듈을 포함할 수 있으며, 사용자 입력부(400)와 연동되어 사용자 입력을 수신할 수 있으며, 디스플레이부(100)와 연동되어 처리된 결과를 출력할 수 있다. 특히, 신체 부상 위험 예측 처리부(300)에 포함된 프로그램 또는 프로그램 모듈들은 운영 체제(operating system), 어플리케이션 프로그램(application program) 또는 프로그램 등의 형태로 구성될 수 있으며, 널리 사용되는 다양한 종류의 저장 장치 상에 물리적으로 저장될 수 있다. 이와 같은 프로그램 또는 프로그램 모듈은 하나 이상의 루틴(routine), 서브루틴(subroutine), 프로그램(program), 오브젝트(object), 콤포넌트(component), 명령(instructions), 데이터 구조(data structure) 및 특정 작업(task)을 수행하거나 특정 데이터 유형을 실행하기 위한 다양한 형태를 포함할 수 있으며, 이들 형태로 제한되지 않는다. 신체 부상 위험 예측 처리부(300)의 구체적인 구성 요소에 대한 설명은 이후에 도 2를 참조하여 상세히 설명될 것이다.
입력부(400)는 사용자의 조작 및 선택을 위해 다양한 입력을 수신하기 위해, 터치 패드(touch pad), 터치 패널(touch pad), 키 패드(Key pad), 돔 스위치(dome switch), 물리 버튼, 조그 셔틀(jog shuttle) 및 사용자의 음성을 수신하기 위한 마이크(microphone), 기타 다양한 형태의 센서(sensor) 중 적어도 하나를 포함할 수 있으며, 이들에 제한되지 않는다. 또한, 입력부(400)는 디스플레이부(100)와 통합된 형태의 터치 입력 가능한 디스플레이의 형태를 가질 수도 있다.
또한, 도 1에 도시되지 않았지만 사용자 자세 인식 기반 신체 부상 위험 예측 장치는 통신부를 더 포함할 수 있으며, 통신부를 통해 외부 사용자 단말 또는 외부 서버와 사용자의 입출력 조작에 따라 유무선 통신망 등을 경유하여 각종 데이터 등을 송수신하도록 구성될 수 있다.
도 2는 본 발명의 일 실시예에 따른 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 신체 부상 위험 예측 처리부의 구성을 설명하기 위한 블록도이다.
도 2를 참조하면, 신체 부상 위험 예측 처리부(300)는 이미지 데이터 획득부(310), 관절 추출부(320), 신체 자세 인식부(330), 자각 상태 판단부(340), 신체 부상 위험 인자 측정부(350), 신체 부상 위험 예측부(360), 부상 관리 솔루션 제공부(370) 및 피드백 제공부(380)를 포함할 수 있으며, 일부 구성 요소들은 통합된 형태로 구성될 수 있다.
먼저 이미지 데이터 획득부(310)는 적어도 하나로 구성된 이미지 센서(200)를 이용하여 사용자의 신체 자세와 관련된 이미지 데이터를 획득하고 저장하도록 구성될 수 있다.
관절 추출부(320)는 이미지 데이터 획득부(310)로부터 수신한 이미지 데이터에 기초하여 신체 부위별 분할(segmentation)을 통해 신체 관절 좌표를 추출하도록 구성될 수 있다. 예컨대, 사용자의 모습이 포함된 이미지에서 관심 대상인 사용자의 신체 이미지를 먼저 추출하고, 추출한 신체 이미지에서 신체부위별 분할(segmentation) 작업을 통해 각 신체의 관절 좌표를 추출할 수 있다.
신체 자세 인식부(330)는 관절 추출부(320)에서 추출된 신체 관절 좌표에 기초하여 사용자의 신체 자세를 인식하도록 구성될 수 있다.
자각 상태 판단부(340)는 신체 자세 인식부(330)에서 사용자의 신체 자세(행동 포함)를 인식한 이후에 사용자의 신체 자세가 자세 측정을 의식하는 자각 상태의 신체 자세인지, 아니면 자세 측정을 의식하지 않은 무자각 상태의 신체 자세인지 판단하도록 구성된다. 자각 상태 판단부(340)는 신체 자세 측정을 위한 사용자의 자세 및 행동에 기반하여 사용자의 상태를 자각 상태와 무자각 상태로 구분하도록 구성되며, 예컨대 제1 조건으로서 사용자의 위치가 미리 결정된 신체 자세 측정 위치 범위 내에 존재하는지 여부에 기초하여 사용자의 자각 상태의 여부를 결정하거나, 제2 조건으로서 사용자의 신체 자세와 관련된 이미지 데이터의 획득 시점이 사용자가 취해야할 신체 자세 측정과 관련된 가이드 영상이 제공 또는 재생되는 시간 범위 내에 있는지 여부에 기초하여 사용자의 자각 상태의 여부를 결정하거나, 제3 조건으로서 사용자의 인식된 신체 자세가 신체 자세와 관련된 가이드 영상의 신체 자세와 유사한지 여부에 기초하여 사용자의 자각 상태의 여부를 결정하도록 구성될 수 있다. 예컨대 이와 같은 3가지 조건을 모두 앤드(AND) 조건으로 하여 사용자의 자각 상태를 판별할 수 있으며 이 경우 위의 3가지 조건 중 어느 하나라도 만족하지 않으면 사용자의 무자각 상태로 판별할 수 있다. 또한, 필요에 따라 2가지 조건만을 앤드(AND) 조건으로 하거나, 3가지 조건을 모두 OR 조건으로 하여 사용자의 자각 상태를 판별하는 것도 가능하며, 사용자의 상태가 자각 상태가 아닌 경우 모두 무자각 상태로 판단할 수 있다.
신체 부상 위험 인자 측정부(350)는 신체 자세 인식부(330)를 통해 인식된 신체 자세에 기초하여 적어도 하나의 관절에 대해 신체 부상 위험 인자를 측정하도록 구성될 수 있다. 신체 부상 위험 인자 측정부(350)는 신체 부상과 관련된 각 관절, 예컨대 목 관절, 척추 관절, 어깨 관절이나 골반 등의 기울기 및 해당 관절의 기준점으로부터 위치 편차에 기초하여 관절별 부상 위험 인자를 측정하도록 구성될 수 있다. 디스플레이부(100)를 통해서 사용자가 취해야할 신체 자세 측정과 관련된 가이드 영상이 제공되고, 사용자가 해당 자세를 취하면 신체 부상 위험 인자 측정부(350)가 실시간으로 신체 부상 위험 인자를 측정하게 된다.
또한, 신체 부상 위험 인자 측정부(350)는 신체 부상 위험 인자 측정 이전에 자각 상태 판단부(340)에서 자각 상태와 무자각 상태를 구분하여 판단함으로써, 자각 상태의 신체 자세로부터 자각 상태의 관절별 부상 위험 인자를 측정하고, 또한 무자각 상태의 신체 자세로부터 무자각 상태의 관절별 부상 위험 인자를 개별적으로 측정하도록 구성될 수 있다.
신체 부상 위험 예측부(360)는 신체 부상 위험 인자 측정부(350)에서 측정한 신체 부상 위험 인자에 기초하여 적어도 하나의 신체 부위에 대한 신체 부상과 관련된 위험도를 예측하도록 구성되고, 또한 자각 상태의 관절별 부상 위험 인자 및 무자각 상태의 관절별 부상 위험 인자에 기초하여 해당 신체 부위에 대한 신체 부상과 관련된 위험도를 산출하도록 구성될 수 있으며, 또한 각 신체 부위에 대한 부상 위험도에 기초하여 종합적인 부상 위험도를 함께 산출하도록 구성될 수 있다.
신체 부상 위험 예측부(360)는 또한 자각 상태의 관절별 부상 위험 인자 및 무자각 상태의 관절별 부상 위험 인자 각각에 대해 상이한 가중치를 적용함으로써 신체 부상과 관련된 위험도를 산출하도록 구성되고, 여기서 가중치는 사용자의 나이, 성별, 체형 유형, 직업, 생활패턴, 운동이력, 부상이력, 체중 등 신체 상태에 영향을 줄 수 있는 다양한 인자 중 적어도 하나에 기초하여 가변적으로 결정될 수 있다. 가중치 적용과 관련된 보다 구체적인 설명은 이하 도 3을 참고하여 후술될 것이다.
부상 관리 솔루션 제공부(370)는 신체 부상 위험 예측부(360)에서의 부상 위험 예측 결과에 기초하여 부상 관리 솔루션을 생성하고, 예컨대 디스플레이부(100)를 통해 사용자에게 부상 관리 솔루션 관련 영상을 제공할 수 있다. 여기서, 부상 관리 솔루션은 예컨대 부상 위험 예측 결과에 따라 해당 사용자의 신체 부상 위험을 최소화할 수 있는 스트레칭 또는 운동 컨텐츠 형태 등의 가이드 영상일 수 있다.
부상 관리 솔루션으로 제공된 가이드 영상에 기초하여 사용자는 해당 영상에서 나타나는 스트레칭 또는 운동 동작을 실시하면 1차 신체 자세 측정 단계에서 실행하였던 것과 같이 사용자의 부상 관리를 위한 신체 자세 이미지 데이터 획득, 신체 관절 좌표 추출, 신체 자세 인식, 자각 상태/무자각 상태 판단 등을 통해 자각 상태 및 무자각 상태에서의 신체 자세 인식을 실행할 수 있으며, 또한, 자각 상태 및 무자각 상태의 신체 자세를 개별적으로 분석하여 해당 관절에 대해 신체 부상 위험 인자를 재측정할 수 있다. 이때, 해당 관절에 대해 재측정된 신체 부상 위험 인자와 이전에 측정된 신체 부상 위험 인자를 비교하여 해당 관절의 신체 부위에 대한 부상 위험도가 감소하였는지 여부를 판단할 수 있다.
피드백 제공부(380)는 재측정된 신체 부상 위험 인자에 기초하여 해당 신체 부위의 신체 부상 위험도를 예측하고, 이와 함께 신체 움직임에 대한 피드백을 제공할 수 있다.(S770) 즉, 부상 관리 솔루션 관련하여 진행된 사용자의 스트레칭 및 운동 실행에 대한 피드백을 제공하고, 여기서 피드백은 부상 위험 관련된 운동 행위에 대해 주의 사항 및 권장 사항에 대한 내용을 포함할 수 있다. 또한, 추가적으로 재측정된 신체 부상 위험 인자와 이전에 측정된 신체 부상 위험 인자를 비교하여 신체 부상 위험도가 감소한 결과를 함께 제공할 수 있다.
도 3는 본 발명의 일 실시예에 따라 사용자의 자각 상태와 무자각 상태의 신체 자세 판단을 통해 신체 부상 위험을 예측하는 방법을 설명하기 위한 예시도이다.
자각 상태 판단부(340)를 통해 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 실시간 판단이 수행되고, 신체 부상 위험 인자 측정부(350)에서 자각 상태의 신체 자세 데이터와 무자각 상태의 신체 자세 데이터를 개별적으로 이용하여 자세별 부상 위험 인자 측정을 실시할 수 있다. 이때, 자세별 부상 위험 인자는 관절의 기울어진 각도, 예컨대 머리 각도, 척추 각도, 어깨 각도, 골반 각도 등 신체 자세의 부위별 측정값에 기초하여 측정될 수 있으며, 자각 및 무자각 상태의 개별적으로 측정된 신체 부상 위험 인자는 긴급도, 중요도 순으로 정량적으로 리스트업되어 우선순위화될 수 있고, 각각 개별적으로 가중치를 부여할 수 있다.
신체 부상 위험 예측부(360)에서는 자각 상태의 신체 부상 위험 인자 측정값(평가 점수)과 무자각 상태의 신체 부상 위험 인자 측정값(평가 점수) 각각에 대해 w1, w2의 서로 상이한 가중치를 적용함으로써 개별적으로 점수화된 신체 부상 위험 인자를 최종적으로 종합평가를 통해 신체 부상 위험도 예측을 실시할 수 있다. 최종 종합 평가는 자각 상태 및 무자각 상태로 측정된 신체 부상 위험 인자를 가중치가 부여된 정량화된 점수로 계산하고, 종합 평가 항목은 예컨대 목, 어깨, 무릎, 골반(고관절), 허리 등 신체 각 부위의 부상 위험도를 각각 점수화하고, 각 신체 부위의 부상 위험도 점수에 기초하여 종합적인 부상 위험도 점수를 함께 사용자가 직관적으로 파악하기 쉽도록 도형 등 그래픽으로 제공할 수 있다.
이와 같이, 해당 신체 부위의 부상 위험 인자 = (자각 상태의 신체 부상 위험 인자 평가점수 * 가중치(w1)) + (무자각 상태의 신체 부상 위험 인자 평가점수 * 가중치(w2))로 계산될 수 있고, 예컨대 신체 부위 중 목의 신체 부상 위험 예측 점수 = 79(자각 거북목 위험 평가점수) * 0.44(w1) + 85(무자각 거북목 위험 평가점수) * 0.54(w2) = 80.7 점이 산출될 수 있다.
도 4는 본 발명의 일 실시예에 따른 사용자의 자각 상태와 무자각 상태의 신체 자세를 판단하는 방법을 설명하기 위한 예시도이다.
자각 상태 판단부(340)는 신체 자세 측정을 위한 사용자의 자세 및 행동에 기반하여 사용자의 상태를 자각 상태와 무자각 상태로 구분하도록 구분되며, 먼저 신체 자세 인식부(330)를 통한 신체 자세 인식을 수행할 수 있다.(S410)
예컨대, 신체 자세 인식 결과에 기초하여 먼저 제1 조건으로서 사용자의 위치가 미리 결정된 신체 자세 측정 위치 범위 내에 존재하는지 여부에 기초하여 사용자의 자각 상태의 여부를 결정할 수 있다.(S420) 예컨대, 사용자의 위치는 사용자가 나타난 이미지 데이터에서 추출한 관절좌표(x,z)를 이용하여 구할 수 있다.
다음으로 제2 조건으로서 사용자의 신체 자세와 관련된 이미지 데이터의 획득 시점이 사용자가 취해야할 신체 자세 측정과 관련된 가이드 영상이 제공 또는 재생되는 시간 범위 내에 있는지 여부에 기초하여 사용자의 자각 상태의 여부를 결정할 수 있다.(S430) 사용자는 디스플레이부(100)에 제공되는 영상을 통해 취해야할 신체 자세를 의식적으로 따라하기 때문에, 디스플레이부(100)에 가이드 영상이 재생되는 시간 범위에서는 사용자의 신체 자세를 자각 상태로 판단하고, 디스플레이부(100)에 가이드 영상이 재생되지 않는 시간 범위에서는 사용자의 신체 자세가 자세 측정을 의식하지 않는 무자각 상태로 판단할 수 있다.
다음으로 제3 조건으로서 사용자의 인식된 신체 자세가 신체 자세와 관련된 가이드 영상의 신체 자세와 유사한지 여부에 기초하여 사용자의 자각 상태의 여부를 결정하도록 구성될 수 있다.(S440) 예컨대 사용자의 신체 자세와 가이드 영상의 신체 자세의 이미지 분석에 기초하여 신체 자세의 유사도가 미리 결정된 기준 이상인 경우 양 자세가 유사한 것으로 판단할 수 있으며, 보다 구체적으로 해당 신체 자세에 맞추어 설정된 관심 대상 3개 지점의 관절 각도 및 관절 간의 상대적 위치에 기초하여 양 신체 자세의 유사도를 판단할 수 있다.
예컨대 이와 같은 3가지 조건을 모두 앤드(AND) 조건으로 하여 제1 조건, 제2 조건 및 제3 조건을 모두 만족하는 경우에만 사용자의 자각 상태로 판별하고, 위의 3가지 조건 중 어느 하나라도 만족하지 않으면 사용자의 무자각 상태로 판별할 수 있다.
또한, 예컨대 S420의 제1 조건은 AND 조건으로 S430의 제2 조건과 S440의 제3 조건은 OR 조건으로 하여 제1 조건 AND (제2 조건 OR 제3 조건)의 조건식을 통해 사용자의 자각 상태를 판별하는 것도 가능하며, 제1 조건, 제2조건, 제3조건의 AND 및 OR와 같은 논리적 조합으로 사용자의 자각상태와 무자각 상태로 판단할 수 있다.
이와 같은 사용자의 자각 상태 여부 판단 방법을 통해, 사용자 신체 자세 측정 시에 사용자에게 추가적인 별도의 동작을 요청하지 않고 측정 전후의 자연스런 자세를 인지함으로써 사용에 불편함을 가중시키지 않으면서도 무자각 상태의 자세 인식을 수행함으로써 사용자의 정확한 신체 취약점을 확보하면서 자세 측정의 신뢰성을 개선할 수 있다.
도 5는 본 발명의 일 실시예에 따라 자각 상태의 부상 위험 인자 및 무자각 상태의 부상 위험 인자 각각에 대해 적용되는 가중치를 생성하는 방법을 설명하기 위한 예시도이다.
자각 상태 및 무자각 상태를 구분하여 개별적으로 측정된 신체 부상 위험 인자를 가중치가 부여된 정량화된 점수로 계산함에 있어서, 가중치를 모든 사용자에게 일관된 가중치를 부여하지 않고 사용자 특성에 따라 가변적 가중치를 부여할 수 있다.
도 5를 참조하면 자각 상태의 가변적 가중치(w1)는 사용자의 나이, 성별, 신체 유형(체형), 직업, 생활패턴, 운동이력, 부상이력, 체중 등 신체 상태에 영향을 줄 수 있는 다양한 인자 요소에 따라 정해지며 각 요소는 신체 부상 위험 인자의 종류에 따라 a, b, c 각각의 비중 파라미터 값을 상이하게 적용할 수 있다.
또한 무자각 상태의 가변적 가중치(w2)는 자각 상태 가변적 가중치(w1)와 마찬가지로 사용자 나이, 성별, 신체 유형(체형), 직업, 생활패턴, 운동이력, 부상이력, 체중 등 신체 상태에 영향을 줄 수 있는 다양한 인자에 따라 결정될 수 있고, 신체 부상 위험 인자의 종류에 따라 a’, b’, c’각각의 비중을 상이하게 적용할 수 있다. 달라진다. 예컨대 신체 유형은 상체하체비율, 키, 어깨너비 등 신체 사이즈에 기반한 유형 분류이며 각 신체 유형에 따라 미리 결정된 기준에 따라 배점이 될 수 있다.
예컨대 21세의 마른 체형의 여성이 신체 자세 측정을 할 경우, 신체 부위 목의 거북목 부상 위험 인자 평가시 다음과 같은 수식을 적용하여 가변적인 가중치 적용을 수행할 수 있다.
w1(자각상태 가중치) = 21(세) * 0.01(a) + 1(여성 점수) * 0.05(b) + 6(체형 점수) * 0.03(c) = 0.44
w2(무자각상태 가중치) = 21(세) * 0.01(a') + 1(여성 점수) * 0.09(b') + 6(체형 점수) * 0.04(c') = 0.54
도 6은 본 발명의 일 실시예에 따라 사용자 자세 인식 기반 신체 부상 위험을 예측하는 방법을 설명하기 위한 흐름도이다.
도 6을 참조하면, 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 관련하여, 디스플레이부(100)를 통해 사용자에게 신체 자세 측정과 관련된 가이드 영상을 제공할 수 있다.(S610)
이미지 데이터 획득부(310)를 통해 적어도 하나의 이미지 센서(200)를 이용하여 사용자의 신체 자세와 관련된 이미지 데이터를 획득할 수 있다.(S620)
다음으로 관절 추출부(320)를 통해 이미지 데이터에 기초하여 신체 부위별 분할(segmentation)을 통해 신체 관절 좌표를 추출할 수 있다.(S630)
다음으로 신체 자세 인식부(330)를 통해 추출된 신체 관절 좌표에 기초하여 사용자의 신체 자세를 인식할 수 있다.(S640)
다음으로 자각 상태 판단부(340)를 통해 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 판단할 수 있다.(S650) 사용자의 자각 상태와 무자각 상태의 판단은 예컨대 사용자의 위치가 미리 결정된 신체 자세 측정 위치 범위 내에 존재하는지 여부, 사용자의 신체 자세와 관련된 이미지 데이터의 획득 시점이 신체 자세와 관련된 영상이 제공되는 시간 범위 내에 있는지 여부, 및 사용자의 인식된 신체 자세가 신체 자세와 관련된 영상의 신체 자세와 유사한지 여부 등에 기초하여 각 조건을 결합하여 수행될 수 있다.
다음으로 신체 부상 위험 인자 측정부(350)를 통해 인식된 신체 자세 및 자각 상태 여부 판단에 기초하여 적어도 하나의 관절에 대해 신체 부상 위험 인자를 측정할 수 있다.(S660) 이때, 신체 부상과 관련된 각 관절의 기울기 및 기준점으로부터 위치 편차에 기초하여 관절별 부상 위험 인자를 측정할 수 있다. 또한, 신체 부상 위험 인자를 측정하는 단계는 자각 상태의 신체 자세로부터 자각 상태의 관절별 부상 위험 인자를 측정하고, 또한 무자각 상태의 신체 자세로부터 무자각 상태의 관절별 부상 위험 인자를 개별적으로 측정할 수 있다.
다음으로 신체 부상 위험 예측부(360)를 통해 측정된 신체 부상 위험 인자에 기초하여 적어도 하나의 신체 부위에 대한 신체 부상과 관련된 위험도를 예측할 수 있다.(S670) 이때, 신체 부상과 관련된 위험도를 예측하는 단계는 자각 상태의 관절별 부상 위험 인자 및 무자각 상태의 관절별 부상 위험 인자에 기초하여 해당 신체 부위에 대한 신체 부상과 관련된 위험도를 산출할 수 있다. 또한, 자각 상태의 관절별 부상 위험 인자 및 무자각 상태의 관절별 부상 위험 인자 각각에 대해 상이한 가중치가 적용됨으로써 신체 부상과 관련된 위험도를 산출할 수 있고, 여기서 가중치는 사용자의 나이, 성별, 체형 유형, 직업, 생활패턴, 운동이력, 부상이력, 체중 등 신체상태에 영향을 줄 수 있는 다양한 인자 중 적어도 하나에 기초하여 가변적으로 결정될 수 있다.
마지막으로 부상 위험 예측 결과에 기초하여 부상 관리 솔루션 제공부(370)를 통해 부상 관리 솔루션을 생성하고, 디스플레이부(100)를 통해 부상 관리 솔루션 관련 영상을 제공할 수 있다.(S680) 부상 관리 솔루션은 부상 위험 예측 결과에 따라 해당 사용자의 신체 부상 위험을 최소화할 수 있는 스트레칭 또는 운동 컨텐츠 형태일 수 있으며, 사용자는 이와 같은 부상 관리 솔루션을 개인 휴대 단말기, 키오스크, 이메일 등의 다양한 방법을 통해서 제공받을 수 있다.
도 7은 본 발명의 다른 실시예에 따라 사용자 자세 인식 기반 신체 부상 위험을 예측하고 피드백을 제공하는 방법을 설명하기 위한 흐름도이다.
도 6의 마지막 단계와 마찬가지로 사용자에게 디스플레이부(100)를 통해 부상 관리 솔루션 관련 영상을 제공할 수 있다.(S710) 부상 관리 솔루션 관련 영상은 최초 부상 위험 예측 결과에 따라 가장 부상 위험도가 높은 신체 부위와 관련된 것일 수 있으며, 복수의 신체 부위에 대한 부상 관리 솔루션이 제공될 수도 있다.
사용자는 부상 관리 솔루션을 제공받아 해당 영상에서 나타나는 스트레칭 또는 운동 동작을 실시하면 도 6에서와 같이 신체 자세 측정 단계에서 실행하였던 사용자의 신체 자세 이미지 데이터 획득(S720), 신체 관절 좌표 추출(S730), 신체 자세 인식(S740), 자각 상태/무자각 상태 판단(S750) 등을 통해 자각 상태 및 무자각 상태의 신체 자세 인식을 수행할 수 있다.
또한, 도 6에서와 마찬가지로 자각 상태 및 무자각 상태의 신체 자세를 개별적으로 분석하여 신체 부상 위험 인자를 각각 측정할 수 있다.(S760)
측정된 신체 부상 위험 인자에 기초하여 각각의 해당 신체 부위의 신체 부상 위험도를 예측하고, 이와 함께 사용자의 신체 움직임에 대한 피드백을 제공할 수 있다.(S770) 최초 부상 위험 예측 결과에 따라 제공된 부상 관리 솔루션에 기초하여 재측정된 해당 신체 부위의 신체 부상 위험도를 예측하고, 부상 관리 솔루션 관련하여 진행된 사용자의 스트레칭 및 운동 실행에 대한 피드백을 제공하고, 여기서 피드백은 부상 위험 관련된 운동 행위에 대해 주의 사항 및 권장 사항에 대한 내용을 포함할 수 있다.
본 발명의 명세서에 개시된 실시예들은 예시에 불과한 것으로서, 본 발명은 이에 한정되지 않는 것이다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.

Claims (10)

  1. 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법에 있어서,
    신체 자세 측정과 관련된 영상을 제공하는 단계;
    적어도 하나의 이미지 센서를 이용하여 사용자의 신체 자세와 관련된 이미지 데이터를 획득하는 단계;
    상기 이미지 데이터에 기초하여 신체 부위별 분할(segmentation)을 통해 신체 관절 좌표를 추출하는 단계;
    상기 추출된 신체 관절 좌표에 기초하여 상기 사용자의 신체 자세를 인식하는 단계;
    상기 인식된 신체 자세에 기초하여 적어도 하나의 관절에 대해 신체 부상 위험 인자를 측정하는 단계; 및
    상기 신체 부상 위험 인자에 기초하여 적어도 하나의 신체 부위에 대한 신체 부상과 관련된 위험도를 예측하는 단계
    를 포함하는 신체 부상 위험 예측 방법.
  2. 제1항에 있어서, 상기 신체 부상 위험 인자를 측정하는 단계는 상기 신체 부상과 관련된 각 관절의 기울기 및 기준점으로부터 위치 편차에 기초하여 관절별 부상 위험 인자를 측정하는 것인, 신체 부상 위험 예측 방법.
  3. 제1항에 있어서, 상기 예측된 신체 부상과 관련된 위험도에 기초하여 부상 관리를 위한 신체 자세와 관련된 영상을 제공하는 단계;
    적어도 하나의 이미지 센서를 이용하여 상기 사용자의 부상 관리를 위한 신체 자세와 관련된 이미지 데이터를 획득하는 단계; 및
    상기 사용자의 부상 관리를 위한 신체 자세와 관련된 이미지 데이터에 기초하여 인식된 신체 자세에 기초하여 적어도 하나의 관절에 대해 신체 부상 위험 인자를 재측정하는 단계
    를 더 포함하는 신체 부상 위험 예측 방법.
  4. 제1항에 있어서, 상기 사용자의 신체 자세를 인식하는 단계 이후에 상기 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 판단하는 단계를 더 포함하고,
    상기 신체 부상 위험 인자를 측정하는 단계는 자각 상태의 신체 자세로부터 자각 상태의 관절별 부상 위험 인자를 측정하고, 또한 무자각 상태의 신체 자세로부터 무자각 상태의 관절별 부상 위험 인자를 측정하는 것인, 신체 부상 위험 예측 방법.
  5. 제4항에 있어서, 상기 신체 부상과 관련된 위험도를 예측하는 단계는 상기 자각 상태의 관절별 부상 위험 인자 및 상기 무자각 상태의 관절별 부상 위험 인자에 기초하여 해당 신체 부위에 대한 신체 부상과 관련된 위험도를 산출하는 것인, 신체 부상 위험 예측 방법.
  6. 제5항에 있어서, 상기 자각 상태의 관절별 부상 위험 인자 및 상기 무자각 상태의 관절별 부상 위험 인자 각각에 대해 상이한 가중치가 적용됨으로써 상기 신체 부상과 관련된 위험도를 산출하는 것이고, 상기 가중치는 상기 사용자의 나이, 성별 및 체형 유형 중 적어도 하나에 기초하여 가변적으로 결정되는 것인, 신체 부상 위험 예측 방법.
  7. 제4항에 있어서, 상기 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 판단하는 단계는 상기 사용자의 위치가 미리 결정된 신체 자세 측정 위치 범위 내에 존재하는지 여부에 기초하여 상기 사용자의 자각 상태의 여부를 결정하는 것인, 신체 부상 위험 예측 방법.
  8. 제4항에 있어서, 상기 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 판단하는 단계는 상기 사용자의 신체 자세와 관련된 이미지 데이터의 획득 시점이 상기 신체 자세와 관련된 영상이 제공되는 시간 범위 내에 있는지 여부에 기초하여 상기 사용자의 자각 상태의 여부를 결정하는 것인, 신체 부상 위험 예측 방법.
  9. 제4항에 있어서, 상기 사용자의 신체 자세가 자각 상태의 신체 자세인지 무자각 상태의 신체 자세인지 판단하는 단계는 상기 사용자의 인식된 신체 자세가 상기 신체 자세와 관련된 영상의 신체 자세와 유사한지 여부에 기초하여 상기 사용자의 자각 상태의 여부를 결정하는 것인, 신체 부상 위험 예측 방법.
  10. 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 장치에 있어서,
    신체 자세 측정과 관련된 영상을 제공하도록 구성된 디스플레이부;
    적어도 하나의 이미지 센서를 이용하여 사용자의 신체 자세와 관련된 이미지 데이터를 획득하도록 구성된 이미지 데이터 획득부;
    상기 이미지 데이터에 기초하여 신체 부위별 분할(segmentation)을 통해 신체 관절 좌표를 추출하도록 구성된 관절 추출부;
    상기 추출된 신체 관절 좌표에 기초하여 상기 사용자의 신체 자세를 인식하도록 구성된 신체 자세 인식부;
    상기 인식된 신체 자세에 기초하여 적어도 하나의 관절에 대해 신체 부상 위험 인자를 측정하도록 구성된 신체 부상 위험 인자 측정부; 및
    상기 신체 부상 위험 인자에 기초하여 적어도 하나의 신체 부위에 대한 신체 부상과 관련된 위험도를 예측하도록 구성된 신체 부상 위험 예측부
    를 포함하는 신체 부상 위험 인자 측정 장치.
PCT/KR2023/008018 2022-06-16 2023-06-12 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치 WO2023243959A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0073281 2022-06-16
KR1020220073281A KR102449779B1 (ko) 2022-06-16 2022-06-16 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Publications (1)

Publication Number Publication Date
WO2023243959A1 true WO2023243959A1 (ko) 2023-12-21

Family

ID=83451611

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/008018 WO2023243959A1 (ko) 2022-06-16 2023-06-12 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Country Status (2)

Country Link
KR (2) KR102449779B1 (ko)
WO (1) WO2023243959A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102449779B1 (ko) * 2022-06-16 2022-09-30 주식회사 피트릭스 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치
KR102624777B1 (ko) * 2022-12-16 2024-01-12 주식회사 피트릭스 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130038684A (ko) * 2011-10-10 2013-04-18 (주)레이딕스텍 신체 각부의 유연성 테스트 시스템 및 유연성 테스트 방법
KR20190044952A (ko) * 2017-10-23 2019-05-02 남정우 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러
KR20190126751A (ko) * 2019-11-05 2019-11-12 주식회사 비플렉스 운동 인식 방법 및 장치
KR102369152B1 (ko) * 2021-11-04 2022-03-02 아이픽셀 주식회사 인공지능을 이용한 실시간 자세 동작 인식 시스템 및 인식 방법
KR20220071940A (ko) * 2020-11-24 2022-05-31 한국과학기술원 부상 방지 가이드라인 생성 방법 및 이를 수행하는 장치
KR102449779B1 (ko) * 2022-06-16 2022-09-30 주식회사 피트릭스 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101784410B1 (ko) 2016-11-15 2017-11-06 단국대학교 천안캠퍼스 산학협력단 운동 자세 인식 방법 및 이를 적용하는 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130038684A (ko) * 2011-10-10 2013-04-18 (주)레이딕스텍 신체 각부의 유연성 테스트 시스템 및 유연성 테스트 방법
KR20190044952A (ko) * 2017-10-23 2019-05-02 남정우 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러
KR20190126751A (ko) * 2019-11-05 2019-11-12 주식회사 비플렉스 운동 인식 방법 및 장치
KR20220071940A (ko) * 2020-11-24 2022-05-31 한국과학기술원 부상 방지 가이드라인 생성 방법 및 이를 수행하는 장치
KR102369152B1 (ko) * 2021-11-04 2022-03-02 아이픽셀 주식회사 인공지능을 이용한 실시간 자세 동작 인식 시스템 및 인식 방법
KR102449779B1 (ko) * 2022-06-16 2022-09-30 주식회사 피트릭스 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Also Published As

Publication number Publication date
KR20230172995A (ko) 2023-12-26
KR102449779B1 (ko) 2022-09-30

Similar Documents

Publication Publication Date Title
WO2023243959A1 (ko) 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치
TWI498772B (zh) 用於處理原始視訊串流的系統、包含其之成像裝置與顯示器、使用原始視訊串流的電腦導航方法,及非暫時性電腦可讀取媒體
WO2018217060A1 (en) Method and wearable device for performing actions using body sensor array
CN110647865A (zh) 人脸姿态的识别方法、装置、设备及存储介质
WO2019013517A1 (en) APPARATUS AND METHOD FOR VOICE CONTROL CONTEXT
WO2019182403A1 (en) Method for supporting user input and electronic device supporting the same
WO2016028097A1 (en) Wearable device
WO2011081379A2 (en) Display device and control method thereof
CN111310692B (zh) 一种检测对象管理方法、系统、机器可读介质及设备
WO2020050636A1 (ko) 사용자 의도 기반 제스처 인식 방법 및 장치
WO2020171621A1 (en) Method of controlling display of avatar and electronic device therefor
WO2019078507A1 (en) ELECTRONIC DEVICE AND METHOD FOR PROVIDING A STRESS INDEX CORRESPONDING TO THE ACTIVITY OF A USER
CN112749613B (zh) 视频数据处理方法、装置、计算机设备及存储介质
WO2019112154A1 (ko) 텍스트-리딩 기반의 리워드형 광고 서비스 제공 방법 및 이를 수행하기 위한 사용자 단말
WO2019240343A1 (ko) 사용자 상태에 따른 맞춤형 자기관리정보 제공시스템
CN109947988B (zh) 一种信息处理方法、装置、终端设备及服务器
CN108898000A (zh) 一种解锁屏幕的方法及终端
WO2018044059A1 (ko) 피트니스 모니터링 시스템
WO2019035586A1 (ko) 자세 가이드 제공 방법 및 그 장치
WO2019199035A1 (ko) 시선 추적 시스템 및 방법
WO2018034386A1 (ko) 생체정보 연동형 스마트보드 시스템 및 그 방법
WO2014077616A1 (en) Display apparatus and method for delivering message thereof
Yildiz et al. A novel gaze input system based on iris tracking with webcam mounted eyeglasses
WO2023177125A1 (ko) 생체 신호 기반의 동작 제어를 위한 전자 장치 및 그 동작 방법
WO2018034384A1 (ko) 음성 및 동작인식에 근거한 스마트보드 제어 방법 및 그 방법을 이용한 가상 레이저 포인터

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23824176

Country of ref document: EP

Kind code of ref document: A1