KR102624777B1 - 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치 - Google Patents

사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치 Download PDF

Info

Publication number
KR102624777B1
KR102624777B1 KR1020220176419A KR20220176419A KR102624777B1 KR 102624777 B1 KR102624777 B1 KR 102624777B1 KR 1020220176419 A KR1020220176419 A KR 1020220176419A KR 20220176419 A KR20220176419 A KR 20220176419A KR 102624777 B1 KR102624777 B1 KR 102624777B1
Authority
KR
South Korea
Prior art keywords
posture
body part
user
information
dynamic
Prior art date
Application number
KR1020220176419A
Other languages
English (en)
Inventor
남정우
김성운
신연지
Original Assignee
주식회사 피트릭스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피트릭스 filed Critical 주식회사 피트릭스
Priority to KR1020220176419A priority Critical patent/KR102624777B1/ko
Priority to KR1020240003834A priority patent/KR102699368B1/ko
Application granted granted Critical
Publication of KR102624777B1 publication Critical patent/KR102624777B1/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • A61B5/1122Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4561Evaluating static posture, e.g. undesirable back curvature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Geometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명에 의하면, 사용자 동작 자세 인식 기반 신체 부상 위험 예측 장치에 의해 수행되는 신체 부상 위험 예측을 위한 방법에 있어서, 적어도 하나의 이미지 센서를 이용하여 사용자의 동작 자세와 관련된 이미지 데이터를 획득하는 단계, 이미지 데이터에 기초하여 사용자의 신체 부위 인식 정보 및 신체 관절 인식 정보를 획득하는 단계, 획득한 신체 부위 인식 정보 및 신체 관절 인식 정보에 기초하여 사용자의 동작 자세를 동적 자세 또는 정적 자세의 자세 유형을 판단하여 인식하는 단계, 및 사용자의 자세 유형에 기초하여 동작 자세의 문제를 판단하는 단계를 포함하는 신체 부상 위험 예측 방법을 제공할 수 있다.

Description

사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치{METHOD FOR PREDICTING BODILY INJURY BASED ON USER BEHAVIOR POSTURE RECOGNITION AND APPARATUS FOR THE SAME}
본 발명은 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 이용한 장치에 관한 것이다. 보다 구체적으로, 본 발명은 사용자의 무의식 상태에서 동적 자세와 정적 자세를 구분하여 인식함으로써 자세 특성에 맞는 신체 문제를 파악하고 신체 부상 위험을 예측할 수 있는 신체 부상 위험 예측 및 관리할 수 있는 방법, 및 장치 또는 시스템에 관한 것이다.
기존 신체 측정 또는 자세 측정 장치의 경우 피측정인이 일정한 동작을 취하고 있고 측정기 관리인이 조작을 통해 측정하는 방식이 대부분이다. 이때, 측정은 카메라 등의 이미지 센서를 이용하여 실시되고 이미지를 캡처한 후 일정한 연산을 통해서 신체 사이즈 또는 신체 자세를 측정하게 되고, 측정 후 피측정인에게 측정결과를 측정기, 앱 또는 인쇄물을 통해 전달하게 된다.
그러나 이와 같은 종래의 신체 측정 또는 자세 측정 기술은 피측정인이 관리인의 가이드에 따라 자세와 동작을 취하면 측정을 하는 방식이라서 피측정인의 자연스러운 무의식 상태에서의 자세나 동작이 아닌 측정 가이드를 의식적으로 따라함으로써, 즉 자각 상태에서의 변형과 왜곡이 될 결과가 도출될 가능성이 높다. 이와 같은 자각 상태의 경우 평소의 신체 취약점이나 부상 위험도를 정확하게 획득하거나 정확한 진단하는 것이 어려워진다는 문제점이 발생한다.
이에 따라, 피측정인의 자연스러운 무자각 상태에서 운동 시에 자세와 운동 동작 분석을 통해 신체 부상 위험을 정확하게 예측할 수 있는 방법 및 장치가 필요하다.
(특허 문헌 0001) 대한민국 등록특허 제10-1784410호
본 발명은 사용자 동작 자세 인식 기반 신체 부상 위험 예측에 있어서, 사용자의 무의식 또는 무자각 상태에서의 자연스러운 자세와 운동 동작을 분석함으로써 신뢰성이 개선된 신체 부상 위험 예측 및 관리 방법과 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 사용자의 동작 자세를 동적 자세와 정적 자세로 구분하고, 사용자의 동적/정적 자세 상태에 따라 문제 판단 및 문제를 해결할 수 있는 솔루션을 맞춤형으로 도출할 수 있는 신체 부상 위험 예측 및 관리 방법과 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 사용자의 자연스러운 운동 동작시 자세와 운동 동작 분석을 통해 근골격 취약점을 예측하고, 동시에 제안된 운동을 수행하는 사용자의 운동 동작을 분석하며 변화도(개선 정도)를 함께 측정함으로써, 사용자가 측정의 과정을 의식하지 않고 단순 운동 수행 과정을 통해 신체 부상 위험을 정확하게 예측하고 이를 자연스럽게 개선할 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 동적 자세의 솔루션과 정적 자세의 솔루션을 상이한 방법으로 제공하고, 솔루션 제공 이후에도 자세 및 동작의 모니터링을 지속적으로 실시함으로써 신체 부상 위험을 보다 확실히 제거할 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명의 해결 과제들은 이상에서 언급한 내용들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따르면, 사용자 동작 자세 인식 기반 신체 부상 위험 예측 장치에 의해 수행되는 신체 부상 위험 예측을 위한 방법에 있어서, 적어도 하나의 이미지 센서를 이용하여 사용자의 동작 자세와 관련된 이미지 데이터를 획득하는 단계; 상기 이미지 데이터에 기초하여 상기 사용자의 신체 부위 인식 정보 및 신체 관절 인식 정보를 획득하는 단계; 상기 획득한 신체 부위 인식 정보 및 신체 관절 인식 정보에 기초하여 상기 사용자의 동작 자세에 대해 동적 자세 또는 정적 자세의 자세 유형을 판단하여 인식하는 단계; 및 상기 사용자의 자세 유형에 기초하여 동작 자세의 문제를 판단하는 단계를 포함하는 신체 부상 위험 예측 방법을 제공할 수 있다.
또한, 상기 사용자에 장착된 모션 센서를 이용하여 상기 사용자의 모션 여부 및 상기 모션 센서가 장착된 신체 부위의 이동 정보를 획득하는 단계를 더 포함할 수 있다.
또한, 상기 자세 유형을 구분하여 인식하는 단계는 신체 부위의 이동 궤적 정보, 신체 부위의 이동 반복성 정보 및 상기 신체 부위의 특정 위치의 유지 시간 정보 중 적어도 하나를 이용하여 상기 동적 자세 또는 상기 정적 자세의 자세 유형을 판단할 수 있다.
또한, 상기 신체 부위의 이동 궤적의 크기가 미리 결정된 기준값보다 큰 경우, 상기 신체 부위의 이동 궤적 정보에 기초하여 상기 자세 유형을 동적 자세로 판단할 수 있다.
또한, 상기 신체 부위의 이동 궤적이 미리 결정된 패턴으로 반복되는 경우, 상기 신체 부위의 이동 반복성 정보에 기초하여 상기 자세 유형을 동적 자세로 판단할 수 있다.
또한, 상기 신체 부위의 위치가 일정 범위 내로 유지하는 시간이 미리 결정된 기준값보다 큰 경우, 상기 신체 부위의 특정 위치의 유지 시간 정보에 기초하여 상기 자세 유형을 정적 자세로 판단할 수 있다.
또한, 상기 동작 자세의 문제를 판단하는 단계는, 상기 자세 유형이 동적 자세로 판단되는 경우 특정 위치로 편향된 관절 및 신체 부위를 판단하고, 상기 관절 및 신체 부위가 위험한 범위 내에 위치하는지를 판단함으로써 동적 자세의 위험도를 판단할 수 있다.
또한, 상기 동작 자세의 문제를 판단하는 단계는, 상기 자세 유형이 정적 자세로 판단되는 경우 특정 위치로 편향된 관절 및 신체 부위를 판단하고, 상기 관절 및 신체 부위가 일정 범위 내로 유지하는 시간을 판단함으로써 정적 자세의 위험도를 판단할 수 있다.
또한, 상기 동작 자세의 문제를 판단하는 단계 이후에, 상기 동작 자세의 문제가 동적 자세의 문제로 판단되는 경우 동적 자세의 솔루션으로서 동적 자세의 문제 해결을 위한 운동 방법 및 동적 자세의 변화도를 제공하는 단계를 더 포함할 수 있다.
또한, 상기 동작 자세의 문제를 판단하는 단계 이후에, 상기 동작 자세의 문제가 정적 자세의 문제로 판단되는 경우 정적 자세의 솔루션으로서 자세 비정상 상태의 알람 및 정적 자세의 변화도를 제공하는 단계를 더 포함할 수 있다.
본 발명의 다른 실시예에 따르면, 사용자 동작 자세 인식 기반 신체 부상 위험 예측 장치에 있어서, 적어도 하나의 이미지 센서를 이용한 사용자의 동작 자세와 관련된 이미지 데이터를 획득하도록 구성된 이미지 데이터 획득부; 상기 이미지 데이터에 기초하여 상기 사용자의 신체 부위 인식 정보 및 신체 관절 인식 정보를 획득하도록 구성된 신체 인식부; 상기 획득한 신체 부위 인식 정보 및 신체 관절 인식 정보에 기초하여 상기 사용자의 동작 자세에 대해 동적 자세 또는 정적 자세의 자세 유형을 판단하여 인식하도록 구성된 신체 자세 인식부; 및 상기 사용자의 자세 유형에 기초하여 동작 자세의 문제를 판단하도록 구성된 자세 문제 판단부를 포함하는 신체 부상 위험 예측 장치를 제공할 수 있다.
본 발명에 의하면, 사용자 동작 자세 인식 기반 신체 부상 위험 예측에 있어서, 사용자의 무의식 또는 무자각 상태에서의 자연스러운 자세와 운동 동작을 분석함으로써 신뢰성이 개선된 신체 부상 위험 예측 및 관리 방법과 장치를 제공할 수 있다.
또한, 본 발명에 의하면, 사용자의 동작 자세를 동적 자세와 정적 자세로 구분하고, 사용자의 동적/정적 자세 상태에 따라 문제 판단 및 문제를 해결할 수 있는 솔루션을 맞춤형으로 도출할 수 있는 신체 부상 위험 예측 및 관리 방법과 장치를 제공할 수 있다.
또한, 본 발명에 의하면, 사용자의 자연스러운 운동 동작시 자세와 운동 동작 분석을 통해 근골격 취약점을 예측하고, 동시에 제안된 운동을 수행하는 사용자의 운동 동작을 분석하며 변화도(개선 정도)를 함께 측정함으로써, 사용자가 측정의 과정을 의식하지 않고 단순 운동 수행 과정을 통해 신체 부상 위험을 정확하게 예측하고 이를 자연스럽게 개선할 수 있는 방법 및 장치를 제공할 수 있다.
또한, 본 발명에 의하면, 동적 자세의 솔루션과 정적 자세의 솔루션을 상이한 방법으로 제공하고, 솔루션 제공 이후에도 자세 및 동작의 모니터링을 지속적으로 실시함으로써 신체 부상 위험을 보다 확실히 제거할 수 있는 방법 및 장치를 제공할 수 있다.
본 발명의 효과들은 이상에서 언급한 내용들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 사용자 동작 자세 인식 기반 신체 부상 위험 예측 장치의 구성을 설명하기 위한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 신체 부상 위험 예측 처리부의 구성을 설명하기 위한 블록도이다.
도 3는 본 발명의 일 실시예에 따라 사용자의 동적 자세와 정적 자세의 자세 유형 판단을 통해 자세 문제를 판단하고 솔루션을 제공하는 방법을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 사용자의 동적 자세와 정적 자세를 판단하고 최종 자세 문제를 판단하는 방법을 설명하기 위한 예시도이다.
도 5는 본 발명의 일 실시예에 따라 사용자 동작 자세 인식 기반 신체 부상 위험 예측 시스템을 설명하기 위한 블록도이다.
도 6은 본 발명의 일 실시예에 따라 사용자 동작 자세 인식 기반 신체 부상 위험을 예측하는 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
본 명세서에서 사용되는 "포함한다(comprises)", "포함하는(comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 본 발명의 구성 및 그에 따른 작용 효과는 이하의 상세한 설명을 통해 명확하게 이해될 것이다.
도 1은 본 발명의 일 실시예에 따른 사용자 동작 자세 인식 기반 신체 부상 위험 예측 장치의 구성을 설명하기 위한 블록도이다.
도 1을 참조하면, 사용자 동작 자세 인식 기반 신체 부상 위험 예측 장치는 이미지 센서(100), 모션 센서(200), 신체 부상 위험 예측 처리부(300) 및 솔루션 제공 처리부(400)를 포함할 수 있으며, 다양한 처리 장치 및 서버 등을 포함한 시스템 형태로 구성될 수 있으며, 예컨대 스마트 미러(smart mirror), 키오스크, 스마트폰(smart phone), 태블릿(tablet) 컴퓨터, 데스크탑(desktop) 컴퓨터, 랩탑(laptop) 컴퓨터, 노트북, 워크스테이션(workstation), 포터블(portable) 컴퓨터, 무선 전화기(wireless phone), 모바일 폰(mobile phone), 디지털 카메라(digital camera), 텔레비전(television), 웨어러블 디바이스(wearable device) 중 어느 하나의 형태 또는 둘 이상의 조합과 이들과 네트워크를 통해 연결된 다양한 서버 장치 등으로 구성될 수 있으며, 이들에 제한되지 않는다.
이미지 센서(100)는 사용자의 신체 자세 및 동작 등 동작 자세와 관련된 이미지 데이터를 획득하도록 구성되며, 필요에 따라 하나 이상의 위치에서 이미지 데이터를 획득할 수 있도록 복수 개로 구성될 수 있다. 이미지 센서(100)는 사용자의 외형, 신체 자세 또는 운동 동작을 촬영 및 캡처(capture)할 수 있는 적어도 하나 이상의 2D 또는 3D 카메라 등으로 구성될 수 있으며, 예컨대 거리 측정이 가능한 깊이(depth) 카메라 또는 일반 컬러 카메라의 형태로 구성될 수 있고, 깊이 센서(depth sensor) 또는 적외선 센서 중 하나 이상을 포함할 수 있다.
본 발명에서 사용자의 동작 자세는 정적인 신체 자세뿐만 아니라, 동적인 연속적인 동작 행동에 따른 신체 자세 간 연결성 정보, 예컨대 동작 움직임의 궤도, 속도, 부드러움, 반복성 등 다양한 동작 속성을 포함하는 의미를 갖는다.
모션 센서(200)는 사용자에 장착되어 초음파, 레이저, 마이크로파 등을 이용하여 사용자의 모션 여부 및 모션 센서가 장착된 신체 부위의 이동 정보와 관련된 데이터를 획득하도록 구성된 센서이며, 예컨대 사용자의 신체 또는 사용자의 개인 휴대 기기 등에 부착될 수 있다. 모션 센서(200)를 통해 획득한 데이터는 이미지 센서(100)를 통해 획득한 이미지 데이터와 함께 사용되어 사용자의 자세 동작을 분석하는데 이용되며, 특히 모션 센서(200)를 통해 획득한 데이터는 이미지 신체부위 전체에 대한 자세 및 상태보다는 동작 모션 여부 및 모션 센서가 장착된 신체 부위의 이동 정보를 정확하게 획득하는데 사용될 수 있다.
신체 부상 위험 예측 처리부(300)는 이미지 센서(100) 및 모션 센서(200)를 통해 획득한 사용자 자세 동작 관련 데이터에 기초하여 사용자의 신체 부위 인식 정보 및 신체 관절 인식 정보를 획득하고, 획득한 신체 부위 인식 정보 및 신체 관절 인식 정보에 기초하여 사용자의 동작 자세를 동적 자세 또는 정적 자세의 자세 유형을 판단하여 인식하고, 사용자의 각 자세 유형에 기초하여 동작 자세의 문제 및 위험도를 판단하도록 구성될 수 있다. 신체 부상 위험 예측 처리부(300)의 구성은 도 2를 참조하여 보다 구체적으로 설명될 것이다.
또한, 솔루션 제공 처리부(400)는 사용자의 동적 자세 및 정적 자세 각각의 상태에 따라 해당 자세 문제를 해결할 수 있는 솔루션을 맞춤형으로 제공하도록 구성될 수 있다. 예컨대, 솔루션 제공 처리부(400)는 동작 자세의 문제를 판단하는 단계 이후에, 동작 자세의 문제가 동적 자세의 문제로 판단되는 경우 동적 자세의 솔루션으로서 동적 자세의 문제 해결을 위한 운동 방법 및 동적 자세의 변화도를 제공할 수 있다. 또한, 동작 자세의 문제가 정적 자세의 문제로 판단되는 경우 정적 자세의 솔루션으로서 자세 비정상 상태의 알람 및 정적 자세의 변화도를 사용자의 개인 휴대 기기 또는 사용자가 사용하는 키오스크 등의 정보를 알릴 수 있는 디지털 기기를 통해 제공하도록 구성될 수 있다.
또한, 솔루션 제공 처리부(400)를 통해 사용자에게 솔루션을 제공한 이후에도 신체 부상 위험 예측 처리부(300)를 통해 사용자에 대한 동작 자세 모니터링을 지속적으로 실시하여 솔루션 제공 처리부(400)에서 솔루션을 업데이트하여 제공함으로써 신체 문제를 지속적으로 확실하게 제거할 수 있도록 동작할 수 있다.
신체 부상 위험 예측 처리부(300) 및 솔루션 제공 처리부(400)는 사용자의 신체 자세, 동작 인식, 분석, 솔루션 생성 및 사용자 제공용 화면 및 영상 생성과 관련된 각종 제어 및 처리 동작을 수행하며, 내부의 복수의 구성 요소들의 제어 및 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 예컨대, 신체 부상 위험 예측 처리부(300) 및 및 솔루션 제공 처리부(400)는 중앙 처리 장치(CPU), 어플리케이션 프로세서(AP) 등을 포함하는 처리 장치 또는 서버의 형태를 가질 수 있으며, 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있는 메모리를 내부에 포함하거나, 또는 필요한 경우 외부 메모리와 통신하여 필요한 정보에 액세스할 수 있다. 또한, 신체 부상 위험 예측 처리부(300) 및 및 솔루션 제공 처리부(400)는 하나 이상의 프로세서(processor)에 의해 실행될 수 있는 프로그램 또는 프로그램 모듈을 포함할 수 있으며, 사용자 입력부와 연동되어 사용자 입력을 수신할 수 있으며, 사용자 장치의 디스플레이부와 연동되어 처리된 결과를 출력할 수 있다. 특히, 신체 부상 위험 예측 처리부(300) 및 솔루션 제공 처리부(400)에 포함된 프로그램 또는 프로그램 모듈들은 운영 체제(operating system), 어플리케이션 프로그램(application program) 또는 프로그램 등의 형태로 구성될 수 있으며, 널리 사용되는 다양한 종류의 저장 장치 상에 물리적으로 저장될 수 있다. 이와 같은 프로그램 또는 프로그램 모듈은 하나 이상의 루틴(routine), 서브루틴(subroutine), 프로그램(program), 오브젝트(object), 콤포넌트(component), 명령(instructions), 데이터 구조(data structure) 및 특정 작업(task)을 수행하거나 특정 데이터 유형을 실행하기 위한 다양한 형태를 포함할 수 있으며, 이들 형태로 제한되지 않는다.
또한, 도 1에 도시되지 않았지만 사용자 동작 자세 인식 기반 신체 부상 위험 예측 장치는 통신부를 더 포함할 수 있으며, 통신부를 통해 외부 사용자 단말 또는 외부 서버와 사용자의 입출력 조작에 따라 유무선 통신망 등을 경유하여 각종 데이터 등을 송수신하도록 구성될 수 있다.
도 2는 본 발명의 일 실시예에 따른 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 신체 부상 위험 예측 처리부의 구성을 설명하기 위한 블록도이다.
도 2를 참조하면, 신체 부상 위험 예측 처리부(300)는 이미지 데이터 획득부(310), 신체 인식부(320), 신체 자세 인식부(330), 자세 문제 판단부(340), 자세 데이터 관리부(350) 및 신체 부상 위험 예측부(360) 등을 포함할 수 있으며, 일부 구성 요소들은 통합된 형태로 구성될 수 있다.
먼저 이미지 데이터 획득부(310)는 적어도 하나로 구성된 이미지 센서(100)를 이용하여 사용자의 신체 동작 자세와 관련된 이미지 데이터를 획득하고 저장하도록 구성될 수 있다. 또한, 이미지 데이터 획득부(310)는 모션 센서(200)를 통해 사용자의 모션 여부 및 모션 센서가 장착된 신체 부위의 이동 정보 관련 데이터를 추가로 획득할 수 있다.
신체 인식부(320)는 이미지 데이터 획득부(310)로부터 수신한 이미지 데이터에 기초하여 신체 부위별 분할(segmentation)을 통해 신체 관절 좌표를 추출하고, 신체 관절 좌표에 기초하여 사용자의 신체 부위 실루엣, 사용자의 신체 부위 인식 정보 및 신체 관절 인식 정보를 획득하도록 구성될 수 있다. 예컨대, 사용자의 모습이 포함된 이미지에서 관심 대상인 사용자의 신체 이미지를 먼저 추출하고, 추출한 신체 이미지에서 신체부위별 분할(segmentation) 작업을 통해 각 신체의 관절 좌표를 추출할 수 있다.
신체 자세 인식부(330)는 신체 인식부(320)에서 획득한 신체 부위 실루엣, 신체 부위 인식 정보 및 신체 관절 인식 정보와 모션 센서(200)를 통해 획득한 모션 관련 데이터에 기초하여 사용자의 동작 자세에 대해 동적 자세 또는 정적 자세의 자세 유형을 판단하여 인식하도록 구성될 수 있다.
예컨대, 신체 자세 인식부(330)는 신체 부위의 이동 궤적 정보, 신체 부위의 이동 반복성 정보 및 상기 신체 부위의 특정 위치의 유지 시간 정보 중 적어도 하나를 이용하여 상기 동적 자세 또는 상기 정적 자세의 자세 유형을 판단할 수 있다. 먼저, 신체 부위의 이동 궤적 정보 관련하여, 특정 신체 부위의 이동 궤적의 크기가 미리 결정된 기준값보다 큰 경우, 해당 신체 부위의 이동 궤적 정보에 기초하여 자세 유형을 동적 자세로 판단하고, 특정 신체 부위의 이동 궤적의 크기가 미리 결정된 기준값보다 작은 경우, 해당 신체 부위의 이동 궤적 정보에 기초하여 자세 유형을 정적 자세로 판단할 수 있다. 이때 이용하는 신체 부위는 하나가 아닌 여러 개의 신체 부위의 조합일 수 있다. 다음으로, 신체 부위의 이동 반복성 정보 관련하여, 신체 부위의 이동 궤적이 미리 결정된 패턴으로 반복되는 경우, 신체 부위의 이동 반복성 정보에 기초하여 자세 유형을 동적 자세로 판단할 수 있다. 또한, 신체 부위의 특정 위치의 유지 시간 정보 관련하여, 신체 부위의 위치가 일정 범위 내로 유지하는 시간이 미리 결정된 기준값보다 큰 경우, 신체 부위의 특정 위치의 유지 시간 정보에 기초하여 자세 유형을 정적 자세로 판단할 수 있다.
이와 같이, 신체 자세 인식부(330)는 이미지 센서(100) 및 모션 센서(200)로부터 획득한 자세 동작 관련 데이터에 기초하여 신체 부위 실루엣, 신체 부위 및 신체 관절 위치 정보를 이용하여 신체 부위의 이동 궤적, 이동 궤적의 반복성, 특정 위치 유지 시간을 측정하고, 이들 정보에 기초하여 사용자의 동적 자세와 정적 자세를 구분하고, 구분된 정적 자세와 동적 자세 정보를 일정 시간 내의 자세 유형 비중에 따라 최종 정적 자세와 동적 자세로 구분할 수 있다.
자세 문제 판단부(340)는 사용자의 구분된 자세 유형에 기초하여 동적 자세 및 정적 자세 각각의 동작 자세의 문제를 상이한 방식으로 판단하도록 구성될 수 있다. 예컨대, 동적 자세로 판단된 자세 정보를 이용하여 관절 및 신체 부위의 위치가 편향되었는지를 판단하고, 여기서 편향 여부 판단은 관절 및 신체 부위가 같은 특정 방향에 집중되어 몰려 있거나 또는 위험한 범위 내에 집중되어 몰려 있는지를 판단하는 것이다. 이와 같이 신체 동작 시에 동적 자세로 판단되는 경우, 특정 위치로 편향된 관절 및 신체 부위를 판단하고, 해당 관절 또는 신체 부위가 신체 자세 상 위험한 범위내에 위치하는지를 판단함으로써 동적 자세에서의 자세 문제 및 위험도를 판단할 수 있다. 한편, 정적 자세로 판단되는 경우 특정 위치로 편향된 관절 및 신체 부위를 판단하고, 해당 관절 및 신체 부위가 일정 범위 내로 유지하는 시간이 일정 기준 시간을 초과하는지 여부를 판단함으로써 정적 자세에서의 자세 문제 및 위험도를 판단할 수 있다.
자세 문제 판단부(340)는 이와 같이 판단된 동적 자세의 문제와 정적 자세의 문제에 기초하여 최종 자세 문제를 판단할 수 있다. 예컨대, 동적 자세 또는 정적 자세 중 어느 하나의 자세 유형에만 자세 문제가 발생하는 경우 문제된 자세 유형에 대한 문제 판단 결과를 신체 부상 위험 예측부(360) 및 솔루션 제공 처리부(400)에 제공할 수 있으며, 시간 구간에 따라 동적 자세의 문제 및 정적 자세의 문제가 모두 발생하는 경우 각 시간 구간에 따른 동적 자세의 문제 및 정적 자세의 문제 판단 결과를 신체 부상 위험 예측부(360) 및 솔루션 제공 처리부(400)에 제공할 수 있다.
자세 데이터 관리부(350)는 해당 사용자에 대한 신체 자세 인식부(330)에서 인식한 동작 자세 인식 정보 및 자세 문제 판단부(340)에서 판단한 자세 문제 관련 정보를 저장 및 관리하도록 구성될 수 있다. 이에 따라, 자세 유형에 따른 솔루션이 제공된 이후에도 지속적인 사용자의 자세의 변화도 및 자세 문제 해결 여부에 대한 정보를 반복하여 생성 및 업데이트하고, 사용자에게 지속적으로 자세 변화도 또는 문제 해결 정도에 대한 정보를 제공할 수 있다.
신체 부상 위험 예측부(360)는 신체 자세 인식부(330) 및 자세 문제 판단부(340)를 통해 인식된 동작 자세의 문제에 해당하는 적어도 하나의 관절에 대해 신체 부상 위험 인자를 측정하고, 신체 부상 위험 인자에 기초하여 적어도 하나의 신체 부위에 대한 신체 부상과 관련된 위험도를 예측하도록 구성될 수 있다. 예컨대, 신체 부상 위험 인자 예측부(360)는 신체 부상과 관련된 각 관절, 예컨대 목 관절, 척추 관절, 어깨 관절이나 골반 등의 기울기 및 해당 관절의 기준점으로부터 위치 편차에 기초하여 관절별 부상 위험 인자를 측정가능하며, 동적 자세에서의 위험도 및 정적 자세에서의 위험도를 각각 구분하여 도출해낼 수 있다.
도 3는 본 발명의 일 실시예에 따라 사용자의 동적 자세와 정적 자세의 자세 유형 판단을 통해 자세 문제를 판단하고 솔루션을 제공하는 방법을 설명하기 위한 예시도이다.
도 3을 참조하면, 신체 자세 인식부(330)를 통해 사용자의 무의식 상태에서의 자연스러운 자세 동작을 분석함으로써 동적 자세 및 정적 자세를 구분하여 인식할 수 있다.
다음으로 자세 문제 판단부(340)를 통해 사용자의 각 자세 유형에 따라 상이한 방식으로 자세 문제를 판단할 수 있다. 예컨대 동적 자세로 인식된 경우 동적 자세의 문제는 관절 사용의 편향 여부, 관절 위치가 신체 자세 상 위험한 범위 내에 위치하는지 여부, 관절 과사용 여부 등을 고려하여 동적 자세의 문제 여부 및 위험도를 판단할 수 있다. 예컨대 정적 자세로 인식된 경우 정상 자세와 비정상 자세로 구분하기 위해 자세 편향 여부 및 정적 자세의 유지 시간 등을 고려하여 정적 자세의 문제 여부 및 위험도를 판단할 수 있다.
다음으로, 솔루션 제공 처리부(400)를 통해 사용자의 동적 자세 문제 및 정적 자세 문제에 따라 상이한 방식으로 솔루션을 제공할 수 있다. 예컨대, 동적 자세 문제로 판단된 경우 운동 동작 솔루션을 제안하고, 이전 동적 자세와 비교하여 동적 자세의 변화도를 사용자 장치를 통해 사용자에게 제공할 수 있으며, 여기서, 운동 솔루션은 예컨대 동적 자세 문제 판단 결과에 따라 해당 사용자의 동작 시 신체 부상 위험을 최소화할 수 있는 스트레칭 및 운동 동작 등의 가이드 영상일 수 있다. 또한, 정적 자세 문제로 판단된 경우 자세 비정상 상태를 실시간으로 사용자 장치를 통해 알람 제공을 할 수 있으며, 이전 정적 자세와 비교하여 정적 자세의 변화도를 사용자에게 제공할 수 있다.
도 4는 본 발명의 일 실시예에 따른 사용자의 동적 자세와 정적 자세를 판단하고 최종 자세 문제를 판단하는 방법을 설명하기 위한 예시도이다.
먼저 동적 및 정적 자세 인식을 위해 카메라 등의 이미지 센서(100) 및 모션 센서(200)를 사용할 수 있다. 모션 센서(200)는 신체 부위 전체에 대한 자세 및 상태보다는 동작 모션 여부, 모션 센서가 장착된 신체 부위의 이동 정보를 획득하는데 사용될 수 있다. 또한, 이미지 센서(100)는 사용자의 동작 자세 정보를 획득할 수 있는 공간에 설치되고, 모션 센서의 경우 개인 휴대 기기 또는 신체에 부착된 별도 부착 센서일 수 있다.
신체 인식부(320)에서는 획득된 이미지 정보를 이용하여 이미지 사용자의 신체부위 실루엣을 검출하고, 신체 부위 및 신체 관절 위치를 인식할 수 있다.
신체 자세 인식부(330)에서는 사용자의 동적 및 정적 자세 구분을 위해 신체 부위 실루엣, 신체 부위, 신체 관절 위치 정보를 이용하여 신체 부위의 이동 궤적, 이동 궤적의 반복성, 특정 위치 유지 시간을 측정하고, 이들 3가지 요소를 이용하여 동적 및 정적 상호 비중 기준으로 동적 자세인지 정적 자세인지 여부를 판단할 수 있다. 예컨대, 신체 부위의 이동 궤적 크기를 측정하여 신체 부위의 이동 여부를 판단하고, 신체 부위의 이동의 반복성을 측정하여 반복성 여부를 판단하고, 신체 부위 위치의 유지 시간을 측정하고 판단함으로써 동적 자세 및 정적 자세를 구분할 수 있다.
다음으로 자세 문제 판단부(340)에서 동적 자세 문제와 정적 자세 문제를 구분하여 판단함으로써 최종 자세 문제를 판단할 수 있다. 예컨대 동적 자세로 판단한 경우 동적 자세로 판단된 자세 정보를 이용하여 관절 및 신체 부위의 위치가 편향되었는지를 판단하고, 또한 관절 또는 신체 부위가 신체 자세상 위험한 범위 내에 위치하는지를 판단하고, 이러한 정보를 기반으로 동작 자세의 위험도를 판단할 수 있다. 또한, 정적 자세로 판단한 경우, 관절 또는 신체부위 위치가 같은 위치에 몰려있는지 편향 여부를 판단하고, 또한 관절 및 신체부위의 일정 위치내 유지한 시간이 일정 시간 이상인 경우 정적 자세 문제로 판단한다.
도 5는 본 발명의 일 실시예에 따라 사용자 동작 자세 인식 기반 신체 부상 위험 예측 시스템을 설명하기 위한 블록도이다.
도 5를 참조하면, 신체 부상 위험 예측 서버(510)가 신체 부상 위험 예측 처리부(300)의 신체 자세 인식부(330) 및 자세 문제 판단부(340)의 동작을 수행하도록 구성될 수 있고, 도출된 동적 자세 정보 및 정적 자세 관련 정보를 자세 데이터 관리 서버(520)로 전달할 수 있다. 동적 자세 정보 및 정적 자세 관련 정보는 해당 사용자의 동적 자세 및 정적 자세를 구분한 자세 인식 정보 및 각 자세 유형에 문제가 있는지 동적 자세 문제 및 정적 자세 문제와 관련된 정보를 포함할 수 있으며, 자세 데이터 관리 서버(520)는 자세 데이터 관리부(350)의 동작을 수행하도록 구성될 수 있고, 수신한 정보를 솔루션 제공 서버(530)로 전달할 수 있다.
솔루션 제공 서버(530)는 솔루션 제공 처리부(400)의 동작을 수행하도록 구성될 수 있으며, 자세 문제에 대한 솔루션은 동적 자세 문제와 정적 자세 문제에 따라 다른 형태의 정보로 생성하고, 키오스크나 스마트폰과 같은 사용자 장치(540)를 통해 생성된 솔루션 정보 및 콘텐츠가 사용자에게 제공될 수 있다.
도 6은 본 발명의 일 실시예에 따라 사용자 동작 자세 인식 기반 신체 부상 위험을 예측하는 방법을 설명하기 위한 흐름도이다.
먼저 사용자의 동작 자세와 관련된 이미지 데이터 및 모션 데이터를 각각 이미지 센서(100) 및 모션 센서(200)로부터 획득할 수 있다.(S610)
신체 인식부(320)는 획득한 센서 데이터들로부터 사용자의 신체 부위 인식 정보 및 신체 관절 인식 정보를 획득할 수 있다.(S620)
신체 자세 인식부(330)는 사용자의 신체 부위 인식 정보 및 신체 관절 인식 정보 등에 기초하여 동적 자세 또는 정적 자세의 자세 유형을 판단하여 인식할 수 있다.(S630)
자세 문제 판단부(340)는 동적/정적 자세 유형에 기초하여 각각 상이한 방식으로 동작 자세의 문제를 판단할 수 있다.(S640)
자세 데이터 관리부(350)는 해당 사용자에 대한 동적/정적 자세 정보를 저장 및 관리할 수 있다.(S650)
솔루션 제공 처리부(400)는 각 자세 유형에 기초하여 사용자에게 솔루션 정보를 맞춤형으로 제공할 수 있다.(S660)
이미지 센서(100) 및 모션 센서(200)를 통해 사용자의 동작 자세를 지속적으로 모니터링함으로써 앞의 단계들을 반복하고, 사용자의 자세 변화도 및 업데이트된 솔루션을 지속적으로 제공함으로써 사용자의 신체 부상 위험을 효과적으로 제거할 수 있다.
본 발명의 명세서에 개시된 실시예들은 예시에 불과한 것으로서, 본 발명은 이에 한정되지 않는 것이다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.
100: 이미지 센서
200: 모션 센서
300: 신체 부상 위험 예측 처리부
310: 이미지 데이터 획득부
320: 신체 인식부
330: 신체 자세 인식부
340: 자세 문제 판단부
350: 자세 데이터 관리부
360: 신체 부상 위험 예측부
400: 솔루션 제공 처리부

Claims (11)

  1. 사용자 동작 자세 인식 기반 신체 부상 위험 예측 장치에 의해 수행되는 신체 부상 위험 예측을 위한 방법에 있어서,
    적어도 하나의 이미지 센서를 이용하여 사용자의 동작 자세와 관련된 이미지 데이터를 획득하는 단계;
    상기 이미지 데이터에 기초하여 상기 사용자의 신체 부위 인식 정보 및 신체 관절 인식 정보를 획득하는 단계;
    상기 획득한 신체 부위 인식 정보 및 신체 관절 인식 정보에 기초하여 상기 사용자의 동작 자세에 대해 동적 자세 또는 정적 자세의 자세 유형을 구분하여 인식하는 단계; 및
    상기 사용자의 자세 유형에 기초하여 동작 자세의 문제를 판단하는 단계
    를 포함하고,
    상기 자세 유형을 구분하여 인식하는 단계는 신체 부위의 이동 궤적 정보, 상기 신체 부위의 이동 반복성 정보 및 상기 신체 부위의 특정 위치의 유지 시간 정보를 이용하여 상기 동적 자세 또는 상기 정적 자세의 자세 유형을 판단하는 것이고,
    상기 신체 부위의 이동 궤적의 크기가 미리 결정된 기준값보다 큰 경우, 상기 신체 부위의 이동 궤적 정보에 기초하여 상기 자세 유형을 동적 자세로 판단하는 것이고,
    상기 신체 부위의 이동 궤적이 미리 결정된 패턴으로 반복되는 경우, 상기 신체 부위의 이동 반복성 정보에 기초하여 상기 자세 유형을 동적 자세로 판단하는 것이고,
    상기 신체 부위의 위치가 일정 범위 내로 유지하는 시간이 미리 결정된 기준값보다 큰 경우, 상기 신체 부위의 특정 위치의 유지 시간 정보에 기초하여 상기 자세 유형을 정적 자세로 판단하는 것이고,
    상기 동작 자세의 문제를 판단하는 단계는, 상기 자세 유형이 동적 자세로 판단되는 경우 특정 위치로 편향된 관절 및 신체 부위를 판단하고, 상기 관절 및 신체 부위가 위험한 범위 내에 위치하는지를 판단함으로써 동적 자세의 위험도를 판단하는 것이고,
    상기 동작 자세의 문제를 판단하는 단계는, 상기 자세 유형이 정적 자세로 판단되는 경우 특정 위치로 편향된 관절 및 신체 부위를 판단하고, 상기 관절 및 신체 부위가 일정 범위 내로 유지하는 시간을 판단함으로써 정적 자세의 위험도를 판단하는 것인, 신체 부상 위험 예측 방법.
  2. 제1항에 있어서, 상기 사용자에 장착된 모션 센서를 이용하여 상기 사용자의 모션 여부 및 상기 모션 센서가 장착된 신체 부위의 이동 정보를 획득하는 단계를 더 포함하는 신체 부상 위험 예측 방법.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제1항에 있어서, 상기 동작 자세의 문제를 판단하는 단계 이후에, 상기 동작 자세의 문제가 동적 자세의 문제로 판단되는 경우 동적 자세의 솔루션으로서 동적 자세의 문제 해결을 위한 운동 방법 및 동적 자세의 변화도를 제공하는 단계를 더 포함하는 신체 부상 위험 예측 방법.
  10. 제1항에 있어서, 상기 동작 자세의 문제를 판단하는 단계 이후에, 상기 동작 자세의 문제가 정적 자세의 문제로 판단되는 경우 정적 자세의 솔루션으로서 자세 비정상 상태의 알람 및 정적 자세의 변화도를 제공하는 단계를 더 포함하는 신체 부상 위험 예측 방법.
  11. 사용자 동작 자세 인식 기반 신체 부상 위험 예측 장치에 있어서,
    적어도 하나의 이미지 센서를 이용한 사용자의 동작 자세와 관련된 이미지 데이터를 획득하도록 구성된 이미지 데이터 획득부;
    상기 이미지 데이터에 기초하여 상기 사용자의 신체 부위 인식 정보 및 신체 관절 인식 정보를 획득하도록 구성된 신체 인식부;
    상기 획득한 신체 부위 인식 정보 및 신체 관절 인식 정보에 기초하여 상기 사용자의 동작 자세에 대해 동적 자세 또는 정적 자세의 자세 유형을 구분하여 인식하도록 구성된 신체 자세 인식부; 및
    상기 사용자의 자세 유형에 기초하여 동작 자세의 문제를 판단하도록 구성된 자세 문제 판단부
    를 포함하고,
    상기 신체 자세 인식부는, 신체 부위의 이동 궤적 정보, 상기 신체 부위의 이동 반복성 정보 및 상기 신체 부위의 특정 위치의 유지 시간 정보를 이용하여 상기 동적 자세 또는 상기 정적 자세의 자세 유형을 구분하여 판단하도록 구성되고,
    상기 신체 자세 인식부는, 상기 신체 부위의 이동 궤적의 크기가 미리 결정된 기준값보다 큰 경우, 상기 신체 부위의 이동 궤적 정보에 기초하여 상기 자세 유형을 동적 자세로 판단하도록 구성되고,
    상기 신체 자세 인식부는, 상기 신체 부위의 이동 궤적이 미리 결정된 패턴으로 반복되는 경우, 상기 신체 부위의 이동 반복성 정보에 기초하여 상기 자세 유형을 동적 자세로 판단하도록 구성되고,
    상기 신체 자세 인식부는, 상기 신체 부위의 위치가 일정 범위 내로 유지하는 시간이 미리 결정된 기준값보다 큰 경우, 상기 신체 부위의 특정 위치의 유지 시간 정보에 기초하여 상기 자세 유형을 정적 자세로 판단하도록 구성되고,
    상기 자세 문제 판단부는, 상기 자세 유형이 동적 자세로 판단되는 경우 특정 위치로 편향된 관절 및 신체 부위를 판단하고, 상기 관절 및 신체 부위가 위험한 범위 내에 위치하는지를 판단함으로써 동적 자세의 위험도를 판단하도록 구성되고,
    상기 자세 문제 판단부는, 상기 자세 유형이 정적 자세로 판단되는 경우 특정 위치로 편향된 관절 및 신체 부위를 판단하고, 상기 관절 및 신체 부위가 일정 범위 내로 유지하는 시간을 판단함으로써 정적 자세의 위험도를 판단하도록 구성되는 것인, 신체 부상 위험 예측 장치.

KR1020220176419A 2022-12-16 2022-12-16 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치 KR102624777B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220176419A KR102624777B1 (ko) 2022-12-16 2022-12-16 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치
KR1020240003834A KR102699368B1 (ko) 2022-12-16 2024-01-09 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220176419A KR102624777B1 (ko) 2022-12-16 2022-12-16 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020240003834A Division KR102699368B1 (ko) 2022-12-16 2024-01-09 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Publications (1)

Publication Number Publication Date
KR102624777B1 true KR102624777B1 (ko) 2024-01-12

Family

ID=89541561

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220176419A KR102624777B1 (ko) 2022-12-16 2022-12-16 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치
KR1020240003834A KR102699368B1 (ko) 2022-12-16 2024-01-09 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020240003834A KR102699368B1 (ko) 2022-12-16 2024-01-09 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Country Status (1)

Country Link
KR (2) KR102624777B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101784410B1 (ko) 2016-11-15 2017-11-06 단국대학교 천안캠퍼스 산학협력단 운동 자세 인식 방법 및 이를 적용하는 시스템
KR20190097361A (ko) * 2018-02-12 2019-08-21 경남대학교 산학협력단 자세 교정을 위한 자세 평가 시스템 및 그 방법
KR20200096236A (ko) * 2017-11-16 2020-08-11 블라스트 모션 인크. 센서 데이터의 접합부 응력 결정 방법
KR102449779B1 (ko) * 2022-06-16 2022-09-30 주식회사 피트릭스 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102026312B1 (ko) * 2017-11-13 2019-09-27 주식회사 휴먼인사이트 3축 센서 기반의 자세 시각화 및 관리 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101784410B1 (ko) 2016-11-15 2017-11-06 단국대학교 천안캠퍼스 산학협력단 운동 자세 인식 방법 및 이를 적용하는 시스템
KR20200096236A (ko) * 2017-11-16 2020-08-11 블라스트 모션 인크. 센서 데이터의 접합부 응력 결정 방법
KR20190097361A (ko) * 2018-02-12 2019-08-21 경남대학교 산학협력단 자세 교정을 위한 자세 평가 시스템 및 그 방법
KR102449779B1 (ko) * 2022-06-16 2022-09-30 주식회사 피트릭스 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치

Also Published As

Publication number Publication date
KR102699368B1 (ko) 2024-08-27
KR20240095090A (ko) 2024-06-25

Similar Documents

Publication Publication Date Title
CN110895671B (zh) 跌倒检测方法以及使用此方法的电子系统
CN107784282B (zh) 对象属性的识别方法、装置及系统
US20190028637A1 (en) Augmented reality for three-dimensional model reconstruction
US9411416B2 (en) Computer device operable with user's eye movement and method for operating the computer device
WO2018025831A1 (ja) 人流推定装置、表示制御装置、人流推定方法および記録媒体
US9013591B2 (en) Method and system of determing user engagement and sentiment with learned models and user-facing camera images
CN111754513A (zh) 产品表面缺陷分割方法、缺陷分割模型学习方法及装置
US20200219269A1 (en) Image processing apparatus and method, and image processing system
US11443549B2 (en) Apparatus, system, and method of providing a facial and biometric recognition system
JP5225870B2 (ja) 情動分析装置
KR102680107B1 (ko) 자각 상태 및 무자각 상태의 사용자 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치
CN111914812A (zh) 图像处理模型训练方法、装置、设备及存储介质
CN107993256A (zh) 动态目标跟踪方法、装置及存储介质
CN116152863B (zh) 一种人员信息识别方法、装置、电子设备及存储介质
CN112163470A (zh) 基于深度学习的疲劳状态识别方法、系统、存储介质
KR20210014988A (ko) 원격 모니터링을 위한 영상 분석 시스템 및 방법
CN112989987A (zh) 用于识别人群行为的方法、装置、设备以及存储介质
JP2024098114A (ja) 情報処理装置、情報処理方法、及びプログラム
KR102624777B1 (ko) 사용자 동작 자세 인식 기반 신체 부상 위험 예측을 위한 방법 및 이를 위한 장치
Leng et al. On the Utility of Virtual On-body Acceleration Data for Fine-grained Human Activity Recognition
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
US11527090B2 (en) Information processing apparatus, control method, and non-transitory storage medium
US9413477B2 (en) Screen detector
CN115993927A (zh) 基于手势识别的屏幕显示方法、装置、设备及存储介质
KR20130075802A (ko) 기울기 히스토그램을 이용한 사람 검출 추적 시스템 및 방법

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant