KR20200074609A - 홈 트레이닝 제공 방법 및 시스템 - Google Patents

홈 트레이닝 제공 방법 및 시스템 Download PDF

Info

Publication number
KR20200074609A
KR20200074609A KR1020180163201A KR20180163201A KR20200074609A KR 20200074609 A KR20200074609 A KR 20200074609A KR 1020180163201 A KR1020180163201 A KR 1020180163201A KR 20180163201 A KR20180163201 A KR 20180163201A KR 20200074609 A KR20200074609 A KR 20200074609A
Authority
KR
South Korea
Prior art keywords
user
motion
angle data
posture information
information
Prior art date
Application number
KR1020180163201A
Other languages
English (en)
Other versions
KR102141288B1 (ko
Inventor
이형준
김다원
남희조
이승연
함유경
Original Assignee
이화여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이화여자대학교 산학협력단 filed Critical 이화여자대학교 산학협력단
Priority to KR1020180163201A priority Critical patent/KR102141288B1/ko
Publication of KR20200074609A publication Critical patent/KR20200074609A/ko
Application granted granted Critical
Publication of KR102141288B1 publication Critical patent/KR102141288B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0087Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/805Optical or opto-electronic sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/807Photo cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/836Sensors arranged on the body of the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2225/00Miscellaneous features of sport apparatus, devices or equipment
    • A63B2225/50Wireless data transmission, e.g. by radio transmitters or telemetry

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Rehabilitation Tools (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

홈 트레이닝 제공 방법은 동작분석장치가 일정한 시간 구간에서 제1 사용자의 제1 복수 신체 부위에 착용한 웨어러블 기기로부터 제1 각도 데이터를 수신하는 단계, 상기 동작분석장치가 상기 시간 구간에서 상기 제1 사용자의 동작을 인식하는 동작 인식장치로부터 획득한 상기 제1 사용자의 복수 관절 부위의 위치 데이터를 이용하여 상기 복수 관절 부위에 대한 제2 각도 데이터를 생성하는 단계, 상기 동작분석장치가 상기 제1 각도 데이터 및 상기 제2 각도 데이터를 기준으로 상기 시간 구간에서 상기 제1 사용자의 일련의 운동 동작을 나타내는 제1 자세 정보를 생성하는 단계 및 상기 동작분석장치가 사전에 획득한 상기 운동 동작과 동일한 종류의 참조 동작에 대한 제2 자세 정보와 상기 제1 자세 정보를 비교하여 피드백 정보를 생성하는 단계를 포함한다.

Description

홈 트레이닝 제공 방법 및 시스템{SUPPORTING METHOD AND SYSTEM FOR HOME FITNESS}
이하 설명하는 기술은 사용자 동작을 분석하여 운동 동작을 트레이닝하는 기법에 관한 것이다.
최근 스마트폰과 함께 다양한 스마트 센서와 웨어러블 기기가 보급되고 있다. 웨어러블 기기를 활용한 응용 서비스 중 대표적인 것이 헬스 케어(health care)이다. 응용 서비스는 사용자의 이동 거리, 운동량 모니터링 등이 있다. 대부분 웨어러블 기기는 사용자의 스마트폰과 연동하여 일정한 정보를 사용자에게 제공한다.
한국공개특허 제10-2017-0062105호
이하 설명하는 기술은 사용자가 착용한 웨어러블 기기와 사용자의 동작을 모니터링하는 동작 인식장치를 이용하여 사용자 운동 동작을 분석하고, 트레이닝을 위한 피드백을 생성하는 장치를 제공하고자 한다. 이하 설명하는 기술은 다수의 사용자를 대상으로 동시에 각 사용자의 운동 동작을 분석하고, 일정한 훈련 피드백을 생성하는 장치를 제공하고자 한다.
홈 트레이닝 제공 방법은 동작분석장치가 일정한 시간 구간에서 제1 사용자의 제1 복수 신체 부위에 착용한 웨어러블 기기로부터 제1 각도 데이터를 수신하는 단계, 상기 동작분석장치가 상기 시간 구간에서 상기 제1 사용자의 동작을 인식하는 동작 인식장치로부터 상기 제1 사용자의 복수 신체 부위의 위치 데이터를 기준으로 생성한 복수 관절 부위에 대한 제2 각도 데이터를 수신하는 단계, 상기 동작분석장치가 상기 제1 각도 데이터 및 상기 제2 각도 데이터를 기준으로 상기 시간 구간에서 상기 제1 사용자의 일련의 운동 동작을 나타내는 제1 자세 정보를 생성하는 단계 및 상기 동작분석장치가 사전에 획득한 상기 운동 동작과 동일한 종류의 참조 동작에 대한 참조 자세 정보와 상기 제1 자세 정보를 비교하여 상기 제1 사용자에 대한 피드백 정보를 생성하는 단계를 포함한다.
홈 트레이닝 시스템은 제1 사용자의 제1 복수 신체 부위에 위치하고, 일정한 시간 구간에서 상기 제1 복수 신체 부위의 제1 각도 데이터를 생성하는 복수의 웨어러블 기기, 3차 공간에서 상기 제1 사용자의 신체 부위에 대한 깊이 정보를 생성하고, 상기 제1 사용자의 복수 신체 부위의 위치 데이터를 기준으로 복수 관절 부위의 제2 각도 데이터를 생성하는 동작 인식장치 및 상기 제1 각도 데이터 및 상기 제2 각도 데이터를 기준으로 상기 시간 구간에서 상기 제1 사용자의 일련의 운동 동작을 나타내는 제1 자세 정보를 생성하고, 상기 운동 동작과 동일한 종류의 참조 동작에 대한 제2 자세 정보와 상기 제1 자세 정보를 비교하여 피드백 정보를 생성하는 분석 서버를 포함한다.
이하 설명하는 기술은 다수의 사용자를 동시에 모니터링하여 운동 동작을 트레이닝할 수 있다. 이하 설명하는 기술은 사용자의 운동 동작과 정확한 운동 동작을 실시간으로 비교하여 사용자 동작에 대한 피드백을 제공한다.
도 1은 홈 트레이닝 시스템을 도시한 예이다.
도 2는 홈 트레이닝 시스템을 도시한 다른 예이다.
도 3은 사용자의 동작을 분석하여 피드백을 제공하는 과정에 대한 예이다.
도 4는 사용자 동작 정보를 포함하는 패킷 구조에 대한 예이다.
도 5는 홈 트레이닝 과정에 대한 예이다.
도 6은 홈 트레이닝 과정에 대한 다른 예이다.
도 7은 동작 분석 장치의 구성을 도시한 예이다.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시례를 가질 수 있는 바, 특정 실시례들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
이하 설명하는 기술은 복수의 웨어러블 기기 및 사용자 동작을 인식하는 장치를 이용하는 트레이닝 장치를 제공하다. 이하 설명하는 기술은 사용자의 운동 동작을 교정하는 장치라고 할 수도 있다. 사용자는 스마트 기기를 통해 일정한 피드백을 받아 보다 정확한 동작으로 운동을 할 수 있다. 따라서 이하 설명하는 기술은 홈 트레이닝에 유용하다.
홈 트레이닝 장치 내지 시스템에서 사용하는 구성에 대하여 먼저 설명한다.
사용자가 일정한 운동 동작을 하면 특정 신체 부위(들)의 위치가 변한다. 신체 부위의 위치 변화는 특정 지점을 기준으로 2차원 또는 3차원 공간에서 일정한 각도 변화로 정의할 수 있다. 신체 부위의 위치 변화는 가속도, 가속도의 변화, 각속도의 변화 등과 같은 물리량으로 정의할 수도 있다. 신체에 착용한 웨어러블 기기는 센서를 이용하여 착용한 부위(지점)의 각도 내지 각도 변화를 센싱할 수 있다. 웨어러블 기기는 사용자 단말로 센싱한 정보(각도값 등)를 전달할 수 있다. 예컨대, 웨어러블 기기는 스마트 워치, 스마트 밴드 등과 같이 다양한 형태의 장치를 포함하는 의미이다. 웨어러블 기기는 운동의 종류에 따라 다양한 신체 부위에 위치할 수 있다.
웨어러블 기기는 사용자 단말과 근거리 통신을 통해 일정한 정보를 주고받을 수 있다. 예컨대, 웨어러블 기기는 블루투스(BLE) 통신, RFID 통신, WiFi Direct, UPnP(Universal Plug and Play) 등 다양한 근거리 통신을 통해 사용자 단말과 정보를 주고받을 수 있다. 나아가 웨어러블 기기는 이동통신 네트워크를 통해 사용자 단말과 데이터를 주고받을 수도 있을 것이다. 즉, 이하 설명하는 기술에서 웨어러블 기기와 단말 장치 사이의 통신 기법은 특정한 종류로 제한되는 것은 아니다.
사용자 단말은 웨어러블 기기와 연결되어 일정한 정보를 사용자에게 제공하는 장치이다. 예컨대, 사용자 단말은 스마트폰, 태블릿, PC, 게임 콘솔 등과 같은 다양한 장치일 수 있다. 단말 장치에 대한 구체적인 구성은 후술한다.
웨어러블 기기 외에 사용자 동작을 모니터링(인식)하는 동작 인식장치를 사용한다. 동작 인식장치는 사용자의 자세 및 동작을 인식하는 장치이다. 동작 인식장치는 카메라 및 센서 등을 사용하여 사용자의 동작을 인식할 수 있다. 동작 인식장치는 다양한 기법을 사용하여 사용자를 인식할 수 있다. 동작 인식장치는 기본적으로 카메라를 사용하여 사용자가 포함된 영상을 획득하고, 영상을 분석하여 사용자의 동작을 파악할 수 있다. 나아가 동작 인식장치는 스테레오 카메라를 사용하여 깊이 정보를 바탕으로 3차원 공간에서의 사용자 동작을 인식할 수도 있다. 동작 인식장치는 MS의 키넥트와 같이 적외선 빔 프로젝터와 적외선 카메라를 이용하여 사용자를 인식할 수도 있다. 동작 인식장치는 사용자를 인식하고, 사용자가 신체 부위를 기준으로 사용하여 취하는 동작을 인식한다. 예컨대, 동작 인식장치는 사용자의 신체 부위(관절 부위)를 중심으로 사용자의 동작을 인식할 수 있다. 사용자의 신체 부위는 머리 중심, 어깨, 팔꿈치, 손목, 손바닥, 손가락 끝, 무릎, 발목 및 발가락 끝 등이 있다. 동작 인식장치는 하나의 신체 부위와 다른 신체 부위 사이의 길이, 기준점과 어느 하나의 신체 부위 사이의 길이, 복수의 신체 부위의 위치로 정의되는 특정 동작 등을 인식할 수 있다.
도 1은 홈 트레이닝 시스템(100)의 구성을 도시한 예이다. 홈 트레이닝 시스템(100)은 웨어러블 기기(110, 120 및 130), 동작 인식장치(150) 및 사용자 단말(180)을 포함한다. 도 1은 복수의 사용자가 각자 복수의 웨어러블 기기를 착용한 상태를 도시한다. 운동의 종류에 따라 웨어러블 기기를 착용하는 위치는 달라질 수 있다. 사용자들은 모두 양다리의 허벅지 하단에 웨어러블 기기를 착용하고 있다. 사용자별로 착용한 웨어러블 기기를 구별하여, 제1 웨어러블 기기(110), 제2 웨어러블 기기(120) 및 제3 웨어러블 기기(130)라고 명명한다. 제1 웨어러블 기기(110)는 2개의 웨어러블 기기(111, 112)를 포함하고, 제2 웨어러블 기기(120)는 2개의 웨어러블 기기(121, 122)를 포함하고, 제3 웨어러블 기기(130)는 2개의 웨어러블 기기(131, 132)를 포함한다.
웨어러블 기기(110, 120 및 130)는 부착된 위치에서 사용자의 움직임 내지 자세를 추정하기 위한 데이터를 생성한다. 대표적으로 웨어러블 기기(110, 120 및 130)는 각 사용자의 자세에 따른 각도 정보를 생성한다. 웨어러블 기기가 생산하는 각도 정보를 제1 각도 데이터라고 명명한다. 제1 각도 데이터는 가속도, 각속도, 지자기 센서가 센싱한 값, 자이로 센서가 센싱한 값 중 적어도 하나로 구성될 수 있다. 제1 각도 데이터는 3차원 공간(3개의 축을 기준)에서의 각도 또는 일정한 평면 상에서의 각도일 수도 있다. 웨어러블 기기(110, 120 및 130)는 제1 각도 데이터를 사용자 단말(180)에 전달한다. 도 1은 하나의 사용자 단말(180)을 도시하였는데, 사용자가 서로 다른 장소나 일정하게 이격된 거리를 갖는다면 복수의 사용자 단말을 사용할 수 도 있다.
동작 인식장치(150)는 사용자들의 동작을 동시에 인식할 수 있다. 사용자들이 서로 이격된 거리에 있다면, 개별적인 동작 인식장치(150)를 사용하여 사용자들의 동작을 인식할 수 있다. 전술한 바와 같이 동작 인식장치(150)는 3차원 공간에서 사용자의 신체 부위 위치를 인식할 수 있다. 예컨대, 동작 인식장치(150)는 RGB 카메라와 함께 적외선 프로젝터와 적외선 카메라를 이용하여 깊이 정보를 생성할 수 있다. 동작 인식장치(150)는 복수의 신체 부위의 위치를 식별하여 신체 부위 사이의 각도 내지 관절의 각도를 결정할 수 있다. 동작 인식장치(150)가 생성한 각도 정보를 제2 각도 데이터라고 한다. 제1 각도 데이터는 웨어러블 기기(110, 120 및 130)가 배치된 지점의 각도 정보만을 나타내지만, 제2 각도 데이터는 관심있는 복수의 신체 부위(예컨대, 관절 부위)에 대한 각도 데이터를 포함할 수 있다.
사용자 단말(180)은 제1 각도 데이터와 제2 각도 데이터를 기준으로 사용자의 자세를 나타내는 사용자 자세 정보를 생성한다. 사용자 단말(180)은 사전에 획득한 참조 자세 정보와 사용자 자세 정보를 비교하여, 현재 사용자 동작을 분석한다. 참조 자세 정보는 현재 사용자가 수행하는 운동 동작에 대한 정확한 정보로 구성된다. 예컨대, 참조 자세 정보는 전문 트레이너의 운동 자세를 사전에 분석한 값일 수 있다. 사용자 자세 정보와 참조 자세 정보는 동일한 기준으로 생성된다. 예컨대, 사용자 자세 정보와 참조 자세 정보는 모두 제1 각도 데이터와 제2 각도 데이터를 동일한 방식(동일한 함수)으로 처리한 결과일 수 있다.
사용자 단말(180)은 사용자 자세 정보와 참조 자세 정보를 비교하고, 비교 결과에 대한 피드백을 생성하여 출력한다. 예컨대, 사용자 단말(180)은 사용자에게 동작의 정확도, 수정이 필요한 부위, 운동 속도 등에 대하여 화면이나 소리로 알람할 수 있다.
도 2는 홈 트레이닝 시스템(200)을 도시한 다른 예이다. 홈 트레이닝 시스템(200)은 웨어러블 기기(210, 220 및 230), 동작 인식장치(250), 사용자 단말(240) 및 분석 서버(280)를 포함한다. 도 2는 복수의 사용자가 각자 복수의 웨어러블 기기를 착용한 상태를 도시한다. 운동의 종류에 따라 웨어러블 기기를 착용하는 위치는 달라질 수 있다. 사용자들은 모두 양다리의 허벅지 하단에 웨어러블 기기를 착용하고 있다. 사용자별로 착용한 웨어러블 기기를 구별하여, 제1 웨어러블 기기(210), 제2 웨어러블 기기(220) 및 제3 웨어러블 기기(230)라고 명명한다. 제1 웨어러블 기기(210)는 2개의 웨어러블 기기(211, 212)를 포함하고, 제2 웨어러블 기기(220)는 2개의 웨어러블 기기(221, 222)를 포함하고, 제3 웨어러블 기기(230)는 2개의 웨어러블 기기(231, 232)를 포함한다.
웨어러블 기기(210, 220 및 230)는 부착된 위치에서 사용자의 움직임 내지 자세를 추정하기 위한 데이터를 생성한다. 웨어러블 기기(210, 220 및 230)는 각 사용자의 자세에 따른 제1 각도 데이터를 생성한다. 웨어러블 기기(210, 220 및 230)는 제1 각도 데이터를 사용자 단말(240)에 전달한다. 도 2는 하나의 사용자 단말(180)을 도시하였는데, 사용자가 서로 다른 장소나 일정하게 이격된 거리를 갖는다면 복수의 사용자 단말을 사용할 수 도 있다.
동작 인식장치(250)는 사용자들의 동작을 동시에 인식할 수 있다. 사용자들이 서로 이격된 거리에 있다면, 개별적인 동작 인식장치(250)를 사용하여 사용자들의 동작을 인식할 수 있다. 전술한 바와 같이 동작 인식장치(250)는 3차원 공간에서 사용자의 신체 부위 위치를 인식할 수 있다. 예컨대, 동작 인식장치(250)는 RGB 카메라와 함께 적외선 프로젝터와 적외선 카메라를 이용하여 깊이 정보를 생성할 수 있다. 동작 인식장치(250)는 복수의 신체 부위의 위치를 식별하여 신체 부위 사이의 각도 내지 관절의 각도를 결정할 수 있다. 동작 인식장치(250)가 생성한 각도 정보를 제2 각도 데이터라고 한다. 제1 각도 데이터는 웨어러블 기기(210, 220 및 230)가 배치된 지점의 각도 정보만을 나타내지만, 제2 각도 데이터는 관심있는 복수의 신체 부위(예컨대, 관절 부위)에 대한 각도 데이터를 포함할 수 있다.
사용자 단말(180)은 제1 각도 데이터를 분석 서버(280)에 송신한다. 동작 인식장치(250)는 제2 각도 데이터를 분석 서버(280)에 송신한다. 동작 인식장치(250)는 내장된 통신 모듈을 통해 제2 각도 데이터를 분석 서버(280)에 송신할 수 있다. 또는 동작 인식장치(250)는 유선으로 연결된 컴퓨터 장치(통신 장치)를 통해 제2 각도 데이터를 분석 서버(280)에 송신할 수 있다. 동작 인식장치(250)가 근거리 통신 기능이 있다면, 동작 인식장치(250)는 사용자 단말(180)로 제2 각도 데이터를 전달하고, 사용자 단말(180)이 제2 각도 데이터를 분석 서버(280)에 송신할 수도 있다.
분석 서버(280)는 제1 각도 데이터와 제2 각도 데이터를 기준으로 사용자의 자세를 나타내는 사용자 자세 정보를 생성한다. 분석 서버(280)는 사전에 획득한 참조 자세 정보와 사용자 자세 정보를 비교하여, 현재 사용자 동작을 분석한다. 참조 자세 정보는 현재 사용자가 수행하는 운동 동작에 대한 정확한 정보로 구성된다. 예컨대, 참조 자세 정보는 전문 트레이너의 운동 자세를 사전에 분석한 값일 수 있다. 사용자 자세 정보와 참조 자세 정보는 동일한 기준으로 생성된다. 예컨대, 사용자 자세 정보와 참조 자세 정보는 모두 제1 각도 데이터와 제2 각도 데이터를 동일한 방식(동일한 함수)으로 처리한 결과일 수 있다.
분석 서버(280)는 사용자 자세 정보와 참조 자세 정보를 비교하고, 비교 결과에 대한 피드백을 생성한다. 분석 서버(280)는 피드백 정보를 사용자 단말(240)에 전달할 수 있다. 사용자 단말(240)은 피드백 정보를 사용자에게 출력할 수 있다. 예컨대, 사용자 단말(240)은 사용자에게 동작의 정확도, 수정이 필요한 부위, 운동 속도 등에 대하여 화면이나 소리로 알람할 수 있다.
도 3은 사용자의 동작을 분석하여 피드백을 제공하는 과정에 대한 예이다. 도 3은 도 2의 시스템을 기준으로 설명한다. 다만 도 3에서 설명하는 과정은 도 1의 시스템에서도 동일하게 수행될 수 있다. 이 경우 사용자 단말(180)이 분석 서버(280)의 동작을 수행하게 된다. 사용자 동작을 분석하여 피드백을 주는 장치를 동작 분석 장치라고 명명한다. 사용자 단말(180) 및 분석 서버(280)는 모두 동작 분석 장치에 해당한다. 도 3은 제1 웨어러블 기기(210)를 중심으로 설명한다.
제1 웨어러블 기기(210)는 배치 위치에서 사용자 동작에 따른 제1 각도 데이터를 센싱(생성)한다(①). 제1 웨어러블 기기(210)는 제1 각도 데이터를 사용자 단말(240)에 전달한다(②). 한편 제1 각도 데이터는 다양한 기준으로 각도 정보를 나타낼 수 있다. 2차 평면에서 각도는 360°범위를 갖는다. 다만 운동 동작의 종류 및 웨어러블 기기가 착용된 위치에 따라 각도 범위가 좁아질 수 있다. 예컨대, 어깨는 0°~ 360°범위 내에서 회전 가능하고, 팔꿈치는 0°~ 180°범위에서 동작하고, 운동 종류에 따라 특정 부위의 각도는 0°~ 90°범위만이 필요할 수도 있다. 나아가 제1 웨어러블 기기(210)는 센싱한 각도 정보를 그래도 전달하지 않고, 일정하게 정규화하여 전달할 수도 있다. 예컨대, 제1 웨어러블 기기(210)는 신체 부위의 각도를 수집해 0°보다 작을 때 4, 0°~ 25°일 때 3, 25°~ 60°일 때 2, 60°~ 90°일 때 1, 90도보다 클 때 0인 값을 근거리 무선 통신(BLE)으로 사용자 단말(240)에 전달할 수 있다. 이 경우 제1 각도 데이터는 각도 정보를 일정하게 처리하여 생성된 값에 해당한다. 제1 각도 데이터는 특정 함수에 각도 정보를 입력하여 나온 결과값일 수 있다. 경우에 따라서는 제1 웨어러블 기기(210)는 센싱한 각도 값을 그대로 전달하고, 사용자 단말(240)이 수신한 값을 일정하게 정규화할 수도 있다. 사용자 단말(240)은 제1 각도 데이터를 분석 서버(280)에 전달한다(③).
한편 제1 웨어러블 기기(210)는 일정한 시간 구간 동안 사용자 동작에 따른 각도 정보를 생성하여 전달할 수 있다.
동작 인식장치(250)는 사용자의 동작을 모니터링하고, 사용자 동작에 따른 복수의 신체(관절) 부위의 제2 각도 데이터를 생성한다(⑤). 키넥트 경우 25개의 관절 데이터(skeleton data)를 추출하고, 관절 데이터를 기준으로 관절 부위의 각도를 연산할 수 있다. 도 3은 사용자의 신체 부위에 대한 관절 데이터(관절 부위 및 인접한 관절 부위를 연결한 직선으로 표시)를 도시한다. 제2 각도 데이터도 제2 각도 데이터와 같이 다양한 방식으로 표현될 수 있다. 설명의 편의를 위하여 제2 각도 데이터는 360°범위를 갖는다고 가정한다. 동작 인식장치(250)는 아래의 수학식 1을 이용하여 제2 각도 데이터를 결정할 수 있다.
Figure pat00001
어느 하나의 관절 부위에 대한 제2 각도 데이터는 상기 수학식 1을 사용하여 결정될 수 있다. θ는 복수의 관절 부위 중 특정 관절 부위의 제2 각도 데이터이고, V2는 특정 관절 부위의 위치이고, V1 및 V3는 특정 관절 부위에서 간격을 갖고 서로 다른 직선 방향으로 연장된 신체 부위를 나타내는 두 개의 위치이다.
동작 인식장치(250)는 제2 각도 데이터를 분석 서버(280)에 전달한다(⑥). 동작 인식장치(250)는 제2 각도 데이터를 일정하게 전처리 내지 정규화하여 분석 서버(280)에 전달할 수 있다. 또는 분석 서버(280) 수신한 제2 각도 데이터로 사용자 자세 정보를 생성하는 과정에서 제2 각도 데이터를 일정하게 처리할 수도 있다. 분석 서버(280)는 제1 각도 데이터와 제2 각도 데이터를 기준으로 사용자의 자세를 나타내는 사용자 자세 정보를 생성한다(⑦).
분석 서버(280)는 사전에 획득한 참조 자세 정보와 사용자 자세 정보를 비교하여, 현재 사용자 동작을 분석한다. 분석 서버(280)는 동작 DB(290)에 저장된 참조 자세 정보를 읽고, 자신이 생성한 사용자 자세 정보와 비교할 수 있다. 참조 자세 정보는 분석 서버(280)가 사전에 보유할 수도 있다. 분석 서버(280)는 사용자 자세 정보와 참조 자세 정보를 비교하고, 비교 결과에 대한 피드백 정보를 생성한다(⑧). 분석 서버(280)는 피드백 정보를 사용자 단말(240)에 전달할 수 있다(⑨). 이후 사용자 단말(240)은 피드백 정보를 사용자에게 출력할 수 있다.
도 4는 사용자 동작 정보를 포함하는 패킷 구조에 대한 예이다. 도 4(A)는 웨어러블 기기가 생성한 패킷에 대한 예이다. 웨어러블 기기가 생성한 패킷을 제1 패킷이라고 명명한다. 제1 패킷은 사용자 식별자(userID), 웨어러블 기기 식별자(wearableID), 각도 정보(roll) 및 타임 스탬프(timeStamp)로 구성된다. 각도 정보는 전술한 제1 각도 데이터일 수 있다. 타임 스탬프는 각도 정보가 생성된 시간을 의미한다. 사용자는 복수의 웨어러블 기기를 착용할 수 있다. 따라서 복수의 웨어러블 기기는 각각 제1 패킷과 같은 유형의 패킷을 사용자 단말에 전송한다. 웨어러블 기기는 실시간으로 계속 각도 정보를 갖는 패킷을 사용자 단말에 전송할 수 있다. 사용자 단말은 수신한 패킷을 그대로 분석 서버에 전달할 수 있다. 또는 사용자 단말은 사용자 식별자, 웨어러블 기기 식별자, 타임 스탬프 및 전처리한 각도 정보를 분석 서버에 전달할 수도 있다.
도 4(B)는 동작 인식장치가 생성한 패킷에 대한 예이다. 동작 인식장치가 생성한 패킷을 제2 패킷이라고 명명한다. 제2 패킷은 사용자 식별자(userID), 각도 데이터(Angle), 각도를 형성한 신체 부위(bodypart1 , bodypart2) 및 타임 스탬프(timeStamp)로 구성된다. 각도 데이터는 전술한 제2 각도 데이터일 수 있다. 타임 스탬프는 각도 데이터가 생성된 시간을 의미한다. 도 4(B)는 하나의 관절 부위에 대한 각도 데이터에 대한 예이다. 동작 인식장치는 복수의 관절 부위에 대한 각도 데이터를 분석 서버에 전달한다. 동작 인식장치는 하나의 패킷에 복수의 관절에 대한 각도 데이터를 전송할 수 있다.
도 5는 홈 트레이닝 과정(300)에 대한 예이다. 도 5는 하나의 사용자가 트레이닝 시스템을 이용하여 트레이닝을 수행하는 과정에 대한 예이다. 도 5는 도 2의 트레이닝 시스템(200)에서 하나의 사용자를 기준으로 설명한다.
사용자 단말(240)은 앱(App)을 실행한다. 앱을 실행하면, 사용자 단말(240)은 제1 웨어러블 기기(210)와 근거리 통신으로 연결된다(301). 또 사용자 단말(240)은 동작 인식장치(250)에 사용자 동작을 인식하도록 명령을 전달할 수도 있다.
제1 웨어러블 기기(210)는 제1 각도 데이터를 사용자 단말(240)에 전달한다(311). 사용자 단말(240)은 제1 각도 데이터를 분석 서버(280)에 전달한다(312).
제1 웨어러블 기기(210)가 사용자 동작에 따른 각도 데이터를 생성하는 시간 구간에 동작 인식장치(250)는 사용자의 동작을 추적하고, 제2 각도 데이터를 생성한다(321). 동작 인식장치(250)는 제2 각도 데이터를 분석 서버(280)에 전달한다(323).
분석 서버(280)는 제1 각도 데이터 및 제2 각도 데이터를 기준으로 사용자 자세 정보를 생성한다(331). 분석 서버(280)는 타임 스탬프를 기준으로 동일 시간에서의 제1 각도 데이터와 제2 각도 데이터를 이용하여 사용자 자세 정보를 생성한다.
사용자 자세 정보는 제1 각도 데이터와 제2 각도 데이터를 입력받아 생성된다. 사용자 자세 정보는 제1 각도 데이터와 제2 각도 데이터를 변수로 갖는 수식 또는 함수의 결과일 수도 있다. 사용자 자세 정보에 대한 예를 설명한다. 분석 서버(280)는 전술한 기준과 같이 제1 각도 데이터의 각도 범위에 따라 0 ~ 4 범위에서 어느 하나의 정수 값으로 결정할 수 있다. 설명의 편의를 위해 이 값을 제1 각도값이라고 명명한다. 제1 각도값은 제1 각도 데이터를 일정하게 처리한 값을 의미한다. 또 분석 서버(280)는 제2 각도 데이터에 0.01을 곱하여 제1 각도값과 같은 단위로 변환할 수 있다. 설명의 편의를 위해 이 값을 제2 각도값이라고 명명한다. 이후 분석 서버(280)는 제1 각도값과 제2 각도값을 모두 합산한 값에 대한 평균을 연산한다. 제1 각도값과 제2 각도값을 모두 합산한 값을 제1 각도 데이터와 제2 각도 데이터의 개수를 합산한 값으로 나누면 평균값을 연산할 수 있다. 이와 같이 모든 데이터를 합산하여 평균하면 어느 하나의 데이터가 누락되는 경우라도 정량적인 자세 비교가 가능하다.
분석 서버(280)는 동작 DB(290)로부터 참조 자세 정보를 획득한다(341). 분석 서버(280)는 사용자 자세 정보와 참조 자세 정보를 비교하고, 피드백 정보를 생성한다(351). 이 경우 참조 자세 정보도 사용자 자세 정보와 동일한 과정으로 생성되어야 한다. 피드백 정보는 사용자 자세 정보와 참조 자세 정보의 차이를 기준으로 결정된다. 피드백 정보는 사용자 자세 정보와 참조 자세 정보의 차이 정도에 따라 다른 정보일 수 있다. 예컨대, 사용자 자세 정보와 참조 자세 정보의 차이가 제1 기준값 이하라면, 피드백 정보는 사용자 동작이 좋다는 내용을 포함할 수 있다. 사용자 자세 정보와 참조 자세 정보의 차이가 제2 기준값을 초과하면, 피드백 정보는 사용자 동작이 잘못되었다는 내용을 포함할 수 있다. 나아가 분석 서버(280)는 제1 각도 데이터와 제2 각도 데이터를 항목별로 비교하고, 차이가 큰 부분을 기준으로 현재 동작에서 잘못된 동작이나 신체 부위 정보를 결정할 수 있다. 피드백 정보는 이와 같이 잘못된 동작이나 신체 부이 정보를 포함할 수 있다. 또 피드백 정보는 잘못된 동작을 개선하기 위한 추가 동작("허리를 수직으로 세워라", "머리를 들어라" 등)에 대한 정보를 포함할 수도 있다.
분석 서버(280)는 복수의 웨어러블 기기에서 생성한 제1 각도 데이터 각각을 참조 자세 정보의 제1 각도 데이터와 비교할 수도 있다. 또 분석 서버(280)는 동작 인식장치가 생성한 제2 각도 데이터 각각을 참조 자세 정보의 제2 각도 데이터와 비교할 수도 있다. 분석 서버(280)는 복수의 각도 데이터를 비교하고, 비교값에 대한 편차를 합산하여 최종적으로 피드백 정보를 생성할 수도 있다.
한편 분석 서버(280)는 제1 각도 데이터와 제2 각도 데이터에 대하여 각각 가중치를 부여하여 사용자 자세 정보를 생성할 수도 있다. 운동의 종류, 사용자의 현재 동작 등에 따라 각 데이터에 대한 가중치를 적응적으로 변경될 수도 있다.
분석 서버(280)는 피드백 정보를 사용자 단말(240)에 전달한다(352). 사용자 단말(240)은 피드백 정보를 출력할 수 있다(361).
도 6은 홈 트레이닝 과정(400)에 대한 다른 예이다. 도 6은 하나의 사용자가 다른 사용자와 함께 트레이닝을 수행하는 과정에 대한 예이다. 여기서 다른 사용자는 트레이너와 같은 사람일 수 있다. 도 6은 도 2의 트레이닝 시스템(200)에서 두 명의 사용자를 기준으로 설명한다.
사용자 단말(240)은 앱(App)을 실행한다. 앱을 실행하면, 사용자 단말(240)은 제1 웨어러블 기기(210) 및 제2 웨어러블 기기(220)와 근거리 통신으로 연결된다(401). 도 6은 두 명의 사용자가 착용한 웨어러블 기기가 하나의 사용자 단말에 연결된다고 가정한다. 사용자 단말(240)은 동작 인식장치(250)에 사용자 동작을 인식하도록 명령을 전달할 수도 있다. 도 6은 하나의 동작 인식장치(250)가 두 명의 사용자 동작을 인식한다고 가정한다. 설명의 편의를 위하여 제1 웨어러블 기기(210)를 착용한 사용자를 제1 사용자라고 명명하고, 제2 웨어러블 기기(220)를 착용한 사용자를 제2 사용자라고 명명한다.
제1 웨어러블 기기(210)는 제1 각도 데이터를 사용자 단말(240)에 전달한다(411). 사용자 단말(240)은 제1 웨어러블 기기(210)의 제1 각도 데이터를 분석 서버(280)에 전달한다(412). 제2 웨어러블 기기(220)는 제3 각도 데이터를 사용자 단말(240)에 전달한다(421). 사용자 단말(240)은 제2 웨어러블 기기(220)의 제3 각도 데이터를 분석 서버(280)에 전달한다(422). 제3 각도 데이터는 제2 웨어러블 기기(220)가 제2 사용자 동작에 따라 생성한 각도 정보를 의미한다.
제1 웨어러블 기기(210)가 제1 사용자 동작에 따른 각도 데이터를 생성하는 시간 구간에 동작 인식장치(250)는 제1 사용자의 동작을 추적하고, 제2 각도 데이터를 생성한다(431). 동작 인식장치(250)는 제1 사용자에 대한 제2 각도 데이터를 분석 서버(280)에 전달한다(432).
제2 웨어러블 기기(220)가 제2 사용자 동작에 따른 각도 데이터를 생성하는 시간 구간에 동작 인식장치(250)는 제2 사용자의 동작을 추적하고, 제4 각도 데이터를 생성한다(441). 동작 인식장치(250)는 제2 사용자에 대한 제4 각도 데이터를 분석 서버(280)에 전달한다(442). 제4 각도 데이터는 동작 인식장치(250)가 제2 사용자 동작에 따라 생성한 각도 데이터를 의미한다.
분석 서버(280)는 제1 각도 데이터 및 제2 각도 데이터를 기준으로 제1 자세 정보를 생성한다(451). 제1 자세 정보는 제1 사용자에 대한 자세 정보를 의미한다. 분석 서버(280)는 타임 스탬프를 기준으로 동일 시간에서의 제1 각도 데이터와 제2 각도 데이터를 이용하여 제1 자세 정보를 생성한다.
분석 서버(280)는 제3 각도 데이터 및 제3 각도 데이터를 기준으로 제2 자세 정보를 생성한다(461). 제2 자세 정보는 제2 사용자에 대한 자세 정보를 의미한다. 분석 서버(280)는 타임 스탬프를 기준으로 동일 시간에서의 제3 각도 데이터와 제4 각도 데이터를 이용하여 제2 자세 정보를 생성한다.
자세 정보는 전술한 바와 같이 다양한 방식과 기준으로 생성될 수 있다. 다만 제1 자세 정보와 제2 자세 정보는 동일한 방식 내지 과정으로 생성되어야 한다.
분석 서버(280)는 제1 자세 정보와 제2 자세 정보를 비교하고, 피드백 정보를 생성한다(471). 제2 사용자는 운동 전문가인 트레이너라고 가정한다. 피드백 정보는 제1 자세 정보와 제2 자세 정보의 차이를 기준으로 결정된다. 피드백 정보는 제1 자세 정보와 제2 자세 정보의 차이 정도에 따라 다른 정보일 수 있다. 예컨대, 제1 자세 정보와 제2 자세 정보의 차이가 제1 기준값 이하라면, 피드백 정보는 사용자 동작이 좋다는 내용을 포함할 수 있다. 제1 자세 정보와 제2 자세 정보의 차이가 제2 기준값을 초과하면, 피드백 정보는 사용자 동작이 잘못되었다는 내용을 포함할 수 있다. 나아가 분석 서버(280)는 제1 각도 데이터와 제2 각도 데이터를 항목별로 비교하고, 차이가 큰 부분을 기준으로 현재 동작에서 잘못된 동작이나 신체 부위 정보를 결정할 수 있다. 피드백 정보는 이와 같이 잘못된 동작이나 신체 부이 정보를 포함할 수 있다. 또 피드백 정보는 잘못된 동작을 개선하기 위한 추가 동작("허리를 수직으로 세워라", "머리를 들어라" 등)에 대한 정보를 포함할 수도 있다.
분석 서버(280)는 제1 사용자가 착용한 복수의 웨어러블 기기에서 생성한 제1 각도 데이터 각각을 제2 사용자가 동일한 위치에 착용된 복수의 웨어러블 기기에서 생성한 제3 각도 데이터와 비교할 수도 있다. 또 분석 서버(280)는 동작 인식장치가 생성한 제2 각도 데이터 각각을 제4 각도 데이터와 비교할 수도 있다. 분석 서버(280)는 복수의 각도 데이터를 비교하고, 비교값에 대한 편차를 합산하여 최종적으로 피드백 정보를 생성할 수도 있다.
한편 분석 서버(280)는 제1 각도 데이터(제3 각도 데이터)와 제2 각도 데이터(제4 각도 데이터)에 대하여 각각 가중치를 부여하여 사용자 자세 정보를 생성할 수도 있다. 운동의 종류, 사용자의 현재 동작 등에 따라 각 데이터에 대한 가중치를 적응적으로 변경될 수도 있다.
분석 서버(280)는 피드백 정보를 사용자 단말(240)에 전달한다(472). 사용자 단말(240)은 피드백 정보를 출력할 수 있다(481).
도 7은 동작 분석 장치(500)의 구성을 도시한 예이다. 동작 분석 장치(500)는 도 1의 사용자 단말(180) 또는 도 2의 분석 서버(280)에 해당하는 장치이다. 즉 동작 분석 장치(500)는 웨어러블 기기의 각도 정보와 동작 인식 장치의 각도 데이터를 기준으로 사용자의 운동 동작을 분석하고, 일정한 피드백을 전달하는 장치이다.
동작 분석 장치(500)는 물리적으로 다양한 형태로 구현될 수 있다. 예컨대, 동작 분석 장치(500)는 스마트 기기, PC, 네트워크의 서버, 동작 분석 전용 칩셋 등의 형태를 가질 수 있다. 동작 분석 장치(500)는 저장 장치(510), 메모리(520), 연산장치(530), 인터페이스 장치(540) 및 통신 장치(550)를 포함한다.
저장 장치(510)는 사용자 동작을 분석하여 일정한 피드백을 생성하는 프로그램을 저장할 수 있다. 프로그램은 웨어러블 기기가 생성한 제1 각도 데이터와 동작 인식 장치가 생성한 제2 각도 데이터를 기준으로 사용자 자세 정보를 생성한다. 프로그램은 사용자 자세 정보와 참조 자세 정보(또는 다른 사용자 자세 정보)와 비교하여 피드백 정보를 생성한다. 저장 장치(510)는 수신한 패킷, 각도 데이터를 저장할 수 있다.
메모리(520)는 동작 분석 장치(500)가 수신한 패킷 및 동작 분석 과정에서 생성되는 데이터를 저장할 수 있다.
인터페이스 장치(540)는 외부로부터 일정한 명령 및 데이터를 입력받는 장치이다. 인터페이스 장치(540)는 물리적으로 연결된 입력 장치 또는 외부 저장 장치로부터 동작 분석을 위한 프로그램 및 데이터를 입력받을 수 있다. 인터페이스 장치(540)는 참조 자세 데이터를 입력받을 수 있다.
통신 장치(550)는 유선 또는 무선 네트워크를 통해 일정한 정보를 수신하고 전송하는 구성을 의미한다. 통신 장치(550)는 웨어러블 기기로부터 각도 데이터를 수신할 수 있다. 통신 장치(550)는 동작 인식장치로부터 각도 데이터를 수신할 수 있다. 통신 장치(550)는 생성한 피드백 정보를 외부 객체로 송신할 수 있다.
통신 장치(550) 내지 인터페이스 장치(540)는 외부로부터 일정한 데이터 내지 명령을 전달받는 장치이다. 통신 장치(550) 내지 인터페이스 장치(540)를 입력장치라고 명명할 수 있다.
연산 장치(530)는 저장장치(510)에 프로그램을 이용하여 사용자 자세 정보를 생성하고, 사용자 자세 정보와 참조 자세 정보(또는 다른 사용자의 자세 정보)를 비교하여 일정한 피드백 정보를 생성할 수 있다. 연산 장치(530)가 피드백 정보를 생성하는 과정은 전술한 바와 같다. 연산 장치(530)는 데이터를 처리하고, 일정한 연산을 처리하는 프로세서, AP, 프로그램이 임베디드된 칩과 같은 장치일 수 있다.
또한, 상술한 바와 같은 홈 트레이닝 제공 방법 및 자세 정보 생성 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
본 실시례 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.
100 : 홈 트레이닝 시스템
110, 111, 112, 120, 121, 122, 130, 131, 132 : 웨어러블 기기
150 : 동작 인식장치
180 : 사용자 단말
200 : 홈 트레이닝 시스템
210, 211, 212, 220, 221, 222, 230, 231, 232 : 웨어러블 기기
240 : 사용자 단말
250 : 동작 인식장치
280 : 분석 서버
500 : 동작 분석 장치
510 : 저장장치
520 : 메모리
530 : 연산장치
540 : 인터페이스 장치
550 : 통신장치

Claims (13)

  1. 동작분석장치가 일정한 시간 구간에서 제1 사용자의 제1 복수 신체 부위에 착용한 웨어러블 기기로부터 제1 각도 데이터를 수신하는 단계;
    상기 동작분석장치가 상기 시간 구간에서 상기 제1 사용자의 동작을 인식하는 동작 인식장치로부터 상기 제1 사용자의 복수 신체 부위의 위치 데이터를 기준으로 생성한 복수 관절 부위에 대한 제2 각도 데이터를 수신하는 단계;
    상기 동작분석장치가 상기 제1 각도 데이터 및 상기 제2 각도 데이터를 기준으로 상기 시간 구간에서 상기 제1 사용자의 일련의 운동 동작을 나타내는 제1 자세 정보를 생성하는 단계; 및
    상기 동작분석장치가 사전에 획득한 상기 운동 동작과 동일한 종류의 참조 동작에 대한 참조 자세 정보와 상기 제1 자세 정보를 비교하여 상기 제1 사용자에 대한 피드백 정보를 생성하는 단계를 포함하는 홈 트레이닝 제공 방법.
  2. 제1항에 있어서,
    상기 동작 인식장치는 스테레오 카메라 및 상기 제1 사용자에 반사된 적외선을 감지하는 카메라 중 적어도 하나를 이용하여 상기 제1 사용자의 동작에 대한 깊이 정보를 이용하여 3차 공간에서 상기 위치 데이터를 생성하는 홈 트레이닝 제공 방법.
  3. 제1항에 있어서,
    상기 참조 자세 정보는 상기 참조 동작을 수행하는 제2 사용자로부터 획득한 정보로서, 상기 제2 사용자가 상기 제1 복수 신체 부위와 동일한 부위에 착용한 웨어러블 기기로부터 획득한 제1 각도 데이터 및 상기 제2 사용자를 추적한 동작 인식장치로부터 획득한 복수 관절 부위에 대한 제2 각도 데이터를 이용하여 생성되는 홈 트레이닝 제공 방법.
  4. 제1항에 있어서,
    상기 동작분석장치가 제2 사용자의 제2 복수 신체 부위에 착용한 웨어러블 기기로부터 제3 각도 데이터를 수신하는 단계;
    상기 동작분석장치가 상기 제2 사용자의 동작을 인식하는 상기 동작 인식장치로부터 상기 제2 사용자의 복수 신체 부위의 위치 데이터를 기준으로 생성한 복수 관절 부위에 대한 제4 각도 데이터를 수신하는 단계;
    상기 동작분석장치가 상기 제3 각도 데이터 및 상기 제4 각도 데이터를 기준으로 상기 제2 사용자의 일련의 운동 동작을 나타내는 제2 자세 정보를 생성하는 단계;
    상기 동작분석장치가 사전에 획득한 상기 제2 사용자의 상기 운동 동작과 동일한 종류의 참조 동작에 대한 참조 자세 정보와 상기 제1 자세 정보를 비교하여 상기 제2 사용자에 대한 피드백 정보를 생성하는 단계를 더 포함하는 홈 트레이닝 제공 방법.
  5. 제1항에 있어서,
    상기 제1 자세 정보는 상기 제1 복수 신체 부위에 대한 복수의 제1 각도 데이터를 정규화한 복수의 제1 값 및 상기 복수 관절 부위에 대한 복수의 제2 각도 데이터를 정규화한 복수의 제2 값을 기준으로 생성되는 홈 트레이닝 제공 방법.
  6. 제5항에 있어서,
    상기 제1 자세 정보는 상기 복수의 제1 값과 상기 복수의 제2 값을 합산한 값을 평균한 값인 홈 트레이닝 제공 방법.
  7. 제1 사용자의 제1 복수 신체 부위에 위치하고, 일정한 시간 구간에서 상기 제1 복수 신체 부위의 제1 각도 데이터를 생성하는 복수의 웨어러블 기기;
    3차 공간에서 상기 제1 사용자의 신체 부위에 대한 깊이 정보를 생성하고, 상기 제1 사용자의 복수 신체 부위의 위치 데이터를 기준으로 복수 관절 부위의 제2 각도 데이터를 생성하는 동작 인식장치; 및
    상기 제1 각도 데이터 및 상기 제2 각도 데이터를 기준으로 상기 시간 구간에서 상기 제1 사용자의 일련의 운동 동작을 나타내는 제1 자세 정보를 생성하고, 상기 운동 동작과 동일한 종류의 참조 동작에 대한 제2 자세 정보와 상기 제1 자세 정보를 비교하여 피드백 정보를 생성하는 분석 서버를 포함하는 홈 트레이닝 시스템.
  8. 제7항에 있어서,
    상기 복수의 웨어러블 기기로부터 상기 제1 각도 데이터를 수신하여 상기 분석 서버에 전달하는 사용자 단말을 더 포함하는 홈 트레이닝 시스템.
  9. 제7항에 있어서,
    상기 참조 자세 정보를 저장하는 데이터베이스를 더 포함하되,
    상기 참조 자세 정보는 상기 참조 동작을 수행하는 제2 사용자로부터 획득한 정보로서, 상기 제2 사용자가 상기 제1 복수 신체 부위와 동일한 부위에 착용한 웨어러블 기기로부터 획득한 제1 각도 데이터 및 상기 제2 사용자를 추적한 동작 인식장치로부터 획득한 복수 관절 부위에 대한 제2 각도 데이터를 이용하여 생성되는 홈 트레이닝 시스템.
  10. 제7항에 있어서,
    상기 제1 복수 신체 부위와 동일한 부위인 제2 사용자의 제2 복수 신체 부위에 위치하고, 일정한 시간 구간에서 상기 제2 복수 신체 부위의 제3 각도 데이터를 생성하는 복수의 웨어러블 기기를 더 포함하고,
    3차 공간에서 상기 제2 사용자의 신체 부위에 대한 깊이 정보를 생성하고, 상기 제2 사용자의 복수 신체 부위의 위치 데이터를 기준으로 복수 관절 부위의 제4 각도 데이터를 생성하는 상기 동작 인식장치 또는 별도의 동작 인식장치를 포함하고,
    상기 분석 서버는 상기 제3 각도 데이터 및 상기 제4 각도 데이터를 기준으로 상기 제2 사용자의 일련의 운동 동작을 나타내는 상기 제2 자세 정보를 생성하는 홈 트레이닝 시스템.
  11. 제7항에 있어서,
    상기 제1 자세 정보는 상기 제1 복수 신체 부위에 대한 복수의 제1 각도 데이터를 정규화한 복수의 제1 값 및 상기 복수 관절 부위에 대한 복수의 제2 각도 데이터를 정규화한 복수의 제2 값을 기준으로 생성되는 홈 트레이닝 시스템.
  12. 제11항에 있어서,
    상기 제1 자세 정보는 상기 복수의 제1 값과 상기 복수의 제2 값을 합산한 값을 평균한 값인 홈 트레이닝 시스템.
  13. 컴퓨터에서 제1항 내지 제6항 중 어느 하나의 항에 기재된 홈 트레이닝 제공 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.

KR1020180163201A 2018-12-17 2018-12-17 홈 트레이닝 제공 방법 및 시스템 KR102141288B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180163201A KR102141288B1 (ko) 2018-12-17 2018-12-17 홈 트레이닝 제공 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180163201A KR102141288B1 (ko) 2018-12-17 2018-12-17 홈 트레이닝 제공 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20200074609A true KR20200074609A (ko) 2020-06-25
KR102141288B1 KR102141288B1 (ko) 2020-08-04

Family

ID=71400576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180163201A KR102141288B1 (ko) 2018-12-17 2018-12-17 홈 트레이닝 제공 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102141288B1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112349378A (zh) * 2020-10-26 2021-02-09 深圳市艾利特医疗科技有限公司 平衡能力自适应辅助训练系统、方法、装置、设备及存储介质
CN113569743A (zh) * 2021-07-29 2021-10-29 上海健指树健康管理有限公司 基于肢体识别技术的健身评估方法及系统
KR102349385B1 (ko) * 2021-06-09 2022-01-11 주식회사 해피스케치 스마트 폰을 이용한 헬스 케어 서비스 제공 방법 및 스마트 폰을 이용한 헬스 케어 서비스 제공 방법을 실행시키는 프로그램이 저장된 서버
KR20220042666A (ko) * 2020-09-28 2022-04-05 한국생산기술연구원 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치 및 방법
KR20220046930A (ko) * 2020-10-08 2022-04-15 주식회사 참핏 신체 유연성 평가 장치, 시스템 및 방법
KR20220130896A (ko) * 2021-03-19 2022-09-27 심현식 비대면 트레이닝 시스템 및 방법
KR20230020265A (ko) 2021-08-03 2023-02-10 주식회사 다락방 운동 자세 제어 시스템
WO2023239025A1 (ko) * 2022-06-10 2023-12-14 삼성전자주식회사 사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및 웨어러블 장치, 이들의 동작 방법
KR20240028803A (ko) 2022-08-25 2024-03-05 국립공주대학교 산학협력단 트레이닝 자세 교정 장치 및 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111803897A (zh) * 2020-08-17 2020-10-23 李簦芸 一种基于mr的队列训练系统及其使用方法
KR20220102009A (ko) * 2021-01-12 2022-07-19 삼성전자주식회사 전자 장치 및 전자 장치의 동작 방법
KR102320960B1 (ko) 2021-05-03 2021-11-02 이다인 사용자 신체 맞춤형 홈 트레이닝 동작 안내 및 교정 시스템
KR20230040061A (ko) 2021-09-15 2023-03-22 김보연 비대면 스포츠 처리 장치
KR20230059996A (ko) 2021-10-27 2023-05-04 김영배 룰 베이스 기반 맞춤형 운동 수행방법을 제공하는 스마트 홈 트레이닝시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016209212A (ja) * 2015-05-01 2016-12-15 国立大学法人岐阜大学 運動分析装置
KR20170062105A (ko) 2015-11-27 2017-06-07 이화여자대학교 산학협력단 웨어러블 기기를 이용한 피트니스 트레이닝 방법, 피트니스 트레이닝 시스템 및 피트니스 트레이닝을 위한 웨어러블 기기
KR20170084643A (ko) * 2016-01-12 2017-07-20 경희대학교 산학협력단 듀얼 스마트 밴드를 이용한 모션 분석 장치 및 방법
KR20180062068A (ko) * 2016-11-30 2018-06-08 조선대학교산학협력단 관성센서 및 뎁스 카메라를 이용한 모션 취득 시스템 및 이를 이용한 모션 취득 방법
KR101909693B1 (ko) * 2017-06-07 2018-10-24 (주)앤트로스 증강현실 기반의 가상 피트니스 트레이너가 제공되는 피트니스 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016209212A (ja) * 2015-05-01 2016-12-15 国立大学法人岐阜大学 運動分析装置
KR20170062105A (ko) 2015-11-27 2017-06-07 이화여자대학교 산학협력단 웨어러블 기기를 이용한 피트니스 트레이닝 방법, 피트니스 트레이닝 시스템 및 피트니스 트레이닝을 위한 웨어러블 기기
KR20170084643A (ko) * 2016-01-12 2017-07-20 경희대학교 산학협력단 듀얼 스마트 밴드를 이용한 모션 분석 장치 및 방법
KR20180062068A (ko) * 2016-11-30 2018-06-08 조선대학교산학협력단 관성센서 및 뎁스 카메라를 이용한 모션 취득 시스템 및 이를 이용한 모션 취득 방법
KR101909693B1 (ko) * 2017-06-07 2018-10-24 (주)앤트로스 증강현실 기반의 가상 피트니스 트레이너가 제공되는 피트니스 시스템

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220042666A (ko) * 2020-09-28 2022-04-05 한국생산기술연구원 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치 및 방법
KR20220046930A (ko) * 2020-10-08 2022-04-15 주식회사 참핏 신체 유연성 평가 장치, 시스템 및 방법
CN112349378A (zh) * 2020-10-26 2021-02-09 深圳市艾利特医疗科技有限公司 平衡能力自适应辅助训练系统、方法、装置、设备及存储介质
KR20220130896A (ko) * 2021-03-19 2022-09-27 심현식 비대면 트레이닝 시스템 및 방법
KR102349385B1 (ko) * 2021-06-09 2022-01-11 주식회사 해피스케치 스마트 폰을 이용한 헬스 케어 서비스 제공 방법 및 스마트 폰을 이용한 헬스 케어 서비스 제공 방법을 실행시키는 프로그램이 저장된 서버
CN113569743A (zh) * 2021-07-29 2021-10-29 上海健指树健康管理有限公司 基于肢体识别技术的健身评估方法及系统
KR20230020265A (ko) 2021-08-03 2023-02-10 주식회사 다락방 운동 자세 제어 시스템
WO2023239025A1 (ko) * 2022-06-10 2023-12-14 삼성전자주식회사 사용자의 운동 동작 평가 정보를 제공하는 전자 장치 및 웨어러블 장치, 이들의 동작 방법
KR20240028803A (ko) 2022-08-25 2024-03-05 국립공주대학교 산학협력단 트레이닝 자세 교정 장치 및 방법

Also Published As

Publication number Publication date
KR102141288B1 (ko) 2020-08-04

Similar Documents

Publication Publication Date Title
KR102141288B1 (ko) 홈 트레이닝 제공 방법 및 시스템
US10635166B2 (en) Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system
US11474593B2 (en) Tracking user movements to control a skeleton model in a computer system
US11134893B2 (en) Limb movement gesture judgment method and device
KR101389894B1 (ko) 모션 캡쳐 기술을 이용한 가상 현실 시뮬레이션 장치 및 방법
KR102212716B1 (ko) 모션 패턴에 따른 근력 운동 자세 분석 시스템 및 방법
TWI638280B (zh) 自動配置感測器的方法、電子設備及記錄媒體
US11175729B2 (en) Orientation determination based on both images and inertial measurement units
US20220155866A1 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
US20200319721A1 (en) Kinematic Chain Motion Predictions using Results from Multiple Approaches Combined via an Artificial Neural Network
US11460912B2 (en) System and method related to data fusing
US20210068674A1 (en) Track user movements and biological responses in generating inputs for computer systems
WO2020110659A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2020009715A2 (en) Tracking user movements to control a skeleton model in a computer system
KR20220039440A (ko) 디스플레이 장치 및 그의 제어 방법
US20230140030A1 (en) Method, system and recording medium for accessory pairing
KR20190047644A (ko) 운동에 대한 피드백을 제공하는 웨어러블 디바이스 및 방법
KR102363435B1 (ko) 골프 스윙 동작 피드백 제공 장치 및 방법
EP3971683A1 (en) Human body portion tracking method and human body portion tracking system
CN211180839U (zh) 一种运动教学设备和运动教学系统
US11783492B2 (en) Human body portion tracking method and human body portion tracking system
JP7307698B2 (ja) 作業管理システムおよび作業管理方法
KR102569857B1 (ko) Hmd 핸드트래킹을 이용한 실기술 트레이닝 제공방법
WO2016208290A1 (ja) 測定装置及び測定方法
TWI748299B (zh) 動作感測資料產生方法和動作感測資料產生系統

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant