KR102617467B1 - Home training system using artificial intelligence - Google Patents

Home training system using artificial intelligence Download PDF

Info

Publication number
KR102617467B1
KR102617467B1 KR1020210115313A KR20210115313A KR102617467B1 KR 102617467 B1 KR102617467 B1 KR 102617467B1 KR 1020210115313 A KR1020210115313 A KR 1020210115313A KR 20210115313 A KR20210115313 A KR 20210115313A KR 102617467 B1 KR102617467 B1 KR 102617467B1
Authority
KR
South Korea
Prior art keywords
exercise
user
motion
unit
joint
Prior art date
Application number
KR1020210115313A
Other languages
Korean (ko)
Other versions
KR20230032454A (en
Inventor
차경애
홍원기
김동환
김정우
김민경
Original Assignee
대구대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대구대학교 산학협력단 filed Critical 대구대학교 산학협력단
Priority to KR1020210115313A priority Critical patent/KR102617467B1/en
Publication of KR20230032454A publication Critical patent/KR20230032454A/en
Application granted granted Critical
Publication of KR102617467B1 publication Critical patent/KR102617467B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B23/00Exercising apparatus specially adapted for particular parts of the body
    • A63B23/035Exercising apparatus specially adapted for particular parts of the body for limbs, i.e. upper or lower limbs, e.g. simultaneously
    • A63B23/12Exercising apparatus specially adapted for particular parts of the body for limbs, i.e. upper or lower limbs, e.g. simultaneously for upper limbs or related muscles, e.g. chest, upper back or shoulder muscles
    • A63B23/1209Involving a bending of elbow and shoulder joints simultaneously
    • A63B23/1236Push-ups in horizontal position, i.e. eccentric movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0669Score-keepers or score display devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • A63B2024/0012Comparing movements or motion sequences with a registered reference
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/20Distances or displacements
    • A63B2220/24Angular displacement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

인공지능을 이용한 사용자의 운동 동작에 대한 분석을 통해 홈 트레이닝을 제공하는 시스템으로서, 사용자의 신체에 대한 적어도 하나 이상의 관절조인트를 측정하는 관절측정부; 인공지능 알고리즘을 이용하여, 상기 관절측정부에 의한 데이터에서 사용자의 운동 동작을 인식하여 미리 설정되는 어느 하나의 운동으로 분류하는 동작분류부; 및 1 횟수로 카운팅되는 상기 운동의 단위 동작을 표준 동작과 비교하여 동작일치율을 산정하는 일치율산정부;를 포함하는 인공지능을 이용한 홈 트레이닝 시스템을 제공한다.A system that provides home training through analysis of a user's exercise movements using artificial intelligence, comprising: a joint measurement unit that measures at least one joint of the user's body; A motion classification unit that uses an artificial intelligence algorithm to recognize the user's exercise movement from the data generated by the joint measurement unit and classifies it as a preset exercise; And it provides a home training system using artificial intelligence, including; a matching rate calculation unit that calculates the motion matching rate by comparing the unit motion of the exercise counted as 1 time with a standard motion.

Description

인공지능을 이용한 홈 트레이닝 시스템{HOME TRAINING SYSTEM USING ARTIFICIAL INTELLIGENCE}Home training system using artificial intelligence {HOME TRAINING SYSTEM USING ARTIFICIAL INTELLIGENCE}

본 발명은 카메라 등을 이용하여 사용자의 운동 동작을 인식하고, 분석하여 이에 대한 피드백을 제공하는 인공지능을 이용한 홈 트레이닝 시스템에 관한 것이다.The present invention relates to a home training system using artificial intelligence that recognizes and analyzes the user's exercise movements using a camera, etc., and provides feedback on them.

코로나-19의 영향으로 헬스장과 체육 시설에 대한 이용이 제한됨에 따라 개인 운동과 홈 트레이닝을 하는 '홈트족(집에서 운동하는 사람들)'이 증가하는 추세에 있다. 초기에는 코로나-19로 인해 늘어난 체중 감량을 위해 홈 트레이닝을 시작했지만, 지금은 자신의 건강을 위해 홈 트레이닝을 하는 사람들이 많아져 홈 트레이닝이 새로운 운동 문화로 자리 잡고 있다. 이로 인해, 동시에 스마트 헬스케어 산업 또한 각광을 받고 있으며 현재 관련된 콘텐츠가 개발되고 있다.As use of gyms and sports facilities is restricted due to the impact of COVID-19, the number of 'home workout people' (people who exercise at home) who do personal exercise and home training is on the rise. Initially, people started home training to lose weight due to COVID-19, but now more people are doing home training for their health, and home training is becoming a new exercise culture. Due to this, at the same time, the smart healthcare industry is also in the spotlight, and related content is currently being developed.

그러나, 홈 트레이닝은 운동에 대한 전문적 지식이 없는 상태에서 잘못된 동작의 반복으로 관절의 무리를 주고 결국 부상으로 이어질 수 있다는 문제점이 있었다. 또한, 종래 영상물을 통해 이를 모방하는 방식은 트레이너의 단면적 모습에 국한되며 개인 자세에 대한 피드백이 어렵다는 문제점이 있었다.However, home training has the problem that repetition of incorrect movements without expert knowledge of exercise can cause strain on the joints and ultimately lead to injury. In addition, the method of imitating this through conventional videos was limited to the cross-sectional appearance of the trainer and had the problem of making it difficult to provide feedback on individual posture.

한국등록특허공보 102031243 (2019.10.04.) 스마트 프리웨이트 트레이닝 동작 인식 장치 및 그 방법(apparatus for recogniting free weight training motion and method thereof)Korean Patent Publication 102031243 (2019.10.04.) Smart free weight training motion recognition device and method thereof (apparatus for recognizing free weight training motion and method thereof) 한국공개특허공보 1020170119333 (2017.10.27) 운동정보 처리 장치 및 방법(Apparatus and Method for Processing of Exercise Information)Korean Patent Publication 1020170119333 (2017.10.27) Apparatus and Method for Processing of Exercise Information 한국등록특허공보 102039616 (2019.10.28) 운동 정보 관리 장치 및 방법(APPARATUS AND METHOD FOR MANAGING EXERCISE INFORMATION)Korean Patent Publication 102039616 (2019.10.28) APPARATUS AND METHOD FOR MANAGING EXERCISE INFORMATION

본 발명의 실시예는 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 부상이나 안전 사고 없이 홈 트레이닝의 운동 효과를 극대화할 수 있는 인공지능을 이용한 홈 트레이닝 시스템을 제공하고자 한다.Embodiments of the present invention were designed to solve the above problems, and are intended to provide a home training system using artificial intelligence that can maximize the exercise effect of home training without injuries or safety accidents.

사용자의 운동 동작을 정확하게 인식하고, 표준 동작과 비교한 동작 일치율을 산정하고자 한다. 사용자의 운동 횟수, 운동 시간, 동작 일치율을 포함하는 운동 데이터를 시각화하여 제공하고자 한다.We want to accurately recognize the user's exercise movements and calculate the movement agreement rate compared to standard movements. We aim to visualize and provide exercise data including the user's number of exercise times, exercise time, and motion consistency rate.

또한, 사용자의 스마트디바이스에 설치되는 전용 애플리케이션을 개발하여 본 시스템에 대한 사용자 편의성을 보다 향상시키고자 한다. 또한, 사용자의 신체를 정확하게 파악하고 운동 중 잘못된 자세에 대한 피드백을 제공하고자 한다.In addition, we aim to further improve user convenience for this system by developing a dedicated application that is installed on the user's smart device. In addition, we want to accurately identify the user's body and provide feedback on incorrect posture during exercise.

또한, 본 시스템의 각 구성요소 사이의 결합 관계를 용이하게 하여 유지, 관리가 편리하도록 한다.In addition, it facilitates the connection between each component of the system, making maintenance and management convenient.

본 발명의 실시예는 상기와 같은 과제를 해결하고자, 인공지능을 이용한 사용자의 운동 동작에 대한 분석을 통해 홈 트레이닝을 제공하는 시스템으로서, 사용자의 신체에 대한 적어도 하나 이상의 관절조인트를 측정하는 관절측정부; 인공지능 알고리즘을 이용하여, 상기 관절측정부에 의한 데이터에서 사용자의 운동 동작을 인식하여 미리 설정되는 어느 하나의 운동으로 분류하는 동작분류부; 및 1 횟수로 카운팅되는 상기 운동의 단위 동작을 표준 동작과 비교하여 동작일치율을 산정하는 일치율산정부;를 포함하는 인공지능을 이용한 홈 트레이닝 시스템을 제공한다.An embodiment of the present invention is a system that provides home training through analysis of the user's exercise movements using artificial intelligence to solve the above problems, and is a joint measurement system that measures at least one joint of the user's body. wealth; A motion classification unit that uses an artificial intelligence algorithm to recognize the user's exercise movement from the data generated by the joint measurement unit and classifies it as a preset exercise; And it provides a home training system using artificial intelligence, including; a matching rate calculation unit that calculates the motion matching rate by comparing the unit motion of the exercise counted as 1 time with a standard motion.

상기 관절측정부는 사용자의 정면에 배치되는 제1측정부 및 사용자의 어느 일 측면에 배치되는 제2측정부를 포함하고, 상기 동작분류부에 의해 분류되는 운동에 따라, 상기 제1측정부와 상기 제2측정부에 의한 데이터의 가중치를 달리하는 것이 바람직하다.The joint measuring unit includes a first measuring unit disposed in front of the user and a second measuring unit disposed on one side of the user, and according to the movement classified by the motion classification unit, the first measuring unit and the first measuring unit It is desirable to vary the weight of the data by the two measurement units.

상기 관절측정부는 상기 관절조인트에 관한 공간 위치를 측정하는 것이 바람직하다.The joint measurement unit preferably measures the spatial position of the joint.

상기 일치율산정부는 미리 설정되는 복수 개의 상기 관절조인트 사이에 형성되는 각도데이터 집합인 제1특징그룹과, 상기 관절조인트 사이에 형성되는 거리데이터 집합인 제2특징그룹을 이용하여, 동작일치율을 산정하는 것이 바람직하다.The coincidence rate calculation unit calculates the motion coincidence rate using a first feature group that is a set of angle data formed between a plurality of preset joints and a second feature group that is a set of distance data formed between the joints. It is desirable to do so.

표준 동작은 복수 개의 표준 자세로 이루어지며, 상기 표준 자세는 상기 제1특징그룹 중 적어도 하나 이상과 상기 제2특징그룹 중 적어도 어느 하나 이상의 조합으로 판단되는 것이 바람직하다.A standard movement consists of a plurality of standard postures, and the standard posture is preferably determined to be a combination of at least one of the first feature group and at least one of the second feature group.

사용자의 운동 횟수, 운동 시간, 동작일치율에 대한 통계 그래프를 출력하는 디스플레이부;를 더 포함하는 것이 바람직하다.It is preferable to further include a display unit that outputs a statistical graph about the user's number of exercise times, exercise time, and motion consistency rate.

사용자의 양 손목에 착용되어 시간에 따른 팔꿈치의 각도 변화량을 측정하는 센서유닛;을 더 포함하며, 상기 운동은 푸쉬업을 적어도 포함하는 것이 바람직하다.It further includes a sensor unit that is worn on both wrists of the user and measures the amount of change in the angle of the elbow over time, and the exercise preferably includes at least a push-up.

이상에서 살펴본 바와 같은 본 발명의 과제해결 수단에 의하면 다음과 같은 사항을 포함하는 다양한 효과를 기대할 수 있다. 다만, 본 발명이 하기와 같은 효과를 모두 발휘해야 성립되는 것은 아니다.According to the problem solving means of the present invention as discussed above, various effects including the following can be expected. However, the present invention does not require all of the following effects to be achieved.

본 발명의 일 실시예에 따른 인공지능을 이용한 홈 트레이닝 시스템은 부상이나 안전 사고 없이 홈 트레이닝의 운동 효과를 극대화할 수 있다. 또한, 사용자의 운동 동작을 정확하게 인식하고, 표준 동작과 비교한 동작 일치율을 산정할 수 있다. 또한, 사용자의 운동 횟수, 운동 시간, 동작 일치율을 포함하는 운동 데이터를 시각화하여 제공할 수 있다.A home training system using artificial intelligence according to an embodiment of the present invention can maximize the exercise effect of home training without injuries or safety accidents. In addition, it is possible to accurately recognize the user's exercise motion and calculate the motion matching rate compared to the standard motion. Additionally, exercise data including the user's number of exercises, exercise time, and motion consistency rate can be visualized and provided.

또한, 사용자의 스마트디바이스에 설치되는 전용 애플리케이션을 통해 사용자 편의성을 보다 향상시킬 수 있다. 또한, 사용자의 신체를 정확하게 파악하고 운동 중 잘못된 자세에 대한 피드백을 제공할 수 있다. 또한, 본 시스템의 각 구성요소 사이의 결합 관계를 용이하게 하여 유지, 관리가 편리하게 할 수 있다.Additionally, user convenience can be further improved through a dedicated application installed on the user's smart device. Additionally, it can accurately identify the user's body and provide feedback on incorrect posture during exercise. In addition, the connection relationship between each component of the system can be facilitated, making maintenance and management convenient.

도 1은 일 실시예에 따른 인공지능을 이용한 홈 트레이닝 시스템의 블록도.
도 2는 도 1의 신체에 대한 관절조인트를 보여주는 개념도.
도 3은 도 2에서 임의로 설정되는 세 지점의 관절조인트 사이에 형성되는 각도데이터 및 거리데이터를 보여주는 도면.
도 4는 도 1의 시스템에서 운동 동작을 구현하기 위해 인공지능 알고리즘을 이용하여 딥러닝을 실행하는 모습 이미지.
도 5는 도 1의 시스템에 데이터 셋을 위한 다양한 각도의 이미지 예시도.
도 6은 도 1의 시스템을 통해 운동의 단위 동작에 대한 동작일치율을 보여주는 예시도.
도 7은 도 1의 시스템 관련 통계 그래프를 보여주는 예시도.
1 is a block diagram of a home training system using artificial intelligence according to an embodiment.
Figure 2 is a conceptual diagram showing an articulation joint for the body of Figure 1.
Figure 3 is a diagram showing angle data and distance data formed between joints at three points arbitrarily set in Figure 2.
Figure 4 is an image of deep learning being executed using an artificial intelligence algorithm to implement exercise movements in the system of Figure 1.
Figure 5 is an example image from various angles for a data set from the system of Figure 1.
Figure 6 is an example diagram showing the motion coincidence rate for unit movements of exercise through the system of Figure 1.
Figure 7 is an example diagram showing a statistical graph related to the system of Figure 1.

본 개시의 구성 및 효과를 충분히 이해하기 위하여, 첨부한 도면을 참조하여 본 개시의 바람직한 실시예들을 설명한다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 여러 가지 형태로 구현될 수 있고 다양한 변경을 가할 수 있다. 이하, 본 발명을 설명함에 있어서 관련된 공지 기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.In order to fully understand the configuration and effects of the present disclosure, preferred embodiments of the present disclosure will be described with reference to the attached drawings. However, the present disclosure is not limited to the embodiments disclosed below, and may be implemented in various forms and various changes may be made. Hereinafter, in describing the present invention, if it is determined that related known functions may unnecessarily obscure the gist of the present invention as they are obvious to those skilled in the art, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The above terms may be used only for the purpose of distinguishing one component from another. For example, a first component may be referred to as a second component, and similarly, the second component may be referred to as a first component without departing from the scope of the present disclosure.

본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 개시의 실시예들에서 사용되는 용어들은 다르게 정의되지 않는 한, 해당 기술 분야에서 통상의 지식을 가진 자에게 통상적으로 알려진 의미로 해석될 수 있다.The terms used in this application are merely used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. Unless otherwise defined, terms used in the embodiments of the present disclosure may be interpreted as meanings commonly known to those skilled in the art.

이하, 도면을 참조하여 본 발명의 구체적인 실시예를 상세히 설명한다. 도 1은 일 실시예에 따른 인공지능을 이용한 홈 트레이닝 시스템의 블록도이고, 도 2는 도 1의 신체에 대한 관절조인트를 보여주는 개념도이며, 도 3은 도 2에서 임의로 설정되는 세 지점의 관절조인트 사이에 형성되는 각도데이터 및 거리데이터를 보여주는 도면이다.Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. Figure 1 is a block diagram of a home training system using artificial intelligence according to an embodiment, Figure 2 is a conceptual diagram showing a joint joint for the body of Figure 1, and Figure 3 is a joint joint at three points arbitrarily set in Figure 2. This is a diagram showing the angle data and distance data formed between them.

도 4는 도 1의 시스템에서 운동 동작을 구현하기 위해 인공지능 알고리즘을 이용하여 딥러닝을 실행하는 모습 이미지이고, 도 5는 도 1의 시스템에 데이터 셋을 위한 다양한 각도의 이미지 예시도이며, 도 6은 도 1의 시스템을 통해 운동의 단위 동작에 대한 동작일치율을 보여주는 예시도이고, 도 7은 도 1의 시스템 관련 통계 그래프를 보여주는 예시도이다.Figure 4 is an image of deep learning being executed using an artificial intelligence algorithm to implement exercise movements in the system of Figure 1, and Figure 5 is an example image from various angles for the data set in the system of Figure 1. 6 is an example diagram showing the motion matching rate for unit movements of exercise through the system of FIG. 1, and FIG. 7 is an example diagram showing a statistical graph related to the system of FIG. 1.

도 1 내지 도 7을 참조하면, 본 발명의 일 실시예에 따른 인공지능을 이용한 홈 트레이닝 시스템은 관절측정부(100), 동작분류부(1100), 일치율산정부(1200), 통신모듈(300), 디스플레이부(400), 메모리부(500), 센서유닛(130), 외부서버(600) 등을 포함할 수 있다. 본 시스템에서 관절측정부(100), 동작분류부(1100), 일치율산정부(1200), 통신모듈(300), 디스플레이부(400), 메모리부(500)는 사용자의 스마트디바이스 내부에 배치될 수 있다.1 to 7, a home training system using artificial intelligence according to an embodiment of the present invention includes a joint measurement unit 100, a motion classification unit 1100, a coincidence rate calculation unit 1200, and a communication module 300. ), a display unit 400, a memory unit 500, a sensor unit 130, an external server 600, etc. In this system, the joint measurement unit 100, motion classification unit 1100, coincidence rate calculation unit 1200, communication module 300, display unit 400, and memory unit 500 are to be placed inside the user's smart device. You can.

본 시스템은 인공지능을 이용한 사용자의 운동 동작에 대한 분석을 통해 홈 트레이닝을 제공하는 시스템을 개선한다. 이를 위해, 본 시스템은 종래 딥러닝 인공지능 알고리즘을 사용한다. 딥러닝은 복수 개의 데이터 셋을 이용해 신체 중 관절조인트를 추정하고 운동 자세에 대한 동작 분류를 통해 동작 정확도, 즉 동작일치율을 산정한다.This system improves the system that provides home training by analyzing the user's exercise movements using artificial intelligence. For this purpose, this system uses a conventional deep learning artificial intelligence algorithm. Deep learning uses multiple data sets to estimate joints in the body and calculates motion accuracy, or motion matching rate, through motion classification for exercise posture.

이를 위해, 본 시스템에서 먼저 CNN은 관절조인트의 위치를 예측하고, 관절조인트 사이의 상관 관계를 학습시키는 용도로 사용된다. 이는 사용자를 먼저 인지하고, 신체 중 주요 특징을 추출하는 것을 의미한다. 그리고, KNN은 CNN으로 예측된 관절조인트를 분석한 후 머신러닝 모델을 통해 동작을 분류한다. To this end, in this system, CNN is first used to predict the positions of joints and learn the correlation between joints. This means recognizing the user first and extracting key features from the body. In addition, KNN analyzes joints predicted by CNN and then classifies movements through a machine learning model.

관절측정부(100)는 사용자의 신체에 대한 적어도 하나 이상의 관절조인트를 측정한다. 관절측정부(100)는 예를 들어, 3D 깊이 센서를 포함하는 카메라일 수 있다. 관절측정부(100)는 어느 일 프레임 데이터가 RGB 값으로 구성되는 RGB 카메라일 수 있다. 관절측정부(100)는 관절조인트의 공간 위치를 측정하여 신호를 생성하는 적어도 어느 하나의 센서를 포함하는 측정기기일 수 있다. 관절측정부(100)는 사용자의 신체에서 관절조인트를 인식한다. 이 때, 관절측정부(100)는 자세 감지에 대한 정확도를 향상시키기 위해 카메라의 화각을 최대값으로 설정하는 것이 바람직하다.The joint measurement unit 100 measures at least one joint of the user's body. For example, the joint measurement unit 100 may be a camera including a 3D depth sensor. The joint measurement unit 100 may be an RGB camera in which one frame data consists of RGB values. The joint measuring unit 100 may be a measuring device that includes at least one sensor that measures the spatial position of the joint and generates a signal. The joint measurement unit 100 recognizes joints in the user's body. At this time, it is desirable for the joint measurement unit 100 to set the camera's angle of view to the maximum value in order to improve the accuracy of posture detection.

관절측정부(100)는 사용자의 정면에 배치되는 제1측정부(110) 및 사용자의 어느 일 측면에 배치되는 제2측정부(120)를 포함할 수 있다. 제1측정부는 사용자의 스마트디바이스 내에 제조사에 의해 이미 형성된 카메라 모듈일 수 있다. 이와 달리, 제1측정부는 스마트디바이스 내에 형성되는 센서 모듈일 수 있다. 제2측정부는 제1측정부와 별개 독립적인 RGB 카메라일 수 있다. 이와 달리, 제2측정부는 관절조인트의 공간 위치를 측정하는 센서를 포함하는 측정기기일 수 있다.The joint measurement unit 100 may include a first measurement unit 110 disposed in front of the user and a second measurement unit 120 disposed on one side of the user. The first measurement unit may be a camera module already formed by the manufacturer in the user's smart device. In contrast, the first measurement unit may be a sensor module formed within a smart device. The second measurement unit may be an RGB camera that is separate and independent from the first measurement unit. In contrast, the second measuring unit may be a measuring device including a sensor that measures the spatial position of the joint.

이를 통해, 관절측정부(100)는 사용자의 신체를 보다 정확하게 측정하고 인식할 수 있다. 관절측정부(100)는 운동 중 예를 들어, 런지(lunge), 스쿼트 등 정면에서 자세 판별이 어렵거나, 운동 과정에서 사용자의 신체가 일부가 가려지는 경우, 제2측정부를 통해 관절조인트의 위치를 측정할 수 있다.Through this, the joint measurement unit 100 can measure and recognize the user's body more accurately. The joint measuring unit 100 measures the position of the joint through the second measuring unit when it is difficult to determine the posture from the front during exercise, for example, lunge or squat, or when part of the user's body is obscured during the exercise. can be measured.

이 때, 제1측정부와 제2측정부에서 측정되는 데이터를 보정(calibration)하기 위한 작업이 먼저 진행된다. 이는 사용자가 일정 시간 자유롭게 움직이는 과정에서 측정된 사용자의 관절조인트에 관한 공간 위치 등을 이용할 수 있다.At this time, work to calibrate the data measured in the first measurement unit and the second measurement unit is first performed. This can use the spatial position of the user's joints measured while the user moves freely for a certain period of time.

한편, 본 시스템은 동작분류부(1100)에 의해 분류되는 운동에 따라, 제1측정부와 제2측정부에 의한 데이터의 가중치를 달리하는 것이 바람직하다. 운동 분류에 따라, 예를 들어, 제1측정부에 의한 데이터 비중이 제2측정부보다 더 높게 설정될 수 있다. 운동에 따라 측정 위치에 따른 데이터의 활용도는 다르게 평가될 수 있다. 또한, 측정 위치에 따라 운동 과정에서 관절조인트 중 일부에 대한 측정이 누락될 수 있다. 그 결과, 운동 분류에 따라 예를 들어, 제1측정부는 K%, 제2측정부는 (100-K)%의 형태로 데이터의 가중치를 달리할 수 있다.Meanwhile, in this system, it is desirable to vary the weight of the data by the first measurement unit and the second measurement unit according to the movement classified by the motion classification unit 1100. Depending on the exercise classification, for example, the proportion of data from the first measurement unit may be set higher than that from the second measurement unit. Depending on the exercise, the usability of data depending on the measurement location may be evaluated differently. Additionally, depending on the measurement location, measurement of some of the joints may be omitted during the exercise process. As a result, depending on the exercise classification, for example, the weight of the data may be changed in the form of K% for the first measurement part and (100-K)% for the second measurement part.

또한, 관절측정부(100)는 관절조인트에 관한 공간 위치를 측정할 수 있다. 여기서, 관절측정부(100)는 3차원 공간 좌표의 형태로 측정할 수 있다.Additionally, the joint measurement unit 100 can measure the spatial position of the joint. Here, the joint measurement unit 100 can measure in the form of three-dimensional space coordinates.

분석모듈(1000)은 사용자의 운동 동작을 인식하여 이를 분류하고 표준 동작에 대한 동작일치율을 산출하기 위한 통계 모델로서 인공지능을 이용할 수 있다. 인공지능은 데이터를 기반으로 지식을 학습하여 결과를 출력하는 것으로 분석모듈(1000)은 입력된 사용자의 성별, 신체 정보, 운동 종류, 운동 동작을 기초로 동작일치율을 산정할 수 있다. 분석모듈(1000)은 관절측정부(100)를 통해 측정되는 데이터를 AD컨버터를 통해 디지털 데이터로 전환할 수 있다. 분석모듈(1000)은 동작분류부(1100), 일치율산정부(1200)를 포함하며, 이들과 각각 전기적으로 연결된다.The analysis module 1000 can use artificial intelligence as a statistical model to recognize the user's exercise movements, classify them, and calculate the movement consistency rate for standard movements. Artificial intelligence learns knowledge based on data and outputs results, and the analysis module 1000 can calculate the motion matching rate based on the input user's gender, body information, exercise type, and exercise motion. The analysis module 1000 can convert data measured through the joint measurement unit 100 into digital data through an AD converter. The analysis module 1000 includes an operation classification unit 1100 and a coincidence rate calculation unit 1200, and is electrically connected to each of them.

동작분류부(1100)는 인공지능 알고리즘을 이용하여, 관절측정부(100)에 의한 데이터에서 사용자의 운동 동작을 인식하여 미리 설정되는 어느 하나의 운동으로 분류한다. 본 시스템은 다양한 각도의 데이터 셋을 통한 운동 동작의 학습으로 어느 방향에서도 운동 동작에 대한 높은 인식률을 제공할 수 있다. 여기서 운동은 홈 트레이닝에 포함하는 푸쉬업, 스쿼트, 런지 등을 포함한다. 동작분류부(1100)의 분류 기술은 일반적인 인공지능 알고리즘을 이용하는 바, 이하 구체적 설명은 생략한다.The motion classification unit 1100 uses an artificial intelligence algorithm to recognize the user's exercise movement from the data generated by the joint measurement unit 100 and classifies it as one of the preset exercises. This system can provide a high recognition rate for exercise movements in any direction by learning exercise movements through data sets from various angles. Here, exercises include push-ups, squats, lunges, etc. included in home training. The classification technology of the motion classification unit 1100 uses a general artificial intelligence algorithm, and detailed descriptions will be omitted below.

일치율산정부(1200)는 1 횟수로 카운팅되는 운동의 단위 동작을 표준 동작과 비교하여 동작일치율을 산정한다. 일치율산정부(1200)는 미리 설정되는 복수 개의 관절조인트 사이에 형성되는 각도데이터 집합인 제1특징그룹과, 관절조인트 사이에 형성되는 거리데이터 집합인 제2특징그룹을 이용하여, 동작일치율을 산정하는 것이 바람직하다.The coincidence rate calculation unit 1200 calculates the motion coincidence rate by comparing the unit movement of the exercise counted as 1 time with the standard movement. The coincidence rate calculation unit 1200 calculates the motion coincidence rate using the first feature group, which is a set of angle data formed between a plurality of preset joints, and the second feature group, which is a set of distance data formed between the joints. It is desirable to do so.

또한, 본 시스템은 분류되는 운동에 따라 적어도 하나 이상의 표준 동작을 포함할 수 있다. 그리고, 표준 동작은 복수 개의 표준 자세로 이루어질 수 있다. 또한, 표준 자세는 제1특징그룹 중 적어도 하나 이상과 제2특징그룹 중 적어도 어느 하나 이상의 조합으로 판단될 수 있다.Additionally, the system may include at least one or more standard movements depending on the exercise being classified. And, the standard operation may be performed in a plurality of standard postures. Additionally, the standard posture may be determined to be a combination of at least one of the first feature group and at least one of the second feature group.

동작일치율에 대한 산정은 관절측정부(100)를 통해 측정되는 관절조인트를 이용할 수 있다. 운동에 따라 표준 동작과 이를 구성하는 표준 자세가 미리 설정되어 있다. 한편, 표준 동작에 대한 동작일치율은 예를 들어, 각 표준 자세에 대한 동작일치율의 평균값일 수 있다.The motion consistency rate can be calculated using the joint joint measured through the joint measurement unit 100. Depending on the exercise, standard movements and the standard postures that make up them are preset. Meanwhile, the motion matching rate for the standard motion may be, for example, an average value of the motion matching rate for each standard posture.

표준 자세는 미리 입력된 적어도 하나 이상으로 이루어지는, 동일한 개수의 정자세 이미지와 오자세 이미지로 구성될 수 있다. 여기서, 정자세 이미지와 오자세 이미지는 서로 대응되는 동일한 신체 부위에 대한 이미지이다. 이런, 정자세 이미지와 오자세 이미지는 신체 중 일부에 국한될 수 있다. 한편, 정자세 이미지와 오자세 이미지는 이미지에 따라 표준 자세인지 여부를 판단하는 과정에서 가중치가 달리 설정될 수 있다.The standard posture may be composed of the same number of correct posture images and incorrect posture images, which are comprised of at least one pre-input image. Here, the correct posture image and the incorrect posture image are images of the same body part that correspond to each other. As such, the correct posture images and incorrect posture images may be limited to some parts of the body. Meanwhile, the weights of the correct posture image and the incorrect posture image may be set differently in the process of determining whether the image is a standard posture depending on the image.

관절측정부(100)에 의해 측정되는 관절조인트에 대한 데이터를 이용하여 사용자의 운동 자세와 표준 자세 사이의 동작일치율을 산정할 수 있다. 이 때, 운동 자세와 정자세 이미지를 비교하여 정자세 일치 확률을 산출할 수 있다. 여기서, 동작일치율은 정자세 일치 확률일 수 있다. 또한 동일한 운동 자세를 오자세 이미지와 비교하여 오자세 일치 확률을 산출할 수 있다. 한편, 정자세 이미지와 달리 오자세 이미지는 동일한 운동 자세에 대해 복수 개의 오자세 이미지로 구성될 수 있다. 그 결과, 오자세 일치 확률은 복수 개가 산출될 수 있다.The motion consistency rate between the user's exercise posture and the standard posture can be calculated using data on the joint joint measured by the joint measurement unit 100. At this time, the probability of matching the static posture can be calculated by comparing the exercise posture and the static posture image. Here, the motion matching rate may be the probability of straight posture matching. Additionally, the probability of incorrect posture matching can be calculated by comparing the same exercise posture with the incorrect posture image. Meanwhile, unlike the correct posture image, the incorrect posture image may be composed of multiple incorrect posture images for the same exercise posture. As a result, multiple incorrect posture matching probabilities can be calculated.

구체적으로, 일치율산정부(1200)는 미리 설정되는 복수 개의 관절조인트 사이에 형성되는 각도데이터 집합인 제1특징그룹과, 관절조인트 사이에 형성되는 거리데이터 집합인 제2특징그룹을 이용하여 동작일치율을 산정할 수 있다. 관절조인트는 예를 들어, 25개로 이루어질 수 있다. 이 때, 관절조인트에는 1번 내지 25번까지의 숫자가 각각 부여되고 이를 통해 구분할 수 있다.Specifically, the coincidence rate calculation unit 1200 calculates the motion coincidence rate using the first feature group, which is a set of angle data formed between a plurality of preset joints, and the second feature group, which is a set of distance data formed between the joints. can be calculated. For example, the articulation joint may be composed of 25 pieces. At this time, the joints are assigned numbers from 1 to 25 and can be distinguished through these numbers.

여기서, 각도데이터는 3개의 관절조인트(A1, A2, A3)가 서로 직선으로 연결되면 중간 관절조인트(A2)를 기준으로 그 사이에 형성되는 각도(a)를 의미한다. 예를 들어, 각도데이터는 사용자의 팔꿈치를 기준으로 상완과 하완에 의해 형성되는 각도(a)일 수 있다. 여기서, 관절조인트는 3차원 공간 좌표(x,y,z) 형태의 정보로 표현될 수 있다. 각도데이터는 예를 들어, 왼쪽 무릎을 기준으로 허벅지와 종아리 사이에 형성되는 각도일 수 있다. 즉, 각도데이터는 관절조인트의 개수에 따라 미리 설정될 수 있다. 이런 각각의 각도데이터는 운동 자세를 이루는 제1특징그룹이 된다.Here, the angle data means the angle (a) formed between the three joints (A1, A2, A3) with respect to the middle joint (A2) when they are connected to each other in a straight line. For example, the angle data may be the angle (a) formed by the user's upper and lower arms based on the user's elbow. Here, the joint can be expressed as information in the form of three-dimensional space coordinates (x, y, z). For example, the angle data may be the angle formed between the thigh and the calf based on the left knee. That is, the angle data can be set in advance according to the number of joints. Each of these angle data becomes the first feature group that constitutes the exercise posture.

한편, 거리데이터는 관절조인트 사이에 형성되는 거리(d)를 의미한다. 예를 들어, 공간 상에서, 관절조인트(A1)와 관절조인트(A3) 사이의 직선 거리일 수 있다. 이런 제1특징그룹과 제2특징그룹은 분류되는 운동 동작에 따라 미리 특정될 수 있다. 즉, 운동 동작에 따라 표준 동작이 포함되며, 표준 동작을 구성하는 표준 자세는 제1특징그룹과 제2특징그룹에 의해 구분할 수 있다.Meanwhile, distance data refers to the distance (d) formed between joints. For example, in space, it may be a straight line distance between the articulating joint (A1) and the articulating joint (A3). These first feature groups and second feature groups can be specified in advance according to the motor actions to be classified. In other words, standard movements are included according to the exercise movements, and the standard postures that make up the standard movements can be divided into the first feature group and the second feature group.

동작일치율은 표준 자세 관련 제1특징그룹을 구성하는 각도데이터를 기준으로 한 각도일치율과 제2특징그룹을 구성하는 거리데이터를 기준으로 한 거리일치율을 이용하여 산출될 수 있다. 어느 일 표준 자세에서 제1특징그룹에는 n개의 특징에 대응하는 n개의 각도데이터가 포함될 수 있다. 이 때, 각도일치율은 제1각도일치율 내지 제n각도일치율에 대한 산술 평균값으로 산출될 수 있다. The motion matching rate can be calculated using the angle matching rate based on the angle data constituting the first feature group related to the standard posture and the distance matching rate based on the distance data constituting the second feature group. In one standard posture, the first feature group may include n angle data corresponding to n features. At this time, the angle coincidence rate can be calculated as the arithmetic average of the first angle coincidence rate to the nth angle coincidence rate.

각도일치율은 각도데이터에 대한 레퍼런스 범위값인 a, 본 시스템에서 미리 설정되는 각도데이터에 대한 기준값 b 및 관절측정부(100)에 의해 실제 측정되는 각도데이터인 c를 이용하여 산출될 수 있다. 예를 들어, 제1각도일치율은 각도데이터에 대한 레퍼런스 범위값인 a1, 본 시스템에서 미리 설정되는 각도데이터에 대한 기준값 b1 및 관절측정부(100)에 의해 실제 측정되는 각도데이터인 c1을 이용하여 산출된다.The angle coincidence rate can be calculated using a, which is a reference range value for angle data, b, a reference value for angle data preset in the present system, and c, which is angle data actually measured by the joint measurement unit 100. For example, the first angle coincidence rate is calculated using a1, which is a reference range value for angle data, b1, a reference value for angle data preset in this system, and c1, which is angle data actually measured by the joint measurement unit 100. It is calculated.

본 시스템에서 각도일치율은 예를 들어, 다음과 같이 계산될 수 있다. 각도일치율은 k{(b-c)/a} (여기서, k는 각도일치율에 관여하는 상수로서, 0.8) 즉, 지수함수를 이용하여 산출될 수 있다. 따라서, 제1각도일치율은 k{(b1-c1)/a1} 이다. 이를 이용하면, 각도일치율 = {(제1각도일치율 + 제2각도일치율 + ... + 제n각도일치율) / n} 와 같이 계산될 수 있다.In this system, the angle coincidence rate can be calculated, for example, as follows. The angle coincidence rate can be calculated using k {(bc)/a} (where k is a constant involved in the angle coincidence rate, 0.8), that is, using an exponential function. Therefore, the first angle coincidence rate is k {(b1-c1)/a1} . Using this, the angle coincidence rate can be calculated as follows: {(first angle coincidence rate + second angle coincidence rate + ... + nth angle coincidence rate) / n}.

동일한 방법으로 거리일치율이 산출될 수 있다. 어느 일 표준 자세에서 제2특징그룹에는 m개의 특징에 대응하는 m개의 거리데이터가 포함될 수 있다. 이 때, 거리일치율은 제1거리일치율 내지 제m거리일치율에 대한 산술 평균값으로 산출될 수 있다. 거리일치율은 거리데이터에 대한 레퍼런스 범위값인 d, 본 시스템에서 미리 설정되는 거리데이터에 대한 기준값 f 및 관절측정부(100)에 의해 실제 측정되는 거리데이터인 e를 이용하여 산출될 수 있다. 예를 들어, 제1거리일치율은 거리데이터에 대한 레퍼런스 범위값인 d1, 본 시스템에서 미리 설정되는 거리데이터에 대한 기준값 f1 및 관절측정부(100)에 의해 실제 측정되는 거리데이터인 e1을 이용하여 산출된다.The distance coincidence rate can be calculated in the same way. In one standard posture, the second feature group may include m pieces of distance data corresponding to m features. At this time, the distance matching rate can be calculated as the arithmetic average of the first to mth distance matching rates. The distance coincidence rate can be calculated using d, which is a reference range value for distance data, f, a reference value for distance data preset in this system, and e, which is distance data actually measured by the joint measurement unit 100. For example, the first distance coincidence rate is calculated using d1, which is a reference range value for distance data, f1, a reference value for distance data preset in this system, and e1, which is distance data actually measured by the joint measurement unit 100. It is calculated.

거리일치율은 g{(f-e)/d} (여기서, g는 거리일치율에 관여하는 상수로서, 0.9) 즉, 지수함수를 이용하여 산출될 수 있다. 따라서, 제1거리일치율은 g{(f1-e1)/d1} 이다. 이를 이용하면, 거리일치율 = {(제1거리일치율 + 제2거리일치율 + ... + 제m거리일치율) / m} 와 같이 계산될 수 있다.The distance coincidence rate can be calculated using g {(fe)/d} (where g is a constant involved in the distance coincidence rate, 0.9), that is, using an exponential function. Therefore, the first distance coincidence rate is g {(f1-e1)/d1} . Using this, the distance matching rate can be calculated as follows: {(1st distance matching rate + 2nd distance matching rate + ... + mth distance matching rate) / m}.

한편, 디스플레이부(400)는 사용자의 운동 횟수, 운동 시간, 동작일치율에 대한 통계 그래프를 출력한다. 여기서, 디스플레이부(400)는 예를 들어, 사용자의 스마트디바이스의 출력부일 수 있다. 디스플레이부(400)는 예를 들어, 막대 그래프 형태로 일자에 따른 운동 횟수, 운동 시간을 시각적으로 제공할 수 있다. 또한, 각 운동 동작에서 동작일치율을 수치로서 표현할 수 있다. 본 시스템에서 사용자의 스마트디바이스에는 본 시스템과 연동되는 전용애플리케이션이 설치될 수 있다. 전용애플리케이션은 직관적인 아이콘 배치로 사용자의 운동 데이터를 통계적으로 제공할 수 있다.Meanwhile, the display unit 400 outputs statistical graphs about the user's number of exercise times, exercise time, and motion matching rate. Here, the display unit 400 may be, for example, an output unit of the user's smart device. The display unit 400 may visually provide the number of exercises and exercise times according to the date in the form of a bar graph, for example. Additionally, the motion matching rate for each exercise motion can be expressed as a numerical value. In this system, a dedicated application that works with this system can be installed on the user's smart device. The dedicated application can statistically provide the user’s exercise data through intuitive icon placement.

본 시스템은 센서유닛(130)을 더 포함할 수 있다. 센서유닛(130)은 사용자의 양 손목에 착용되어 사용자의 양 손목에 착용되어 시간에 따른 팔꿈치의 각도 변화량을 측정한다. 센서유닛(130)은 예를 들어, 사용자에 착용 가능한 웨어러블 기기 내에 형성될 수 있다. 이런, 각도 변화량은 동작일치율 산정의 보조적 데이터로 활용될 수 있다. 즉, 센서유닛(130)은 팔꿈치의 각도 변화량을 통해 표준 동작에 대한 동작일치율의 정확도를 향상시킬 수 있다. 이 때, 운동은 푸쉬업을 적어도 포함하는 것이 바람직하다.This system may further include a sensor unit 130. The sensor unit 130 is worn on both wrists of the user and measures the amount of change in the angle of the elbow over time. For example, the sensor unit 130 may be formed in a wearable device that can be worn by a user. This amount of angle change can be used as auxiliary data in calculating the motion consistency rate. In other words, the sensor unit 130 can improve the accuracy of the motion matching rate for standard motion through the amount of change in the angle of the elbow. At this time, it is desirable for the exercise to include at least push-ups.

센서유닛(130)은 그 내부에 예를 들어, 블루투스 4.0 통신 칩이 내장된 보드에 마련되는 3축(X축, Y축 및 Z축) 가속도 센서일 수 있다. 또한, 센서유닛(130)은 3축 가속도 센서, 3축 자이로 센서 및 3축 지자기 센서로 구성되는 MEMS 기반의 9축 가속도 센서일 수 있다. 센서유닛(130)은 사용자의 스마트디바이스와 일정 시간 간격으로 주기적으로 데이터를 송수신할 수 있다.The sensor unit 130 may be, for example, a three-axis (X-axis, Y-axis, and Z-axis) acceleration sensor provided on a board with a Bluetooth 4.0 communication chip built into it. Additionally, the sensor unit 130 may be a MEMS-based 9-axis acceleration sensor consisting of a 3-axis acceleration sensor, a 3-axis gyro sensor, and a 3-axis geomagnetic sensor. The sensor unit 130 can periodically transmit and receive data with the user's smart device at regular time intervals.

외부서버(600)는 스마트디바이스와 통신한다. 이런 외부서버(600)에는 표준 동작, 표준 자세 등을 정의하는 데이터가 저장되어 있다. 한편, 외부서버(600)는 다수의 서로 다른 스마트디바이스와 통신할 수 있다. 스마트디바이스는 전용애플리케이션이 실행되는 상태에서 외부서버(600)와 데이터 송수신이 가능하다.The external server 600 communicates with the smart device. This external server 600 stores data defining standard movements, standard postures, etc. Meanwhile, the external server 600 can communicate with a number of different smart devices. The smart device can transmit and receive data with the external server 600 while the dedicated application is running.

또한, 본 시스템은 사용자의 운동 자세에 대한 동작일치율이 0.5 미만인 경우, 본 시스템은 사용자에게 표준 동작, 표준 자세에 관련되는 각 종 콘텐츠를 제공할 수 있다. 본 시스템은 오자세 일치 확률이 0.8 이상인 경우, 그 해당 표준 자세에 대한 피드백(예를 들어, 팔을 올리세요, 무릎을 더 굽히세요. 등등)을 제공하여 운동 효율성을 극대화시킬 수 있다.Additionally, if the motion consistency rate for the user's exercise posture is less than 0.5, the system can provide the user with various contents related to standard motion and standard posture. This system can maximize exercise efficiency by providing feedback on the standard posture (e.g., raise your arms, bend your knees more, etc.) when the incorrect posture matching probability is 0.8 or more.

통신모듈(300)은 미리 설정되는 적어도 하나 이상의 외부서버(600)와 유선 또는 무선 네트워크를 통해 일정한 정보, 데이터 등을 전송하고 수신한다. 또한, 통신모듈(300)은 센서유닛(130)을 통해 측정되는 데이터를 수신할 수 있다. 통신모듈(300)은 이동통신을 위한 기술 표준 또는 통신 방식에 따라 구축된 이동 통신망 상에서 기지국 등과 무선 신호를 송수신할 수 있다.The communication module 300 transmits and receives certain information, data, etc. through at least one preset external server 600 and a wired or wireless network. Additionally, the communication module 300 can receive data measured through the sensor unit 130. The communication module 300 can transmit and receive wireless signals to a base station, etc. on a mobile communication network established according to a technical standard or communication method for mobile communication.

메모리부(500)는 본 시스템의 작동을 위한 알고리즘 관련 각 종 데이터, 관절측정부(100)를 통해 측정되는 Raw 데이터, 사용자 인터페이스 관련 데이터 등을 저장할 수 있다. 이런, 메모리부(500)는 플래시 메모리, 카드 타입의 메모리, 램 중 적어도 하나 이상의 저장매체를 포함할 수 있다. 메모리부(500)는 각 사용자의 운동 횟수, 운동 시간, 동작일치율에 관한 데이터를 저장할 수 있다.The memory unit 500 can store various data related to algorithms for operating the system, raw data measured through the joint measurement unit 100, user interface-related data, etc. As such, the memory unit 500 may include at least one storage medium among flash memory, card-type memory, and RAM. The memory unit 500 may store data regarding the number of exercises, exercise time, and motion matching rate of each user.

이상과 같이 본 발명의 도시된 실시 예를 참고하여 설명하고 있으나, 이는 예시적인 것들에 불과하며, 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자라면 본 발명의 요지 및 범위에 벗어나지 않으면서도 다양한 변형, 변경 및 균등한 타 실시 예들이 가능하다는 것을 명백하게 알 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적인 사상에 의해 정해져야 할 것이다.As described above, the present invention is described with reference to the illustrated embodiments, but these are merely illustrative examples, and those of ordinary skill in the art to which the present invention pertains can make various modifications without departing from the gist and scope of the present invention. It will be apparent that variations, modifications, and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached claims.

100: 관절측정부 1000: 분석모듈
1100: 동작분류부 1200: 일치율산정부
300: 통신모듈 400: 디스플레이부
500: 메모리부 130: 센서유닛
600: 외부서버
100: Joint measurement unit 1000: Analysis module
1100: Motion classification unit 1200: Match rate calculation unit
300: Communication module 400: Display unit
500: memory unit 130: sensor unit
600: External server

Claims (7)

인공지능을 이용한 사용자의 운동 동작에 대한 분석을 통해 홈 트레이닝을 제공하는 시스템으로서,
사용자의 신체에 대한 적어도 하나 이상의 관절조인트를 측정하는 관절측정부;
인공지능 알고리즘을 이용하여, 상기 관절측정부에 의한 데이터에서 사용자의 운동 동작을 인식하여 미리 설정되는 어느 하나의 운동으로 분류하는 동작분류부; 및
1 횟수로 카운팅되는 상기 운동의 단위 동작을 표준 동작과 비교하여 동작일치율을 산정하는 일치율산정부;를 포함하며,
상기 일치율산정부는 미리 설정되는 복수 개의 상기 관절조인트 사이에 형성되는 각도데이터 집합인 제1특징그룹과, 상기 관절조인트 사이에 형성되는 거리데이터 집합인 제2특징그룹을 이용하여, 동작일치율을 산정하고,
상기 동작일치율은 상기 제1특징그룹을 구성하는 각도데이터를 기준으로 한 각도일치율과, 상기 제2특징그룹을 구성하는 거리데이터를 기준으로 한 거리일치율을 이용하여 산출되며,
상기 각도일치율은 각도데이터에 대한 레퍼런스 범위값인 a, 본 시스템에서 미리 설정되는 각도데이터에 대한 기준값 b 및 상기 관절측정부에 의해 실제 측정되는 각도데이터인 c를 이용하여 산출되고,
상기 각도일치율은 k{(b-c)/a}, (k = 0.8)를 이용하여 산출되며,
상기 거리일치율은 거리데이터에 대한 레퍼런스 범위값인 d, 본 시스템에서 미리 설정되는 거리데이터에 대한 기준값 f 및 상기 관절측정부에 의해 실제 측정되는 거리데이터인 e를 이용하여 산출되고,
상기 거리일치율은 g{(f-e)/d}, (g = 0.9)를 이용하여 산출되며,
상기 표준 동작은 복수 개의 표준 자세로 이루어지며, 상기 표준 자세는 상기 제1특징그룹 중 적어도 어느 하나 이상과 상기 제2특징그룹 중 적어도 어느 하나 이상의 조합으로 판단되며,
상기 표준 자세는 미리 입력된 적어도 하나 이상으로 이루어지는, 동일한 개수의 정자세 이미지와 오자세 이미지로 구성되고,
사용자의 운동 자세를 상기 오자세 이미지와 비교하여 오자세 일치 확률을 산출하되, 상기 오자세 일치 확률이 0.8 이상인 경우, 사용자에게 해당 표준 자세에 대한 피드백을 제공하는 것을 특징으로 하는 인공지능을 이용한 홈 트레이닝 시스템.
A system that provides home training through analysis of the user's exercise movements using artificial intelligence,
A joint measurement unit that measures at least one joint of the user's body;
A motion classification unit that uses an artificial intelligence algorithm to recognize the user's exercise movement from the data generated by the joint measurement unit and classifies it as a preset exercise; and
It includes a coincidence rate calculation unit that calculates the motion coincidence rate by comparing the unit motion of the exercise counted as 1 time with the standard motion,
The coincidence rate calculation unit calculates the motion coincidence rate using a first feature group that is a set of angle data formed between a plurality of preset joints and a second feature group that is a set of distance data formed between the joints. do,
The motion matching rate is calculated using an angle matching rate based on the angle data constituting the first feature group and a distance matching rate based on the distance data constituting the second feature group,
The angle consistency rate is calculated using a, which is a reference range value for angle data, b, a reference value for angle data preset in this system, and c, which is angle data actually measured by the joint measurement unit,
The angle coincidence rate is calculated using k {(bc)/a} , (k = 0.8),
The distance coincidence rate is calculated using d, which is a reference range value for distance data, f, a reference value for distance data preset in this system, and e, which is distance data actually measured by the joint measurement unit,
The distance coincidence rate is calculated using g {(fe)/d} , (g = 0.9),
The standard movement consists of a plurality of standard postures, and the standard posture is determined to be a combination of at least one of the first feature group and at least one of the second feature group,
The standard posture consists of the same number of correct posture images and incorrect posture images, which are composed of at least one pre-input image,
Home using artificial intelligence, which compares the user's exercise posture with the incorrect posture image to calculate the incorrect posture matching probability, and provides feedback on the standard posture to the user if the incorrect posture matching probability is 0.8 or more. Training system.
제1항에 있어서,
상기 관절측정부는 사용자의 정면에 배치되는 제1측정부 및 사용자의 어느 일 측면에 배치되는 제2측정부를 포함하고,
상기 동작분류부에 의해 분류되는 운동에 따라, 상기 제1측정부와 상기 제2측정부에 의한 데이터의 가중치를 달리하는 인공지능을 이용한 홈 트레이닝 시스템.
According to paragraph 1,
The joint measuring unit includes a first measuring unit disposed in front of the user and a second measuring unit disposed on one side of the user,
A home training system using artificial intelligence that varies the weight of the data by the first measurement unit and the second measurement unit according to the exercise classified by the motion classification unit.
제1항에 있어서,
상기 관절측정부는 상기 관절조인트에 관한 공간 위치를 측정하는 인공지능을 이용한 홈 트레이닝 시스템.
According to paragraph 1,
The joint measurement unit is a home training system using artificial intelligence that measures the spatial position of the joint joint.
삭제delete 삭제delete 제1항에 있어서,
사용자의 운동 횟수, 운동 시간, 동작일치율에 대한 통계 그래프를 출력하는 디스플레이부;를 더 포함하는 인공지능을 이용한 홈 트레이닝 시스템.
According to paragraph 1,
A home training system using artificial intelligence, further comprising a display unit that outputs a statistical graph about the user's number of exercises, exercise time, and motion consistency rate.
제1항에 있어서,
사용자의 양 손목에 착용되어 시간에 따른 팔꿈치의 각도 변화량을 측정하는 센서유닛;을 더 포함하며,
상기 운동은 푸쉬업을 적어도 포함하는 인공지능을 이용한 홈 트레이닝 시스템.
According to paragraph 1,
It further includes a sensor unit that is worn on both wrists of the user and measures the amount of change in the angle of the elbow over time,
The exercise is a home training system using artificial intelligence that includes at least push-ups.
KR1020210115313A 2021-08-31 2021-08-31 Home training system using artificial intelligence KR102617467B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210115313A KR102617467B1 (en) 2021-08-31 2021-08-31 Home training system using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210115313A KR102617467B1 (en) 2021-08-31 2021-08-31 Home training system using artificial intelligence

Publications (2)

Publication Number Publication Date
KR20230032454A KR20230032454A (en) 2023-03-07
KR102617467B1 true KR102617467B1 (en) 2023-12-21

Family

ID=85513318

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210115313A KR102617467B1 (en) 2021-08-31 2021-08-31 Home training system using artificial intelligence

Country Status (1)

Country Link
KR (1) KR102617467B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102251315B1 (en) * 2020-12-18 2021-05-12 성결대학교 산학협력단 Exercise training system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101576526B1 (en) * 2014-02-14 2015-12-11 부경대학교 산학협력단 Apparatus and Method for Supporting Rehabilitation Exercise
KR101872907B1 (en) * 2016-01-12 2018-06-29 경희대학교 산학협력단 Motion analysis appratus and method using dual smart band
KR102266219B1 (en) * 2019-05-08 2021-06-17 아이픽셀 주식회사 Method of providing personal training service and system thereof
KR20210091955A (en) * 2020-01-15 2021-07-23 금오공과대학교 산학협력단 Exercise posture correction program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102251315B1 (en) * 2020-12-18 2021-05-12 성결대학교 산학협력단 Exercise training system

Also Published As

Publication number Publication date
KR20230032454A (en) 2023-03-07

Similar Documents

Publication Publication Date Title
Velloso et al. Qualitative activity recognition of weight lifting exercises
CA2834833C (en) Running form diagnostic system and method for scoring running form
KR102212716B1 (en) A Posture Coaching System and Method for Weight Training by Motion Pattern
US20180133551A1 (en) System and method for personalized exercise training and coaching
US10970661B2 (en) System and method for monitoring motion and orientation patterns associated to physical activities of users
CN111228752B (en) Method for automatically configuring sensor, electronic device, and recording medium
US20190143174A1 (en) Motion training guide system based on wearable sensor and method thereof
KR20200074609A (en) Supporting method and system for home fitness
KR102377561B1 (en) Apparatus and method for providing taekwondo movement coaching service using mirror dispaly
JP2018534096A (en) Motion recognition device and motion recognition method
TWI679557B (en) Adaptive sport posture sensing system and method
KR102617467B1 (en) Home training system using artificial intelligence
KR20200119753A (en) A Posture Coaching System and Method for Weight Training by Motion Pattern
KR101992113B1 (en) Fitness monitoring system
KR20220049271A (en) Rehabilitaiton Guide System using Artificial Intelligence
KR20180014971A (en) Motion detection system and method for processing thereof
JP6525180B1 (en) Target number identification device
KR20210081683A (en) Method and System for Evaluating BBS Motion and Electronic Device thereof
KR20220110383A (en) A Posture Coaching System and Method for Weight Training by Motion Pattern
KR102145672B1 (en) smart babel system control method
KR20210085253A (en) Smart personal training system and the method for the same
JP7465842B2 (en) Work Support System
KR102334529B1 (en) System and method for inferencing user's underwater motion using smart swimming kickboard based on machine learning
Wang ExerciseTrak: Reconstructing Arm Posture for Upper-Body Exercises Using a Wrist-Mounted Motion Sensing Device
Ivanov et al. Recognition and Control of the Athlete's Movements Using a Wearable Electronics System

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant