KR102501300B1 - Method for motion evaluation - Google Patents

Method for motion evaluation Download PDF

Info

Publication number
KR102501300B1
KR102501300B1 KR1020210057471A KR20210057471A KR102501300B1 KR 102501300 B1 KR102501300 B1 KR 102501300B1 KR 1020210057471 A KR1020210057471 A KR 1020210057471A KR 20210057471 A KR20210057471 A KR 20210057471A KR 102501300 B1 KR102501300 B1 KR 102501300B1
Authority
KR
South Korea
Prior art keywords
image
user
frame
motion
key frame
Prior art date
Application number
KR1020210057471A
Other languages
Korean (ko)
Other versions
KR20220150127A (en
Inventor
김주연
Original Assignee
(주)릴리어스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)릴리어스 filed Critical (주)릴리어스
Priority to KR1020210057471A priority Critical patent/KR102501300B1/en
Priority to PCT/KR2021/015151 priority patent/WO2022234906A1/en
Publication of KR20220150127A publication Critical patent/KR20220150127A/en
Application granted granted Critical
Publication of KR102501300B1 publication Critical patent/KR102501300B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • A63B2024/0012Comparing movements or motion sequences with a registered reference
    • A63B2024/0015Comparing movements or motion sequences with computerised simulations of movements or motion sequences, e.g. for generating an ideal template as reference to be achieved by the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0647Visualisation of executed movements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 동작 평가 방법에 관한 것으로, 본 발명의 일 실시예에 따른 동작 평가 방법은, 전문가의 가이드 동작이 촬영된 가이드 영상을 보며 따라하는 사용자 동작을 평가하는 동작 평가 방법에 있어서, 가이드 영상을 재생하고 사용자 동작을 촬영하여 사용자 영상을 수집하는 단계와, 가이드 영상의 프레임 중 기지정된 제1 키 프레임의 전문가와, 사용자 영상의 프레임 중 제1 키 프레임에 대응하는 제2 키 프레임의 사용자 간의 비교에 따른 프레임 일치율을 판단하는 단계, 그리고 판단한 프레임 일치율에 기초하여 가이드 동작에 대한 사용자 동작의 동작 일치율을 판단하는 단계를 포함한다. 이를 통해, 본 발명은 사용자가 전문가의 동작을 제대로 따라하고 있는지 알려주어 사용자가 집에서도 올바른 동작으로 홈 트레이닝할 수 있도록 하며, 특히, 간소화된 과정을 통해 사용자의 동작을 평가함으로써, 실시간 사용자 동작 평가시 딜레이 없이 빠른 평가가 이루어질 수 있으며 상대적으로 저사양의 디바이스를 이용하여 동작 평가를 수행할 수 있다.The present invention relates to a motion evaluation method. According to an embodiment of the present invention, the motion evaluation method includes a motion evaluation method for evaluating a user motion followed while viewing a guide image in which an expert's guide motion is photographed. Comparison between the step of reproducing and photographing the user's motion to collect the user image, the expert of the first key frame predefined among the frames of the guide image, and the user of the second key frame corresponding to the first key frame of the frames of the user image Determining a frame coincidence rate according to , and determining a motion coincidence rate of a user motion with respect to a guide motion based on the determined frame coincidence rate. Through this, the present invention informs whether the user is properly following the expert's motion so that the user can home-train with the correct motion at home. In particular, by evaluating the user's motion through a simplified process, real-time user motion evaluation Quick evaluation can be performed without time delay, and operation evaluation can be performed using a relatively low-end device.

Description

동작 평가 방법{Method for motion evaluation}Method for motion evaluation {Method for motion evaluation}

본 발명은 동작 평가 방법에 관한 것으로, 더욱 상세하게는 가이드 영상 재생 중에 가이드 영상의 전문가 동작을 따라하는 사용자 영상을 수집하고 가이드 영상과 사용자 영상 간의 동작 일치율을 비교 판단하여 사용자가 전문가의 동작을 제대로 따라하고 있는지 알려주며, 특히, 가이드 영상의 전문가와 사용자 영상의 사용자를 비교시 모든 프레임을 비교하지 않고 각 동작별로 핵심 포즈가 촬영된 키 프레임의 비교를 통해 동작 일치율을 판단하여 간소화된 과정을 통해 사용자의 동작을 평가할 수 있는 동작 평가 방법에 관한 것이다.The present invention relates to a motion evaluation method, and more particularly, to collect user images that follow the expert's motions of the guide video while playing the guide video, and compare and determine the motion matching rate between the guide video and the user's video so that the user can properly perform the expert's motion. In particular, when comparing the experts in the guide video and the user in the user video, it is not possible to compare all frames, but rather to compare the key frames in which key poses are captured for each motion to determine the motion matching rate. It relates to a motion evaluation method capable of evaluating the motion of

현대인들은 과학기술 문명이 고도로 발달하면서 생활환경이 윤택해지고 편리해진 반면 영양 과잉 및 운동 부족으로 인해 비만 및 과체중 인구가 점점 증가하고 있어 현대인의 건강관리 필요성이 점점 더 커지고 있다. While modern people's scientific and technological civilization has become highly developed and their living environment has become rich and convenient, obesity and overweight population are gradually increasing due to excessive nutrition and lack of exercise, and the need for modern people's health care is getting bigger and bigger.

이에 따라 최근에는 건강한 일반인들도 자신의 건강에 대한 관심이 매우 높아지고 있으며, 사회 전반에 걸쳐 건강증진을 위한 운동의 필요성을 깊이 인식하게 되었고, 실제로 많은 사람들이 운동을 실시하고 있다.Accordingly, interest in their own health has recently increased among healthy people, and the need for exercise for health promotion has been deeply recognized throughout society, and many people are actually exercising.

대부분의 사람들은 건강관리를 위해 헬스장을 많이 이용하고 있는데, 일반적인 헬스장의 이용형태는 사용자가 연간회원, 월간회원 등의 방식으로 헬스장에 가입 후, 사용자가 이용 가능한 시간에 헬스장을 방문하여 헬스장에 구비되어 있는 운동 기구를 이용하여 운동한다. 또한, 운동 효과를 높이기 위하여 헬스장에 등록된 트레이너에 개인 레슨을 추가 등록하여 사용자는 트레이너의 도움으로 자신의 운동목적에 적합한 운동 계획을 세워 운동을 수행할 수 있다. Most people use the gym a lot for health management. In general, the user signs up for a gym in the form of an annual membership or monthly membership, then visits the gym at a time when the user can use it and provides it to the gym. Exercise using the exercise equipment provided. In addition, in order to increase the exercise effect, the user can perform the exercise by making an exercise plan suitable for his/her exercise purpose with the help of the trainer by additionally registering personal lessons with the trainer registered in the gym.

이와 같은 헬스장에서의 운동은 비용이 발생하고, 운동을 위해서는 반드시 가입한 헬스장까지 방문해야 한다는 한계가 존재한다. 특히, 개인 레슨을 받기 위해서는 비싼 추가 비용을 지불해야하기 때문에 경제적 부담이 더욱 크게 발생한다.Exercising at such a gym is expensive, and there is a limitation that you must visit the gym you have joined in order to exercise. In particular, in order to receive private lessons, expensive additional expenses must be paid, resulting in a greater economic burden.

또한, 바이러스에 의한 전염병이 유행하는 경우 좁은 공간에서의 다수의 사람이 모이는 헬스장에서는 바이러스 전파의 위험성이 높다는 문제점 또한 존재한다.In addition, when an epidemic caused by a virus is prevalent, there is also a problem that the risk of virus transmission is high in a gym where a large number of people gather in a small space.

이러한 헬스장 및 개인 레슨을 이용한 트레이닝의 한계와 문제점을 극복하고자 최근에는 각종 기기를 통해 재생되는 전문가의 운동 영상을 보며 각 가정에서 저렴하고 편리하게 운동할 수 있는 홈 트레이닝 콘텐츠가 제공되고 있다.In order to overcome the limitations and problems of training using gyms and private lessons, home training contents that can be exercised inexpensively and conveniently at home while watching expert exercise videos played through various devices have recently been provided.

그런데 모든 운동은 정확한 동작으로 진행해야지만 부상 위험 없이 큰 효과를 볼 수 있어 정확한 동작으로 운동하는 것이 매우 중요하다. 하지만, 현재 제공되는 홈 트레이닝 서비스는 방송과 같이 일방적이고 단방향적으로 이루어지고 있어 사용자가 정확한 동작으로 운동 중인지 확인할 수 없다는 문제점이 존재한다.However, all exercises must be performed with precise movements, but it is very important to exercise with accurate movements because you can see a great effect without risk of injury. However, since the currently provided home training service is unilateral and unidirectional like broadcasting, there is a problem in that it cannot be confirmed whether the user is exercising with an accurate motion.

대한민국 공개특허 제10-2020-0129327호Republic of Korea Patent Publication No. 10-2020-0129327 대한민국 등록특허 제10-2157322호Republic of Korea Patent No. 10-2157322

본 발명은 위에서 언급한 종래 기술이 가지는 문제점을 해결하기 위한 것으로 본 발명이 이루고자 하는 목적은, 가이드 영상 재생 중에 가이드 영상의 전문가 동작을 따라하는 사용자 영상을 수집하고 가이드 영상과 사용자 영상 간의 동작 일치율을 비교 판단하여 사용자가 전문가의 동작을 제대로 따라하고 있는지 알려주며, 특히, 가이드 영상의 전문가와 사용자 영상의 사용자를 비교시 모든 프레임을 비교하지 않고 각 동작별로 핵심 포즈가 촬영된 키 프레임 간의 비교를 통해 동작 일치율을 판단하여 간소화된 과정을 통해 사용자의 동작을 평가할 수 있는 동작 평가 방법을 제공하는 것이다.The present invention is to solve the above-mentioned problems of the prior art, and an object of the present invention is to collect user images that follow the expert's motion of the guide image while playing the guide image, and to improve the motion coincidence rate between the guide image and the user image. Comparison and judgment is performed to inform whether the user is following the expert's motion properly. In particular, when comparing the expert in the guide video and the user in the user video, the motion is performed through comparison between key frames in which key poses are recorded for each motion, rather than comparing all frames. An object of the present invention is to provide a motion evaluation method capable of evaluating a user's motion through a simplified process by determining a match rate.

본 발명이 이루고자 하는 다른 목적은, 가이드 영상의 제1 키 프레임의 사용자 영상의 제2 키 프레임을 비교시, 프레임 상의 전문가와 사용자의 한정 지정된 일부 관절과 관절 간의 연결선에 기초하여 프레임 간의 일치율을 하여, 더욱 간단한 비교 과정을 통해 사용자의 동작을 평가할 수 있는 동작 평가 방법을 제공하는 것이다.Another object to be achieved by the present invention is, when comparing the second key frame of the user image with the first key frame of the guide image, the matching rate between the frames based on the connection line between the limited joints of the expert and the user on the frame is determined. , to provide a motion evaluation method that can evaluate a user's motion through a simpler comparison process.

본 발명의 일 실시예에 따른 동작 평가 방법은, 전문가의 가이드 동작이 촬영된 가이드 영상을 보며 따라하는 사용자 동작을 평가하는 동작 평가 방법에 있어서, 가이드 영상을 재생하고 사용자 동작을 촬영하여 사용자 영상을 수집하는 단계와, 가이드 영상의 프레임 중 기지정된 제1 키 프레임의 전문가와, 사용자 영상의 프레임 중 제1 키 프레임에 대응하는 제2 키 프레임의 사용자 간의 비교에 따른 프레임 일치율을 판단하는 단계, 그리고 판단한 프레임 일치율에 기초하여 가이드 동작에 대한 사용자 동작의 동작 일치율을 판단하는 단계를 포함한다.In the motion evaluation method according to an embodiment of the present invention, in the motion evaluation method of evaluating a user motion followed by watching a guide video in which an expert's guide motion is photographed, the user video is obtained by reproducing the guide video and photographing the user motion. Collecting, determining a frame matching rate according to comparison between an expert of a first key frame predefined among frames of a guide image and a user of a second key frame corresponding to the first key frame among frames of a user image, and and determining a motion coincidence rate of a user motion with respect to a guide motion based on the determined frame coincidence rate.

이때, 프레임 일치율을 판단하는 단계에서 프레임 일치율은 제1 키 프레임 상의 전문가 골격 이미지와 제2 키 프레임 상의 사용자 골격 이미지 간의 골격 일치율에 따른 것이며, 전문가 골격 이미지와 사용자 골격 이미지는 전문가 또는 사용자 신체의 하나 이상의 관절과, 하나 이상의 관절을 연결하는 연결선이 포함될 수 있다.At this time, in the step of determining the frame coincidence rate, the frame coincidence rate is based on the frame coincidence rate between the expert skeleton image on the first key frame and the user skeleton image on the second key frame, and the expert skeleton image and the user skeleton image are one of the expert's or user's body. One or more joints and a connection line connecting one or more joints may be included.

또한, 프레임 일치율을 판단하는 단계에서 가이드 영상의 프레임 중 기지정된 제1 키 프레임의 수는 하나 이상이고, 각각의 제1 키 프레임의 전문가 골격 이미지에는 제1 키 프레임별로 촬영된 포즈에서 핵심이 되는 신체 부위에 따라 한정 지정된 일부 관절과 연결선에 대한 골격 한정 정보가 부가되어 있으며, 골격 일치율은 골격 한정 정보에 따라 한정 지정된 일부 관절과 연결선을 기초로 판단한 것일 수 있다.In addition, in the step of determining the frame matching rate, the number of predefined first key frames among the frames of the guide image is one or more, and the expert skeleton image of each first key frame is a key in poses taken for each first key frame. Skeleton-limiting information for some joints and connection lines limited according to body parts is added, and the skeletal concordance rate may be determined based on some joints and connection lines limited and designated according to the bone-limiting information.

또한, 프레임 일치율을 판단하는 단계는 제1 키 프레임이 재생된 시점으로부터 소정 이내의 시간 동안 촬영되어 수집된 사용자의 영상 프레임 중, 임의로 선택된 하나의 프레임을 제2 키 프레임으로 선택하는 단계와, 선택한 제2 키 프레임에 사용자 골격 이미지를 생성하여 부가하는 단계와, 제1 키 프레임의 전문가 골격 이미지와 제2 키 프레임의 사용자 골격 이미지를 비교하여 제2 키 프레임의 골격 일치율을 판단하는 단계, 그리고 판단한 제2 키 프레임의 골격 일치율을 프레임 일치율로 판단하는 단계를 포함할 수 있다.In addition, the step of determining the frame coincidence rate includes the steps of selecting, as a second key frame, one randomly selected frame among user video frames captured and collected for a time within a predetermined time from when the first key frame is reproduced; Creating and adding a user skeleton image to a second key frame, comparing the expert skeleton image of the first key frame and the user skeleton image of the second key frame to determine the skeleton matching rate of the second key frame, and A step of determining the skeleton coincidence rate of the second key frame as the frame coincidence rate may be included.

또한, 프레임 일치율을 판단하는 단계는 수집된 사용자 영상의 프레임 중, 제1 키 프레임이 재생된 시점으로부터 소정 이내의 시간 동안 촬영된 하나 이상의 후보 프레임을 선택하는 단계와, 선택한 하나 이상의 후보 프레임에 사용자 골격 이미지를 생성하여 부가하는 단계와, 제1 키 프레임의 전문가 골격 이미지에 각각의 후보 프레임의 사용자 골격 이미지를 비교하여 각각의 후보 프레임의 골격 일치율을 판단하는 단계, 그리고 각각의 후보 프레임 중 판단한 골격 일치율이 가장 높은 후보 프레임을 제2 키 프레임으로 선택하고, 선택한 제2 키 프레임의 골격 일치율을 프레임 일치율로 판단하는 단계를 포함할 수 있다.In addition, the step of determining the frame coincidence rate includes selecting one or more candidate frames captured during a predetermined time from the time when the first key frame is reproduced from among the frames of the collected user image, and selecting one or more candidate frames selected by the user. Creating and adding a skeleton image, comparing the user skeleton image of each candidate frame with the expert skeleton image of the first key frame to determine the skeleton matching rate of each candidate frame, and determining the skeleton matching rate of each candidate frame. A step of selecting a candidate frame having the highest matching rate as a second key frame and determining a frame matching rate of the selected second key frame as a frame matching rate.

또한, 동작 평가 방법은 사용자 동작의 촬영을 위한 사용자 위치가 소정 위치 이내인지 여부, 사용자의 신체 정면이 촬영되는지 여부 중, 적어도 하나의 조건을 포함하는 촬영 조건이 충족되었는지 판단하는 단계를 더 포함하고, 사용자 영상을 수집하는 단계는 가이드 영상의 재생이 요청되면, 촬영 조건이 충족되었을 때 가이드 영상의 재생을 시작할 수 있다.In addition, the motion evaluation method further includes determining whether a photographing condition including at least one of whether a user's position for photographing a user's motion is within a predetermined position and whether or not the front of the user's body is photographed is satisfied, , In the step of collecting the user image, play of the guide image may be started when reproduction of the guide image is requested and shooting conditions are satisfied.

또한, 동작 평가 방법은 동작 일치율이 기준치 이상인 경우에만 카운트하여 사용자 동작 횟수를 카운트하는 단계를 더 포함할 수 있다.In addition, the motion evaluation method may further include counting the number of user motions by counting only when the motion coincidence rate is greater than or equal to a reference value.

본 발명에 의하면, 가이드 영상 재생 중에 가이드 영상의 전문가 동작을 따라하는 사용자 영상을 수집하고 가이드 영상과 사용자 영상 간의 동작 일치율을 비교 판단하여 사용자가 전문가의 동작을 제대로 따라하고 있는지 알려주어 사용자가 집에서도 올바른 동작으로 홈 트레이닝할 수 있도록 한다.According to the present invention, while playing the guide video, user images that follow the expert's motions are collected, and the motion matching rate between the guide video and the user's video is compared and judged to inform whether the user is properly following the expert's motions, so that the user can be at home. It allows you to do home training with the correct movement.

또한, 본 발명은 가이드 영상의 전문가와 사용자 영상의 사용자를 비교시 모든 프레임을 비교하지 않고 각 동작별로 핵심 포즈가 촬영된 키 프레임 간의 비교를 통해 동작 일치율을 판단하여 간소화된 과정을 통해 사용자의 동작을 평가함으로써, 실시간 사용자 동작 평가시 딜레이 없이 빠른 평가가 이루어질 수 있으며 상대적으로 저사양의 디바이스를 이용하여 동작 평가를 수행할 수 있다.In addition, when the present invention compares an expert in a guide image and a user in a user image, instead of comparing all frames, the motion matching rate is determined through comparison between key frames in which key poses are captured for each motion, and the user's motion through a simplified process. By evaluating , fast evaluation can be performed without delay when evaluating real-time user motion, and motion evaluation can be performed using a relatively low-end device.

또한, 본 발명은 가이드 영상의 제1 키 프레임의 사용자 영상의 제2 키 프레임을 비교시, 프레임 상의 전문가와 사용자의 한정 지정된 일부 관절과 관절 간의 연결선에 기초하여 프레임 간의 일치율을 하여, 더욱 간단한 비교 과정을 통해 사용자의 동작을 평가할 수 있다.In addition, in the present invention, when comparing the second key frame of the user image of the first key frame of the guide image, the concordance rate between the frames is based on the connection line between the joint and some limitedly designated joints of the expert and the user on the frame, making the comparison simpler. The user's motion can be evaluated through the process.

도 1은 본 발명의 일 실시예에 따른 동작 평가 방법이 적용된 동작 평가 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 가이드 영상 생성부의 기능 블록도이다.
도 3은 본 발명의 일 실시예에 따른 가이드 영상에서의 전문가 골격 이미지 생성 일례를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 가이드 영상에서의 제1 키 프레임 지정 일례를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 동작 평가부의 기능 블록도이다.
도 6은 본 발명의 일 실시예에 따른 사용자 영상에서의 사용자 골격 이미지 생성 일례를 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 사용자 영상에서의 제2 키 프레임 선택 과정을 설명하기 위해 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 전문가 골격 이미지와 사용자 골격 이미지의 비교 일례를 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 동작 평가 방법을 도시한 순서도이다.
도 10은 본 발명의 일 실시예에 따른 프레임 일치율 판단 과정의 일례를 도시한 순서도이다.
도 11은 본 발명의 일 실시예에 따른 프레임 일치율 판단 과정의 다른 예를 도시한 순서도이다.
1 is a diagram schematically illustrating a motion evaluation system to which a motion evaluation method according to an embodiment of the present invention is applied.
2 is a functional block diagram of a guide image generator according to an embodiment of the present invention.
3 is a diagram illustrating an example of creating an expert skeleton image in a guide image according to an embodiment of the present invention.
4 is a diagram showing an example of designating a first key frame in a guide image according to an embodiment of the present invention.
5 is a functional block diagram of an operation evaluation unit according to an embodiment of the present invention.
6 is a diagram illustrating an example of generating a user skeleton image from a user image according to an embodiment of the present invention.
7 is a diagram for explaining a process of selecting a second key frame in a user image according to an embodiment of the present invention.
8 is a diagram illustrating an example of comparison between an expert skeleton image and a user skeleton image according to an embodiment of the present invention.
9 is a flowchart illustrating a motion evaluation method according to an embodiment of the present invention.
10 is a flowchart illustrating an example of a process of determining a frame coincidence rate according to an embodiment of the present invention.
11 is a flowchart illustrating another example of a process of determining a frame coincidence rate according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다.It should be noted that technical terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in the present invention should be interpreted in terms commonly understood by those of ordinary skill in the art to which the present invention belongs, unless specifically defined otherwise in the present invention, and are excessively inclusive. It should not be interpreted in a positive sense or in an excessively reduced sense. In addition, when the technical terms used in the present invention are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that those skilled in the art can correctly understand.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various elements or steps described in the invention, and some of the elements or steps are included. It should be construed that it may not be, or may further include additional components or steps.

또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

이하 첨부한 도면을 참고로 본 발명에 따른 동작 평가 방법에 대해 보다 구체적으로 살펴본다.Hereinafter, a motion evaluation method according to the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 동작 평가 방법이 적용된 동작 평가 시스템을 개략적으로 도시한 도면이다.1 is a diagram schematically illustrating a motion evaluation system to which a motion evaluation method according to an embodiment of the present invention is applied.

본 발명은 재생되는 가이드 영상 상의 가이드 동작을 보고 따라하는 사용자가 동작을 올바르게 하고 있는지 판단하여 알려주기 위한 동작 평가 방법에 관한 것으로, 본 실시예에 따른 동작 평가 방법이 적용된 동작 평가 시스템은 전문가 영상을 수집하는 전문가 영상 수집부(10)와, 수집한 전문가 영상으로부터 가이드 영상을 생성하는 가이드 영상 생성부(30)와, 생성한 가이드 영상을 재생하는 가이드 영상 재생부(50)와, 사용자 영상을 수집하는 사용자 영상 수집부(70), 그리고 사용자의 동작을 평가하는 동작 평가부(90)를 포함하여 구성될 수 있다.The present invention relates to a motion evaluation method for determining and informing whether a user following a guide motion on a reproduced guide image is performing the motion correctly. An expert image collector 10 that collects, a guide image generator 30 that creates a guide image from the collected expert images, a guide image player 50 that plays back the generated guide image, and collects user images It may be configured to include a user image collection unit 70, and a motion evaluation unit 90 to evaluate the user's motion.

전문가 영상 수집부(10)는 전문가의 동작을 촬영하여 전문가 영상을 수집하며, 수집한 전문가 영상을 저장할 수 있다. 이때, 전문가 동작은 운동, 춤 등의 다양한 동작일 수 있다.The expert image collecting unit 10 may collect expert images by capturing motions of the expert, and store the collected expert images. In this case, the expert motion may be various motions such as exercise and dance.

가이드 영상 생성부(30)는 전문가 영상 수집부(10)에서 제공한 전문가 영상을 가공하여 가이드 영상을 생성할 수 있다. 구체적으로 가이드 영상 생성부(30)는 저장된 전문가 영상을 제공받아 편집하여 한 동작 단위의 가이드 영상을 생성할 수 있다. 또한, 가이드 영상 생성부(30)는 생성한 가이드 영상에 전문가 골격 이미지 정보를 부가할 수 있다. 여기서 전문가 골격 이미지란 가이드 영상 상의 전문가 신체에 하나 이상의 관절과 관절 간의 연결선이 포함되는 이미지로 이에 관한 보다 구체적인 설명은 도 3을 참조하여 후술하기로 한다.The guide image generator 30 may generate a guide image by processing the expert image provided by the expert image collection unit 10 . In detail, the guide image generation unit 30 may receive and edit the stored expert image to generate a guide image for one operation unit. In addition, the guide image generator 30 may add expert skeleton image information to the generated guide image. Here, the expert skeleton image is an image in which one or more joints and connection lines between the joints are included in the expert's body on the guide image, and a detailed description thereof will be described later with reference to FIG. 3 .

가이드 영상 생성부(30)에서 생성된 가이드 영상은 가이드 영상 재생부(50)와 동작 평가부(90)에 제공될 수 있다. 가이드 영상 재생부(50)는 가이드 영상 생성부(30)에서 생성한 가이드 영상을 제공받아 재생할 수 있다. 가이드 영상 재생부(50)는 하나의 가이드 영상을 반복하여 재생하거나 또는 서로 다른 종류의 가이드 영상을 서로 연결하여 재생할 수 있다. 예를 들면, 가이드 영상 재생부(50)는 가이드 영상 상의 가이드 동작을 30회 반복 재생하며, 사용자는 이를 보며 전문가의 가이드 동작을 따라 사용자 동작을 30회 반복 수행할 수 있다. 만약, 가이드 영상에 골격 이미지 정보가 부가된 경우, 가이드 영상 재생부(50)에서 재생하는 가이드 영상은 골격 이미지 정보가 삭제되거나 숨겨진 영상일 수 있다. 다른 예로, 두 개의 가이드 동작이 좌우 방향에 따라 서로 대응하는 동작이면, 가이드 영상 재생부(50)는 두 개의 가이드 동작을 순차적으로 반복하여 재생할 수 있다. The guide image generated by the guide image generator 30 may be provided to the guide image reproducing unit 50 and the motion evaluation unit 90 . The guide image reproducing unit 50 may receive and reproduce the guide image generated by the guide image generating unit 30 . The guide image reproducing unit 50 may repeatedly reproduce one guide image or connect and reproduce different types of guide images. For example, the guide image reproducing unit 50 repeatedly reproduces the guide motion on the guide image 30 times, and the user can repeat the user motion 30 times according to the expert's guide motion while viewing it. If skeletal image information is added to the guide image, the guide image reproduced by the guide image reproducing unit 50 may be an image in which skeletal image information is deleted or hidden. As another example, if two guide operations correspond to each other in the left and right directions, the guide image reproducing unit 50 may sequentially and repeatedly reproduce the two guide operations.

사용자는 가이드 영상 재생부(50)에 의해 재생되는 가이드 영상을 보며 전문가의 가이드 동작을 따라할 수 있다. 이때, 사용자가 가이드 영상을 보며 수행한 동작은 사용자 동작에 해당하며, 사용자 영상 수집부(70)는 가이드 동작을 따라하는 사용자를 촬영하여 사용자 영상을 수집할 수 있다.The user can follow the expert's guide motion while viewing the guide video reproduced by the guide video reproducing unit 50 . In this case, an operation performed by the user while viewing the guide image corresponds to a user operation, and the user image collecting unit 70 may collect a user image by photographing a user following the guide operation.

바람직하게, 가이드 영상 재생부(50)는 사용자 영상 상의 사용자가 동작 평가를 위한 올바른 신체 방향 또는 위치(예를 들면 정면 또는 화면 중심부)에 위치하도록 사용자에게 가이드할 수 있다. 바람직하게, 사용자로부터 가이드 영상의 재생이 요청되면 가이드 영상 재생부(50)는 가이드 영상을 재생하기 전에 사용자의 올바른 신체 방향 또는 위치 등을 가이드하는 영상을 제공할 수 있다. 가이드 영상 재생부(50)에서 올바른 신체 방향 또는 위치를 가이드 하는 영상을 제공한 후, 사용자 영상 수집부(70)는 사용자를 향해 사전 영상을 수집한다. 가이드 영상 재생부(50)는 사용자 영상 수집부(70)에서 수집한 사전 영상에 기초하여 사용자의 신체 방향 또는 위치에 따른 촬영 조건이 충족되었는지 판단하고, 촬영 조건이 충족되었다면, 전문가의 가이드 동영상이 촬영된 가이드 영상의 재생을 시작할 수 있다.Preferably, the guide image reproducing unit 50 may guide the user so that the user is located in the correct body direction or position (for example, the front or the center of the screen) for motion evaluation on the user image. Preferably, when reproduction of the guide image is requested from the user, the guide image reproducing unit 50 may provide an image guiding the correct body direction or position of the user before reproducing the guide image. After the guide image reproduction unit 50 provides an image for guiding the correct body direction or position, the user image collection unit 70 collects a preliminary image toward the user. The guide image reproducing unit 50 determines whether a shooting condition according to the direction or position of the user's body is satisfied based on the preliminary image collected by the user image collection unit 70, and if the shooting condition is met, an expert's guide video is displayed. Playback of the captured guide video may be started.

구체적으로 가이드 영상 재생부(50)는 사용자 영상 수집부(70)로부터 제공받은 사전 영상에 기초하여 사용자 위치가 소정 위치 이내인지 여부, 사용자의 신체 정면이 촬영되는지 여부 중, 적어도 하나의 조건을 포함하는 촬영 조건이 충족되었는지 판단할 수 있다. 바람직하게, 가이드 영상 재생부(50)는 사용자 위치가 소정 위치 이내이며, 동시에 사용자의 신체 정면이 촬영되는 경우에만 촬영 조건이 충족된 것으로 판단할 수 있다. 이때의 사용자 위치 또는 신체 방향 판단은 딥 러닝(deep learning) 기술을 통해 이루어질 수 있다.Specifically, the guide image reproducing unit 50 includes at least one condition among whether or not the user's position is within a predetermined position based on the preliminary image provided from the user image collecting unit 70 and whether or not the front of the user's body is captured. It is possible to determine whether the shooting condition to be satisfied. Preferably, the guide image reproducing unit 50 may determine that the photographing condition is satisfied only when the user's position is within a predetermined position and the front of the user's body is photographed at the same time. At this time, the user's location or body direction may be determined through deep learning technology.

동작 평가부(90)는 가이드 영상 재생부(50)에서 재생한 가이드 영상과 사용자 영상 수집부(70)에서 수집한 사용자 영상을 비교하여 가이드 동작과 사용자 동작 간의 동작 일치율을 판단하여 사용자가 올바른 동작을 수행하였는지 평가하고 평가 결과는 사용자가 즉시 확인 가능하도록 가이드 영상 재생부(50)에 제공되어 출력될 수 있다. 이러한 사용자의 동작 평가 및 출력은 사용자가 사용자 동작을 수행할 때마다 즉시 이루어질 수 있으며, 동작 평가 결과는 가이드 영상 재생부(50)에 의해 가이드 영상의 반복 재생 중에 반복 재생되는 가이드 영상과 함께 출력될 수 있다. 따라서, 사용자는 자신이 올바른 자세로 동작을 수행 중인지 실시간으로 피드백 받으며 자세가 잘못된 경우 올바르게 수정해 가며 동작을 수행할 수 있다.The motion evaluation unit 90 compares the guide image reproduced by the guide image reproducing unit 50 and the user image collected by the user image collecting unit 70 to determine the motion matching rate between the guide motion and the user motion, so that the user can select the correct motion. is performed, and the evaluation result may be provided and output to the guide image reproducing unit 50 so that the user can check it immediately. The evaluation and output of the user's motion can be performed immediately whenever the user performs a user motion, and the motion evaluation result will be output together with the guide image that is repeatedly reproduced during repeated reproduction of the guide image by the guide image reproducing unit 50. can Accordingly, the user receives real-time feedback as to whether the user is performing the motion in the correct posture, and corrects the motion when the posture is wrong.

여기서, 본 실시예에 따른 가이드 영상 재생부(50)와 사용자 영상 수집부(70) 그리고 동작 평가부(90)는 스마트폰과 같은 하나의 디바이스로 구성될 수 있으며, 이에 한정하는 것은 아니다.Here, the guide image playback unit 50, the user image collection unit 70, and the motion evaluation unit 90 according to the present embodiment may be configured as a single device such as a smart phone, but are not limited thereto.

도 2는 본 발명의 일 실시예에 따른 가이드 영상 생성부의 기능 블록도이고, 도 3은 본 발명의 일 실시예에 따른 가이드 영상에서의 전문가 골격 이미지 생성 일례를 도시한 도면이며, 도 4는 본 발명의 일 실시예에 따른 가이드 영상에서의 제1 키 프레임 지정 일례를 도시한 도면이다.2 is a functional block diagram of a guide image generating unit according to an embodiment of the present invention, FIG. 3 is a diagram showing an example of creating an expert skeleton image in a guide image according to an embodiment of the present invention, and FIG. It is a diagram showing an example of designating a first key frame in a guide image according to an embodiment of the present invention.

도 2를 참조하여 가이드 영상 생성부(30)에 관하여 보다 구체적으로 살펴보면, 가이드 영상 생성부(30)는 전문가 영상을 한 동작 단위로 편집하는 영상 편집부(31)와, 동작 단위로 편집한 영상에 전문가의 골격 이미지 정보를 생성하여 부가하는 제1 골격 이미지 생성부(33)와, 생성한 전문가의 골격 이미지 정보를 수정하는 골격 이미지 수정부(35)를 포함하여 구성될 수 있다.Looking more specifically at the guide image generator 30 with reference to FIG. 2 , the guide image generator 30 includes an image editor 31 that edits an expert video in units of one action, and an image edited in units of actions. It may include a first skeleton image generating unit 33 that generates and adds expert's skeleton image information and a skeleton image correction unit 35 that corrects the created expert's skeleton image information.

영상 편집부(31)는 전문가 영상 수집부(10)로부터 제공받은 전문가 영상을 동작 한 동작 단위로 편집하여 가이드 영상을 제작할 수 있다. 예를 들어 전문가 영상이 팔 굽혀 펴기 동작을 촬영한 영상이라면 영상 편집부(31)는 팔 굽혀 펴기 1회 동작을 추출하여 하나의 가이드 영상을 제작할 수 있다. 여기서 한 동작 단위의 구분은 관리자 또는 전문가에 의해 판단될 수 있다. 물론, 전문가 영상 수집부(10)에서 수집된 전문가 영상이 한 동작 단위로 수집된 영상일 수 있으며, 이 경우에도 영상 편집부(31)에서는 전문가 영상에서의 필요 없는 프레임을 삭제할 수 있다.The image editing unit 31 may produce a guide image by editing the expert image provided from the expert image collection unit 10 in units of operation. For example, if the expert video is an image of a push-up motion, the video editing unit 31 may extract the push-up motion once and produce one guide image. Classification of one operation unit may be determined by a manager or an expert. Of course, the expert images collected by the expert image collecting unit 10 may be images collected in one operation unit, and even in this case, the image editing unit 31 may delete unnecessary frames from the expert image.

제1 골격 이미지 생성부(33)는 영상 편집부(31)에서 편집하여 제작한 가이드 영상을 제공받고, 제공받은 가이드 영상 상에 전문가의 골격 이미지를 생성하여 부가할 수 있다. The first skeleton image generation unit 33 may receive a guide image edited and produced by the image editing unit 31, and create and add an expert's skeleton image on the provided guide image.

도 3을 참조하여 구체적으로 설명하면, 제1 골격 이미지 생성부(33)는 제공받은 가이드 영상 상의 전문가 신체에서 하나 이상의 관절(jp1)을 추출하고, 추출한 관절을 신체의 구조에 따라 연결한 연결선(jl1)을 연결하여 전문가 골격 이미지(sk1)를 생성할 수 있다. 여기서, 제1 골격 이미지 생성부(33)에서의 골격 이미지 생성은 가이드 영상의 각 프레임 단위로 이루어질 수 있으며, 딥 러닝 기술을 통해 자동으로 이루어질 수 있다.In detail with reference to FIG. 3 , the first skeleton image generating unit 33 extracts one or more joints jp1 from the expert's body on the provided guide image, and connects the extracted joints according to the structure of the body (connecting lines ( jl1) may be connected to create an expert skeleton image sk1. Here, generation of the skeletal image in the first skeletal image generator 33 may be performed in units of each frame of the guide image, or may be automatically performed through deep learning technology.

골격 이미지 수정부(35)는 제1 골격 이미지 생성부(33)에서 생성한 골격 이미지를 수정할 수 있다. 구체적으로 관리자는 딥 러닝 기술을 통해 전문가 골격 이미지가 부가된 가이드 영상을 확인하며, 전문가 골격 이미지가 잘못 부가된 프레임에서의 정확한 위치에 추출되지 못한 관절을 선택하여 정확한 위치로 이동시키는 요청을 할 수 있으며, 골격 이미지 수정부(35)는 관리자의 요청에 따라 관절의 위치를 이동시키고 이에 따른 연결선 위치를 이동시킴으로써 전문가 골격 이미지를 수정할 수 있다.The bone image correction unit 35 may modify the bone image generated by the first bone image generator 33 . Specifically, the manager checks the guide image to which the expert skeleton image has been added through deep learning technology, selects joints that have not been extracted to the correct location in the frame where the expert skeleton image is incorrectly added, and requests to move them to the correct location. In addition, the skeleton image correction unit 35 may modify the expert skeleton image by moving the position of the joint and moving the position of the connecting line according to the request of the manager.

한편, 본 실시예에 따른 동작 평가 시스템은 가이드 영상과 사용자 영상의 비교시 모든 프레임을 비교하지 않고 각 운동별로 핵심 포즈가 촬영된 키 프레임의 비교를 통해 일치율을 판단하여 간소화된 과정을 통해 사용자의 동작을 평가할 수 있다.On the other hand, the motion evaluation system according to the present embodiment does not compare all frames when comparing the guide image and the user image, but determines the matching rate through comparison of key frames in which key poses are captured for each exercise, and through a simplified process, the motion evaluation system action can be evaluated.

이를 위해, 본 실시예에 따른 가이드 영상 생성부(30)는 편집한 영상에 하나 이상의 제1 키 프레임을 지정하는 제1 키 프레임 지정부(37), 그리고 각각의 제1 키 프레임에 골격 한정 정보를 설정하는 골격 한정 정보 설정부(39)를 포함하여 구성될 수 있다.To this end, the guide image generation unit 30 according to the present embodiment includes a first key frame designation unit 37 for designating one or more first key frames in the edited image, and skeleton limitation information in each first key frame. It may be configured to include a skeleton limitation information setting unit 39 for setting.

제1 키 프레임 지정부(37)는 도 4에 도시된 바와 같이 가이드 영상을 구성하는 다수개의 프레임 중, 해당 동작의 핵심 포즈가 촬영된 제1 키 프레임(k1)을 지정할 수 있다. 여기서 핵심 포즈란 해당 동작에서 가장 중요한 포즈로 핵심 포즈의 지정은 관리자 또는 전문가의 선택에 의해 지정될 수 있다. 예를 들어, 도 4의 가이드 동작과 같이 일측 무릎을 측면으로 높이 들어올리는 동작이라면 무릎이 가장 높이 들어 올려진 시점의 포즈가 가장 중요한 포즈일 것이며, 이를 핵심 포즈로 선택하여 지정할 수 있다. As shown in FIG. 4 , the first key frame designator 37 may designate a first key frame k1 in which a key pose of a corresponding motion is captured, among a plurality of frames constituting a guide image. Here, the core pose is the most important pose in the corresponding motion, and the designation of the core pose may be designated by a manager or an expert. For example, in the case of a motion of lifting one knee high to the side as in the guide motion of FIG. 4 , the pose at the time when the knee is lifted the most is the most important pose, and this may be selected and designated as a core pose.

이때, 제1 키 프레임(k1)으로 하나의 프레임이 지정될 수 있지만, 다수개의 프레임이 지정될 수도 있다. 제1 키 프레임(k1)의 수는 관리자 또는 전문가의 결정에 따라 달라질 수 있다. 예를 들어, 가이드 동작이 팔 굽혀 펴기 동작이라면 팔을 최대한 굽혀 상체가 지면에 가장 근접한 시점에서의 포즈와 팔을 최대한 펴 상체가 지면에서 가장 먼 시점에서의 포즈가 핵심 포즈가 될 수 있으며, 이 경우 두 개 또는 세 개의 키 프레임(k1)이 지정될 수 있다.At this time, although one frame may be designated as the first key frame k1, a plurality of frames may be designated. The number of first key frames k1 may vary according to a decision of a manager or an expert. For example, if the guide motion is a push-up motion, a pose at which the upper body is closest to the ground by bending the arm as much as possible and a pose when the upper body is farthest from the ground by fully extending the arm may be the core pose. In this case, two or three key frames (k1) may be designated.

바람직하게, 제1 키 프레임 지정부(37)는 제1 키 프레임(k1)으로 다수개의 프레임이 추출되도록 설정될 수 있다. 이와 같이 제1 키 프레임(k1)으로 다수개의 프레임이 선택되어 추출되도록 설정된 경우, 관리자가 가이드 영상의 전체 프레임 중 최초 프레임과 최후 프레임을 제외한 하나 이상의 프레임을 선택하면 가이드 영상의 최초 프레임 또는 최후 프레임이 자동으로 선택되어 둘 이상의 제1 키 프레임(k1)을 지정할 수 있다. 이는 일반적으로 대부분의 운동 동작이 최초 또는 최후 시점의 포즈가 핵심 포즈에 포함되기 때문이며, 또한 대부분의 운동 동작에서 최초 또는 최후 시점의 포즈가 동일하므로 최초 또는 최후 시점의 포즈 중 하나의 포즈만 핵심 포즈로 포함시키는 것이 바람직하다.Preferably, the first key frame specifying unit 37 may be set to extract a plurality of frames as the first key frame k1. In this way, when a plurality of frames are selected and set to be extracted as the first key frame (k1), when the manager selects one or more frames excluding the first frame and the last frame among all frames of the guide video, the first frame or the last frame of the guide video is automatically selected to designate two or more first key frames (k1). This is because in general, the first or last pose of most exercise motions is included in the core pose, and since the first or last pose is the same in most exercise motions, only one of the first or last poses is the core pose. It is preferable to include

이와 같이 추출된 제1 키 프레임(k1)은 동작 평가부(90)에서 가이드 영상과 사용자 영상의 동작 일치율 비교시 사용될 수 있는데, 이에 관한 보다 구체적인 설명은 도 5를 참조하여 후술하기로 한다.The first key frame (k1) extracted in this way can be used in the motion evaluation unit 90 when comparing motion coincidence rates between a guide image and a user image, and a more detailed description thereof will be described later with reference to FIG. 5 .

바람직하게, 영상 편집부(31)에서 가이드 영상을 생성하면, 제1 골격 이미지 생성부(33)에서 전문가의 골격 이미지를 생성하기 전에 제1 키 프레임 지정부(37)에서 제1 키 프레임을 지정할 수 있다. 그리고 제1 골격 이미지 생성부(33)는 제1 키 프레임 지정부(37)에서 지정한 제1 키 프레임에 대해서만 전문가의 골격 이미지를 생성함으로써, 전문가의 골격 이미지 생성 과정을 최소화할 수 있다.Preferably, when a guide image is created in the image editing unit 31, the first key frame designation unit 37 may designate a first key frame before generating an expert's skeleton image in the first skeleton image generation unit 33. there is. The first skeleton image generation unit 33 generates the expert's skeleton image only for the first key frame specified by the first key frame designator 37, thereby minimizing the expert's skeleton image creation process.

골격 한정 정보 설정부(39)는 제1 키 프레임 상에 촬영된 포즈에서 핵심이 되는 신체 부위에 따라 한정 지정된 일부 관절과 연결선에 대한 골격 한정 정보를 생성하여, 제1 키 프레임에 부가할 수 있다. 만약, 제1 키 프레임이 다수개 지정되었다면 골격 한정 정보 설정부(39)는 다수개의 제1 키프레임 각각에 대해 개별적으로 골격 한정 정보를 설정할 수 있다. The skeletal limitation information setting unit 39 may generate skeletal limitation information for some joints and connection lines limited and designated according to key body parts in a pose photographed on the first key frame, and add the skeletal limitation information to the first key frame. . If a plurality of first key frames are designated, the skeleton limitation information setting unit 39 may individually set skeleton limitation information for each of the plurality of first key frames.

여기서, 골격 한정 정보는 제1 키 프레임 상의 전문가의 포즈에서 핵심이 되는 신체 부위를 이루는 관절과 연결선을 포함할 수 있다. 예를 들어 팔 굽혀 펴기 동작에 대한 가이드 영상에서 제1 키 프레임은 팔을 최대한 굽힌 포즈가 촬영된 프레임이라 하면, 팔을 최대한 굽힌 포즈에서 골격 한정 정보는 어깨 관절, 팔꿈치 관절, 손목 관절과 세 개의 관절을 연결하는 두 개의 연결선 일 수 있다. 이때, 팔을 최대한 굽힌 포즈에서 둔부의 위치 또한 중요하다 판단된다면 골격 한정 정보에 고관절을 추가하여 설정할 수 있다. 즉, 골격 한정 정보에 포함되는 관절은 꼭 서로 간에 연결된 관절일 필요는 없다.Here, the skeleton limitation information may include joints and connection lines constituting key body parts in the expert's pose on the first key frame. For example, in a guide video for a push-up motion, if the first key frame is a frame in which the arm is maximally bent, the skeleton-limited information in the arm maximally bent pose is the shoulder joint, the elbow joint, the wrist joint, and the three It may be two connecting lines connecting a joint. At this time, if it is determined that the position of the buttocks is also important in the pose where the arms are maximally bent, the hip joint can be set by adding the skeletal limitation information. That is, the joints included in the skeletal limitation information do not necessarily have to be joints connected to each other.

이와 같이 지정된 제1 키 프레임 정보, 관리자 골격 이미지 생성 정보, 골격 한정 정보가 부가 또는 설정된 가이드 영상은 가이드 영상 재생부(50) 및 동작 평가부(90)로 제공될 수 있다.The guide image to which the designated first key frame information, manager skeleton image generation information, and skeleton limitation information are added or set may be provided to the guide image reproducing unit 50 and motion evaluation unit 90 .

도 5는 본 발명의 일 실시예에 따른 동작 평가부의 기능 블록도이고, 도 6은 본 발명의 일 실시예에 따른 사용자 영상에서의 사용자 골격 이미지 생성 일례를 도시한 도면이며, 도 7은 본 발명의 일 실시예에 따른 사용자 영상에서의 제2 키 프레임 선택 과정을 설명하기 위해 도시한 도면이다.5 is a functional block diagram of a motion evaluation unit according to an embodiment of the present invention, FIG. 6 is a diagram showing an example of generating a user skeleton image from a user image according to an embodiment of the present invention, and FIG. 7 is a diagram illustrating the present invention. It is a diagram shown to explain a process of selecting a second key frame in a user image according to an embodiment of.

도 5를 참조하여 동작 평가부(90)에 관하여 보다 구체적으로 살펴보면, 동작 평가부(90)는 사용자 영상에서 사용자 골격 이미지를 생성하는 제2 골격 이미지 생성부(91)와, 가이드 영상의 제1 키 프레임과 사용자 영상의 제2 키 프레임의 프레임 일치율을 판단하는 프레임 일치율 판단부(93)와, 가이드 영상과 사용자 영상 간의 동작 일치율을 판단하는 동작 일치율 판단부(95), 그리고 판단한 동작 일치율에 기초하여 사용자의 올바른 동작 횟수를 카운트하는 카운트부(97)를 포함하여 구성될 수 있다.Looking more specifically at the motion evaluation unit 90 with reference to FIG. 5 , the motion evaluation unit 90 includes a second skeleton image generator 91 that generates a user skeleton image from a user image, and a first skeleton image generator 91 of a guide image. Based on the frame matching rate determination unit 93 for determining the frame matching rate of the key frame and the second key frame of the user image, the motion matching rate determining unit 95 for determining the motion matching rate between the guide image and the user image, and the determined motion matching rate It may be configured to include a counting unit 97 for counting the number of correct operations by the user.

제2 골격 이미지 생성부(91)는 사용자 영상 수집부(70)에서 수집한 사용자 영상을 제공받고, 제공받은 사용자 영상 상에 사용자의 골격 이미지(jp2)를 생성하여 부가할 수 있다.The second skeletal image generator 91 may receive the user image collected by the user image collection unit 70, and may create and add the user's skeletal image jp2 on the provided user image.

도 6을 참조하여 구체적으로 설명하면, 제2 골격 이미지 생성부(91)는 제공받은 사용자 영상 상의 사용자 신체에서 하나 이상의 관절(jp2)을 추출하고, 추출한 관절을 신체의 구조에 따라 연결한 연결선(jl2)을 연결하여 사용자 골격 이미지(sk2)를 생성할 수 있다. 여기서, 제2 골격 이미지 생성부(91)에서의 골격 이미지 생성은 사용자 영상의 각 프레임 단위로 이루어질 수 있으나, 선택된 특정 프레임에 한정하여 이루어질 수도 있다. 또한, 제2 골격 이미지 생성부(91)는 딥 러닝 기술을 통해 사용자 골격 이미지(sk2)를 생성할 수 있다.In detail with reference to FIG. 6 , the second skeleton image generator 91 extracts one or more joints jp2 from the user's body on the provided user image, and connects the extracted joints according to the structure of the body. jl2) to create a user skeleton image (sk2). Here, generation of the skeleton image in the second skeleton image generator 91 may be performed in units of each frame of the user image, but may be performed limited to a selected specific frame. Also, the second skeletal image generation unit 91 may generate a user skeletal image sk2 through deep learning technology.

프레임 일치율 판단부(93)는 사용자 영상의 제1 키 프레임과, 가이드 영상의 제2 키 프레임의 프레임 일치율을 판단할 수 있다. 이때, 프레임 일치율은 제1 키 프레임 상에서 전문가의 포즈와 제2 키 프레임 상에서 사용자의 포즈 간의 일치율을 의미한다. 구체적으로, 프레임 일치율 판단부(93)는 제1 키 프레임에 부가된 전문가 골격 이미지와 제2 키 프레임의 사용자 골격 이미지 간의 골격 일치율을 프레임 일치율로 판단할 수 있는데, 전문가 골격 이미지와 사용자 골격 이미지 간의 골격 일치율을 판단하는 과정에 대한 상세한 설명은 도 8을 참조하여 후술하기로 한다.The frame matching rate determination unit 93 may determine frame matching rates between the first key frame of the user image and the second key frame of the guide image. In this case, the frame coincidence rate means the coincidence rate between the expert's pose on the first key frame and the user's pose on the second key frame. Specifically, the frame matching rate determination unit 93 may determine the frame matching rate between the expert skeleton image added to the first key frame and the user skeleton image of the second key frame as the frame matching rate. A detailed description of the process of determining the bone concordance rate will be described later with reference to FIG. 8 .

프레임 일치율 판단부(93)는 재생된 가이드 영상에 부가된 제1 키 프레임 지정 정보에 기초하여, 사용자 영상을 구성하는 프레임 중 제2 키 프레임을 선택할 수 있다. 이때, 제2 키 프레임은 가이드 영상의 제1 키 프레임과 대응하는 사용자 영상의 프레임으로, 구체적으로는 제1 키 프레임의 전문가 포즈를 따라하는 사용자 포즈가 촬영된 프레임일 수 있다. 따라서 가이드 영상에 포함된 제1 키 프레임의 개수에 따라 사용자 영상에서의 제2 키 프레임의 개수가 정해질 수 있으며, 선택된 각각의 제2 키 프레임은 각각의 제1 키 프레임과 1:1 대응한다.The frame coincidence rate determining unit 93 may select a second key frame among frames constituting the user image based on the first key frame designation information added to the reproduced guide image. In this case, the second key frame is a frame of a user image corresponding to the first key frame of the guide image, and may be a frame in which a user pose following an expert pose of the first key frame is captured. Therefore, the number of second key frames in the user image can be determined according to the number of first key frames included in the guide image, and each selected second key frame corresponds to each first key frame in a 1:1 relationship. .

프레임 일치율 판단부(93)는 가이드 영상 재생부(50)에서 제1 키 프레임이 재생된 시점에 촬영된 사용자 영상의 프레임을 해당 제1 키 프레임에 대응하는 제2 키 프레임으로 선택할 수 있다. 그런데 사용자가 가이드 동작을 이미 숙지한 상태에서 사용자 동작을 하는 경우에는 제1 키 프레임이 재생되는 시점에서 동시에 제1 키 프레임 상의 포즈를 수행할 수 있겠지만(즉, 가이드 동작과 사용자 동작의 싱크가 맞겠지만), 사용자가 가이드 동작을 보며 따라하는 경우에는 사용자가 제1 키 프레임 상의 포즈를 보고 따라하기까지는 소정의 시간차가 발생할 것이다. 따라서, 프레임 일치율 판단부(391) 가이드 영상 재생부(50)에서 제1 키 프레임이 재생된 시점에서 수집된 프레임을 제2 키 프레임으로 선택할 수 있지만, 제1 키 프레임이 재생된 시점보다 이후 시점에 수집된 프레임을 제2 키 프레임으로 선택할 수도 있다.The frame coincidence rate determination unit 93 may select a frame of the user image captured at the time when the first key frame is reproduced by the guide image reproducing unit 50 as a second key frame corresponding to the corresponding first key frame. However, if the user performs the user motion while already familiar with the guide motion, the pose on the first key frame can be performed at the same time as the first key frame is played (that is, the guide motion and the user motion are synchronized). However, when the user follows the guide motion, a predetermined time difference will occur until the user sees the pose on the first key frame and follows it. Therefore, although the frames collected at the time when the first key frame is reproduced in the frame coincidence rate determining unit 391 and the guide image reproducing unit 50 may be selected as the second key frame, a time point later than the time when the first key frame is reproduced The frames collected in may be selected as the second key frame.

도 7을 참조하여 보다 구체적으로 설명하면, 프레임 일치율 판단부(391)는 가이드 영상 재생부(50)에서 제1 키 프레임이 재생된 시점(t1)으로부터 소정의 시간이 지난 시점(t2)까지 촬영된 사용자 영상의 프레임 중 하나의 프레임을 제1 키 프레임으로 선택할 수 있다.In more detail with reference to FIG. 7 , the frame coincidence rate determination unit 391 captures images from the time point t1 when the first key frame is reproduced in the guide image reproducing unit 50 to the time point t2 after a predetermined time has elapsed. One of the frames of the user image may be selected as the first key frame.

바람직하게, 프레임 일치율 판단부(93)는 가이드 영상 재생부(50)에서 제1 키 프레임이 재생된 시점(t1)으로부터 기준 시간이 지난 시점에 촬영된 프레임을 제1 키 프레임으로 선택할 수 있다. 이때 기준 시간은 사용자의 동작 숙련도에 따라 설정될 수 있으며, 사용자의 동작 숙련도는 가이드 동작 별로 사용자에 의해 선택될 수 있다. 예를 들어, 사용자가 팔 굽혀 펴기 동작에 대한 동작 숙련도를 초보 단계로 선택하였다면, 기준 시간은 2.0초로 설정될 수 있다. 반면에, 사용자가 팔 굽혀 펴기 동작에 대한 동작 숙련도를 고급 단계로 선택하였다면, 기준 시간은 0.5초로 설정될 수 있다. 이때, 임의의 시간에는 0.0초도 포함될 수 있다. 예를 들어 사용자가 팔 굽혀 펴기 동작에 대한 동작 숙련도를 전문가 단계로 선택하였다면, 기준 시간이 0.0초로 설정되어 프레임 일치율 판단부(93)는 제1 키 프레임이 재생된 시점(t1)에 촬영된 프레임을 제2 키 프레임으로 선택할 수 있다.Preferably, the frame coincidence rate determination unit 93 may select a frame taken at a point in time when a reference time elapses from the point in time t1 when the first key frame is reproduced in the guide image reproducing unit 50 as the first key frame. In this case, the reference time may be set according to the user's operational skill level, and the user's operational skill level may be selected by the user for each guide operation. For example, if the user selects a motion proficiency for a push-up motion as a beginner level, the reference time may be set to 2.0 seconds. On the other hand, if the user selects the motion proficiency for the push-up motion as an advanced level, the reference time may be set to 0.5 seconds. At this time, 0.0 second may also be included in an arbitrary time. For example, if the user selects the motion proficiency for the push-up motion as the expert level, the reference time is set to 0.0 second, and the frame coincidence rate determining unit 93 determines the frame captured at the time point t1 when the first key frame is reproduced. can be selected as the second key frame.

여기서, 가이드 영상 재생부(50)는 가이드 영상에 부가된 제1 키 프레임 지정 정보에 기초하여 제1 키 프레임이 재생된 시점(t1)에 제1 키 프레임 재생 신호를 생성하여 프레임 일치율 판단부(93)에 제공하고, 프레임 일치율 판단부(93)는 제공받은 제1 키 프레임 재생 신호에 기초하여 제1 키 프레임이 재생된 시점(t1)을 판단할 수 있다. Here, the guide image reproducing unit 50 generates a first key frame reproducing signal at the time point t1 when the first key frame is reproduced based on the first key frame specifying information added to the guide image, and the frame matching rate determining unit ( 93), and the frame coincidence rate determination unit 93 may determine the time point t1 at which the first key frame was reproduced based on the received first key frame reproduction signal.

그리고 제2 키 프레임을 선택한 프레임 일치율 판단부(93)는 제2 키 프레임의 사용자 골격 이미지와 이에 대응하는 제1 키 프레임의 전문가 골격 이미지를 상호 비교하여 골격 일치율을 판단하며 판단한 골격 일치율에 따라 제1 키 프레임과 제2 키 프레임 간의 프레임 일치율을 결정할 수 있다.In addition, the frame matching rate determination unit 93 that has selected the second key frame compares the user skeleton image of the second key frame and the corresponding expert skeleton image of the first key frame to determine the skeleton matching rate, and determines the frame matching rate according to the determined skeleton matching rate. A frame coincidence rate between the first key frame and the second key frame may be determined.

이때, 제2 골격 이미지 생성부(91)는 사용자 영상의 전체 프레임 중 선택된 제2 키 프레임에 대해서만 사용자 골격 이미지를 생성함으로써, 사용자 골격 이미지 생성 과정을 최대한 간소화할 수 있다.At this time, the second skeleton image generation unit 91 generates a user skeleton image only for the selected second key frame among all frames of the user image, thereby simplifying the user skeleton image creation process as much as possible.

상술한 바와 같이 제2 키 프레임을 선택하는 경우, 제2 키 프레임 선택 과정이 간소화될 수 있다는 장점이 있다. 하지만, 사용자가 제1 키 프레임의 포즈를 정확하게 따라했음에도 불구하고, 제1 키 프레임의 포즈를 정확하게 따라한 시점에서의 사용자 포즈가 제2 키 프레임이 아닌 다른 프레임에 촬영되었다면 프레임 일치율이 상대적으로 낮게 판단될 수 있다는 문제점이 존재한다.As described above, when the second key frame is selected, there is an advantage in that the process of selecting the second key frame can be simplified. However, even though the user accurately followed the pose of the first key frame, if the user's pose at the time of exactly following the pose of the first key frame was captured in a frame other than the second key frame, the frame matching rate was relatively low. There are problems that can be judged.

이와 같은 문제점을 해결하기 위해 바람직하게, 프레임 일치율 판단부(93)는 사용자 영상의 프레임 중, 제1 키 프레임이 재생된 시점(t1)으로부터 소정의 시간이 지난 시점(t2)까지 촬영된 하나 이상의 프레임 중 제1 키 프레임의 포즈와 가장 일치한 포즈가 촬영된 프레임을 제2 키 프레임으로 선택할 수 있다. In order to solve this problem, preferably, the frame coincidence rate determination unit 93 includes one or more frames of the user image captured from the time point t1 when the first key frame is reproduced to the time point t2 after a predetermined time has elapsed. Among the frames, a frame in which a pose that most closely matches the pose of the first key frame is photographed may be selected as the second key frame.

구체적으로, 프레임 일치율 판단부(93)는 사용자 영상의 프레임 중, 제1 키 프레임이 재생된 시점(t1)으로부터 소정의 시간이 지난 시점(t2)까지 촬영된 하나 이상의 프레임을 후보 프레임으로 선택하고, 선택한 후보 프레임의 사용자 골격 이미지를 제1 키 프레임의 전문가 골격 이미지와 비교하여 각각의 후보 프레임의 골격 일치율을 판단할 수 있다. 그리고 프레임 일치율 판단부(93)는 하나 이상의 후보 프레임 중 골격 일치율이 가장 높게 판단된 후보 프레임을 제2 키 프레임으로 선택할 수 있다. 이 경우, 선택된 제2 키 프레임은 선택 과정에서 이미 골격 일치율이 판단되었으므로 프레임 일치율 판단부(93)는 별도의 골격 일치율 판단 과정을 추가로 거치지 않고, 선택된 제2 키 프레임의 골격 일치율에 따라 프레임 일치율을 결정할 수 있다.Specifically, the frame coincidence rate determining unit 93 selects one or more frames captured from the time point t1 when the first key frame was reproduced to the time point t2 after a predetermined time has elapsed among the frames of the user image as candidate frames, , The skeleton matching rate of each candidate frame may be determined by comparing the user skeleton image of the selected candidate frame with the expert skeleton image of the first key frame. Further, the frame matching rate determining unit 93 may select a candidate frame having a skeleton matching rate determined to be the highest among one or more candidate frames as a second key frame. In this case, since the frame matching rate of the selected second key frame has already been determined during the selection process, the frame matching rate determination unit 93 does not additionally go through a separate skeleton matching rate determination process, and the frame matching rate is determined according to the frame matching rate of the selected second key frame. can determine

이때, 제2 골격 이미지 생성부(91)는 사용자 영상의 전체 프레임 중 선택된 제2 키 프레임에 대해서만 사용자 골격 이미지를 생성함으로써, 사용자 영상의 전체 프레임을 대상으로 사용자 골격 이미지를 생성하는 것에 비해 사용자 골격 이미지 생성 과정을 상대적으로 간소화할 수 있다.At this time, the second skeleton image generation unit 91 generates a user skeleton image only for the selected second key frame among all frames of the user image, compared to generating the user skeleton image for all frames of the user image. The image creation process can be relatively simplified.

한편, 동작 일치율 판단부(95)는 제1 키 프레임과 제2 키 프레임 간의 프레임 일치율에 기초하여 가이드 영상의 가이드 동작과 사용자 영상의 사용자 동작 간의 동작 일치율을 판단할 수 있다.Meanwhile, the motion coincidence rate determination unit 95 may determine a motion coincidence rate between the guide motion of the guide image and the user motion of the user image based on the frame coincidence rate between the first key frame and the second key frame.

구체적으로, 동작 일치율 판단부(95)는 가이드 영상의 제1 키 프레임이 하나인 경우 제1 키 프레임과 제2 키 프레임 간의 프레임 일치율을 그대로 동작 일치율로 판단할 수 있다. Specifically, when the first key frame of the guide image is one, the motion coincidence rate determining unit 95 may determine the frame coincidence rate between the first key frame and the second key frame as the motion coincidence rate.

만약, 가이드 영상의 제1 키 프레임이 다수개인 경우 동작 일치율 판단부(95)는 각각의 제1 키 프레임과 이에 대응하는 제2 키 프레임 간의 프레임 일치율의 평균값을 동작 일치율로 판단할 수 있다.If there are multiple first key frames in the guide image, the motion consistency rate determination unit 95 may determine an average value of frame coincidence rates between each first key frame and a corresponding second key frame as the motion consistency rate.

이와 같이 본 발명은 가이드 영상의 전문가 동작과 사용자 영상의 사용자 동작 간의 동작 일치율 판단시 모든 프레임을 비교하지 않고 각 동작 별로 핵심 포즈가 촬영된 제1 키 프레임과 제2 키 프레임 간의 비교를 통해 동작 일치율을 판단하므로 간소화된 과정을 통해 사용자의 동작을 평가할 수 있다. 따라서, 본 발명은 실시간 사용자 동작 평가시 딜레이 없이 빠른 평가가 이루어질 수 있으며 상대적으로 저사양의 디바이스를 이용하여 동작 평가를 수행할 수 있다.In this way, the present invention, when determining the motion consistency rate between the expert motion of the guide image and the user motion of the user image, does not compare all frames, but compares the motion coincidence rate between the first key frame and the second key frame in which key poses are captured for each motion. Therefore, the user's motion can be evaluated through a simplified process. Therefore, in the present invention, when evaluating a user's motion in real time, quick evaluation can be performed without delay, and motion evaluation can be performed using a device with a relatively low specification.

바람직하게, 사용자 영상 수집부(70)는 사용자 동작을 모두 촬영하지 않고 가이드 영상 재생부에서 제1 키 프레임이 재생된 시점으로부터 소정 이내의 시간 동안 사용자 영상을 수집할 수 있다. 즉, 사용자 영상 수집부(70)는 사용자 동작 중에서 일치율 판단에 사용되는 동작 구간만을 촬영하여 사용자 영상을 수집할 수 있다. 따라서, 본원 발명은 사용자 영상에서 일치율 판단에 불필요한 부분을 최소화하고 이를 통해 불필요한 메모리 사용과 전력 소모를 줄일 수 있다. Preferably, the user image collection unit 70 may collect user images for a time within a predetermined time from the time when the first key frame is reproduced in the guide image reproducing unit without capturing all of the user's motions. That is, the user image collecting unit 70 may collect the user image by capturing only the motion section used to determine the matching rate among user motions. Accordingly, the present invention can minimize unnecessary parts in the user image for determining the match rate, thereby reducing unnecessary memory usage and power consumption.

동작 일치율 판단부(95)에서 판단한 동작 일치율 정보는 가이드 영상 재생부(50)에 제공될 수 있다. 가이드 영상 재생부(50)는 제공받은 동작 일치율 정보를 사용자가 실시간으로 확인 가능하도록 재생 중인 가이드 영상에 동작 일치율 정보를 오버랩하여 출력할 수 있다. 이때, 가이드 영상 재생부(50)는 제공받은 동작 일치율 정보를 수치화된 점수로 출력하거나 또는 일치율이 해당하는 구간에 따라 상이한 메시지를 출력할 수 있다. 예를 들어, 일치율이 90% 이상인 경우 'perfect'란 단어를 출력하고, 일치율이 80% 이상 90% 미만인 경우 'very good'이란 단어를 출력하며, 일치율이 60% 이상 80% 미만인 경우 'good'이란 단어를 출력하고, 일치율이 60% 미만인 경우 'bad'란 단어를 출력할 수 있다. 따라서, 사용자는 가이드 영상을 보며 가이드 동작을 따라하는 중에 실시간으로 자신이 올바른 동작을 수행하고 있는지 직관적으로 확인할 수 있다.The motion coincidence rate information determined by the motion coincidence rate determining unit 95 may be provided to the guide image reproducing unit 50 . The guide image reproducing unit 50 may overlap and output the motion consistency rate information to the guide image being played so that the user can check the provided motion consistency rate information in real time. At this time, the guide image reproducing unit 50 may output the received motion agreement rate information as a digitized score or output different messages according to sections corresponding to the agreement rate. For example, output the word 'perfect' if the match rate is 90% or more, output the word 'very good' if the match rate is 80% or more and less than 90%, and output the word 'good' if the match rate is 60% or more and less than 80%. If the match rate is less than 60%, the word 'bad' may be output. Accordingly, the user can intuitively check whether he or she is performing the correct motion in real time while following the guide motion while viewing the guide image.

카운트부(97)는 사용자의 올바른 동작 횟수를 카운트할 수 있다. The counting unit 97 may count the number of user correct actions.

구체적으로, 카운트부(97)는 가이드 영상 재생부(50)의 재생 정보에 기초하여 가이드 영상이 1회 재생될 때마다 사용자 동작 횟수를 1회 카운트하되, 동작 일치율 판단부(95)에서 판단한 동작 일치율이 기준치 이상(예를 들면 60% 이상)인 경우에만 사용자 동작을 카운트할 수 있다. 따라서, 본 발명은 가이드 동작과 소정 이상 일치하게 따라한 사용자 동작에 대해서만 카운트할 수 있다.Specifically, the counting unit 97 counts the number of user actions once every time the guide image is reproduced once based on the reproduction information of the guide image reproducing unit 50, but the action determined by the motion matching rate determining unit 95 The user's motion may be counted only when the matching rate is greater than or equal to a reference value (eg, 60% or more). Therefore, the present invention can count only the user's motion that coincides with the guide motion more than a predetermined amount.

도 8은 본 발명의 일 실시예에 따른 전문가 골격 이미지와 사용자 골격 이미지의 비교 일례를 도시한 도면이고 도 9는 본 발명의 일 실시예에 따른 제1 키 프레임과 제2 키 프레임 간의 골격 한정 정보 비교 일례를 도시한 도면이다.8 is a diagram showing an example of comparison between an expert skeleton image and a user skeleton image according to an embodiment of the present invention, and FIG. 9 is skeleton restriction information between a first key frame and a second key frame according to an embodiment of the present invention. It is a drawing showing an example of comparison.

상술한 바와 같이, 동작 일치율 판단부(95)는 제1 키 프레임에 포함된 전문가의 골격 이미지와 이에 대응하는 제2 키 프레임 또는 후보 프레임에 포함된 사용자의 골격 이미지를 비교하여 골격 일치율을 판단할 수 있다.As described above, the motion matching rate determination unit 95 compares the expert's skeleton image included in the first key frame with the user's skeleton image included in the corresponding second key frame or candidate frame to determine the skeleton matching rate. can

이때, 동작 일치율 판단부(95)는 전문가 골격 이미지의 전체 부분과 사용자 골격 이미지의 전체 부분을 비교하지 않고 한정된 일부 부분만을 비교하여 골격 일치율을 판단할 수 있다. At this time, the motion matching rate determination unit 95 may determine the skeleton matching rate by comparing only a limited portion of the skeleton image without comparing all portions of the expert skeleton image with all portions of the user skeleton image.

구체적으로, 동작 일치율 판단부(95)는 제1 키 프레임의 전문가 골격 이미지에 설정된 골격 한정 정보에 따라 전문가 골격 이미지와 사용자 골격 이미지의 한정된 일부 부분만을 비교하여 골격 일치율을 판단할 수 있다.Specifically, the motion matching rate determining unit 95 may determine the skeleton matching rate by comparing only a limited portion of the expert skeleton image and the user skeleton image according to skeleton limitation information set in the expert skeleton image of the first key frame.

도 8을 예로 하여 보다 구체적으로 살펴보면, 제1 키 프레임의 전문가 골격 이미지(sk1)에 설정된 골격 한정 정보에 따라 한정 지정된 관절(lj)이 좌측 발목 관절, 좌측 무릎 관절, 좌측 고관절, 좌측 팔꿈치 관절이고, 한정 지정된 연결선(ll)이 좌측 발목 관절과 무릎 관절 간의 연결선, 좌측 무릎 관절과 고관절 간의 연결선이라면, 동작 일치율 판단부(95)는 전문가 골격 이미지와 이에 대응하는 사용자 골격 이미지 간의 골격 일치율 판단시, 전문가 골격 이미지와 사용자 골격 이미지의, 좌측 발목 관절, 좌측 무릎 관절, 좌측 고관절, 좌측 팔꿈치 관절, 좌측 발목 관절과 무릎 관절 간의 연결선, 좌측 무릎 관절과 고관절 간의 연결선 간을 상호 비교하여 골격 일치율을 판단할 수 있다. Taking FIG. 8 as an example, looking more specifically, the joints lj limited and designated according to the skeleton limitation information set in the expert skeleton image sk1 of the first key frame are the left ankle joint, the left knee joint, the left hip joint, and the left elbow joint. , If the limitedly designated connection line ll is a connection line between the left ankle joint and the knee joint and a connection line between the left knee joint and the hip joint, the motion coincidence rate determining unit 95 determines the skeletal coincidence rate between the expert skeletal image and the corresponding user skeletal image, The skeleton congruence rate can be determined by mutually comparing the left ankle joint, the left knee joint, the left hip joint, the left elbow joint, the connection line between the left ankle joint and the knee joint, and the connection line between the left knee joint and the hip joint in the expert skeletal image and the user skeletal image. can

이때, 동작 일치율 판단부(95)는 전문가 골격 이미지(sk1)의 한정 지정된 두 개의 관절 간의 거리(l1)와 이에 대응하는 사용자 골격 이미지(sk2)의 두 개의 관절 간의 거리(l2)를 비교하여 일치율을 판단하거나 또는, 전문가 골격 이미지의 한정 지정된 두 개의 연결선 간의 각도(a1)와 이에 대응하는 사용자 골격 이미지의 두 개의 연결선 간의 각도(a2)를 비교하여 골격 일치율을 판단할 수 있다.At this time, the motion matching rate determination unit 95 compares the distance l1 between two limitedly designated joints of the expert skeleton image sk1 and the distance l2 between two joints of the user skeleton image sk2 corresponding thereto, and compares the matching rate. Alternatively, the bone matching rate may be determined by comparing the angle a1 between the two limitedly designated connection lines of the expert skeleton image and the angle a2 between the two connection lines of the user skeleton image corresponding thereto.

바람직하게, 동작 일치율 판단부(95)는 제1 키 프레임 또는 후보 프레임에서 사용자 골격 이미지를 생성시, 제1 키 프레임에 설정된 골격 한정 정보 설정 정보에 기초하여 한정 지정된 골격과 연결선에 대한 사용자 골격 이미지를 생성할 수 있다. 즉, 사용자 골격 이미지의 전체 형상을 모두 생성하지 않고 특정 신체 부위에 대한 사용자 골격 이미지만를 생성할 수 있으며, 이를 통해 사용자 골격 이미지 생성 과정을 최대한 간소화할 수 있다.Preferably, when generating the user skeleton image in the first key frame or candidate frame, the motion coincidence rate determination unit 95 determines the user skeleton image for the skeleton and connection line that are limited and designated based on the skeleton limitation information setting information set in the first key frame. can create That is, it is possible to generate only a user skeleton image for a specific body part without generating the entire shape of the user skeleton image, and through this, the user skeleton image creation process can be simplified as much as possible.

도 9는 본 발명의 일 실시예에 따른 동작 평가 방법을 도시한 순서도이다.9 is a flowchart illustrating a motion evaluation method according to an embodiment of the present invention.

도 9를 참조하여 본 실시예에 따른 동작 평가 순서를 살펴보면, 우선, 가이드 영상 생성부(30)는 전문가 영상 수집부(10)에서 수집한 전문가 영상을 편집하고 각종 정보를 부가하여 가이드 영상을 생성할 수 있다(S10).Looking at the motion evaluation procedure according to the present embodiment with reference to FIG. 9 , first, the guide image generation unit 30 generates a guide image by editing the expert image collected by the expert image collection unit 10 and adding various information. It can be done (S10).

사용자로부터 가이드 영상 재생이 요청되면, 가이드 영상 재생부(50)는 사용자의 올바른 신체 방향 또는 위치 등을 가이드하는 영상을 제공하고, 사용자 영상 수집부(70)는 사용자에 대한 사전 영상을 수집할 수 있다(S20).When a user requests to play a guide image, the guide image reproducing unit 50 provides an image guiding the correct body direction or position of the user, and the user image collection unit 70 collects a preliminary image of the user. Yes (S20).

가이드 영상 재생부(50)는 수집한 사전 영상에 기초하여 사용자의 신체 방향 또는 사용자의 위치에 대한 촬영 조건이 충족하는지 판단하고(S30), 촬영 조건이 충족하였다면(S30-Y), 가이드 영상 재생부(50)는 가이드 영상을 재생하고 사용자 영상 수집부(70)는 사용자 영상을 수집할 수 있다(S40).The guide image reproducing unit 50 determines whether the user's body direction or the user's location shooting conditions are satisfied based on the collected prior images (S30), and if the shooting conditions are met (S30-Y), the guide image is reproduced. The unit 50 may reproduce the guide image, and the user image collecting unit 70 may collect the user image (S40).

반면에, 촬영 조건을 충족하지 못하였다면(S30-N), 촬영 조건이 충족될 때까지 가이드 영상 재생부(50)는 사용자의 올바른 신체 방향 또는 위치 등을 가이드하는 영상을 재생하고, 사용자 영상 수집부(70)는 사용자에 대한 사전 영상을 수집할 수 있다.On the other hand, if the shooting condition is not satisfied (S30-N), the guide image reproducing unit 50 reproduces an image guiding the correct body direction or position of the user until the shooting condition is satisfied, and collects user images. The unit 70 may collect prior images of the user.

한편, 사이드 영상 재생부(50)로부터 가이드 영상이 재생되고 사용자 영상 수집부(70)로부터 사용자 영상이 수집되면, 동작 평가부의 프레임 일치율 판단부(93)는 가이드 영상의 제1 키 프레임과 사용자 영상의 제2 키 프레임 간의 프레임 일치율을 판단할 수 있다(S50).Meanwhile, when the guide image is reproduced from the side image reproducing unit 50 and the user image is collected from the user image collection unit 70, the frame matching rate determination unit 93 of the motion evaluation unit determines the first key frame of the guide image and the user image. It is possible to determine the frame coincidence rate between the second key frames of (S50).

프레임 일치율을 판단하면, 동작 평가부의 동작 일치율 판단부(95)는 판단된 프레임 일치율에 기초하여 가이드 영상과 사용자 영상 간의 동작 일치율을 판단할 수 있다.When the frame matching rate is determined, the motion matching rate determining unit 95 of the motion evaluation unit may determine a motion matching rate between the guide image and the user image based on the determined frame matching rate.

동작 평가부의 카운터부(97)는 동작 일치율 판단부(95)에서 판단한 동작 일치율이 기준치 이상인지 판단할 수 있다(S70). 만약, 동작 일치율이 기준치 이상이라면(S70-Y), 카운터부(97)는 해당 사용자 동작에 대한 횟수를 카운트하고(S80), 반면에 동작 일치율이 기준치 미만이라면(S70-N), 카운터부(97)는 해당 사용자 동작에 대한 횟수를 카운트에 미반영할 수 있다(S90).The counter unit 97 of the motion evaluation unit may determine whether the motion coincidence rate determined by the motion coincidence rate determination unit 95 is greater than or equal to a reference value (S70). If the motion coincidence rate is greater than or equal to the reference value (S70-Y), the counter unit 97 counts the number of times for the corresponding user motion (S80), whereas if the motion coincidence rate is less than the reference value (S70-N), the counter unit ( 97) may not reflect the number of times of the user's motion to the count (S90).

그리고 동작 일치율 판단 결과 또는 카운트한 동작 횟수는 가이드 영상 재생부(50)로 제공되며 가이드 영상 재생부(50)는 제공받은 동작 일치율 판단 결과를 또는 카운트한 동작 횟수를 출력하여 사용자에게 제공할 수 있다(S100).In addition, the motion match rate determination result or the counted number of motions is provided to the guide image reproducing unit 50, and the guide image reproducing unit 50 outputs the motion coincidence rate determination result or the counted number of motions and provides the result to the user. (S100).

도 10은 본 발명의 일 실시예에 따른 프레임 일치율 판단 과정의 일례를 도시한 순서도이다.10 is a flowchart illustrating an example of a process of determining a frame coincidence rate according to an embodiment of the present invention.

도 10을 참조하여 프레임 일치율 판단 과정의 일례를 살펴보면, 프레임 일치율을 판단부(93)는 제1 키 프레임이 재생된 시점으로부터 소정 이내의 시간 동안 촬영되어 수집된 사용자의 영상 프레임 중, 임의로 선택된 하나의 프레임을 제2 키 프레임으로 선택할 수 있다(S511).Referring to FIG. 10, referring to an example of the process of determining the frame coincidence rate, the frame coincidence rate determiner 93 selects one randomly selected among the user's image frames collected and photographed for a period of time within a predetermined time from when the first key frame is reproduced. The frame of can be selected as the second key frame (S511).

제2 키 프레임이 선택되면 제2 골격 이미지 생성부(91)는 프레임 일치율 판단부(93)에서 선택한 제2 키 프레임에 사용자 골격 이미지를 생성하여 부가할 수 있다(S512).When the second key frame is selected, the second skeleton image generation unit 91 may generate and add a user skeleton image to the second key frame selected by the frame coincidence rate determination unit 93 (S512).

프레임 일치율 판단부(93)는 제2 키 프레임에 사용자 골격 이미지가 생성되면, 제1 키 프레임의 전문가 골격 이미지와 제2 키 프레임의 사용자 골격 이미지를 비교하여 제2 키 프레임의 골격 일치율을 판단할 수 있다(S513).When the user skeleton image is generated in the second key frame, the frame matching rate determination unit 93 compares the expert skeleton image in the first key frame with the user skeleton image in the second key frame to determine the skeleton matching rate in the second key frame. It can (S513).

그리고 프레임 일치율 판단부(93)는 판단한 제2 키 프레임의 골격 일치율을 프레임 일치율로 판단할 수 있다(S514).Further, the frame matching rate determining unit 93 may determine the skeleton matching rate of the second key frame as the frame matching rate (S514).

도 11은 본 발명의 일 실시예에 따른 프레임 일치율 판단 과정의 다른 예를 도시한 순서도이다.11 is a flowchart illustrating another example of a process of determining a frame coincidence rate according to an embodiment of the present invention.

도 11을 참조하여 프레임 일치율 판단 과정의 다른 예를 살펴보면, 프레임 일치율 판단부(93)는 수집된 사용자 영상의 프레임 중, 제1 키 프레임이 재생된 시점으로부터 소정 이내의 시간 동안 촬영된 하나 이상의 후보 프레임을 선택할 수 있다(S521).Referring to another example of the frame matching rate determination process with reference to FIG. 11 , the frame matching rate determining unit 93 includes one or more candidates captured for a predetermined time from the time when the first key frame is reproduced among the frames of the collected user image. A frame can be selected (S521).

후보 프레임이 선택되면, 제2 골격 이미지 생성부(91)는 선택된 후보 프레임 각각에 사용자 골격 이미지를 생성하여 부가할 수 있다(S522).When the candidate frames are selected, the second skeleton image generation unit 91 may generate and add a user skeleton image to each of the selected candidate frames (S522).

후보 프레임 각각에 사용자 골격 이미지가 부가되면, 프레임 일치율 판단부(93)는 제1 키 프레임의 전문가 골격 이미지에 각각의 후보 프레임의 사용자 골격 이미지를 비교하여 각각의 후보 프레임의 골격 일치율을 판단할 수 있다(S523).When a user skeleton image is added to each candidate frame, the frame matching rate determining unit 93 compares the user skeleton image of each candidate frame with the expert skeleton image of the first key frame to determine the skeleton matching rate of each candidate frame. Yes (S523).

그리고 프레임 일치율 판단부(93)는 각각의 후보 프레임 중 판단한 골격 일치율이 가장 높은 후보 프레임을 제2 키 프레임으로 선택하고, 선택한 제2 키 프레임의 골격 일치율을 프레임 일치율로 판단할 수 있다(S524).Further, the frame matching rate determining unit 93 may select a candidate frame having the highest determined frame matching rate among the candidate frames as a second key frame, and determine the frame matching rate of the selected second key frame as the frame matching rate (S524). .

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present invention, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

10: 전문가 영상 수집부
30: 가이드 영상 생성부
31: 영상 편집부
33: 제1 골격 이미지 생성부
35: 골격 이미지 수정부
37: 제1 키 프레임 지정부
39: 골격 한정 정보 설정부
50: 가이드 영상 재생부
70: 사용자 영상 수집부
90: 동작 평가부
91: 제2 골격 이미지 생성부
93: 프레임 일치율 판단부
95: 동작 일치율 판단부
97: 카운트부
10: expert video collection unit
30: guide image generating unit
31: video editing department
33: first skeletal image generating unit
35: skeleton image correction unit
37: first key frame designation unit
39: skeleton limited information setting unit
50: guide video playback unit
70: user image collection unit
90: motion evaluation unit
91: second skeletal image generating unit
93: frame coincidence rate determination unit
95: operation coincidence rate determination unit
97: count unit

Claims (7)

전문가의 가이드 동작이 촬영된 가이드 영상을 보며 따라하는 사용자 동작을 평가하는 동작 평가 방법에 있어서,
상기 가이드 영상을 생성하는 단계;
생성한 상기 가이드 영상을 재생하고 상기 사용자 동작을 촬영하여 사용자 영상을 수집하는 단계;
상기 가이드 영상의 프레임 중 기지정된 제1 키 프레임의 전문가와, 상기 사용자 영상의 프레임 중 상기 제1 키 프레임에 대응하는 제2 키 프레임의 사용자 간의 비교에 따른 프레임 일치율을 판단하는 단계; 및
판단한 상기 프레임 일치율에 기초하여 상기 가이드 동작에 대한 상기 사용자 동작의 동작 일치율을 판단하는 단계를 포함하며,
상기 가이드 영상을 생성하는 단계는,
전문가 영상 수집부로부터 제공받은 전문가 영상을 편집하여 한 동작으로 구성되는 상기 가이드 영상을 생성하는 단계; 및
상기 가이드 동작을 구성하는 프레임 중 하나 이상의 상기 제1 키 프레임을 지정하여 상기 가이드 영상에 부가하는 단계를 포함하고,
상기 제1 키 프레임을 지정하여 가이드 영상에 부가하는 단계는,
상기 제1 키 프레임의 지정을 위해 관리자가 상기 가이드 영상의 전체 프레임 중 최초 프레임과 최후 프레임을 제외한 하나 이상의 프레임을 선택하면, 상기 관리자가 선택한 프레임과 함께 상기 최초 프레임 또는 상기 최후 프레임을 상기 제1 키 프레임으로 지정하여 가이드 영상에 부가하는 것을 특징으로 하는 동작 평가 방법.
A motion evaluation method for evaluating a user's motion followed by watching a guide video in which an expert's guide motion is filmed,
generating the guide image;
Collecting user images by reproducing the generated guide image and photographing the user's motion;
Determining a frame coincidence rate according to a comparison between an expert of a first key frame predefined among frames of the guide image and a user of a second key frame corresponding to the first key frame of frames of the user image; and
Determining a motion coincidence rate of the user motion with respect to the guide motion based on the determined frame coincidence rate;
The step of generating the guide image,
generating the guide image consisting of one motion by editing an expert image provided from an expert image collection unit; and
Designating one or more first key frames among frames constituting the guide motion and adding them to the guide image;
In the step of designating the first key frame and adding it to the guide image,
When a manager selects one or more frames excluding the first frame and the last frame among all the frames of the guide video to designate the first key frame, the first frame or the last frame is selected together with the frame selected by the manager. A motion evaluation method characterized in that it is specified as a key frame and added to a guide image.
제 1 항에 있어서, 상기 프레임 일치율을 판단하는 단계에서
상기 프레임 일치율은 상기 제1 키 프레임 상의 전문가 골격 이미지와 상기 제2 키 프레임 상의 사용자 골격 이미지 간의 골격 일치율에 따른 것이며,
상기 전문가 골격 이미지와 상기 사용자 골격 이미지는 전문가 또는 사용자 신체의 하나 이상의 관절과, 하나 이상의 상기 관절 간의 연결선이 포함되는 것을 특징으로 하는 동작 평가 방법.
2. The method of claim 1, wherein in the step of determining the frame coincidence rate
The frame coincidence rate is based on the skeleton coincidence rate between the expert skeletal image on the first key frame and the user skeletal image on the second key frame,
The motion evaluation method of claim 1 , wherein the expert skeleton image and the user skeleton image include at least one joint of the body of the expert or user and a connection line between at least one joint.
제 2 항에 있어서, 상기 프레임 일치율을 판단하는 단계에서
상기 가이드 영상의 프레임 중 기지정된 제1 키 프레임의 수는 하나 이상이고,
각각의 상기 제1 키 프레임의 전문가 골격 이미지에는 상기 제1 키 프레임별로 촬영된 포즈에서 핵심이 되는 신체 부위에 따라 한정 지정된 일부 관절과 연결선에 대한 골격 한정 정보가 부가되어 있으며,
상기 골격 일치율은 상기 골격 한정 정보에 따라 한정 지정된 일부 관절과 연결선을 기초로 판단한 것을 특징으로 하는 동작 평가 방법.
3. The method of claim 2, wherein in the step of determining the frame coincidence rate
The number of predetermined first key frames among the frames of the guide image is one or more;
The expert skeleton image of each of the first key frames is added with skeleton limitation information about some joints and connection lines defined according to key body parts in poses captured for each of the first key frames;
The motion evaluation method according to claim 1 , wherein the skeletal coincidence rate is determined based on some joints and connection lines limited and designated according to the skeletal limitation information.
제 2 항에 있어서, 상기 프레임 일치율을 판단하는 단계는
상기 제1 키 프레임이 재생된 시점으로부터 소정 이내의 시간 동안 촬영되어 수집된 상기 사용자의 영상 프레임 중, 임의로 선택된 하나의 프레임을 상기 제2 키 프레임으로 선택하는 단계;
선택한 상기 제2 키 프레임에 사용자 골격 이미지를 생성하여 부가하는 단계;
상기 제1 키 프레임의 전문가 골격 이미지와 상기 제2 키 프레임의 사용자 골격 이미지를 비교하여 상기 제2 키 프레임의 골격 일치율을 판단하는 단계; 및
판단한 상기 제2 키 프레임의 골격 일치율을 상기 프레임 일치율로 판단하는 단계를 포함하는 것을 특징으로 하는 동작 평가 방법.
3. The method of claim 2, wherein determining the frame coincidence rate
selecting, as the second key frame, one randomly selected frame among the collected image frames of the user photographed and collected for a time within a predetermined time from when the first key frame is reproduced;
generating and adding a user skeleton image to the selected second key frame;
comparing the expert skeletal image of the first key frame with the user skeletal image of the second key frame to determine a bone matching ratio of the second key frame; and
and determining the frame matching rate of the second key frame as the frame matching rate.
제 2 항에 있어서, 상기 프레임 일치율을 판단하는 단계는
수집된 상기 사용자 영상의 프레임 중, 상기 제1 키 프레임이 재생된 시점으로부터 소정 이내의 시간 동안 촬영된 하나 이상의 후보 프레임을 선택하는 단계;
선택한 하나 이상의 상기 후보 프레임에 사용자 골격 이미지를 생성하여 부가하는 단계;
상기 제1 키 프레임의 전문가 골격 이미지에, 각각의 상기 후보 프레임의 사용자 골격 이미지를 비교하여 각각의 상기 후보 프레임의 골격 일치율을 판단하는 단계; 및
각각의 상기 후보 프레임 중, 판단한 골격 일치율이 가장 높은 후보 프레임을 상기 제2 키 프레임으로 선택하고, 선택한 상기 제2 키 프레임의 골격 일치율을 상기 프레임 일치율로 판단하는 단계를 포함하는 것을 특징으로 하는 동작 평가 방법.
3. The method of claim 2, wherein determining the frame coincidence rate
selecting one or more candidate frames captured during a time within a predetermined time from a time point at which the first key frame was reproduced from among the collected frames of the user image;
generating and adding a user skeleton image to one or more selected candidate frames;
comparing the user skeleton image of each of the candidate frames with the expert skeleton image of the first key frame to determine a skeleton matching ratio of each of the candidate frames; and
and selecting a candidate frame having the highest determined frame matching rate among the candidate frames as the second key frame, and determining the frame matching rate of the selected second key frame as the frame matching rate. Assessment Methods.
제 1 항에 있어서, 상기 동작 평가 방법은
상기 사용자 동작의 촬영을 위한 사용자 위치가 소정 위치 이내인지 여부, 사용자의 신체 정면이 촬영되는지 여부 중, 적어도 하나의 조건을 포함하는 촬영 조건이 충족되었는지 판단하는 단계를 더 포함하고,
상기 사용자 영상을 수집하는 단계는 상기 가이드 영상의 재생이 요청되면, 상기 촬영 조건이 충족되었을 때 상기 가이드 영상의 재생을 시작하는 것을 특징으로 하는 동작 평가 방법.
The method of claim 1, wherein the motion evaluation method
Further comprising determining whether a photographing condition including at least one condition among whether a user's position for photographing the user's motion is within a predetermined position and whether the front of the user's body is photographed is satisfied;
In the collecting of the user image, reproduction of the guide image starts when reproduction of the guide image is requested and the photographing condition is satisfied.
제 1 항에 있어서, 상기 동작 평가 방법은
상기 동작 일치율이 기준치 이상인 경우에만 카운트하여 상기 사용자 동작 횟수를 카운트하는 단계를 더 포함하는 것을 특징으로 하는 동작 평가 방법.
The method of claim 1, wherein the motion evaluation method
and counting the number of user actions by counting only when the motion coincidence rate is greater than or equal to a reference value.
KR1020210057471A 2021-05-03 2021-05-03 Method for motion evaluation KR102501300B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210057471A KR102501300B1 (en) 2021-05-03 2021-05-03 Method for motion evaluation
PCT/KR2021/015151 WO2022234906A1 (en) 2021-05-03 2021-10-27 Motion evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210057471A KR102501300B1 (en) 2021-05-03 2021-05-03 Method for motion evaluation

Publications (2)

Publication Number Publication Date
KR20220150127A KR20220150127A (en) 2022-11-10
KR102501300B1 true KR102501300B1 (en) 2023-02-21

Family

ID=83932787

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210057471A KR102501300B1 (en) 2021-05-03 2021-05-03 Method for motion evaluation

Country Status (2)

Country Link
KR (1) KR102501300B1 (en)
WO (1) WO2022234906A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101840014B1 (en) * 2017-09-26 2018-03-19 (주)스타캐슬커뮤니케이션즈 Apparatus for recognizing dancing motion based music and method for operating the same

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9589207B2 (en) * 2013-11-21 2017-03-07 Mo' Motion Ventures Jump shot and athletic activity analysis system
KR102425256B1 (en) * 2016-04-18 2022-07-27 (주)아이들 Apparatus and Method for Processing of Exercise Information
KR20180130834A (en) * 2017-05-30 2018-12-10 (주)유인케어 Method and Apparatus for Providing of Movement Guide for Therapeutic Exercise
KR102000763B1 (en) * 2018-02-07 2019-07-16 주식회사 인프라웨어테크놀러지 Smart mirror device for providing personal training service
KR102157322B1 (en) 2018-12-13 2020-09-17 (주)아이유웰 Method for progressing fitness content
KR102529604B1 (en) * 2019-01-15 2023-05-08 양쉐인 Augmented Cognitive Methods and Apparatus for Simultaneous Feedback of Psychomotor Learning
KR102266219B1 (en) 2019-05-08 2021-06-17 아이픽셀 주식회사 Method of providing personal training service and system thereof
KR102194282B1 (en) * 2019-05-17 2020-12-23 네이버 주식회사 Method for generating pose similarity measurement model and apparatus for the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101840014B1 (en) * 2017-09-26 2018-03-19 (주)스타캐슬커뮤니케이션즈 Apparatus for recognizing dancing motion based music and method for operating the same

Also Published As

Publication number Publication date
WO2022234906A1 (en) 2022-11-10
KR20220150127A (en) 2022-11-10

Similar Documents

Publication Publication Date Title
JP2852925B2 (en) Physical exercise proficiency education system
JP6915701B2 (en) Extraction program, extraction method and information processing equipment
KR101936692B1 (en) Dance training apparatus and method using automatic generation of dance key motion
JP2021100722A (en) Athletic training system and method
US20220080260A1 (en) Pose comparison systems and methods using mobile computing devices
CN110428486B (en) Virtual interaction fitness method, electronic equipment and storage medium
US11954869B2 (en) Motion recognition-based interaction method and recording medium
US11660500B2 (en) System and method for a sports-coaching platform
JP7078577B2 (en) Operational similarity evaluation device, method and program
KR102356685B1 (en) Home training providing system based on online group and method thereof
CN113409651B (en) Live broadcast body building method, system, electronic equipment and storage medium
KR20100033205A (en) System suppporting golf practice and method therefor
JP2014164644A (en) Signal process device, display device and program
US20240042281A1 (en) User experience platform for connected fitness systems
KR102501300B1 (en) Method for motion evaluation
KR20120069233A (en) System and method for correcting billiards pose, and recording media thereof
US20240198177A1 (en) Exercise instruction and feedback systems and methods
KR102234638B1 (en) Video assistant referees system for billiard and method thereof
KR20200076259A (en) 4D Model based Home Training Method and System
CN115712405B (en) Picture presentation method and device, intelligent body-building display equipment and storage medium
JP6986804B1 (en) Sports improvement support device and sports improvement support program
CN114356100B (en) Body-building action guiding method, body-building action guiding device, electronic equipment and storage medium
KR102500052B1 (en) Method and apparatus for scoring motion using eye tracking system
TWI789974B (en) Assistance system and method for guiding exercise postures in live broadcast
KR102293747B1 (en) Dart game device and method for providing motion guidance

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant