KR20220170544A - Object movement recognition system and method for workout assistant - Google Patents

Object movement recognition system and method for workout assistant Download PDF

Info

Publication number
KR20220170544A
KR20220170544A KR1020210081519A KR20210081519A KR20220170544A KR 20220170544 A KR20220170544 A KR 20220170544A KR 1020210081519 A KR1020210081519 A KR 1020210081519A KR 20210081519 A KR20210081519 A KR 20210081519A KR 20220170544 A KR20220170544 A KR 20220170544A
Authority
KR
South Korea
Prior art keywords
data
image
image data
exercise
posture
Prior art date
Application number
KR1020210081519A
Other languages
Korean (ko)
Inventor
하대수
Original Assignee
하대수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 하대수 filed Critical 하대수
Priority to KR1020210081519A priority Critical patent/KR20220170544A/en
Publication of KR20220170544A publication Critical patent/KR20220170544A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Abstract

The present invention relates to a system and a method for recognizing object motion for workout assistance, comprising: a user terminal for generating image data by photographing an exercising user and transmitting the image data and exercise data input from the user to a server; and a server for generating a quantized frame image by performing an image quantization technique on each frame of the image data, extracting an object from the quantized frame image, comparing the motion of the object with a reference posture and generating error image data based on the comparison result, and transmitting the error image data and exercise data to a trainer terminal. By performing image quantization on image data based on artificial intelligence to improve the accuracy of object motion recognition, there is an effect of providing feedback information for correct posture by determining whether there is an error in the movement only with the user's exercise image without any additional tool.

Description

운동 보조를 위한 객체 움직임 인식 시스템 및 방법{OBJECT MOVEMENT RECOGNITION SYSTEM AND METHOD FOR WORKOUT ASSISTANT}Object motion recognition system and method for motion assistance {OBJECT MOVEMENT RECOGNITION SYSTEM AND METHOD FOR WORKOUT ASSISTANT}

본 발명은 운동 보조를 위한 객체 움직임 인식 시스템 및 방법에 관한 것으로, 보다 상세하게는 영상 데이터를 기반으로 이미지 양자화(Quantization)를 수행하여 객체의 스켈레톤 데이터를 인식하고, 스켈레톤 데이터를 이용하여 객체의 행동을 분석하는 운동 보조를 위한 객체 움직임 인식 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for recognizing object motion for motion assistance, and more particularly, to perform image quantization based on image data to recognize skeleton data of an object, and to use the skeleton data to perform object behavior. It relates to an object motion recognition system and method for motion assistance that analyzes.

피트니스 또는 운동 관리를 위해 다양한 홈트레이닝 서비스들이 존재하고 있으나, 기존 홈트레이닝 서비스는 단순한 운동 동작 따라하기, 횟수 세기에 국한되어 실제 사용자의 운동 자세에 대한 분석이나 운동 결과에 대한 피드백을 얻기 힘들다는 단점이 있다. 최근에는 이러한 단점을 해결하기 위해 컴퓨터 비전 기술을 기반으로 하는 영상 판독 기능을 활용하는 방안이 제시되고 있다.There are various home training services for fitness or exercise management, but existing home training services are limited to simple exercise movements and counting, so it is difficult to analyze the user's exercise posture or get feedback on exercise results. there is Recently, in order to solve these disadvantages, a method of utilizing an image reading function based on computer vision technology has been proposed.

한편, 2차원 영상으로부터 사람의 동작을 인식하는 연구는 컴퓨터 비전(computer vision)의 초창기부터 수행되어온 매우 중요한 연구분야 중의 하나로써 영상감시(visual surveillance), 사람-컴퓨터 상호작용(human-computer interaction), 지능로봇(intelligent robot) 등 다양한 적용 분야를 가지고 있다. 동작인식에서 인식의 대상인 사람의 동작은 다양한 의미를 지닐 수 있는데, 신체부위들이 어떻게 배치(a configuration of the human body)되어 있는가를 표현하는 자세 혹은 특정한 의미를 가지는 신체의 움직임을 나타내는 동작(gesture) 등을 들 수 있다.On the other hand, the study of recognizing human motion from 2D images is one of the very important research fields that has been conducted since the early days of computer vision, and it is a field of visual surveillance and human-computer interaction. , intelligent robots, etc. In motion recognition, the motion of a person, the object of recognition, can have various meanings, such as a posture that expresses how body parts are arranged (a configuration of the human body) or a gesture that expresses a body movement that has a specific meaning. can be heard

특히 촬영된 영상에서 사용자의 동작과 자세를 인식하여 사용자의 행동의 의미를 인식하는 기술이 널리 연구되고 있다. 예를 들면 센서 또는 카메라를 이용하여 사람의 신체 골격을 검출하고, 관절의 이동 궤적을 분석하여 사용자의 행동 및 제스처를 인식하는 기술이 개발되어 사용되고 있다. 그리고 이와 같은 기존의 사용자 행동 인식 방법들은 주로 사용자의 동작을 보다 정확하게 분석하여 행동을 인식하려는 노력을 기울여 왔다.In particular, a technique for recognizing the meaning of a user's action by recognizing the user's motion and posture in a photographed image has been widely studied. For example, a technology for detecting a human body skeleton using a sensor or a camera and analyzing a movement trajectory of a joint to recognize a user's action and gesture has been developed and used. In addition, such existing user behavior recognition methods have mainly focused on analyzing the user's behavior more accurately and recognizing the behavior.

그러나 단순히 영상 내에 포함된 정보만을 이용하여 사용자의 행동을 인식하는 방식은 인식 정확도에 있어서 한계가 있고, 잘못된 인식 결과가 출력될 가능성이 높다. However, a method of recognizing a user's behavior using only information included in an image has limitations in recognition accuracy and is highly likely to output erroneous recognition results.

또한, 촬영된 영상에서 사용자의 동작과 자세를 인식하기 위해 딥 러닝 모델이 도입되어 사용되고 있지만 학습과 추론 과정에서 고비용의 전산 자원과 함께 많은 연산량이 필요하고, 이에 따라 많은 학습 시간이 요구되어 개발이 지연되는 등의 문제점을 가지고 있다.In addition, deep learning models have been introduced and used to recognize the user's motion and posture in the captured images, but in the process of learning and reasoning, a large amount of computation is required along with expensive computational resources, and thus a lot of learning time is required, making development difficult. It has problems such as delay.

따라서, 영상 내의 정보를 체계화하고 이를 활용하여 동작을 인식하는데 있어 보다 경량화된 딥 러닝 모델의 요구와 더불어 사용자와 영상 간의 상호 교류가 가능한 기술 개발이 요구되고 있다.Therefore, in order to systematize the information in the image and use it to recognize motion, there is a demand for a more lightweight deep learning model and the development of a technology that enables mutual exchange between the user and the image.

대한민국 등록특허 제10-1762010호 (공고일자: 2017.07.28.)Republic of Korea Patent Registration No. 10-1762010 (Announcement date: 2017.07.28.) 대한민국 등록특허 제10-1908284호 (공고일자: 2018.10.16.)Republic of Korea Patent Registration No. 10-1908284 (Date of announcement: 2018.10.16.)

전술한 문제점을 개선하기 위한 본 발명 실시예들의 목적은 사용자 단말을 통하여 촬영된 영상 데이터에 대해 이미지 양자화(Quantization) 작업을 수행하고 양자화된 이미지 신호를 표준 데이터와 비교하여 객체의 골격부터 움직임까지 선과 면으로 재구성하여, 크기와 이동거리를 객관적으로 수치화 함으로써 객체의 움직임을 정확하게 인식할 수 있는 운동 보조를 위한 객체 움직임 인식 시스템 및 방법을 제공하는 데 있다.An object of the embodiments of the present invention to improve the above problems is to perform image quantization on image data captured through a user terminal and compare the quantized image signal with standard data to determine a line from the skeleton to the motion of an object. It is an object of the present invention to provide an object motion recognition system and method for motion assistance that can accurately recognize the motion of an object by reconstructing it into a plane and objectively quantifying the size and moving distance.

본 발명의 다른 목적은 별도의 부가적인 장비 없이도 사용자의 운동 자세를 분석하고 피드백을 줄 수 있도록 객체의 움직임을 촬영하고, 촬영된 영상 데이터로부터 상기 객체의 움직임을 기준 자세와 비교하여 분석하고, 잘못된 자세로 판단된 부분들만 편집하여 오류 영상 데이터를 생성하고, 상기 오류 영상 데이터와 운동 데이터를 트레이너 단말로 전송하는 운동 보조를 위한 객체 움직임 인식 시스템 및 방법을 제공하는 데 있다.Another object of the present invention is to capture the movement of an object so that the user's exercise posture can be analyzed and feedback given without additional equipment, and from the captured image data, the motion of the object is compared with the reference posture and analyzed, and the incorrect It is to provide a system and method for recognizing object movement for exercise assistance that generates error image data by editing only portions determined as postures and transmits the error image data and exercise data to a trainer terminal.

본 발명의 다른 목적은 약인공지능 알고리즘을 활용하여 세부 운동에 대한 카테고라이징 및 라벨링을 통해 특정 운동을 세분화하는 방식으로 경량화된 인공지능을 활용한 영상 속 객체의 움직임 예측 및 평가의 정확도를 높일 수 있는 운동 보조를 위한 객체 움직임 인식 시스템 및 방법을 제공하는 데 있다.Another object of the present invention is to increase the accuracy of motion prediction and evaluation of objects in images using lightweight artificial intelligence by subdividing specific exercises through categorization and labeling of detailed exercises using weak artificial intelligence algorithms. It is to provide an object motion recognition system and method for motion assistance that can be performed.

본 발명의 또 다른 목적은 여러 사람이 참여하는 그룹 운동 시에도 정확하게 각 사람의 움직임을 인식할 수 있는 운동 보조를 위한 객체 움직임 인식 시스템 및 방법을 제공하는 데 있다.Another object of the present invention is to provide an object motion recognition system and method for exercise assistance capable of accurately recognizing each person's motion even during a group exercise involving many people.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 의한 운동 보조를 위한 객체 움직임 인식 시스템은 운동하는 사용자를 촬영하여 영상 데이터를 생성하고, 상기 영상 데이터와 사용자로부터 입력된 운동 데이터를 서버로 전송하는 사용자 단말; 및 상기 영상 데이터의 개별 프레임에 대해 이미지(Quantization) 기법을 수행하여 양자화된 프레임 이미지를 생성하고, 상기 양자화된 프레임 이미지에서 객체를 추출하고, 상기 객체의 움직임을 기준 자세와 비교하여 비교 결과를 기초로 오류 영상 데이터를 생성하며, 상기 오류 영상 데이터 및 운동 데이터를 트레이너 단말로 전송하는 서버;를 포함할 수 있다.In order to achieve the above object, the object motion recognition system for exercise assistance according to an embodiment of the present invention generates image data by photographing a user exercising, and transmits the image data and exercise data input from the user to a server. A user terminal that transmits to; and performing a quantization technique on each frame of the image data to generate a quantized frame image, extract an object from the quantized frame image, and compare the movement of the object with a reference pose based on the comparison result. and a server that generates error image data and transmits the error image data and exercise data to a trainer terminal.

본 발명과 관련된 일 예로서 상기 서버는, 상기 영상 데이터의 개별 프레임에 대해 이미지 양자화(Quantization) 기법을 수행하여 양자화된 프레임 이미지를 생성하고, 상기 양자화된 프레임 이미지에서 상기 객체를 추출하는 객체 추출부; 상기 객체로부터 객체 스켈레톤 데이터를 생성하는 스켈레톤 생성부; 상기 객체 스켈레톤 데이터로부터 액션 파일을 생성하는 액션 파일 생성부; 상기 액션 파일을 기반으로 상기 객체의 움직임을 인식하는 행동 인식부; 인식된 상기 객체의 움직임을 상기 기준 자세와 비교하여 미리 설정된 오차를 초과하면 오류 자세로 판단하는 자세 분석부; 상기 영상 데이터에서 상기 오류 자세로 판단된 부분만 자동으로 선별하여 상기 오류 영상 데이터를 생성하는 오류 영상 데이터 생성부; 상기 영상 데이터 및 운동 데이터를 수신하고, 상기 오류 영상 데이터 및 운동 데이터를 상기 트레이너 단말로 전송하는 통신부; 및 상기 영상 데이터, 운동 데이터, 오류 영상 데이터 및 기준 자세를 저장하는 저장부;를 포함할 수 있다.As an example related to the present invention, the server generates a quantized frame image by performing an image quantization technique on each frame of the video data, and an object extractor configured to extract the object from the quantized frame image. ; a skeleton generation unit generating object skeleton data from the object; an action file generating unit generating an action file from the object skeleton data; an action recognition unit recognizing movement of the object based on the action file; a posture analysis unit that compares the motion of the recognized object with the reference posture and determines that the posture is an error when a preset error is exceeded; an erroneous image data generation unit that automatically selects only the portion determined to be the erroneous posture from the image data and generates the erroneous image data; a communication unit that receives the image data and exercise data and transmits the error image data and exercise data to the trainer terminal; and a storage unit configured to store the image data, exercise data, error image data, and a reference posture.

본 발명과 관련된 일 예로서 상기 이미지 양자화(Quantization) 기법은 이진화(binarization) 기법이고, 상기 액션 파일은 상기 영상 데이터의 개별 프레임 중에서 상기 객체가 수행하는 움직임을 나타내는 복수의 영상 프레임을 포함하는 제1레이어 및 상기 복수의 영상 프레임의 개별 프레임 내에서 상기 객체의 객체 스켈레톤 데이터를 나타내는 제2레이어를 포함할 수 있다.As an example related to the present invention, the image quantization technique is a binarization technique, and the action file includes a plurality of image frames representing motions performed by the object among individual frames of the image data. layer and a second layer representing object skeleton data of the object within individual frames of the plurality of image frames.

본 발명과 관련된 일 예로서 상기 제1레이어는 상기 복수의 영상 프레임 중에서 시작 프레임 정보, 종료 프레임 정보 및 상기 객체 스켈레톤 데이터가 없는 프레임을 포함하고, 상기 객체 스켈레톤 데이터는 상기 객체의 복수의 스켈레톤의 위치 데이터를 포함하고, 상기 제2레이어는 상기 객체의 복수의 스켈레톤의 위치 데이터 중 적어도 일부를 포함하고, 상기 운동 데이터는 운동 종류 및 종류별 동작 시나리오, 운동 세트, 운동 횟수 중 적어도 하나 이상을 포함하고, 상기 기준 자세는 운동 종류 및 종류별 동작 시나리오에 각각 대응하는 표준 객체 스켈레톤 데이터를 포함할 수 있다.As an example related to the present invention, the first layer includes start frame information, end frame information, and a frame without the object skeleton data among the plurality of image frames, and the object skeleton data includes positions of the plurality of skeletons of the object. data, wherein the second layer includes at least some of positional data of a plurality of skeletons of the object, and the exercise data includes at least one of an exercise type, an action scenario for each type, an exercise set, and a number of exercises; The reference posture may include standard object skeleton data respectively corresponding to exercise types and motion scenarios for each type.

본 발명과 관련된 일 예로서 상기 영상 데이터 내에 복수의 객체가 존재하는 경우, 상기 액션 파일 생성부는 상기 복수의 영상 프레임의 개별 프레임 내에 상기 복수의 객체에 각각 대응하는 복수의 랜드마크 레이어를 생성하고, 상기 자세 분석부는 상기 액션 파일 내 복수의 객체의 움직임을 각각 상기 기준 자세와 비교하여 판단할 수 있다.As an example related to the present invention, when a plurality of objects exist in the image data, the action file generator generates a plurality of landmark layers respectively corresponding to the plurality of objects in individual frames of the plurality of image frames, The posture analyzer may compare movements of a plurality of objects in the action file with the reference posture, respectively, and determine the determination.

본 발명과 관련된 일 예로서 상기 영상 데이터 및 운동 데이터는 상기 서버로 실시간 스트리밍 전송되고, 상기 서버는 상기 자세 분석부가 상기 객체의 움직임을 오류 자세로 판단하는 경우, 실시간으로 상기 오류 자세에 대한 피드백 정보를 생성하여 상기 사용자 단말로 전송하는 피드백 생성부를 더 포함할 수 있다.As an example related to the present invention, the video data and motion data are transmitted to the server by streaming in real time, and the server provides feedback information on the erroneous posture in real time when the posture analysis unit determines that the movement of the object is an erroneous posture. It may further include a feedback generator for generating and transmitting to the user terminal.

본 발명의 실시예에 따른 운동 보조를 위한 객체 움직임 인식 방법은 서버에 의해, 사용자 단말로부터 운동하는 사용자를 촬영하여 생성된 영상 데이터와 사용자로부터 입력된 운동 데이터를 수신하는 단계; 객체 추출부에 의해, 상기 영상 데이터의 개별 프레임에 대해 이미지 양자화(Quantization) 기법을 수행하여 양자화된 프레임 이미지를 생성하고, 상기 양자화된 프레임 이미지에서 객체를 추출하는 단계; 스켈레톤 생성부에 의해, 상기 객체로부터 객체 스켈레톤 데이터를 생성하는 단계; 액션 파일 생성부에 의해, 상기 객체 스켈레톤 데이터로부터 액션 파일을 생성하는 단계; 행동 인식부에 의해, 상기 액션 파일을 기반으로 상기 객체의 움직임을 인식하는 단계; 자세 분석부에 의해, 인식된 상기 객체의 움직임을 기준 자세와 비교하여 미리 설정된 오차를 초과하면 오류 자세로 판단하는 단계; 오류 영상 생성부에 의해, 상기 영상 데이터에서 상기 오류 자세로 판단된 부분만 자동으로 선별하여 오류 영상 데이터를 생성하는 단계; 및 상기 서버에 의해, 상기 오류 영상 데이터 및 운동 데이터를 트레이너 단말로 전송하는 단계;를 포함할 수 있다.An object motion recognition method for exercise assistance according to an embodiment of the present invention includes receiving, by a server, image data generated by photographing a user exercising from a user terminal and motion data input from the user; generating a quantized frame image by performing an image quantization technique on each frame of the image data by an object extractor, and extracting an object from the quantized frame image; generating object skeleton data from the object by a skeleton generator; generating an action file from the object skeleton data by an action file generator; Recognizing, by an action recognition unit, movement of the object based on the action file; comparing the movement of the recognized object with a reference posture by a posture analyzer and determining an error posture when a preset error is exceeded; generating erroneous image data by automatically selecting, by an erroneous image generating unit, only the portion determined to be the erroneous posture in the image data; and transmitting, by the server, the error image data and exercise data to a trainer terminal.

본 발명과 관련된 일 예로서 상기 이미지 양자화(Quantization) 기법은 이진화(binarization) 기법이고, 상기 액션 파일을 생성하는 단계는, 상기 영상 데이터의 영상 프레임 중에서 상기 객체가 수행하는 움직임을 나타내는 복수의 영상 프레임을 포함하는 제1레이어를 생성하는 단계; 및 상기 복수의 영상 프레임의 개별 프레임 내에서 상기 객체의 객체 스켈레톤 데이터를 나타내는 제2레이어를 생성하는 단계;를 더 포함할 수 있다.As an example related to the present invention, the image quantization technique is a binarization technique, and the generating of the action file includes a plurality of video frames representing motions performed by the object among video frames of the video data. Creating a first layer including; and generating a second layer representing object skeleton data of the object within individual frames of the plurality of image frames.

본 발명과 관련된 일 예로서 상기 제1레이어는 상기 복수의 영상 프레임 중에서 시작 프레임 정보, 종료 프레임 정보 및 상기 객체 스켈레톤 데이터가 없는 프레임을 포함하고, 상기 객체 스켈레톤 데이터는 상기 객체의 복수의 스켈레톤의 위치 데이터를 포함하고, 상기 제2레이어는 상기 객체의 복수의 스켈레톤의 위치 데이터 중 적어도 일부를 포함하고, 상기 운동 데이터는 운동 종류 및 종류별 동작 시나리오, 운동 세트, 운동 횟수 중 적어도 하나 이상을 포함하고, 상기 기준 자세는 운동 종류 및 종류별 동작 시나리오에 각각 대응하는 표준 객체 스켈레톤 데이터를 포함할 수 있다.As an example related to the present invention, the first layer includes start frame information, end frame information, and a frame without the object skeleton data among the plurality of image frames, and the object skeleton data includes positions of the plurality of skeletons of the object. data, wherein the second layer includes at least some of positional data of a plurality of skeletons of the object, and the exercise data includes at least one of an exercise type, an action scenario for each type, an exercise set, and a number of exercises; The reference posture may include standard object skeleton data respectively corresponding to exercise types and motion scenarios for each type.

본 발명과 관련된 일 예로서, 상기 영상 데이터 내에 복수의 객체가 존재하는 경우, 상기 액션 파일을 생성하는 단계는 상기 복수의 영상 프레임의 개별 프레임 내에 상기 복수의 객체에 각각 대응하는 복수의 랜드마크 레이어를 생성하고, 상기 오류 자세로 판단하는 단계는 상기 액션 파일 내 복수의 객체의 움직임을 각각 상기 기준 자세와 비교하여 판단하는 것을 특징으로 할 수 있다.As an example related to the present invention, when a plurality of objects exist in the image data, the generating of the action file may include a plurality of landmark layers respectively corresponding to the plurality of objects in individual frames of the plurality of image frames. The generating and determining the erroneous posture may be characterized in that the motions of a plurality of objects in the action file are compared with the reference posture and determined.

본 발명과 관련된 일 예로서 상기 영상 데이터 및 운동 데이터는 상기 서버로 실시간 스트리밍 전송되고, 상기 자세 분석부가 상기 객체의 움직임을 오류 자세로 판단하는 경우, 피드백 생성부가 실시간으로 상기 오류 자세에 대한 피드백 정보를 생성하여 상기 사용자 단말로 전송하는 피드백 생성 단계;를 더 포함할 수 있다.As an example related to the present invention, the video data and motion data are transmitted to the server by streaming in real time, and when the posture analysis unit determines the movement of the object as an erroneous posture, the feedback generating unit provides feedback information about the erroneous posture in real time. A feedback generation step of generating and transmitting to the user terminal; may further include.

본 발명의 일 실시예에 따른 운동 보조를 위한 객체 움직임 인식 시스템 및 방법은 영상을 기반으로 사용자가 운동하는 자세를 스켈레톤 데이터를 활용하여 분석할 수 있다.A system and method for recognizing object motion for exercise assistance according to an embodiment of the present invention may analyze a posture in which a user exercises based on an image by using skeleton data.

또한, 본 발명의 일 실시예는 인간의 형상을 본 뜬 스켈레톤 데이터를 활용하여 액션 파일을 생성하게 되어, 객체가 행하는 행동 비교, 객체의 동작 분석 및 예측을 하는데 효율적으로 사용이 가능하고, 회전, 승강에 의한 거부감을 최소화하며 기타 다른 부가적인 도구, 기능, 옵션 등이 추가 되지 않아 스트레스를 줄이며 신체 부위를 정확하게 스캔할 수 있다.In addition, one embodiment of the present invention creates an action file by utilizing skeleton data modeled after a human shape, so that it can be efficiently used for comparing actions performed by an object, analyzing and predicting the movement of an object, rotation, It minimizes the resistance caused by going up and down, and it does not add any other additional tools, functions, or options, so it reduces stress and accurately scans body parts.

본 발명의 일 실시예에 따른 운동 보조를 위한 객체 움직임 인식 시스템 및 방법은 인간의 영상 콘텐츠를 경량화된 인공지능 알고리즘을 기반으로 사람의 관절을 추출하고, 검출된 관절을 활용하여 움직임 예측과 평가를 통해서 인간이 행하는 동작에 대한 피드백, 정확도 등을 판단하여 바른 운동, 보행 등의 동작에 대한 정확도를 잡아줄 수 있다.An object motion recognition system and method for motion assistance according to an embodiment of the present invention extracts human joints based on a lightweight artificial intelligence algorithm from human image content, and predicts and evaluates motions using the detected joints. Through this, it is possible to determine the accuracy of motions such as correct exercise and walking by determining feedback and accuracy of motions performed by humans.

본 발명의 일 실시예에 따르면, 일방적인 콘텐츠의 소비가 아니라 특정 행동을 취했을 때, 오류 정보를 알려주거나 다음 동작을 취할 수 있도록 시청자료가 나타나는 등의 사용자와 콘텐츠 간의 상호교류 및 액션과 반작용을 통한 교류가 가능하여 인터랙션 작용이 가능한 프로그램 및 장기 관리가 필요한 프로그램 등에서 활용이 가능하다.According to an embodiment of the present invention, interaction between a user and content, and action and reaction, such as notification of error information or display of viewing data so that a user can take the next action, when a specific action is taken, rather than unilateral consumption of content. It can be used in programs where interaction is possible and programs that require long-term management.

도 1은 본 발명의 일 실시예에 따른 운동 보조를 위한 객체 움직임 인식 시스템을 개략적으로 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 서버의 구성을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 운동 보조를 위한 객체 움직임 인식 방법을 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 스켈레톤 모델의 예시를 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 따른 이미지 데이터 양자화(Quantization) 기법을 수행하는 예시를 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 따른 랜드마크 레이어를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 사용자 단말에서 운동 보조를 위한 모바일 어플리케이션을 구동하는 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 사용자 단말에서 운동 보조를 위한 모바일 어플리케이션의 그래픽 인터페이스를 보여주는 도면이다.
도 9는 본 발명의 일 실시예에 따른 월별/일자별 오류 영상 데이터를 볼 수 있는 인터페이스를 보여주는 도면이다.
1 is a block diagram schematically illustrating an object motion recognition system for motion assistance according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a server according to an embodiment of the present invention.
3 is a flowchart illustrating an object motion recognition method for motion assistance according to an embodiment of the present invention.
4 is a diagram showing an example of a skeleton model according to an embodiment of the present invention.
5 is a diagram showing an example of performing an image data quantization technique according to an embodiment of the present invention.
6 is a diagram for explaining a landmark layer according to an embodiment of the present invention.
7 is a flowchart of driving a mobile application for exercise assistance in a user terminal according to an embodiment of the present invention.
8 is a diagram showing a graphic interface of a mobile application for exercise assistance in a user terminal according to an embodiment of the present invention.
9 is a diagram showing an interface for viewing erroneous image data by month/date according to an embodiment of the present invention.

상기한 바와 같은 본 발명을 첨부된 도면들과 실시예들을 통해 상세히 설명하도록 한다. The present invention as described above will be described in detail through the accompanying drawings and embodiments.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that technical terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in the present invention should be interpreted in terms commonly understood by those of ordinary skill in the art to which the present invention belongs, unless specifically defined otherwise in the present invention, and are excessively inclusive. It should not be interpreted in a positive sense or in an excessively reduced sense. In addition, when the technical terms used in the present invention are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that those skilled in the art can correctly understand. In addition, general terms used in the present invention should be interpreted as defined in advance or according to context, and should not be interpreted in an excessively reduced sense.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various elements or steps described in the invention, and some of the elements or steps are included. It should be construed that it may not be, or may further include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present invention may be used to describe components, but components should not be limited by the terms. Terms are used only to distinguish one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

본 명세서에 설명된 다양한 기법은 하드웨어 또는 소프트웨어와 함께 구현되거나, 적합한 경우에 이들 모두의 조합과 함께 구현될 수 있다. 본 명세서에 사용된 바와 같은 "...부(Unit)", "...서버(Server)" 및 "...시스템(System)" 등의 용어는 마찬가지로 컴퓨터 관련 엔티티(Entity), 즉 하드웨어, 하드웨어 및 소프트웨어의 조합, 소프트웨어 또는 실행 시의 소프트웨어와 등가로 취급할 수 있다. 또한, 본 발명의 프로그램에서 실행되는 각 기능은 모듈단위로 구성될 수 있고, 하나의 물리적 메모리에 기록되거나, 둘 이상의 메모리 및 기록매체 사이에 분산되어 기록될 수 있다.The various techniques described herein may be implemented with hardware or software, or a combination of both where appropriate. Terms such as "...Unit", "...Server" and "...System" as used herein also refer to computer-related entities, i.e., hardware , a combination of hardware and software, software, or software in execution. In addition, each function executed in the program of the present invention may be configured in module units and recorded in one physical memory or distributed between two or more memories and recording media.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

이하, 도면을 참조하여 본 발명의 실시예에 따른 운동 보조를 위한 객체 움직임 인식 시스템 및 방법을 설명한다.Hereinafter, an object motion recognition system and method for motion assistance according to an embodiment of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 운동 보조를 위한 객체 움직임 인식 시스템을 개략적으로 나타내는 블록도이다.1 is a block diagram schematically illustrating an object motion recognition system for motion assistance according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 운동 보조를 위한 객체 움직임 인식 시스템은, 운동하는 사용자를 촬영하여 영상 데이터를 생성하고, 상기 영상 데이터와 사용자로부터 입력된 운동 데이터를 서버로 전송하는 사용자 단말(100), 상기 영상 데이터의 개별 프레임에 대해 이미지 양자화(Quantization) 기법을 수행하여 양자화된 프레임 이미지를 생성하고, 상기 양자화된 프레임 이미지에서 객체를 추출하고, 상기 객체의 움직임을 기준 자세와 비교하여 비교 결과를 기초로 오류 영상 데이터를 생성하며, 상기 오류 영상 데이터 및 운동 데이터를 트레이너 단말(300)로 전송하는 서버(200)를 포함할 수 있다.Referring to FIG. 1, an object motion recognition system for exercise assistance according to an embodiment of the present invention generates image data by photographing a user exercising, and transmits the image data and exercise data input from the user to a server. The user terminal 100 performs an image quantization technique on individual frames of the video data to generate a quantized frame image, extracts an object from the quantized frame image, and measures the movement of the object in a reference posture. It may include a server 200 that compares and generates erroneous image data based on the comparison result, and transmits the erroneous image data and exercise data to the trainer terminal 300 .

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(network)를 통해 연결된다. 예를 들어, 사용자 단말(100)은 네트워크를 통하여 서버(200)와 연결될 수 있다. 서버(200)는, 네트워크를 통하여 상기 사용자 단말(100) 및 트레이너 단말(300)과 연결될 수 있다.At this time, each component of FIG. 1 is generally connected through a network. For example, the user terminal 100 may be connected to the server 200 through a network. The server 200 may be connected to the user terminal 100 and the trainer terminal 300 through a network.

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure capable of exchanging information between nodes such as a plurality of terminals and servers, and examples of such networks include a local area network (LAN) and a wide area network (WAN: Wide Area Network), the Internet (WWW: World Wide Web), wired and wireless data communications networks, telephone networks, and wired and wireless television communications networks. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi , Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth (Bluetooth) network, NFC ( A Near-Field Communication (Near-Field Communication) network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, etc. are included, but not limited thereto.

전술한 사용자 단말(100) 및 트레이너 단말(300)로는 PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 모바일 단말 장치 및 거치형PC, 노트북과 같은 컴퓨팅 장치가 이용될 수 있다.The aforementioned user terminal 100 and trainer terminal 300 include Personal Communication System (PCS), Global System for Mobile communications (GSM), Personal Digital Cellular (PDC), Personal Handyphone System (PHS), Personal Digital Assistant (PDA) , IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, smartphone, smartpad ), all kinds of handheld-based mobile terminal devices such as tablet PCs, and computing devices such as stationary PCs and notebooks may be used.

도 2는 본 발명의 일 실시예에 따른 서버의 구성을 나타내는 블록도이다.2 is a block diagram showing the configuration of a server according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 서버(200)는, 영상 데이터의 개별 프레임에 대해 이미지 양자화(Quantization) 기법을 수행하여 양자화된 프레임 이미지를 생성하고, 상기 양자화된 프레임 이미지에서 상기 객체를 추출하는 객체 추출부(220), 상기 객체로부터 객체 스켈레톤 데이터를 생성하는 스켈레톤 생성부(230), 상기 객체 스켈레톤 데이터로부터 액션 파일을 생성하는 액션 파일 생성부(240), 상기 액션 파일을 기반으로 상기 객체의 움직임을 인식하는 행동 인식부(250), 인식된 상기 객체의 움직임을 상기 기준 자세와 비교하여 미리 설정된 오차를 초과하면 오류 자세로 판단하는 자세 분석부(260), 상기 영상 데이터에서 상기 오류 자세로 판단된 부분만 자동으로 선별하여 상기 오류 영상 데이터를 생성하는 오류 영상 데이터 생성부(270), 상기 영상 데이터 및 운동 데이터를 수신하고, 상기 오류 영상 데이터 및 운동 데이터를 상기 트레이너 단말로 전송하는 통신부(210) 및 상기 영상 데이터, 운동 데이터, 오류 영상 데이터 및 기준 자세를 저장하는 저장부(290)를 포함할 수 있다.Referring to FIG. 2 , the server 200 according to an embodiment of the present invention generates a quantized frame image by performing an image quantization technique on each frame of video data, and in the quantized frame image An object extractor 220 extracting the object, a skeleton generator 230 generating object skeleton data from the object, an action file generator 240 generating an action file from the object skeleton data, and the action file a behavior recognition unit 250 for recognizing the motion of the object based on the motion, a posture analyzer 260 for comparing the motion of the recognized object with the reference posture and determining an error posture when a preset error is exceeded, and the image data An erroneous image data generator 270 for generating the erroneous image data by automatically selecting only the portion determined to be the erroneous posture, receiving the image data and exercise data, and converting the erroneous image data and exercise data into the trainer terminal It may include a communication unit 210 for transmitting and a storage unit 290 for storing the image data, exercise data, error image data, and a reference posture.

상기 서버(200)는 상기 자세 분석부(260)가 상기 객체의 움직임을 오류 자세로 판단하는 경우, 실시간으로 상기 오류 자세에 대한 피드백 정보를 생성하여 상기 사용자 단말로 전송하는 피드백 생성부(280)를 더 포함할 수 있다.When the posture analysis unit 260 determines that the motion of the object is an erroneous posture, the server 200 generates feedback information on the erroneous posture in real time and transmits the feedback generation unit 280 to the user terminal. may further include.

상기 객체 추출부(220)가 양자화된 프레임 이미지를 생성하기 위해 영상 데이터의 개별 프레임에 대해 수행하는 이미지 양자화(Quantization) 기법은 이진화(binarization) 기법일 수 있다.An image quantization technique performed on individual frames of video data by the object extractor 220 to generate a quantized frame image may be a binarization technique.

상기 액션 파일 생성부(240)가 생성하는 액션 파일은 상기 영상 데이터의 개별 프레임 중에서 상기 객체가 수행하는 움직임을 나타내는 복수의 영상 프레임을 포함하는 제1레이어 및 상기 복수의 영상 프레임의 개별 프레임 내에서 상기 객체의 객체 스켈레톤 데이터를 나타내는 제2레이어를 포함할 수 있다.The action file generated by the action file generator 240 is a first layer including a plurality of image frames representing the movement performed by the object among individual frames of the image data and within individual frames of the plurality of image frames. A second layer representing object skeleton data of the object may be included.

상기 제1레이어는 상기 복수의 영상 프레임 중에서 시작 프레임 정보, 종료 프레임 정보 및 상기 객체 스켈레톤 데이터가 없는 프레임을 포함하고, 상기 객체 스켈레톤 데이터는 상기 객체의 복수의 스켈레톤의 위치 데이터를 포함하고, 상기 제2레이어는 상기 객체의 복수의 스켈레톤의 위치 데이터 중 적어도 일부를 포함하고, 상기 운동 데이터는 운동 종류 및 종류별 동작 시나리오, 운동 세트, 운동 횟수 중 적어도 하나 이상을 포함하고, 상기 기준 자세는 운동 종류 및 종류별 동작 시나리오에 각각 대응하는 표준 객체 스켈레톤 데이터를 포함할 수 있다.The first layer includes start frame information, end frame information, and a frame without object skeleton data among the plurality of image frames, the object skeleton data includes position data of a plurality of skeletons of the object, and the first layer includes position data of a plurality of skeletons of the object. Layer 2 includes at least some of positional data of a plurality of skeletons of the object, the exercise data includes at least one of exercise types, motion scenarios for each type, exercise sets, and exercise counts, and the reference posture includes exercise types and motion scenarios. Standard object skeleton data corresponding to each type of operation scenario may be included.

본 발명의 실시예에 따른 액션 파일 생성부(240)는 상기 영상 데이터 내에 복수의 객체가 존재하는 경우, 상기 복수의 영상 프레임의 개별 프레임 내에 상기 복수의 객체에 각각 대응하는 복수의 랜드마크 레이어를 생성하고, 자세 분석부(260)는 액션 파일 내 복수의 객체의 움직임을 각각 상기 기준 자세와 비교하여 판단할 수 있다.When a plurality of objects exist in the image data, the action file generator 240 according to an embodiment of the present invention creates a plurality of landmark layers respectively corresponding to the plurality of objects in individual frames of the plurality of image frames. and the posture analysis unit 260 may determine the movement of a plurality of objects in the action file by comparing them with the reference posture.

본 발명의 일 실시예에 따르면, 사용자 단말(100)은 영상 데이터와 운동 데이터를 서버(200)로 실시간 스트리밍 전송할 수 있고, 서버(200)는 자세 분석부(260)가 객체의 움직임을 오류 자세로 판단하는 경우, 피드백 생성부(280)가 실시간으로 오류 자세에 대한 피드백 정보를 생성하여 사용자 단말(100)로 전송할 수 있다.According to an embodiment of the present invention, the user terminal 100 may transmit video data and exercise data to the server 200 by streaming in real time, and the server 200 may have the posture analyzer 260 measure the motion of the object in an erroneous posture. If it is determined as , the feedback generation unit 280 may generate feedback information on the erroneous posture in real time and transmit it to the user terminal 100 .

도 3은 본 발명의 일 실시예에 따른 운동 보조를 위한 객체 움직임 인식 방법을 도시한 흐름도이다.3 is a flowchart illustrating an object motion recognition method for motion assistance according to an embodiment of the present invention.

도 3을 참조하면, 서버(200)에 의해, 사용자 단말(100)로부터 운동하는 사용자를 촬영하여 생성된 영상 데이터와 사용자로부터 입력된 운동 데이터를 수신하는 단계(S310), 객체 추출부(220)에 의해, 상기 영상 데이터의 개별 프레임에 대해 이미지 양자화(Quantization) 기법을 수행하여 양자화된 프레임 이미지를 생성하고, 상기 양자화된 프레임 이미지에서 객체를 추출하는 단계(S320), 스켈레톤 생성부(230)에 의해, 상기 객체로부터 객체 스켈레톤 데이터를 생성하는 단계(S330), 액션 파일 생성부(240)에 의해, 상기 객체 스켈레톤 데이터로부터 액션 파일을 생성하는 단계(S340), 행동 인식부(250)에 의해, 상기 액션 파일을 기반으로 상기 객체의 움직임을 인식하는 단계(S350), 자세 분석부(260)에 의해, 인식된 상기 객체의 움직임을 기준 자세와 비교하여 미리 설정된 오차를 초과하면 오류 자세로 판단하는 단계(S360), 오류 영상 데이터 생성부(270)에 의해, 상기 영상 데이터에서 상기 오류 자세로 판단된 부분만 자동으로 선별하여 오류 영상 데이터를 생성하는 단계(S370), 상기 서버(200)에 의해, 상기 오류 영상 데이터 및 운동 데이터를 트레이너 단말로 전송하는 단계(S380), 피드백 생성부(280)에 의해, 상기 오류 자세에 대한 피드백 정보를 생성하여 사용자 단말(S390)로 전송하는 단계를 포함할 수 있다.Referring to FIG. 3 , the step of receiving, by the server 200, image data generated by photographing a user exercising from the user terminal 100 and exercise data input from the user (S310), object extraction unit 220 By performing an image quantization technique on each frame of the video data to generate a quantized frame image, and extracting an object from the quantized frame image (S320), the skeleton generator 230 By the step of generating object skeleton data from the object (S330), by the action file generation unit 240, by the step of generating an action file from the object skeleton data (S340), by the action recognition unit 250, Recognizing the motion of the object based on the action file (S350), comparing the recognized motion of the object with a reference posture by the posture analysis unit 260, and determining an error posture when a preset error is exceeded Step (S360), generating erroneous image data by automatically selecting only the part determined to be the erroneous posture in the image data by the erroneous image data generator 270 (S370), by the server 200 , Transmitting the erroneous image data and exercise data to a trainer terminal (S380), generating feedback information on the erroneous posture by the feedback generating unit 280 and transmitting the generated feedback information to the user terminal (S390). can

본 발명의 일 실시예에 따르면, 상기 이미지 양자화(Quantization) 기법은 이진화(binarization) 기법일 수 있다.According to an embodiment of the present invention, the image quantization technique may be a binarization technique.

본 발명의 일 실시예에 따르면, 상기 액션 파일을 생성하는 단계(S340)는, 상기 영상 데이터의 영상 프레임 중에서 상기 객체가 수행하는 움직임을 나타내는 복수의 영상 프레임을 포함하는 제1레이어를 생성하는 단계 및 상기 복수의 영상 프레임의 개별 프레임 내에서 상기 객체의 객체 스켈레톤 데이터를 나타내는 제2레이어를 생성하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the generating of the action file (S340) may include generating a first layer including a plurality of image frames representing motions performed by the object among the image frames of the image data. and generating a second layer representing object skeleton data of the object within individual frames of the plurality of image frames.

상기 제1레이어는 상기 복수의 영상 프레임 중에서 시작 프레임 정보, 종료 프레임 정보 및 상기 객체 스켈레톤 데이터가 없는 프레임을 포함하고, 상기 객체 스켈레톤 데이터는 상기 객체의 복수의 스켈레톤의 위치 데이터를 포함하고, 상기 제2레이어는 상기 객체의 복수의 스켈레톤의 위치 데이터 중 적어도 일부를 포함하고, 상기 운동 데이터는 운동 종류 및 종류별 동작 시나리오, 운동 세트, 운동 횟수 중 적어도 하나 이상을 포함하고, 상기 기준 자세는 운동 종류 및 종류별 동작 시나리오에 각각 대응하는 표준 객체 스켈레톤 데이터를 포함할 수 있다.The first layer includes start frame information, end frame information, and a frame without object skeleton data among the plurality of image frames, the object skeleton data includes position data of a plurality of skeletons of the object, and the first layer includes position data of a plurality of skeletons of the object. Layer 2 includes at least some of positional data of a plurality of skeletons of the object, the exercise data includes at least one of exercise types, motion scenarios for each type, exercise sets, and exercise counts, and the reference posture includes exercise types and motion scenarios. Standard object skeleton data corresponding to each type of operation scenario may be included.

본 발명의 일 실시예에 따르면, 상기 영상 데이터 내에 복수의 객체가 존재하는 경우, 상기 액션 파일을 생성하는 단계(S340)는 상기 복수의 영상 프레임의 개별 프레임 내에 상기 복수의 객체에 각각 대응하는 복수의 랜드마크 레이어를 생성하고, 상기 오류 자세로 판단하는 단계(S360)는 상기 액션 파일 내 복수의 객체의 움직임을 각각 상기 기준 자세와 비교하여 판단할 수 있다.According to an embodiment of the present invention, when a plurality of objects exist in the image data, generating the action file (S340) includes a plurality of objects respectively corresponding to the plurality of objects in individual frames of the plurality of image frames. In the step of creating a landmark layer of and determining the erroneous posture (S360), motions of a plurality of objects in the action file may be compared with the reference posture, respectively.

도 4는 본 발명의 일 실시예에 따른 스켈레톤 모델의 예시를 보여주는 도면이다.4 is a diagram showing an example of a skeleton model according to an embodiment of the present invention.

도 4를 참조하면, 신체에 대하여 코, 우안, 좌안, 우측 귀, 좌측 귀, 우측 어깨, 좌측 어깨, 우측 팔꿈치, 좌측 팔꿈치, 우측 손목, 좌측 손목, 우측 엉덩이, 좌측 엉덩이, 우측 무릎, 좌측 무릎, 우측 발목, 좌측 발목의 총 17개의 키포인트를 선으로 각각 연결하여 스켈레톤 모델을 설정하고, 이를 이용하여 운동 종류 및 종류별 동작 시나리오에 따라 기준 자세를 생성할 수 있다.4, with respect to the body, nose, right eye, left eye, right ear, left ear, right shoulder, left shoulder, right elbow, left elbow, right wrist, left wrist, right hip, left hip, right knee, left knee A total of 17 key points of the , right ankle, and left ankle are connected with a line to set a skeleton model, and using this, a reference posture can be created according to the type of exercise and the motion scenario for each type.

일 실시예에 따르면, 신체의 관절이나 특정 부위의 스켈레톤 데이터를 추출하기 위해 마이크로소프트의 Kinetics 데이터 세트나 NTU-RGB-D(Nanyang Technological University's Red Blue Green and Depth information) 데이터 세트와 같은 관절 검출 알고리즘을 활용할 수 있다.According to an embodiment, a joint detection algorithm such as Microsoft's Kinetics data set or NTU-RGB-D (Nanyang Technological University's Red Blue Green and Depth information) data set is used to extract skeleton data of joints or specific parts of the body. can be utilized

본 발명의 일 실시예에 따르면, 운동종류는 다이나믹 체스트, 런지, 사이드 크런치, 원투 니킥, 점핑잭, 스쿼트, 트래블링 로우 등 피트니스의 주요 동작들을 포함할 수 있다.According to an embodiment of the present invention, the exercise type may include main motions of fitness such as dynamic chest, lunge, side crunch, one-two knee kick, jumping jack, squat, and traveling row.

본 발명의 일 실시예에 따른 운동 보조를 위한 객체 움직임 인식 시스템은 운동 종류 및 종류별 동작 시나리오에 대응하는 세부 동작별로 17개의 키포인트에 대해 라벨링하여 표준 객체 스켈레톤 데이터를 생성할 수 있다. 또한 운동 종류 및 종류별 동작 시나리오에 대응하는 복수의 운동 영상을 제작하거나 수집하여 훈련용 및 테스트용 데이터셋을 구축하고, 상기 훈련용 데이터셋에 대해 인공지능 동체 분석 알고리즘이 적용된 이용하여 운동 영상 속 객체를 추출하고, 상기 객체의 움직임을 인식하는 기계 학습을 수행하도록 한다. 이때 인공지능 동체 분석 알고리즘은 합성곱 신경망(Convolutional Neural Network, CNN) 또는 장단기 메모리(Long Short-Term Memory, LSTM) 기법을 기반으로 기계 학습을 수행할 수 있다. 테스트용 데이터셋에 대해 기계 학습을 수행하는 동안, 객체 움직임에 대한 인식 정확도를 분석하여 인공지능 동체 분석 알고리즘의 튜닝 작업을 수행하여 인공지능 모델을 완성할 수 있다.The object motion recognition system for exercise assistance according to an embodiment of the present invention may generate standard object skeleton data by labeling 17 key points for each detailed motion corresponding to the type of exercise and the motion scenario for each type. In addition, a plurality of exercise images corresponding to exercise types and motion scenarios for each type are produced or collected to build a training and test dataset, and an artificial intelligence motion analysis algorithm is applied to the training dataset to use an object in the exercise video. is extracted, and machine learning for recognizing the movement of the object is performed. At this time, the artificial intelligence motion analysis algorithm may perform machine learning based on a Convolutional Neural Network (CNN) or Long Short-Term Memory (LSTM) technique. While performing machine learning on the test dataset, the artificial intelligence model can be completed by performing the tuning task of the artificial intelligence movement analysis algorithm by analyzing the recognition accuracy of the object movement.

위와 같은 과정을 거쳐 생성된 인공지능 모델의 경량화를 위해, 이미지 양자화(Quantization) 기법이 수행될 수 있다. In order to lighten the artificial intelligence model generated through the above process, an image quantization technique may be performed.

도 5를 통해 이미지 양자화(Quantization) 기법에 대해서 설명하기로 한다.An image quantization technique will be described with reference to FIG. 5 .

도 5는 본 발명의 일 실시예에 따른 이미지 데이터 양자화(Quantization) 기법을 수행하는 예시를 보여주는 도면이다.5 is a diagram showing an example of performing an image data quantization technique according to an embodiment of the present invention.

양자화(Quantization) 기법은 FP32(32비트 부동소수점 타입) 기반의 학습 파라미터의 값들을 이보다 낮은 비트너비를 갖는 1~K 비트 크기로 표현하기 위해 사용하는 기법이다. 양자화란 용어는 본래 아날로그 신호를 디지털로 변환하는데 있어 아날로그 값을 비트열로 표현할 수 있는 디지털 값으로 변환하는 과정을 일컫지만, 여기에서는 기존 부동소수점 타입으로 표현되던 값을 보다 적은 비트로 표현하기 위해 변환하는 과정을 의미한다.The quantization technique is a technique used to express learning parameter values based on FP32 (32-bit floating point type) with a bit size of 1 to K bits having a lower bit width. The term quantization originally refers to the process of converting an analog signal into a digital value that can be expressed as a bit string in converting an analog signal into a digital signal. means the process of

기계 학습에 적용되는 많은 딥 러닝 모델들은 파라미터 저장을 위해 FP32(32비트) 타입을 주로 사용하는데, 이를 그보다 훨씬 낮은 K 비트들로 표현함으로써 파라미터들의 일부를 버리지 않더라도 모델의 크기를 이론상 32/K 배만큼 줄일 수 있기 때문에 적은 저장 공간과 연산량만으로도 효율적인 추론이 가능하다는 장점이 있다. 바람직하게는 본 발명의 실시예에 따른 이미지 양자화 기법은 이진화(binarization) 기법을 사용할 수 있다. 이진화 기법은 상술한 파라미터를 -1 또는 1 값만 가지는 1비트로 표현하는 것을 의미한다.Many deep learning models applied to machine learning mainly use the FP32 (32-bit) type for parameter storage, and by expressing it with much lower K bits, the size of the model can be theoretically increased by 32/K times even if some of the parameters are not discarded. Since it can be reduced as much as possible, it has the advantage that efficient inference is possible with a small amount of storage space and computation. Preferably, the image quantization technique according to an embodiment of the present invention may use a binarization technique. The binarization technique means expressing the above-mentioned parameter with 1 bit having only -1 or 1 value.

도 5를 참조하면, 원본 이미지에서 입력된 데이터 값에 대해 이미지 양자화를 수행하여 양자화된 이미지 및 양자화된 입력값을 볼 수 있다. 이와 같이 이미지의 특정 파라미터에 대해 32비트로 표현되는 값을 1 또는 -1로 표현하는 이진화 기법을 사용하여 기존 인공지능 모델을 경량화 시킬 수 있다.Referring to FIG. 5 , image quantization is performed on data values input from an original image to view a quantized image and a quantized input value. In this way, the existing artificial intelligence model can be lightened by using a binarization technique in which a value expressed in 32 bits for a specific parameter of an image is expressed as 1 or -1.

도 6은 본 발명의 일 실시예에 따른 랜드마크 레이어를 설명하기 위한 도면이다.6 is a diagram for explaining a landmark layer according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 서버(200)는 사용자 단말(100)로부터 수신한 영상 데이터 내에 복수의 객체 존재 여부를 인식할 수 있다. 이에 대해 구체적으로 설명하면, 객체 추출부(220)가 영상 데이터의 개별 프레임에 대해 이미지 양자화(Quantization) 기법을 수행하여 양자화된 프레임 이미지를 생성하고, 상기 양자화된 프레임 이미지에서 상기 객체를 추출하는 과정에서 복수의 객체 존재 여부를 인식할 수 있다. 상기 객체 추출부(220)가 복수의 객체 존재를 인식하면, 스켈레톤 생성부(230)가 복수의 객체별로 각각 객체 스켈레톤 데이터를 생성하고, 액션 파일 생성부(240)는 복수의 영상 프레임의 개별 프레임 내에 상기 복수의 객체에 각각 대응하는 복수의 랜드마크 레이어를 생성할 수 있다. Referring to FIG. 6 , the server 200 according to an embodiment of the present invention may recognize whether a plurality of objects exist in image data received from the user terminal 100 . Specifically, the object extraction unit 220 generates a quantized frame image by performing an image quantization technique on each frame of video data, and extracts the object from the quantized frame image. It is possible to recognize the existence of multiple objects in When the object extraction unit 220 recognizes the presence of a plurality of objects, the skeleton generation unit 230 generates object skeleton data for each of the plurality of objects, and the action file generation unit 240 generates individual frames of the plurality of image frames. A plurality of landmark layers respectively corresponding to the plurality of objects may be created in

도 6은 영상 데이터 내에 복수의 객체가 존재하는 경우, 액션 파일 생성부(240)가 영상 데이터 내 복수의 영상 프레임 중 특정 프레임 t에서 복수의 객체에 대해 각각 랜드마크 레이어를 생성한 모습을 보여준다. 상기 액션 파일 생성부(240)는 영상 데이터 내의 복수의 영상 프레임 전체에 대해 각각 랜드마크 레이어를 생성할 수 있다.6 shows a state in which, when a plurality of objects exist in the image data, the action file generator 240 creates landmark layers for each of the plurality of objects at a specific frame t among the plurality of image frames in the image data. The action file generating unit 240 may create a landmark layer for each of a plurality of image frames in the image data.

한편, 자세 분석부(260)는 상기 액션 파일 생성부(240)가 생성한 복수의 객체별 액션 파일을 기반으로 액션 파일 내 복수의 객체의 움직임을 각각 기준 자세와 비교하여 판단할 수 있다.Meanwhile, the posture analysis unit 260 may determine the movement of a plurality of objects in the action file by comparing them with a reference posture based on the action files for each of the plurality of objects generated by the action file generator 240 .

도 7과 8은 본 발명의 일 실시예에 따른 사용자 단말에서 운동 보조를 위한 모바일 어플리케이션을 구동하는 흐름과 이에 따른 그래픽 인터페이스를 보여주는 도면이다.7 and 8 are diagrams illustrating a flow of driving a mobile application for exercise assistance in a user terminal and a graphic interface according to the flow according to an embodiment of the present invention.

도 7 및 8을 참조하면, 사용자 단말(100)은 서버(200)로부터 제공받은 모바일 어플리케이션을 설치하고, 구동할 수 있다. 사용자 단말(100)이 모바일 어플리케이션을 구동하면, 인트로 동영상이 재생되고, 로그인 화면이 제시된다.Referring to FIGS. 7 and 8 , the user terminal 100 may install and run a mobile application provided from the server 200 . When the user terminal 100 drives the mobile application, an intro video is played and a login screen is presented.

사용자가 로그인을 수행하면 어플리케이션 하단에 운동하기(셋팅 화면), 레포트, 설정의 세가지 메뉴를 위한 내비게이션 바가 제공된다. 사용자가 운동하기 메뉴를 선택하면 운동 종류별 명칭과 아이콘이 제공되고, 사용자가 운동 종류를 선택하고, 운동 세트수, 운동 횟수를 선택하면, 운동 화면을 통해 사용자가 선택한 운동을 따라할 수 있으며, 사용자의 운동 횟수는 자동으로 카운팅되어 사용자 단말(100)의 화면에 표시될 수 있다.When a user logs in, a navigation bar is provided at the bottom of the application for three menus: exercise (setting screen), report, and settings. When the user selects the exercise menu, names and icons for each exercise type are provided, and when the user selects the exercise type, number of exercise sets, and number of exercises, the user can follow the exercise selected by the user through the exercise screen. The number of workouts may be automatically counted and displayed on the screen of the user terminal 100 .

사용자가 레포트 메뉴를 선택하면 일일 레포트를 볼 수 있으며, 일일 레포트 메뉴에서는 사용자가 실시한 운동 종류, 운동 세트, 운동 횟수 등의 통계 기록을 확인할 수 있다. 추가적으로, 사용자가 운동하는 모습이 녹화된 영상도 확인할 수 있다. 녹화된 영상은 운동 시작부터 끝까지 모두 녹화된 영상일 수 있으나 이에 제한되지 않으며, 서버(200)에서 생성된 오류 영상 데이터를 볼 수 있도록 제공될 수 있다.If the user selects the report menu, he/she can see the daily report. In the daily report menu, the user can check statistical records such as the type of exercise, exercise set, and number of exercises performed by the user. Additionally, a recorded video of the user exercising may also be checked. The recorded video may be a video recorded from the start to the end of the exercise, but is not limited thereto, and may be provided so that error image data generated by the server 200 can be viewed.

사용자가 설정 메뉴를 선택하면 로그아웃, 회원 정보, 어플리케이션 버전 정보, 라이선스 정보, 효과음 등의 어플리케이션 설정 및 관련 정보를 확인하기 위한 메뉴들이 제공될 수 있다.When the user selects the setting menu, menus for checking application settings and related information such as logout, member information, application version information, license information, and sound effects may be provided.

도 9는 본 발명의 일 실시예에 따른 월별/일별 오류 영상 데이터를 볼 수 있는 인터페이스를 보여주는 도면이다.9 is a diagram showing an interface for viewing erroneous image data per month/daily according to an embodiment of the present invention.

도 9의 월별/일별 오류 영상 데이터를 볼 수 있는 인터페이스는 사용자 단말(100) 또는 트레이너 단말(300)에 제공될 수 있다.The interface for viewing the monthly/daily error image data of FIG. 9 may be provided to the user terminal 100 or the trainer terminal 300 .

이와 같이 운동 보조를 위한 객체 움직임 인식 시스템은 월별/일별 오류 영상 데이터를 사용자 단말(100)과 관련된 트레이너 단말(300)에 제공함으로써, 트레이너가 사용자의 운동 모습 중 오류 자세만을 신속하고 간단하게 확인할 수 있고, 이를 통해 트레이너가 오프라인 상에서 사용자의 운동 자세 교정에만 집중할 수 있으므로 적은 시간만으로도 사용자의 운동 자세 교정을 도울 수 있는 효과가 있다.In this way, the object motion recognition system for exercise assistance provides monthly/daily erroneous image data to the trainer terminal 300 related to the user terminal 100, so that the trainer can quickly and simply check only the erroneous posture of the user's exercise. Through this, since the trainer can focus only on the user's exercise posture correction offline, there is an effect of helping the user's exercise posture correction with a small amount of time.

이상에서는 본 발명에 따른 바람직한 실시예들에 대하여 도시하고 또한 설명하였다. 그러나 본 발명은 상술한 실시예에 한정되지 아니하며, 특허 청구의 범위에서 첨부하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능할 것이다.In the above, preferred embodiments according to the present invention have been shown and described. However, the present invention is not limited to the above-described embodiments, and various modifications can be made by anyone having ordinary knowledge in the technical field to which the present invention belongs without departing from the gist of the present invention appended within the scope of the claims. .

100: 사용자 단말 200: 서버
210: 통신부 220: 객체 추출부
230: 스켈레톤 생성부 240: 액션 파일 생성부
250: 행동 인식부 260: 자세 분석부
270: 오류 영상 데이터 생성부 280: 피드백 생성부
290: 저장부 300: 트레이너 단말
100: user terminal 200: server
210: communication unit 220: object extraction unit
230: Skeleton generation unit 240: Action file generation unit
250: action recognition unit 260: posture analysis unit
270: error image data generator 280: feedback generator
290: storage unit 300: trainer terminal

Claims (4)

운동하는 사용자를 촬영하여 영상 데이터를 생성하고, 상기 영상 데이터와 사용자로부터 입력된 운동 데이터를 서버로 전송하는 사용자 단말; 및
상기 영상 데이터의 개별 프레임에 대해 이미지 양자화(Quantization) 기법을 수행하여 양자화된 프레임 이미지를 생성하고, 상기 양자화된 프레임 이미지에서 객체를 추출하고, 상기 객체의 움직임을 기준 자세와 비교하여 비교 결과를 기초로 오류 영상 데이터를 생성하며, 상기 오류 영상 데이터 및 운동 데이터를 트레이너 단말로 전송하는 서버;
를 포함하는 운동 보조를 위한 객체 움직임 인식 시스템.
a user terminal for generating image data by photographing an exercising user and transmitting the image data and exercise data input from the user to a server; and
An image quantization technique is performed on each frame of the video data to generate a quantized frame image, an object is extracted from the quantized frame image, and the motion of the object is compared with a reference pose based on the comparison result. a server that generates error image data and transmits the error image data and exercise data to a trainer terminal;
Object motion recognition system for motion assistance including a.
제1항에 있어서,
상기 서버는,
상기 영상 데이터의 개별 프레임에 대해 이미지 양자화(Quantization) 기법을 수행하여 양자화된 프레임 이미지를 생성하고, 상기 양자화된 프레임 이미지에서 상기 객체를 추출하는 객체 추출부;
상기 객체로부터 객체 스켈레톤 데이터를 생성하는 스켈레톤 생성부;
상기 객체 스켈레톤 데이터로부터 액션 파일을 생성하는 액션 파일 생성부;
상기 액션 파일을 기반으로 상기 객체의 움직임을 인식하는 행동 인식부;
인식된 상기 객체의 움직임을 상기 기준 자세와 비교하여 미리 설정된 오차를 초과하면 오류 자세로 판단하는 자세 분석부;
상기 영상 데이터에서 상기 오류 자세로 판단된 부분만 자동으로 선별하여 상기 오류 영상 데이터를 생성하는 오류 영상 데이터 생성부;
상기 영상 데이터 및 운동 데이터를 수신하고, 상기 오류 영상 데이터 및 운동 데이터를 상기 트레이너 단말로 전송하는 통신부; 및
상기 영상 데이터, 운동 데이터, 오류 영상 데이터 및 기준 자세를 저장하는 저장부;
를 포함하는 운동 보조를 위한 객체 움직임 인식 시스템.
According to claim 1,
The server,
an object extraction unit generating a quantized frame image by performing an image quantization technique on each frame of the image data and extracting the object from the quantized frame image;
a skeleton generation unit generating object skeleton data from the object;
an action file generating unit generating an action file from the object skeleton data;
an action recognition unit recognizing movement of the object based on the action file;
a posture analysis unit that compares the motion of the recognized object with the reference posture and determines that the posture is an error when a preset error is exceeded;
an erroneous image data generation unit that automatically selects only the portion determined to be the erroneous posture from the image data and generates the erroneous image data;
a communication unit that receives the image data and exercise data and transmits the error image data and exercise data to the trainer terminal; and
a storage unit for storing the image data, exercise data, error image data, and a reference posture;
Object motion recognition system for motion assistance including a.
제2항에 있어서,
상기 이미지 양자화(Quantization) 기법은 이진화(binarization) 기법이고,
상기 액션 파일은 상기 영상 데이터의 개별 프레임 중에서 상기 객체가 수행하는 움직임을 나타내는 복수의 영상 프레임을 포함하는 제1레이어 및 상기 복수의 영상 프레임의 개별 프레임 내에서 상기 객체의 객체 스켈레톤 데이터를 나타내는 제2레이어를 포함하고,
상기 제1레이어는 상기 복수의 영상 프레임 중에서 시작 프레임 정보, 종료 프레임 정보 및 상기 객체 스켈레톤 데이터가 없는 프레임을 포함하고,
상기 객체 스켈레톤 데이터는 상기 객체의 복수의 스켈레톤의 위치 데이터를 포함하고,
상기 제2레이어는 상기 객체의 복수의 스켈레톤의 위치 데이터 중 적어도 일부를 포함하고,
상기 운동 데이터는 운동 종류 및 종류별 동작 시나리오, 운동 세트, 운동 횟수 중 적어도 하나 이상을 포함하고,
상기 기준 자세는 운동 종류 및 종류별 동작 시나리오에 각각 대응하는 표준 객체 스켈레톤 데이터를 포함하는 것을 특징으로 하는 운동 보조를 위한 객체 움직임 인식 시스템.
According to claim 2,
The image quantization technique is a binarization technique,
The action file is a first layer including a plurality of image frames representing motions performed by the object among individual frames of the image data, and a second layer representing object skeleton data of the object within individual frames of the plurality of image frames. contains layers,
The first layer includes start frame information, end frame information, and a frame without the object skeleton data among the plurality of image frames,
The object skeleton data includes position data of a plurality of skeletons of the object,
The second layer includes at least some of positional data of a plurality of skeletons of the object,
The exercise data includes at least one of an exercise type, an action scenario for each type, an exercise set, and the number of exercises;
The reference posture includes standard object skeleton data corresponding to each exercise type and motion scenario for each type.
제3항에 있어서,
상기 영상 데이터 내에 복수의 객체가 존재하는 경우,
상기 액션 파일 생성부는,
상기 복수의 영상 프레임의 개별 프레임 내에 상기 복수의 객체에 각각 대응하는 복수의 랜드마크 레이어를 생성하고,
상기 자세 분석부는,
상기 액션 파일 내 복수의 객체의 움직임을 각각 상기 기준 자세와 비교하여 판단하고,
상기 영상 데이터 및 운동 데이터는 상기 서버로 실시간 스트리밍 전송되고,
상기 서버는,
상기 자세 분석부가 상기 객체의 움직임을 오류 자세로 판단하는 경우, 실시간으로 상기 오류 자세에 대한 피드백 정보를 생성하여 상기 사용자 단말로 전송하는 피드백 생성부를 더 포함하는 것을 특징으로 하는 운동 보조를 위한 객체 움직임 인식 시스템.
According to claim 3,
When a plurality of objects exist in the image data,
The action file creation unit,
Creating a plurality of landmark layers respectively corresponding to the plurality of objects in individual frames of the plurality of image frames;
The posture analysis unit,
Determining the movement of a plurality of objects in the action file by comparing them with the reference posture, respectively;
The video data and exercise data are transmitted to the server by real-time streaming,
The server,
and a feedback generating unit configured to generate feedback information on the erroneous posture in real time and transmit the feedback information to the user terminal when the posture analysis unit determines that the movement of the object is an erroneous posture. recognition system.
KR1020210081519A 2021-06-23 2021-06-23 Object movement recognition system and method for workout assistant KR20220170544A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210081519A KR20220170544A (en) 2021-06-23 2021-06-23 Object movement recognition system and method for workout assistant

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210081519A KR20220170544A (en) 2021-06-23 2021-06-23 Object movement recognition system and method for workout assistant

Publications (1)

Publication Number Publication Date
KR20220170544A true KR20220170544A (en) 2022-12-30

Family

ID=84538658

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210081519A KR20220170544A (en) 2021-06-23 2021-06-23 Object movement recognition system and method for workout assistant

Country Status (1)

Country Link
KR (1) KR20220170544A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116173484A (en) * 2023-03-03 2023-05-30 乐渊网络科技(上海)有限公司 Motion data processing method and device and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101762010B1 (en) 2015-08-28 2017-07-28 경희대학교 산학협력단 Method of modeling a video-based interactive activity using the skeleton posture datset
KR101908284B1 (en) 2012-01-13 2018-10-16 삼성전자주식회사 Apparatus and method for analysising body parts association

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101908284B1 (en) 2012-01-13 2018-10-16 삼성전자주식회사 Apparatus and method for analysising body parts association
KR101762010B1 (en) 2015-08-28 2017-07-28 경희대학교 산학협력단 Method of modeling a video-based interactive activity using the skeleton posture datset

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116173484A (en) * 2023-03-03 2023-05-30 乐渊网络科技(上海)有限公司 Motion data processing method and device and electronic equipment

Similar Documents

Publication Publication Date Title
US11776421B2 (en) Systems and methods for monitoring and evaluating body movement
US11819734B2 (en) Video-based motion counting and analysis systems and methods for virtual fitness application
CN109697499A (en) Pedestrian's flow funnel generation method and device, storage medium, electronic equipment
US20230082953A1 (en) System and Method for Real-Time Interaction and Coaching
US11954869B2 (en) Motion recognition-based interaction method and recording medium
US11450010B2 (en) Repetition counting and classification of movements systems and methods
KR102340519B1 (en) Systems and methods for analyzing line-and-face recognition-based motion posture
Rangari et al. Video based exercise recognition and correct pose detection
Guler et al. Human joint angle estimation and gesture recognition for assistive robotic vision
KR20220170544A (en) Object movement recognition system and method for workout assistant
Singh et al. Fast and robust video-based exercise classification via body pose tracking and scalable multivariate time series classifiers
He Athlete human behavior recognition based on continuous image deep learning and sensors
CN117137435A (en) Rehabilitation action recognition method and system based on multi-mode information fusion
KR20230093191A (en) Method for recognizing joint by error type, server
Bolaños et al. A comparative analysis of pose estimation models as enablers for a smart-mirror physical rehabilitation system
Zhong A convolutional neural network based online teaching method using edge-cloud computing platform
Ferreira et al. Exploring workout repetition counting and validation through deep learning
Jia et al. SwingNet: Ubiquitous fine-grained swing tracking framework via stochastic neural architecture search and adversarial learning
Alpatov et al. Chatbot for Remote Physical Knee Rehabilitation with Exercise Monitoring based on Machine Learning
Palanivel et al. Adaptive Exercise Meticulousness in Pose Detection and Monitoring via Machine Learning
Sinclair et al. P\= uioio: On-device Real-Time Smartphone-Based Automated Exercise Repetition Counting System
Enegi et al. Adaptive multimedia learning framework with facial recognition system
Lease et al. Online Bio-mechanical Evaluation System for Posture Assessment and Correction
Tileubay et al. Development of Deep Learning Enabled Augmented Reality Framework for Monitoring the Physical Quality Training of Future Trainers-Teachers.
Si et al. Design of home fitness assistant system based on android mobile network and optical sensing system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application