KR102369152B1 - Realtime Pose recognition system using artificial intelligence and recognition method - Google Patents

Realtime Pose recognition system using artificial intelligence and recognition method Download PDF

Info

Publication number
KR102369152B1
KR102369152B1 KR1020210150930A KR20210150930A KR102369152B1 KR 102369152 B1 KR102369152 B1 KR 102369152B1 KR 1020210150930 A KR1020210150930 A KR 1020210150930A KR 20210150930 A KR20210150930 A KR 20210150930A KR 102369152 B1 KR102369152 B1 KR 102369152B1
Authority
KR
South Korea
Prior art keywords
posture
motion
real
normalized
similarity
Prior art date
Application number
KR1020210150930A
Other languages
Korean (ko)
Inventor
바렌드 토마스 해리스
Original Assignee
아이픽셀 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이픽셀 주식회사 filed Critical 아이픽셀 주식회사
Priority to KR1020210150930A priority Critical patent/KR102369152B1/en
Application granted granted Critical
Publication of KR102369152B1 publication Critical patent/KR102369152B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing

Abstract

According to the present invention, a real-time posture motion recognition system and a recognition method using artificial intelligence includes the steps of: acquiring an image; pre-processing the acquired image; extracting a posture by inputting the pre-processed image to a posture recognition model; and normalizing a posture recognition result and recognizing a motion by comparing a normalized posture recognition result with a reference posture. Therefore, it is possible to classify a large number of exercise motions in real time based on a posture information.

Description

인공지능을 이용한 실시간 자세 동작 인식 시스템 및 인식 방법 {Realtime Pose recognition system using artificial intelligence and recognition method} Realtime Pose recognition system using artificial intelligence and recognition method

본 발명은 인공지능을 이용한 실시간 자세 동작 인식 시스템 및 인식 방법에 관한 것이다.The present invention relates to a real-time posture motion recognition system and recognition method using artificial intelligence.

코로나 19로 인한 실내 활동이 늘어남에 따라 영상 콘텐츠가 증가하는 추세이다. 이에, 많은 양의 영상 콘텐츠들의 내용을 이해하고, 요약 및 분석하고자 하는 연구들이 많이 진행되고 있다. 이러한 수많은 영상 콘텐츠를 보다 효율적으로 분석하기 위해서 최근 딥러닝 기술이 주목을 받고 있는데, 딥러닝 기술을 효과적이고 성공적으로 적용하기 위해서는 다양한 종류의 양질의 대용량 메타데이터를 생성하고 활용하는 것이 필수적이다.As indoor activities increase due to COVID-19, video content is on the rise. Accordingly, many studies are being conducted to understand, summarize, and analyze the contents of a large amount of video content. In order to analyze these numerous video contents more efficiently, deep learning technology has recently been attracting attention.

이와 관련한 종래의 기술로, 한국공개특허 제2015-0079064호, '자동 태깅 시스템'에서는 정지영상의 시각적인 물리적인 정보, 의미론적인 정보만을 추출하는 기술이 개시되어 있고, 한국공개특허 제2011-0020158호, '메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법'에서는 이미지를 분석하여 시각정보와 장소정보를 추출하는 기술이 개시되어 있다. 그러나 이러한 종래기술은 이미지 내의 시각정보 태깅으로 한정되고, 메타데이터의 질을 보장하지 못한다. 또한, 하나의 영상에 대한 시각정보, 소리정보, 자막정보, 캡션정보를 모두 가지고 있는 통합 메타데이터를 생성할 수 없으며, 대량의 데이터 태깅을 위해서는 비용이 많이 들고 작업하기도 어렵다.As a prior art in this regard, Korean Patent Application Laid-Open No. 2015-0079064, 'Automatic Tagging System' discloses a technique for extracting only visual physical information and semantic information of a still image, and Korean Patent Application Publication No. 2011-0020158 In 'Metadata tagging system, image search method, device and gesture tagging method applied thereto', a technique for extracting visual information and place information by analyzing an image is disclosed. However, this prior art is limited to visual information tagging within an image, and does not guarantee the quality of metadata. In addition, it is impossible to generate integrated metadata having all of visual information, sound information, subtitle information, and caption information for a single image, and tagging a large amount of data is expensive and difficult to work with.

특히, 실내에서의 활동이 증가함에 따라 온라인 클래스, 홈트레이닝과 같은 영상 기반의 비대면 온라인 코칭 서비스가 주목받고 있다. 그러나 대부분의 영상 기반의 온라인 코칭 서비스는 피드백을 받을 수 있는 양방향 코칭 방식이 아닌 일방적으로 지식을 전달하는 단방향 티칭 방식으로 구현된다. 따라서 사용자는 본인이 얼마나 잘하고 있는지 혹은 결과물이 얼마나 일치하는지 스스로 판단해야 하는 문제가 발생한다. 특히 동영상을 이용한 홈트레이닝 서비스 같은 경우 단방향 코칭 방식으로 컨텐츠가 진행 된다면 사용자가 잘못된 방식으로 동작을 수행 할 가능성이 있기 때문에 부상의 위험이 존재한다.In particular, as indoor activities increase, video-based non-face-to-face online coaching services such as online classes and home training are attracting attention. However, most video-based online coaching services are implemented as a one-way teaching method that unilaterally transfers knowledge rather than a two-way coaching method that can receive feedback. Therefore, a problem arises in that the user has to judge for himself how well he or she is doing or how consistent the results are. In particular, in the case of a home training service using video, if the content is conducted in a one-way coaching method, there is a risk of injury because there is a possibility that the user may perform an operation in the wrong way.

따라서, 전술한 문제점을 해결하기 위한 사용자의 영상을 분석하여 동작을 기록하고, 피드백을 주는 시스템을 구현이 요구된다. 예를 들어, 영상 내에서 동작이 존재하는 프레임을 추출하여 동작에 대한 정보를 획득하고 획득된 동작에 대한 정보들을 이용하여 반복 횟수, 유사도와 같은 동작에 대한 정보 및 각 사용자별 동작에 대한 통계치 등의 결과를 제공 할 수 있다.Therefore, in order to solve the above-mentioned problems, it is required to implement a system that analyzes the user's image, records the motion, and gives feedback. For example, information about the motion is obtained by extracting a frame in which a motion exists from within the image, and information about the motion such as the number of repetitions and similarity using the obtained motion information, and statistics on the motion for each user, etc. can provide the results of

그러나 사람의 운동 동작을 구분하기 위해서 일반적으로 머신러닝 모델을 구성하여 어떠한 동작을 하는지 분류하게 되는데, 각 동작마다 분류를 위한 데이터셋이 필요하다는 문제점이 존재한다. 또한 이러한 알고리즘을 수행하는 시간이 오래 걸려 실시간성을 얻기 힘들다는 한계점이 존재한다. However, in order to classify human movement movements, a machine learning model is generally configured to classify the types of movements, but there is a problem that a dataset for classification is required for each movement. In addition, there is a limitation in that it is difficult to obtain real-time performance because it takes a long time to perform such an algorithm.

따라서 영상 기반으로 사람의 자세 정보를 얻고, 얻어진 정보를 바탕으로 많은 수의 운동 동작을 실시간으로 구분 할 수 있는 방법의 개발이 요구된다.Therefore, it is required to develop a method to obtain human posture information based on an image and to classify a large number of exercise movements in real time based on the obtained information.

상술한 바와 같은 문제점을 해결하기 위해, 본 발명은 인공지능을 이용한 실시간 자세 동작 인식 시스템 및 인식 방법을 제공하고자 한다. In order to solve the above problems, the present invention is to provide a real-time posture motion recognition system and recognition method using artificial intelligence.

일 실시예에 따른, 컴퓨팅 장치에서 실행 가능한 실시간 자세 동작 인식 방법은, 영상을 획득하는 단계; 획득한 영상을 전처리 하는 단계; 전처리된 영상을 자세 인식 모델에 입력하여 자세를 추출하는 단계; 자세 인식 결과를 정규화 하는 단계; 및 정규화 된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식하는 단계를 포함한다. According to an embodiment, a method for real-time posture motion recognition executable in a computing device includes: acquiring an image; pre-processing the acquired image; extracting the posture by inputting the pre-processed image to the posture recognition model; normalizing the posture recognition results; and recognizing the motion by comparing the normalized posture recognition result with the reference posture.

상기 전처리 하는 단계는,The pre-processing step is

프레임 주기로 추론 주기를 결정하는 단계; 및 프레임 사이즈를 자세 인식 모델에 부합하도록 변경하는 단계;를 포함할 수 있다. determining an inference period with a frame period; and changing the frame size to match the posture recognition model.

상기 자세 인식 모델은 딥러닝에 기반한 모델일 수 있다. The posture recognition model may be a model based on deep learning.

상기 자세 인식 결과를 정규화 하는 단계는,The step of normalizing the posture recognition result is,

정규화를 위한 크기 요소를 결정하는 단계; 및determining a size factor for normalization; and

자세 인식 결과 값을 크기 요소로 나누어 정규화 하는 단계;를 포함할 수 있다. and normalizing the posture recognition result value by dividing it into size factors.

상기 정규화 된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식하는 단계는,The step of recognizing a motion by comparing the normalized posture recognition result and the reference posture comprises:

정규화 된 관절 좌표와 기준 자세의 유사도를 비교하는 단계; 유사도가 임계값보다 높은지를 대비하여 높은 경우 관절 좌표가 기준 자세와 동일한 자세로 판단하는 단계를 포함할 수 있다. comparing the degree of similarity between normalized joint coordinates and a reference posture; The method may include determining that the joint coordinates are the same as the reference posture when the similarity is higher than the threshold value.

상기 정규화 된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식하는 단계는,The step of recognizing a motion by comparing the normalized posture recognition result and the reference posture comprises:

정규화 된 관절 좌표 중 중심점을 정의하는 단계; defining a center point among normalized joint coordinates;

상기 중심점을 기준으로 기준 자세를 동일선상에 맞추는 단계; 및aligning the reference posture on the same line with respect to the central point; and

동일선상에 맞추어진 자세 인식 결과와 기준 자세를 대비하여 동작을 인식하는 단계를 포함할 수 있다. The method may include recognizing a motion by comparing a posture recognition result aligned on the same line and a reference posture.

상기 중심점을 정의하는 단계는, 정규화 된 관절 좌표 중 가장 변화가 적은 관절 좌표를 중심점으로 정의하는 단계일 수 있다. The step of defining the center point may be a step of defining the joint coordinates with the least change among normalized joint coordinates as the center point.

상기 가장 변화가 적은 관절 좌표는 몸통(torso)에 대한 관절 좌표인 것을 특징으로 할 수 있다.The joint coordinates with the least change may be characterized as joint coordinates with respect to a torso.

상기 정규화 된 관절 좌표와 기준 자세의 유사도를 비교하는 단계는,Comparing the normalized joint coordinates and the similarity of the reference posture comprises:

거리 기반 유사도와 각도 기반 유사도를 연산하는 단계일 수 있다. It may be a step of calculating the distance-based similarity and the angle-based similarity.

상기 정규화 된 관절 좌표와 기준 자세의 유사도를 비교하는 단계는,Comparing the normalized joint coordinates and the similarity of the reference posture comprises:

연산된 거리 기반 유사도와 각도 기반 유사도에 동작별 가중치를 부여하여 합산하여 최종 유사도를 도출하는 것 일 수 있다.The calculated distance-based similarity and angle-based similarity may be added with weights for each motion to derive a final similarity.

정규화 된 자세 인식 결과와 기준 자세를 실시간으로 시각화하는 단계;를 더 포함할 수 있다.Visualizing the normalized posture recognition result and the reference posture in real time; may further include.

상기 시각화하는 단계는,The visualization step is

상기 기준 자세를 제1 색으로 시각화하고,Visualize the reference posture with a first color,

상기 정규화 된 자세 인식 결과와 상기 기준 자세의 유사도를 정량화하여 유사도 수치에 따라 상기 제1 색이 아닌 다른 색으로 시각화하는 단계를 포함할 수 있다. The method may include quantifying the degree of similarity between the normalized posture recognition result and the reference posture, and visualizing the result with a color other than the first color according to the similarity value.

상기 시각화하는 단계는,The visualization step is

상기 기준 자세와 상기 정규화 된 자세 인식 결과와 기결정된 기준치 이상의 유사도를 만족하는 경우 제 2 색으로 시각화되고 미만일 경우 제 3 색으로 시각화되고,When the reference posture and the normalized posture recognition result and the degree of similarity greater than or equal to a predetermined reference value are satisfied, it is visualized in a second color, and when it is less than, it is visualized in a third color,

제 2 색이 기결정된 기준치 이상의 비율을 만족하는 경우 기준 자세를 수행하는 것으로 판단하는 단계를 더 포함할 수 있다.The method may further include determining that the reference posture is performed when the second color satisfies a ratio greater than or equal to a predetermined reference value.

본 발명의 일 실시예에 따른 실시간 자세 동작 인식 시스템은,Real-time posture motion recognition system according to an embodiment of the present invention,

네트워크를 통해 외부와 송수신 가능한 송수신부;a transceiver capable of transmitting and receiving to and from the outside through a network;

실시간 자세 동작 인식 방법을 수행하는 어플리케이션을 저장하는 메모리부; 및a memory unit for storing an application for performing a real-time posture motion recognition method; and

상기 메모리부로부터 어플리케이션을 읽어들여 제어하는 프로세서;를 포함하고,A processor that reads and controls the application from the memory unit; includes,

상기 어플리케이션은, 영상을 획득하고, 획득한 영상을 전처리 하고, 전처리된 영상을 자세 인식 모델에 입력하여 자세를 추출하고, 자세 인식 결과를 정규화 하고, 및 정규화된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식한다.The application obtains an image, pre-processes the acquired image, inputs the pre-processed image to the posture recognition model to extract the posture, normalizes the posture recognition result, and compares the normalized posture recognition result with the reference posture Recognize motion.

본 발명에 따른 인공지능을 이용한 실시간 자세 동작 인식 시스템 및 인식 방법은 딥러닝 기술을 이용한 자세 인식 기술과 영상으로 자세 정보를 기반으로 많은 수의 운동 동작을 실시간으로 구분할 수 있다.The real-time posture motion recognition system and recognition method using artificial intelligence according to the present invention can distinguish a large number of movement movements in real time based on posture information with posture recognition technology and images using deep learning technology.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명에 따른 실시간 자세 동작 인식 방법을 나타낸 순서도이다.
도 2는 본 발명에 따른 실시간 자세 동작 인식 방법을 세부적으로 나타낸 순서도이다.
도 3은 본 발명에 따른 실시간 자세 동작 인식 방법을 세부적으로 나타낸 순서도이다.
도 4는 본 발명에 따른 실시간 자세 동작 인식 방법을 세부적으로 나타낸 순서도이다.
도 5는 본 발명에 따른 실시간 자세 동작 인식 시스템을 나타낸 블록도이다.
도 6 및 도 7은 실시간 자세 동작 인식 시스템의 중심점을 기반으로 한 관절 정보와 기준 자세를 동일선 상에 맞추는 단계를 도시한 도면이다.
도 8 및 도 9는 본 발명에 따른 실시간 자세 동작 인식 방법의 시각화 방법을 구체적으로 나타낸 도면이다.
도 10은 촬영 장치의 촬영 각도를 보정하여 정면 영상으로 변환하는 일 예시를 도시한 도면이다.
1 is a flowchart illustrating a real-time posture motion recognition method according to the present invention.
2 is a detailed flowchart illustrating a real-time posture motion recognition method according to the present invention.
3 is a detailed flowchart illustrating a real-time posture motion recognition method according to the present invention.
4 is a detailed flowchart illustrating a real-time posture motion recognition method according to the present invention.
5 is a block diagram illustrating a real-time posture motion recognition system according to the present invention.
6 and 7 are diagrams illustrating a step of aligning joint information and a reference posture based on the center point of the real-time posture motion recognition system on the same line.
8 and 9 are diagrams specifically illustrating a visualization method of a real-time posture motion recognition method according to the present invention.
10 is a diagram illustrating an example of converting a photographing angle of a photographing apparatus into a front image by correcting the photographing angle.

이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 개시의 기술적 사상을 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. Advantages and features of the present disclosure, and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the technical spirit of the present disclosure is not limited to the following embodiments, but may be implemented in various different forms, and only the following embodiments complete the technical spirit of the present disclosure, and in the technical field to which the present disclosure belongs It is provided to fully inform those of ordinary skill in the art of the scope of the present disclosure, and the technical spirit of the present disclosure is only defined by the scope of the claims.

각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present disclosure, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present disclosure, the detailed description thereof will be omitted.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which this disclosure belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular. The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present disclosure. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the present disclosure, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the component from other components, and the essence, order, or order of the component is not limited by the term. When it is described that a component is “connected”, “coupled” or “connected” to another component, the component may be directly connected or connected to the other component, but another component is between each component. It should be understood that elements may be “connected,” “coupled,” or “connected.”

본 개시에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, “comprises” and/or “comprising” refers to a referenced component, step, operation and/or element of one or more other components, steps, operations and/or elements. The presence or addition is not excluded.

어느 하나의 실시예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성 요소는, 다른 실시예에서 동일한 명칭을 사용하여 설명될 수 있다. 반대되는 기재가 없는 이상, 어느 하나의 실시예에 기재된 설명은 다른 실시예에도 적용될 수 있으며, 중복되는 범위 또는 당해 기술 분야에 속한 통상의 기술자가 자명하게 이해할 수 있는 범위 내에서 구체적인 설명은 생략될 수 있다.A component included in one embodiment and a component having a common function may be described using the same name in another embodiment. Unless otherwise stated, the descriptions in any one embodiment may be applied to other embodiments, and specific descriptions will be omitted within the overlapping range or within the range that can be clearly understood by those skilled in the art. can

이하, 본 개시의 몇몇 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, some embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

이하, 본 발명의 바람직한 실시예 및 첨부한 도면을 참조하여 본 발명에 대해 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to preferred embodiments of the present invention and the accompanying drawings.

도 1은 본 발명에 따른 실시간 자세 동작 인식 방법을 나타낸 순서도이다. 도 1을 참조하면, 실시간 자세 동작 인식 방법은, 영상을 획득하는 단계(S100), 획득한 영상을 전처리 하는 단계(S200), 전처리된 영상을 자세 인식 모델에 입력하여 자세를 추출하는 단계(S300), 자세 인식 결과를 정규화 하는 단계(S400) 및 정규화 된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식하는 단계(S500)를 포함한다.1 is a flowchart illustrating a real-time posture motion recognition method according to the present invention. Referring to FIG. 1 , the real-time posture motion recognition method includes obtaining an image (S100), pre-processing the obtained image (S200), and inputting the pre-processed image into a posture recognition model to extract a posture (S300) ), normalizing the posture recognition result (S400) and recognizing a motion by comparing the normalized posture recognition result with the reference posture (S500).

영상을 획득하는 단계(S100)는 스포츠 분석, 개인 홈트레이닝 등과 같은 운동과 관련된 영상의 자세 획득을 목적으로 하는 일체의 관련 영상을 획득하는 단계를 의미 할 수 있다. 영상의 획득 방법은 카메라, 스마트폰 등의 직접 촬상 장치로부터 촬영된 영상을 직접 전달받거나, 또는 촬영된 영상을 송수신부를 통해 전달받는 방법을 포함하며 특정 예시에 한정되지 않는다. 영상은 사진과 같은 정지 이미지 데이터, 특정 프레임 단위로 연속적으로 전달되는 동영상 데이터, 실시간으로 촬영중인 스트리밍 동영상 데이터를 모두 포함하며 특정 예시에 한정되지 않는다.The step of acquiring an image ( S100 ) may mean a step of acquiring all related images for the purpose of acquiring a posture of an image related to exercise such as sports analysis and personal home training. The method of acquiring an image includes a method of directly receiving a photographed image from a direct imaging device such as a camera or a smartphone, or a method of receiving a photographed image through a transceiver, and is not limited to a specific example. The image includes still image data such as a photo, moving image data continuously transmitted in a specific frame unit, and streaming moving image data being recorded in real time, and is not limited to a specific example.

획득한 영상을 전처리 하는 단계(S200)는 자세 인식을 위해 용이하도록 획득한 영상을 전처리 하는 단계이다. 상세한 내용은 도 2에서 후술한다. The step of pre-processing the acquired image ( S200 ) is a step of pre-processing the acquired image to facilitate posture recognition. Details will be described later with reference to FIG. 2 .

자세를 추출하는 단계(S300)는 사이즈가 조절 된 입력 이미지를 딥러닝 모델에 입력하여 사람의 자세 추정(pose estimation) 결과를 얻는 단계이다. 본 발명에 따른 자세 추출 단계는 일반적으로 17개, 34개의 자세 추정 결과를 얻지만 이는 모델 설계에 따라 달라 질 수 있다. 일 예시에 따른 본 단계(S300)에서는, 실시간 자세 인식을 하기 위하여 경량화 된 딥러닝 모델을 이용할 수 있다.The step of extracting the posture ( S300 ) is a step of obtaining a human pose estimation result by inputting the size-adjusted input image to the deep learning model. The posture extraction step according to the present invention generally obtains 17 and 34 posture estimation results, but this may vary depending on model design. In this step (S300) according to an example, a lightweight deep learning model may be used for real-time posture recognition.

자세 인식 결과를 정규화 하는 단계(S400)는 자세 인식 결과로부터 얻은 결과로 사람의 크기를 근사 할 수 있는 부분부터 크기 요소(scale factor)를 정한 뒤 정규화 하는 단계일 수 있다. 예를 들어, 자세 인식 결과값을 크기 요소로 나누어 줌으로써 사람의 크기에 영향을 받지 않는 정규화가 가능하다. 자세한 내용은 도 4에서 후술한다.The step of normalizing the posture recognition result ( S400 ) may be a step of normalizing after determining a scale factor from a part that can approximate the size of a person as a result obtained from the posture recognition result. For example, normalization not affected by the size of a person is possible by dividing the result of posture recognition into size factors. Details will be described later with reference to FIG. 4 .

정규화 된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식하는 단계(S500)는 얻어진 관절 정보를 중심 자세와의 유사도를 비교함으로써 동작을 인식하는 단계이다. 본 단계(S500)는 각도 혹은 거리 기반의 유사도를 사용 할 수 있다. 실시간 인식의 구현을 위하여 모든 관절 데이터의 유사도를 비교하는 것이 아닌 동작을 하는데 중요도가 높은 관절 데이터를 판별한 뒤 해당 관절 데이터의 유사도만을 비교할 수 있다. 자세히는 도 4에서 후술한다.The step of recognizing the motion by comparing the normalized posture recognition result with the reference posture ( S500 ) is a step of recognizing the motion by comparing the obtained joint information with the central posture. In this step (S500), angle or distance-based similarity may be used. In order to implement real-time recognition, it is possible to compare only the similarity of the joint data after determining the joint data with high importance for motion rather than comparing the similarity of all joint data. Details will be described later with reference to FIG. 4 .

도 2는 본 발명에 따른 실시간 자세 동작 인식 방법을 세부적으로 나타낸 순서도이다. 도 2를 참조하면, 전처리 하는 단계는, 프레임 주기로 추론 주기를 결정하는 단계(S210) 및 프레임 사이즈를 자세 인식 모델에 부합하도록 변경하는 단계(S220)을 포함한다.2 is a detailed flowchart illustrating a real-time posture motion recognition method according to the present invention. Referring to FIG. 2 , the pre-processing includes determining an inference period as a frame period ( S210 ) and changing the frame size to match the posture recognition model ( S220 ).

프레임 주기로 추론 주기를 결정하는 단계(S210)는 영상 데이터의 모든 프레임을 추론하는 경우 연산 속도의 한계로 인하여 실시간(real-time)이 훼손되지 않도록 추론 정밀도를 유지하면서도 연산속도를 향상시키기 위한 프레임 주기(frame interval)를 결정하는 단계이다. 프레임 주기는 실시간으로 입력되는 프레임 스트림 데이터에 대해 몇 프레임 주기로 추론 모델에 입력 할 지를 결정하는 일종의 단위에 해당한다. The step (S210) of determining the inference period by the frame period is a frame period for improving the operation speed while maintaining the inference precision so that the real-time is not damaged due to the limitation of the operation speed when all frames of image data are inferred. (frame interval) is decided. The frame period corresponds to a kind of unit that determines how many frame periods to input to the inference model for the frame stream data input in real time.

프레임 사이즈를 자세 인식 모델에 부합하도록 변경하는 단계(S220)는, 입력 데이터를 모델에서 요구하는 프레임 사이즈에 조절하는 단계이다. The step of changing the frame size to match the posture recognition model ( S220 ) is a step of adjusting the input data to the frame size required by the model.

딥러닝 모델에서는 각 모델마다 요구하는 프레임 입력 크기가 존재하므로, 실시간 자세 인식을 위해서는 입력 데이터를 모델에서 요구하는 프레임 사이즈에 조절하는 것이 필요하다. 예를 들어 모바일 디바이스에 존재하는 촬상 장치로부터 입력을 받으면 장치의 스펙에 따라 A x B 의 특정한 크기를 가지는 입력이 들어온다. 입력이 들어오면 사전에 정의된 프레임 주기에 따라 입력받은 프레임을 선택하고, 선택 된 프레임을 딥러닝 모델이 요구하는 사이즈인 C x D로 조절하는 전처리 단계를 수행할 수 있다.Since there is a frame input size required for each model in a deep learning model, it is necessary to adjust the input data to the frame size required by the model for real-time posture recognition. For example, when an input is received from an imaging device existing in a mobile device, an input having a specific size of A x B is received according to the specification of the device. When an input is received, a preprocessing step of selecting the received frame according to a predefined frame period and adjusting the selected frame to the size required by the deep learning model, C x D, can be performed.

도 3은 본 발명에 따른 실시간 자세 동작 인식 방법을 세부적으로 나타낸 순서도이다. 도 3을 참조하면, 자세 인식 결과를 정규화 하는 단계는, 정규화를 위한 크기 요소를 결정하는 단계(S410), 및 자세 인식 결과 값을 크기 요소로 나누어 정규화 하는 단계(S420)를 포함한다. 3 is a detailed flowchart illustrating a real-time posture motion recognition method according to the present invention. Referring to FIG. 3 , the step of normalizing the posture recognition result includes determining a size factor for normalization ( S410 ), and normalizing the posture recognition result value by dividing it by the size factor ( S420 ).

정규화를 위한 크기 요소를 결정하는 단계(S410)는, 사람의 크기를 근사 할 수 있는 크기 요소를 결정하는 단계이다. 크기 요소는 위치의 변화가 가장 적어 안정적으로 사람의 크기를 근사 할 수 있는 관절 정보로부터 얻어 질 수 있다. 예를 들어, 크기 요소는 몸통(torso) 관절 정보를 통해 결정될 수 있다. 이는 몸통에 대한 관절정보가 상대적으로 안정적으로 획득 가능하여 사람의 크기를 근사하기 쉽기 때문이다. The step of determining a size factor for normalization ( S410 ) is a step of determining a size factor capable of approximating the size of a person. The size factor can be obtained from joint information that can approximate the size of a person stably with the smallest change in position. For example, the size factor may be determined through torso joint information. This is because it is easy to approximate the size of a person because joint information about the torso can be obtained relatively stably.

자세 인식 결과 값을 크기 요소로 나누어 정규화 하는 단계(S420)는, 관절 정보(key points)에 크기 요소(scale factor)를 나누어 주어 크기에 대한 정규화를 진행하는 단계이다.The step of normalizing the posture recognition result value by dividing it into size factors ( S420 ) is a step of performing size normalization by dividing the size factor into joint information (key points).

도 4는 본 발명에 따른 실시간 자세 동작 인식 방법을 세부적으로 나타낸 순서도이다. 도 4를 참조하면, 정규화 된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식하는 단계(도 1의 S500)은, 정규화 된 관절 좌표 중 중심점을 정의하는 단계(S510), 중심점을 기준으로 기준 자세를 동일선상에 맞추는 단계(S520), 정규화 된 관절 좌표와 기준 자세의 유사도를 비교하는 단계(S530), 유사도가 임계값보다 높은지를 대비하여 높은 경우 관절 좌표가 기준 자세와 동일한 자세로 판단하는 단계(540 내지 S550)을 포함할 수 있다. 4 is a detailed flowchart illustrating a real-time posture motion recognition method according to the present invention. Referring to FIG. 4 , the step of recognizing a motion by comparing the normalized posture recognition result and the reference posture (S500 in FIG. 1) is the step of defining a center point among the normalized joint coordinates (S510), the reference posture based on the center point aligning to the same line (S520), comparing the normalized joint coordinates with the reference posture similarity (S530), determining whether the joint coordinates are the same as the reference posture if the similarity is higher than the threshold value (540 to S550) may be included.

정규화 된 관절 좌표 중 중심점을 정의하는 단계(S510)는, 정규화 된 관절 좌표 중 가장 변화가 적은 관절 좌표를 중심점으로 정의하는 단계일 수 있다. 예를 들어, 상기 가장 변화가 적은 관절 좌표는 몸통(torso)에 대한 관절 좌표인 것을 특징으로 할 수 있다.The step of defining the center point among the normalized joint coordinates ( S510 ) may be a step of defining the joint coordinate with the least change among the normalized joint coordinates as the center point. For example, the joint coordinates with the least change may be joint coordinates with respect to a torso.

중심점을 기준으로 기준 자세를 동일선상에 맞추는 단계(S520)는, 좌표 이동을 통해 정규화 된 관절 좌표와 기준 자세의 좌표를 동일선상에 맞추는 단계이다. 정규화 된 관절 좌표가 복수 개의 중심 관절로 구성되는 경우, 중심 관절들의 평균 값을 축으로 좌표이동을 하여 동일선상에 맞추는 얼라인먼트(alignment)작업을 수행하게 된다. The step of aligning the reference posture with the center point on the same line ( S520 ) is a step of aligning the joint coordinates normalized through coordinate movement and the coordinates of the reference posture with the coordinates on the same line. When the normalized joint coordinates are composed of a plurality of central joints, an alignment operation is performed to align the coordinates on the same line by moving the average value of the central joints as an axis.

정규화 된 관절 좌표와 기준 자세의 유사도를 비교하는 단계(S530)는, 거리 기반 유사도와 각도 기반 유사도를 연산하는 단계일 수 있다. 예를 들어, 본 단계(S530)는 연산된 거리 기반 유사도와 각도 기반 유사도에 동작별 가중치를 부여하여 합산하여 최종 유사도를 도출할 수 있다.Comparing the normalized joint coordinates and the similarity of the reference posture ( S530 ) may be a step of calculating the distance-based similarity and the angle-based similarity. For example, in this step ( S530 ), the calculated distance-based similarity and angle-based similarity may be added with weights for each operation to derive a final similarity.

유사도가 임계값보다 높은지를 대비하여 높은 경우 관절 좌표가 기준 자세와 동일한 자세로 판단하는 단계는, 임계값보다 유사도가 높을 경우 해당 관절 좌표를 기준 자세와 동일한 자세로 판단하는 단계(S540)와 임계값보다 유사도가 낮을 경우 해당 관절 좌표를 기준 자세와 상이한 자세로 판단하는 단계(S550)를 포함할 수 있다. If the degree of similarity is higher than the threshold, determining that the joint coordinates are the same posture as the reference posture includes the steps of determining the joint coordinates as the same posture as the reference posture when the similarity is higher than the threshold (S540) and the threshold If the similarity is lower than the value, determining the joint coordinates as a posture different from the reference posture (S550) may be included.

도 5는 본 발명에 따른 실시간 자세 동작 인식 시스템을 나타낸 블록도이다. 도 5를 참조하면, 실시간 자세 동작 인식 시스템(100)은 메모리(101), 프로세서(103), 송수신부(104), 출력부(105), 입력부(106), 및 메모리(101)에서 읽어져 프로세서(103)에 의해 제어되는 어플리케이션(102)을 포함한다.5 is a block diagram illustrating a real-time posture motion recognition system according to the present invention. Referring to FIG. 5 , the real-time posture motion recognition system 100 is read from the memory 101 , the processor 103 , the transceiver 104 , the output unit 105 , the input unit 106 , and the memory 101 . The application 102 is controlled by the processor 103 .

프로세서(103)는 단말에 구성되는 메모리(101)에 저장된 프로그램 및 데이터를 이용하여 단말의 전반적인 제어 기능을 실행한다. 프로세서(103)는 RAM(random access memory), ROM(read only memory), CPU(central processing unit), GPU(graphic processing unit), 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. 프로세서(103)는 저장부에 액세스하여, 메모리(101)에 저장된 O/S(operating system)를 이용하여 부팅을 수행할 수 있으며, 메모리(101)에 저장된 어플리케이션(102)을 이용하여 어플리케이션부로 동작하면서 본 발명에서 설명하는 다양한 동작을 수행하도록 구성될 수 있다. 프로세서(103)는 노드의 장치 내 구성들, 즉, 메모리(101), 입력부(106), 출력부(105), 송수신부(104) 및 카메라(미도시)를 제어함으로써 본 발명에서 개시되는 다양한 실시 예들을 수행하도록 구성될 수 있다.The processor 103 executes the overall control function of the terminal by using the program and data stored in the memory 101 configured in the terminal. The processor 103 may include a random access memory (RAM), read only memory (ROM), a central processing unit (CPU), a graphic processing unit (GPU), and a bus, and the RAM, ROM, CPU, GPU, etc. may include a bus. can be connected to each other through The processor 103 may access the storage unit to perform booting using an operating system (O/S) stored in the memory 101 , and operates as an application unit using the application 102 stored in the memory 101 . It may be configured to perform various operations described in the present invention while doing so. The processor 103 controls various components in the device of the node, that is, the memory 101, the input unit 106, the output unit 105, the transceiver unit 104, and the camera (not shown) to control various components disclosed in the present invention. may be configured to carry out embodiments.

이외에도 실시간 자세 동작 인식 시스템(100)은 어플리케이션(102) 관련 데이터를 비롯한 각종 데이터를 저장하는 메모리(101), 사용자 입력을 수신하는 입력부(106), 각종 정보를 표시하는 출력부(105), 타 단말과의 통신을 위한 송수신부(104) 등과 같은 다양한 구성부를 포함하여 구성될 수 있다. In addition, the real-time posture recognition system 100 includes a memory 101 for storing various data including application 102-related data, an input unit 106 for receiving a user input, an output unit 105 for displaying various information, and other It may be configured to include various components such as the transceiver 104 for communication with the terminal.

메모리(101)는 데이터베이스(database, DB)로 구성되거나, 물리적인 하드디스크(hard disk), SSD(solid state drive), 웹하드(web hard) 등과 같은 다양한 저장 수단으로 구성될 수 있다.The memory 101 may be composed of a database (DB) or various storage means such as a physical hard disk, a solid state drive (SSD), a web hard, and the like.

입력부(106) 및 출력부(105)는 스마트폰에서 터치 디스플레이의 형태로 동시에 입출력부로서 구성될 수 있다. 입력부(106)는 물리적 키보드 장치, 터치 디스플레이, 카메라를 구성하는 이미지 입력 센서, 지문을 입력받는 센서, 홍채를 인식하는 센서 등으로 구성될 수 있다. 출력부(105)는 모니터, 터치 디스플레이 등으로 구성될 수 있다. 그러나 이에 한정되는 것은 아니며 퍼스널 컴퓨터(PC) 등에서 입력부로 이용되는 키보드, 마우스, 터치스크린 및 출력부로 이용되는 모니터, 스피커 등의 구성을 포함할 수 있음은 물론이다.The input unit 106 and the output unit 105 may be configured as input/output units simultaneously in the form of a touch display in a smartphone. The input unit 106 may include a physical keyboard device, a touch display, an image input sensor constituting a camera, a sensor for receiving a fingerprint, a sensor for recognizing an iris, and the like. The output unit 105 may be configured as a monitor, a touch display, or the like. However, the present invention is not limited thereto, and may include a keyboard, a mouse, and a touch screen used as an input unit in a personal computer (PC), and a monitor and a speaker used as an output unit.

송수신부(104)는 송신기(transmitter), 수신기(receiver), 또는 송수신기(transceiver)로 구성될 수 있다.The transceiver 104 may include a transmitter, a receiver, or a transceiver.

또한, 이런 실시간 자세 동작 인식 시스템(100)은 스마트폰(smart phone), 휴대폰, PDA(personal digital assistant), PMP(portable multimedia player), 태블릿 PC 등과 같이 무선 통신망을 통하여 외부 서버와 연결될 수 있는 모든 종류의 핸드헬드(handheld) 기반의 무선 통신 장치를 포함할 수 있으며, 이 외에도 데스크탑 PC, 태블릿 PC, 랩탑 PC, 셋탑 박스를 포함하는 IPTV와 같이, 네트워크를 통하여 외부 서버와 연결될 수 있는 통신 장치도 포함할 수 있다.In addition, this real-time posture motion recognition system 100 is a smart phone (smart phone), mobile phone, PDA (personal digital assistant), PMP (portable multimedia player), all that can be connected to an external server through a wireless communication network, such as a tablet PC. It may include a type of handheld-based wireless communication device, and in addition to this, a communication device that can be connected to an external server through a network, such as an IPTV including a desktop PC, a tablet PC, a laptop PC, and a set-top box, is also provided. may include

어플리케이션(102)은 영상을 획득하고, 획득한 영상을 전처리 하고, 전처리된 영상을 자세 인식 모델에 입력하여 자세를 추출하고, 자세 인식 결과를 정규화 하고, 및 정규화된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식한다. 어플리케이션(102)이 수행하는 실시간 자세 동작 인식 방법은 도 1 내지 도 4에서 전술한 바와 같으므로 중복되는 설명은 생략한다.The application 102 acquires an image, pre-processes the acquired image, inputs the pre-processed image to a posture recognition model to extract a posture, normalizes the posture recognition result, and compares the normalized posture recognition result with a reference posture to recognize the action. Since the real-time posture motion recognition method performed by the application 102 is the same as described above with reference to FIGS. 1 to 4 , a redundant description will be omitted.

도 6 및 7은 실시간 자세 동작 인식 시스템의 중심점을 기반으로 한 관절 정보와 기준 자세를 동일선 상에 맞추는 단계를 도시한 도면이다.6 and 7 are diagrams illustrating a step of aligning joint information and a reference posture based on the center point of the real-time posture motion recognition system on the same line.

도 6을 참조하면, 스마트폰 카메라를 통해 촬영된 운동 로우 데이터(raw data)에 대해 결정된 프레임 주기(3 프레임) 단위로 프레임 사이즈를 모델에 맞도록 변경한 뒤, 딥러닝 기반 자세 인식 모델을 통한 자세를 추출하는 예시가 도시된다.Referring to FIG. 6 , after changing the frame size to fit the model in a frame period (3 frames) unit determined for raw data of motion taken through a smartphone camera, the deep learning-based posture recognition model An example of extracting a posture is shown.

도 7을 참조하면, 크기 요소를 결정 한 뒤 정규화 수행하고(제2 이미지) 몸통 관절정보를 바탕으로 한 동일선상에 맞추는 얼라인먼트 단게를 수행하는(제3 이미지) 예시가 도시된다.Referring to FIG. 7 , an example of performing normalization after determining a size factor (second image) and performing an alignment step to fit on the same line based on torso joint information (third image) is shown.

도 8 및 도 9는 본 발명에 따른 실시간 자세 동작 인식 방법의 시각화 방법을 구체적으로 나타낸 도면이다. 도 8 및 도 9를 참조하면, 기준 자세에 대한 시각화 정보가 관절 정보를 중심으로 제1 색으로 도시되고, 사용자로부터 획득된 동작 정보는 관절 정보를 중심으로 제2색 내지 제3색에서 연속적으로 도시된다.8 and 9 are diagrams specifically illustrating a visualization method of a real-time posture motion recognition method according to the present invention. 8 and 9 , the visualization information for the reference posture is shown in a first color with the joint information as the center, and the motion information obtained from the user is continuously displayed in the second to third colors based on the joint information. is shown

사용자는 화면에 도시되는 기준 자세 동작을 확인하여 해당 동작과 사용자로 획득된 동작 정보가 일치하도록 실시간으로 동작을 수행할 수 있다. 이때, 전술한 바와 같이 임계값보다 유사도가 높을 경우 해당 관절 좌표를 기준 자세와 동일한 자세로 판단하는 단계(S540) 및 임계값보다 유사도가 낮을 경우 해당 관절 좌표를 기준 자세와 상이한 자세로 판단하는 단계(S550)에 있어서 동일한 정도를 정량화하여, 가장 일치할 때의 사용자 관절 정보의 색상을 제2 색상으로 도시하고, 불일치정도가 가장 클때의 사용자 관절 정보의 색상을 제3 색상으로 도시하고, 정량화된 수치에 따라 제2 색상 내지 제3 색상의 범위 내에서 사용자 관절 정보의 색상이 연속적으로 결정되는 것을 특징으로 할 수 있다. 예를 들어, 제2색상은 녹색이고, 제3 색상은 적색일 수 있다.The user may check the reference posture motion shown on the screen and perform the motion in real time so that the motion and motion information acquired by the user match. At this time, as described above, when the degree of similarity is higher than the threshold value, determining the joint coordinates as the same posture as the reference posture (S540), and when the similarity is lower than the threshold value, determining the joint coordinates as a posture different from the reference posture In (S550), the same degree is quantified, and the color of the user joint information when the most coincident is shown as a second color, and the color of the user joint information when the degree of mismatch is greatest is shown as a third color, and the quantified According to the numerical value, it may be characterized in that the color of the user joint information is continuously determined within the range of the second color to the third color. For example, the second color may be green and the third color may be red.

복수 개의 기준 자세가 제공되고, 사용자가 해당 기준 자세를 형성한 뒤에 다음 기준 자세를 수행해야 하는 경우에는, 제공된 기준 자세에 대해 사용자 관절 정보의 유사도가 소정의 기준치를 도과했을 경우에는 해당 기준 자세에 대한 동작을 수행한 것으로 판단하고, 다음 기준 자세를 제공하도록 본 발명에 따른 방법은 제공될 수 있다.If a plurality of reference postures are provided and the user needs to perform the next reference posture after forming the reference posture, if the similarity of user joint information to the provided reference posture exceeds a predetermined reference value, the reference posture is applied to the reference posture. The method according to the present invention may be provided so as to determine that the operation has been performed and to provide the next reference posture.

예를 들어, 기준 자세를 구성하는 복수 개의 관절 좌표를 기준으로 복수 개의 관절 좌표가 연결되는 선 중 기준치(예를 들어, 70% 이상)이 제1 색상으로 도시되는 경우에 사용자가 해당 기준 자세를 적정하게 수행한 것으로 판단할 수 있다. 이러한 단계는 준비된 기준 자세가 전부 제공되고 사용자가 기준 자세와 기준치 이상의 유사한 동작을 수행할 때까지 반복적으로 제공될 수 있다.For example, when a reference value (eg, 70% or more) among lines connecting a plurality of joint coordinates based on a plurality of joint coordinates constituting the reference posture is shown in the first color, the user selects the reference posture It can be judged to have been properly performed. These steps may be repeatedly provided until all the prepared reference postures are provided and the user performs similar motions greater than the reference posture and the reference value.

또한 도 9를 참조하면, 카메라 등 촬영장치와 사용자의 거리에 의해서 사용자 관절 좌표의 스케일이 상이해지는 것을 보정하도록 기준 자세의 관절 좌표 정보를 사용자 관절 좌표의 스케일과 동일하도록 보정하는 예시가 도시된다.Also, referring to FIG. 9 , an example of correcting the joint coordinate information of the reference posture to be the same as the scale of the user's joint coordinates is shown to correct the difference in the scale of the user's joint coordinates due to the distance between the user and the photographing device such as a camera.

화면에 시각화되는 기준 자세 좌표를 항상 동일한 크기로 시각화하는 경우 촬영장치와 사용자의 거리에 따라서 상이해질 수 있는 사용자 관절 좌표와 스케일이 달라서 동작을 수행하거나, 유사도를 산정하는 것에 오차가 발생할 수 있다. 따라서, 촬영장치(디바이스)와 사용자의 거리에 따라 기준 자세의 시각화가 동적으로 변화하도록 보정될 수 있다.When the reference posture coordinates visualized on the screen are always visualized with the same size, the user's joint coordinates and scales, which may be different depending on the distance between the imaging device and the user, are different, so an error may occur in performing an operation or calculating the similarity. Accordingly, the visualization of the reference posture may be corrected to change dynamically according to the distance between the photographing device (device) and the user.

이러한 보정 작업을 통해서 사용자는 동작 인식에 대한 결과를 용이하게 파악할 수 있고 피드백에 대한 정밀성을 향상시킬 수 있다. Through this correction operation, the user can easily understand the result of motion recognition and can improve the precision of the feedback.

도 10을 참조하면, 본 발명에 따른 전처리 단계(도1의 S200)는 전처리된 여러 각도, 위치에서 찍은 영상을 정면 영상으로 변환하는 단계를 더 포함할 수 있다. Referring to FIG. 10 , the preprocessing step ( S200 in FIG. 1 ) according to the present invention may further include converting the preprocessed images taken at various angles and positions into a frontal image.

사용자의 카메라 세팅에 따라 여러 각도에서 영상이 촬영 될 수 있다. 예를 들어 TV 위에 웹캠 등을 설치하여 볼 경우 정면 영상이 아닌 위에서 내려다보는 영상이 촬영되고, 핸드폰 거치대를 이용하여 영상을 얻는 경우 아래에서 위를 올려다보는 영상이 촬영 될 수 있다. 이렇게 여러 각도에서 얻은 영상은 딥러닝 모델에 입력하는데 있어 왜곡 정보(distorted information)으로 인식될 수 있으므로 전처리가 요구될 수 있다. Depending on the user's camera settings, images can be taken from various angles. For example, when a webcam is installed on a TV and viewed, an image looking down from the top rather than the front image is captured. Since images obtained from various angles can be recognized as distorted information when input to a deep learning model, preprocessing may be required.

도 10을 참조하면, 왜곡된 영상을 센서, 이미지 등으로 부터 얻은 정보들을 바탕으로 촬영 기구의 기울어진 각도를 역으로 산출하여 정보를 기하학적 함수로 재연산하여 정면 영상으로 변환함으로써 왜곡되지 않은 정보를 도출할 수 있다. Referring to FIG. 10 , undistorted information is obtained by converting the distorted image into a front image by re-calculating the information as a geometric function by inversely calculating the inclination angle of the photographing device based on information obtained from sensors and images. can be derived

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, as a software module executed by hardware, or by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상에서와 같이 도면과 명세서에서 예시적인 실시예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Exemplary embodiments have been disclosed in the drawings and specification as described above. Although the embodiments have been described using specific terms in the present specification, these are used only for the purpose of explaining the technical spirit of the present disclosure, and not used to limit the meaning or the scope of the present disclosure described in the claims. Therefore, it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present disclosure should be defined by the technical spirit of the appended claims.

Claims (14)

컴퓨팅 장치에서 실행 가능한 실시간 자세 동작 인식 방법에서,
영상을 획득하는 단계;
획득한 영상을 전처리 하는 단계;
전처리된 영상을 자세 인식 모델에 입력하여 자세를 추출하는 단계;
자세 인식 결과를 정규화 하는 단계; 및
정규화 된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식하는 단계를 포함하고,
상기 자세 인식 결과를 정규화 하는 단계는 위치의 변화가 적어 안정적으로 사람의 크기를 근사 할 수 있는 몸통(torso)을 크기 요소(scale factor)로 선택하고,
상기 정규화 된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식하는 단계는, 정규화 된 관절 좌표 중 가장 변화가 적은 몸통(torso)에 대한 관절 좌표를 중심점으로 정의하고, 상기 중심점을 기준으로 기준 자세를 동일선상에 맞추는 단계; 를 포함하는 실시간 자세 동작 인식 방법.
In a real-time posture motion recognition method executable on a computing device,
acquiring an image;
pre-processing the acquired image;
extracting the posture by inputting the pre-processed image to the posture recognition model;
normalizing the posture recognition results; and
Comprising the step of recognizing a motion by comparing the normalized posture recognition result and the reference posture,
In the step of normalizing the posture recognition result, a torso capable of approximating the size of a person stably with little change in position is selected as a scale factor,
In the step of recognizing the motion by comparing the normalized posture recognition result and the reference posture, the joint coordinates for the torso with the least change among the normalized joint coordinates are defined as the center point, and the reference posture is determined based on the center point. collinearity; A real-time posture motion recognition method comprising a.
제1 항에 있어서,
상기 전처리 하는 단계는,
프레임 주기로 추론 주기를 결정하는 단계; 및
프레임 사이즈를 자세 인식 모델에 부합하도록 변경하는 단계;를 포함하는 실시간 자세 동작 인식 방법.
According to claim 1,
The pre-processing step is
determining an inference period with a frame period; and
A real-time posture motion recognition method comprising; changing a frame size to match the posture recognition model.
제1 항에 있어서,
상기 자세 인식 모델은 딥러닝에 기반한 모델인 실시간 자세 동작 인식 방법.
According to claim 1,
The posture recognition model is a real-time posture motion recognition method that is a model based on deep learning.
제1 항에 있어서,
상기 자세 인식 결과를 정규화 하는 단계는,
정규화를 위한 크기 요소를 결정하는 단계; 및
자세 인식 결과 값을 크기 요소로 나누어 정규화 하는 단계;를 포함하는 실시간 자세 동작 인식 방법.
According to claim 1,
The step of normalizing the posture recognition result is,
determining a size factor for normalization; and
A real-time posture motion recognition method comprising a; normalizing the posture recognition result value by dividing it by size factors.
제1 항에 있어서,
상기 정규화 된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식하는 단계는,
정규화 된 관절 좌표와 기준 자세의 유사도를 비교하는 단계;
유사도가 임계값보다 높은지를 대비하여 높은 경우 관절 좌표가 기준 자세와 동일한 자세로 판단하는 단계를 포함하는 실시간 자세 동작 인식 방법.
According to claim 1,
The step of recognizing a motion by comparing the normalized posture recognition result and the reference posture comprises:
comparing the degree of similarity between normalized joint coordinates and a reference posture;
A real-time posture motion recognition method comprising the step of determining that the joint coordinates are the same as the reference posture when the similarity is higher than the threshold value.
삭제delete 삭제delete 삭제delete 제5 항에 있어서,
상기 정규화 된 관절 좌표와 기준 자세의 유사도를 비교하는 단계는,
거리 기반 유사도와 각도 기반 유사도를 연산하는 단계인 실시간 자세 동작 인식 방법.
6. The method of claim 5,
Comparing the normalized joint coordinates and the similarity of the reference posture comprises:
A real-time posture motion recognition method that calculates distance-based similarity and angle-based similarity.
제9 항에 있어서,
상기 정규화 된 관절 좌표와 기준 자세의 유사도를 비교하는 단계는,
연산된 거리 기반 유사도와 각도 기반 유사도에 동작별 가중치를 부여하여 합산하여 최종 유사도를 도출하는 것인 실시간 자세 동작 인식 방법.
10. The method of claim 9,
Comparing the normalized joint coordinates and the similarity of the reference posture comprises:
A real-time posture motion recognition method in which the calculated distance-based similarity and angle-based similarity are weighted for each motion and summed to derive a final similarity.
제1 항에 있어서,
정규화 된 자세 인식 결과와 기준 자세를 실시간으로 시각화하는 단계;를 더 포함하는 실시간 자세 동작 인식 방법.
According to claim 1,
Real-time posture motion recognition method further comprising; visualizing the normalized posture recognition result and the reference posture in real time.
제 11 항에 있어서,
상기 시각화하는 단계는,
상기 기준 자세를 제1 색으로 시각화하고,
상기 정규화 된 자세 인식 결과와 상기 기준 자세의 유사도를 정량화하여 유사도 수치에 따라 상기 제1 색이 아닌 다른 색으로 시각화하는 단계를 포함하는 실시간 자세 동작 인식 방법.
12. The method of claim 11,
The visualization step is
Visualize the reference posture with a first color,
and quantifying the degree of similarity between the normalized posture recognition result and the reference posture, and visualizing the result with a color other than the first color according to the similarity value.
제 12 항에 있어서,
상기 시각화하는 단계는,
상기 기준 자세와 상기 정규화 된 자세 인식 결과와 기결정된 기준치 이상의 유사도를 만족하는 경우 제 2 색으로 시각화되고 미만일 경우 제 3 색으로 시각화되고,
제 2 색이 기결정된 기준치 이상의 비율을 만족하는 경우 기준 자세를 수행하는 것으로 판단하는 단계를 더 포함하는 것을 특징으로 하는 실시간 자세 동작 인식 방법.
13. The method of claim 12,
The visualization step is
When the reference posture and the normalized posture recognition result and the degree of similarity above a predetermined reference value are satisfied, it is visualized in a second color, and when it is less than, it is visualized in a third color,
The method further comprising the step of determining that the reference posture is performed when the second color satisfies a ratio greater than or equal to a predetermined reference value.
실시간 자세 동작 인식 시스템은,
네트워크를 통해 외부와 송수신 가능한 송수신부;
실시간 자세 동작 인식 방법을 수행하는 어플리케이션을 저장하는 메모리부; 및
상기 메모리부로부터 어플리케이션을 읽어들여 제어하는 프로세서;를 포함하고,
상기 어플리케이션은,
영상을 획득하고,
획득한 영상을 전처리 하고,
전처리된 영상을 자세 인식 모델에 입력하여 자세를 추출하고,
자세 인식 결과를 정규화 하고, 및
정규화된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식하되,
상기 자세 인식 결과 정규화 시, 위치의 변화가 적어 안정적으로 사람의 크기를 근사 할 수 있는 몸통(torso)을 크기 요소(scale factor)로 선택하고,
정규화 된 자세 인식 결과와 기준 자세를 대비하여 동작을 인식 시, 정규화 된 관절 좌표 중 가장 변화가 적은 몸통(torso)에 대한 관절 좌표를 중심점으로 정의하고, 상기 중심점을 기준으로 기준 자세를 동일선상에 맞추는 것을 특징으로 하는 실시간 자세 동작 인식 시스템.
The real-time posture motion recognition system,
a transceiver capable of transmitting and receiving to and from the outside through a network;
a memory unit for storing an application for performing a real-time posture motion recognition method; and
A processor that reads and controls the application from the memory unit; includes,
The application is
acquire video,
Pre-process the acquired image,
The pre-processed image is input to the posture recognition model to extract the posture,
normalize the posture recognition results, and
Recognize the motion in contrast to the normalized posture recognition result and the reference posture,
When normalizing the posture recognition result, a torso capable of approximating the size of a person stably with little change in position is selected as a scale factor,
When recognizing motion in comparison with the normalized posture recognition result and the reference posture, the joint coordinates for the torso with the least change among the normalized joint coordinates are defined as the center point, and the reference posture is set on the same line based on the center point. Real-time posture motion recognition system, characterized in that it matches.
KR1020210150930A 2021-11-04 2021-11-04 Realtime Pose recognition system using artificial intelligence and recognition method KR102369152B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210150930A KR102369152B1 (en) 2021-11-04 2021-11-04 Realtime Pose recognition system using artificial intelligence and recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210150930A KR102369152B1 (en) 2021-11-04 2021-11-04 Realtime Pose recognition system using artificial intelligence and recognition method

Publications (1)

Publication Number Publication Date
KR102369152B1 true KR102369152B1 (en) 2022-03-02

Family

ID=80815182

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210150930A KR102369152B1 (en) 2021-11-04 2021-11-04 Realtime Pose recognition system using artificial intelligence and recognition method

Country Status (1)

Country Link
KR (1) KR102369152B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102449779B1 (en) * 2022-06-16 2022-09-30 주식회사 피트릭스 Method for predicting bodily injury based on user posture recognition and apparatus for the same
CN117218728A (en) * 2023-11-09 2023-12-12 深圳市微克科技有限公司 Body posture recognition method, system and medium of intelligent wearable device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130013122A (en) * 2011-07-27 2013-02-06 삼성전자주식회사 Apparatus and method for detecting object pose
KR20140073664A (en) * 2012-12-06 2014-06-17 한국전자통신연구원 3d screen golf apparatus for recognizing user's appearance and pose

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130013122A (en) * 2011-07-27 2013-02-06 삼성전자주식회사 Apparatus and method for detecting object pose
KR20140073664A (en) * 2012-12-06 2014-06-17 한국전자통신연구원 3d screen golf apparatus for recognizing user's appearance and pose

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102449779B1 (en) * 2022-06-16 2022-09-30 주식회사 피트릭스 Method for predicting bodily injury based on user posture recognition and apparatus for the same
WO2023243959A1 (en) * 2022-06-16 2023-12-21 주식회사 피트릭스 Method for predicting risk of physical injury on basis of user posture recognition, and apparatus therefor
CN117218728A (en) * 2023-11-09 2023-12-12 深圳市微克科技有限公司 Body posture recognition method, system and medium of intelligent wearable device

Similar Documents

Publication Publication Date Title
US10318797B2 (en) Image processing apparatus and image processing method
US11386699B2 (en) Image processing method, apparatus, storage medium, and electronic device
KR102369152B1 (en) Realtime Pose recognition system using artificial intelligence and recognition method
US11163978B2 (en) Method and device for face image processing, storage medium, and electronic device
US9036018B2 (en) Facial expression recognition systems and methods and computer program products thereof
KR102385463B1 (en) Facial feature extraction model training method, facial feature extraction method, apparatus, device and storage medium
US8792722B2 (en) Hand gesture detection
US11423699B2 (en) Action recognition method and apparatus and electronic equipment
US20120027263A1 (en) Hand gesture detection
CN110688929B (en) Human skeleton joint point positioning method and device
CN110084192B (en) Rapid dynamic gesture recognition system and method based on target detection
JP6904651B2 (en) Programs, devices and methods that recognize a person's behavior using multiple recognition engines
CN111931585A (en) Classroom concentration degree detection method and device
CN111898571A (en) Action recognition system and method
CN111353336A (en) Image processing method, device and equipment
US20240104769A1 (en) Information processing apparatus, control method, and non-transitory storage medium
US11527090B2 (en) Information processing apparatus, control method, and non-transitory storage medium
Tu et al. Face and gesture based human computer interaction
US20220392246A1 (en) Posture evaluating apparatus, method and system
CN114639168B (en) Method and system for recognizing running gesture
WO2023041181A1 (en) Electronic device and method for determining human height using neural networks
CN112149598A (en) Side face evaluation method and device, electronic equipment and storage medium
CN113313050A (en) Skin intelligent detection system based on video streaming
KR102369151B1 (en) Metadata generation system and method for motion recognition
JP2001052176A (en) Method and device for extracting feature point of image and computer readable recording medium recording program for computer to execute the method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant