KR102425255B1 - Apparatus and Method for Processing of Exercise Information - Google Patents

Apparatus and Method for Processing of Exercise Information Download PDF

Info

Publication number
KR102425255B1
KR102425255B1 KR1020160046719A KR20160046719A KR102425255B1 KR 102425255 B1 KR102425255 B1 KR 102425255B1 KR 1020160046719 A KR1020160046719 A KR 1020160046719A KR 20160046719 A KR20160046719 A KR 20160046719A KR 102425255 B1 KR102425255 B1 KR 102425255B1
Authority
KR
South Korea
Prior art keywords
exercise
information
user
motion
image
Prior art date
Application number
KR1020160046719A
Other languages
Korean (ko)
Other versions
KR20170119335A (en
Inventor
이민순
최용식
박상현
조용인
서영철
박정수
김보성
Original Assignee
(주)아이들
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이들 filed Critical (주)아이들
Priority to KR1020160046719A priority Critical patent/KR102425255B1/en
Publication of KR20170119335A publication Critical patent/KR20170119335A/en
Application granted granted Critical
Publication of KR102425255B1 publication Critical patent/KR102425255B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0224Discounts or incentives, e.g. coupons or rebates based on user history
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Child & Adolescent Psychology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Multi-Process Working Machines And Systems (AREA)

Abstract

본 발명은 운동정보 처리 장치 및 방법에 관한 것이다.
본 발명에 따른 운동정보 처리 장치는 사용자의 운동 영상을 촬영하는 카메라부, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 종류 판별부 및 상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 동작 판별부를 포함할 수 있다.
The present invention relates to an exercise information processing apparatus and method.
The exercise information processing apparatus according to the present invention includes a camera unit for photographing a user's exercise image, a type determining unit for determining the user's exercise type based on the exercise image, and a user's exercise motion based on the exercise image It may include an operation determining unit for determining the.

Description

운동정보 처리 장치 및 방법{Apparatus and Method for Processing of Exercise Information}Apparatus and Method for Processing of Exercise Information

본 발명은 운동정보 처리 장치 및 방법에 관한 것이다.The present invention relates to an exercise information processing apparatus and method.

생활수준 향상에 따라, 현대인들의 건강에 대한 관심이 급증하고 있다. 이에 대한 일환으로, 현대인들은 질병예방 및 개인의 취미로 운동을 하는 사람이 점차 증가하고 있는 실정이다.With the improvement of living standards, modern people's interest in health is rapidly increasing. As a part of this, the number of modern people who exercise for disease prevention and personal hobby is gradually increasing.

근래에 들어서는, 트레이너와 1:1로 운동을 진행하는 퍼스널 트레이닝(Personal Training, PT)이 각광받고 있다.In recent years, personal training (PT) in which you exercise 1:1 with a trainer is in the spotlight.

그러나 PT의 경우에는 비용이 비싸다는 단점이 있다.However, PT has a disadvantage in that it is expensive.

만약, 사용자가 혼자 운동을 진행하는 경우에는 본인의 동작의 정확성이나 본인이 진행하는 운동의 적절성을 판단하기 어렵다는 문제점이 있다.If the user performs the exercise alone, there is a problem in that it is difficult to determine the accuracy of the user's motion or the appropriateness of the exercise performed by the user.

본 발명은 상기한 문제점을 해결하기 위해 도출된 것으로서, 사용자의 운동 영상을 촬영하고, 촬영한 운동 영상을 분석하여 운동에 대한 정보를 제공하는 운동정보 처리 장치 및 방법을 제공하는데 그 목적이 있다.The present invention was derived to solve the above problems, and an object of the present invention is to provide an exercise information processing apparatus and method for photographing a user's exercise image, and analyzing the captured exercise image to provide exercise information.

본 발명에 따른 운동정보 처리 장치는 사용자의 운동 영상을 촬영하는 카메라부, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 종류 판별부 및 상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 동작 판별부를 포함할 수 있다.The exercise information processing apparatus according to the present invention includes a camera unit for photographing a user's exercise image, a type determining unit for determining the user's exercise type based on the exercise image, and an exercise motion of the user based on the exercise image It may include an operation determining unit for determining the.

또한, 상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 시간 판별부를 더 포함할 수 있다.In addition, it may further include a time determining unit for measuring the user's exercise time based on the exercise image.

또한, 상기 운동 종류에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 정보 제공부를 더 포함할 수 있다.The apparatus may further include an information providing unit configured to provide recommendation information to the user based on at least one of information on the type of exercise, information on the exercise action, and information on the exercise time.

또한, 상기 정보 제공부는 상기 운동 종류에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 성취도에 대한 정보를 더 제공할 수 있다.In addition, the information providing unit may further provide information on achievement to the user based on at least one of information on the exercise type, information on the exercise motion, and information on the exercise time.

또한, 상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 기구 판별부를 더 포함할 수 있다.In addition, when the type of exercise is an exercise using a weight mechanism, it may further include a mechanism determining unit for determining a load (Load) set in the weight mechanism.

또한, 상기 동작 판별부는 상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성에 대한 정보를 더 제공할 수 있다.In addition, the motion determining unit may further provide information on the similarity between the user's exercise motion and a preset reference motion.

또한, 상기 운동 영상을 분석하여 움직이는 객체(Object)를 인식하는 객체 인식부를 더 포함하고, 상기 객체 인식부는 상기 운동 영상에서 배경을 추출하고, 추출한 배경과 다른 색상을 갖는 부분을 상기 움직이는 객체로 인식할 수 있다.In addition, further comprising an object recognition unit for recognizing a moving object by analyzing the motion image, the object recognition unit extracts a background from the motion image, and recognizes a part having a color different from the extracted background as the moving object can do.

또한, 상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 운동성 산출부를 더 포함할 수 있다.The apparatus may further include a mobility calculator for classifying the movement of the moving object by varying the brightness over time, and calculating the mobility based on the direction and degree of the change in the brightness.

또한, 상기 종류 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 종류를 판별할 수 있다.In addition, the type determining unit may determine the type of exercise of the user based on the movement.

또한, 상기 동작 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별할 수 있다.In addition, the motion determining unit may determine the user's motion motion based on the motion.

본 발명에 따른 운동정보 처리방법은 사용자의 운동 영상을 촬영하는 단계, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 단계 및 상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계를 포함할 수 있다.The exercise information processing method according to the present invention includes the steps of: photographing a user's exercise image, determining the user's exercise type based on the exercise image, and determining the user's exercise motion based on the exercise image may include steps.

또한, 상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 단계를 더 포함할 수 있다.The method may further include measuring a user's exercise time based on the exercise image.

또한, 상기 운동 종류에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 단계를 더 포함할 수 있다.The method may further include providing recommended information to the user based on at least one of information on the type of exercise, information on the exercise motion, and information on the exercise time.

또한, 상기 사용자에게 성취도에 대한 정보를 제공하는 단계를 더 포함하고, 상기 성취도에 대한 정보는 상기 운동 종류에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 도출될 수 있다.In addition, the method further includes providing information on achievement to the user, wherein the information on achievement is based on at least one of information on the type of exercise, information on the exercise motion, or information on the exercise time. can be derived by

또한, 상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 단계를 더 포함할 수 있다.In addition, when the type of exercise is an exercise using a weight mechanism, the method may further include determining a load set in the weight mechanism.

또한, 상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성(정확성)에 대한 정보를 제공하는 단계를 더 포함할 수 있다.The method may further include providing information on similarity (accuracy) between the user's exercise motion and a preset reference motion.

또한, 상기 운동 영상을 분석하여 움직이는 객체(Object)를 인식하는 인식단계를 더 포함하고, 상기 인식단계에서는 상기 운동 영상에서 배경을 추출하고, 추출한 배경과 다른 색상을 갖는 부분을 상기 움직이는 객체로 인식할 수 있다.In addition, the method further includes a recognition step of recognizing a moving object by analyzing the motion image, wherein in the recognition step, a background is extracted from the motion image, and a part having a color different from the extracted background is recognized as the moving object. can do.

또한, 상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 단계를 더 포함할 수 있다.The method may further include classifying the movement of the moving object by varying the brightness over time, and calculating mobility based on the direction and degree of the change in brightness.

또한, 상기 운동성을 근거로 하여 상기 사용자의 운동 종류를 판별할 수 있다.In addition, it is possible to determine the type of exercise of the user based on the movement.

또한, 상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별할 수 있다.In addition, it is possible to determine the exercise motion of the user on the basis of the movement.

본 발명에 따른 운동정보 처리 장치 및 방법은 사용자의 운동 영상을 분석하여 사용자의 운동 동작, 운동 횟수 등에 대한 정보를 제공할 수 있어서, 보다 저렴한 비용으로 객관적이고 정확한 운동 정보를 사용자에게 제공할 수 있다는 효과가 있다.The exercise information processing apparatus and method according to the present invention can provide information on the user's exercise motion, number of exercises, etc. by analyzing the user's exercise image, so that objective and accurate exercise information can be provided to the user at a lower cost. It works.

도 1은 본 발명에 따른 운동정보 처리 장치의 구성에 대해 설명하기 위한 도면,
도 2 내지 도 33은 본 발명에 따른 운동 정보 처리 방법에 대해 설명하기 위한 도면이고,
도 34 내지 도 37은 본 발명에 따른 또 다른 운동 정보 처리 방법에 대해 설명하기 위한 도면이다.
1 is a view for explaining the configuration of an exercise information processing apparatus according to the present invention;
2 to 33 are diagrams for explaining the exercise information processing method according to the present invention,
34 to 37 are diagrams for explaining another exercise information processing method according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 운동정보 처리 장치 및 방법에 대해 상세히 설명한다.Hereinafter, an exercise information processing apparatus and method according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. This is not intended to limit the present invention to a specific embodiment, it can be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

본 발명을 설명함에 있어서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다.In describing the present invention, terms such as first, second, etc. may be used to describe various components, but the components may not be limited by the terms. The above terms may be used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함할 수 있다.The term and/or may include a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but other components may exist in between. can be understood On the other hand, when an element is referred to as being “directly connected” or “directly connected” to another element, it may be understood that the other element does not exist in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression may include the plural expression unless the context clearly dictates otherwise.

본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, and one or more other features It may be understood that the existence or addition of numbers, steps, operations, components, parts or combinations thereof is not precluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries may be interpreted as having meanings consistent with the meanings in the context of the related art, and unless explicitly defined in the present application, they are interpreted in an ideal or excessively formal meaning. it may not be

아울러, 이하의 실시예는 당 업계에서 평균적인 지식을 가진 자에게 보다 완전하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, the following embodiments are provided to more completely explain to those with average knowledge in the art, and the shapes and sizes of elements in the drawings may be exaggerated for clearer explanation.

도 1은 본 발명에 따른 운동정보 처리 장치의 구성에 대해 설명하기 위한 도면이다.1 is a view for explaining the configuration of an exercise information processing apparatus according to the present invention.

도 1을 살펴보면, 본 발명에 따른 운동정보 처리 장치(10)는 제어부(100), 카메라부(300), 출력부(400), 사용자 입력부(500), 메모리부(600) 및 통신부(700)를 포함할 수 있다.Referring to FIG. 1 , the exercise information processing apparatus 10 according to the present invention includes a control unit 100 , a camera unit 300 , an output unit 400 , a user input unit 500 , a memory unit 600 , and a communication unit 700 . may include.

카메라부(300)는 제어부(100)의 제어에 따라 소정의 영상을 촬영할 수 있다. 예를 들면, 카메라부(300)는 사용자의 운동 영상을 촬영할 수 있다. 또는, 카메라부(300)는 소정의 운동 영역(헬스클럽 등)의 영상을 촬영하는 것이 가능하다.The camera unit 300 may capture a predetermined image under the control of the controller 100 . For example, the camera unit 300 may capture an exercise image of the user. Alternatively, the camera unit 300 may capture an image of a predetermined exercise area (such as a gym).

카메라부(300)는 적어도 하나의 카메라를 포함할 수 있다.The camera unit 300 may include at least one camera.

출력부(400)는 제어부(100)의 제어에 따라 소정의 정보를 사용자가 확인가능하도록 출력할 수 있다. 자세하게는, 출력부(400)는 운동에 대한 정보, 예컨대 운동의 기준 동작, 기준 횟수 등에 대한 정보를 사용자가 확인할 수 있도록 출력할 수 있다.The output unit 400 may output predetermined information so that the user can check it according to the control of the control unit 100 . In detail, the output unit 400 may output information about the exercise, for example, information about the reference motion of the exercise, the reference number of times, and the like so that the user can check it.

출력부(400)는 표시부(410) 및 음성출력부(420)를 포함할 수 있다.The output unit 400 may include a display unit 410 and an audio output unit 420 .

표시부(410)는 다양한 정보를 영상으로 표시할 수 있다. 음성출력부(420)는 다양한 정보를 음성으로 출력할 수 있다.The display unit 410 may display various information as images. The voice output unit 420 may output various information as voice.

사용자 입력부(500)는 사용자가 소정의 명령을 입력하는데 사용될 수 있다. 이러한 사용자 입력부(500)는 키 입력부, 터치 입력부 또는 음성 입력부 중 적어도 하나를 포함할 수 있다.The user input unit 500 may be used for a user to input a predetermined command. The user input unit 500 may include at least one of a key input unit, a touch input unit, and a voice input unit.

메모리부(600)는 제어부(100)의 제어에 따라 다양한 정보를 저장할 수 있다. 예를 들면, 메모리부(600)는 기준 횟수, 기준 동작, 기준 시간 등에 대한 정보를 저장할 수 있다.The memory unit 600 may store various information under the control of the controller 100 . For example, the memory unit 600 may store information on a reference number of times, a reference operation, a reference time, and the like.

통신부(700)는 다른 기기와 통신을 수행할 수 있다. 예를 들면, 통신부(700)는 제어부(100)의 제어에 따라 운동에 대한 정보 또는 편집된 운동영상을 다른 기기 혹은 미리 지정된 소정의 페이지(웹사이트)로 전송할 수 있다.The communication unit 700 may communicate with other devices. For example, the communication unit 700 may transmit information on exercise or an edited exercise image to another device or a predetermined page (website) designated in advance under the control of the controller 100 .

제어부(100)는 운동정보 처리 장치(10)의 전반적인 동작을 제어할 수 있다.The controller 100 may control the overall operation of the exercise information processing apparatus 10 .

제어부(100)는 카메라부(300)가 촬영한 운동 영상을 근거로 하여 사용자의 운동에 대한 다양한 정보를 획득할 수 있다.The controller 100 may acquire various information about the user's exercise based on the exercise image captured by the camera unit 300 .

제어부(100)는 사용자의 운동의 시작과 종료를 판별할 수 있다.The controller 100 may determine the start and end of the user's exercise.

제어부(100)는, 사용자의 운동에 대한 다양한 정보를 획득하기 위해, 종류 판별부(110), 동작 판별부(120), 횟수 판별부(130), 시간 판별부(140), 기구 판별부(150), 추적부(160), 경로 판별부(170), 선호도 판별부(180), 객체 인식부(190), 운동성 판별부(200), 정보 제공부(210) 및 편집부(220)를 포함할 수 있다.The control unit 100 includes a type determining unit 110, an operation determining unit 120, a number determining unit 130, a time determining unit 140, an instrument determining unit ( 150 ), a tracking unit 160 , a path determining unit 170 , a preference determining unit 180 , an object recognition unit 190 , a movement determining unit 200 , an information providing unit 210 and an editing unit 220 . can do.

종류 판별부(110)는 카메라부(300)가 촬영한 사용자의 운동 영상을 근거로 하여 사용자의 운동에 대한 운동 종류를 판별할 수 있다.The type determining unit 110 may determine the type of exercise for the user's exercise based on the user's exercise image captured by the camera unit 300 .

동작 판별부(120)는 운동 영상을 근거로 하여 사용자의 운동 동작을 판별할 수 있다.The motion determining unit 120 may determine the user's motion motion based on the motion image.

횟수 판별부(130)는 운동 영상을 근거로 하여 사용자의 운동 횟수를 판별할 수 있다.The number of times determining unit 130 may determine the number of times of exercise of the user based on the exercise image.

이러한 횟수 판별부(130)는 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 운동 횟수를 카운트할 수 있다.The number of times determining unit 130 may count the number of times of exercise when the user's exercise motion matches the preset reference motion by more than a preset reference ratio.

시간 판별부(140)는 운동 영상을 근거로 하여 사용자의 운동 시간을 판별할 수 있다.The time determining unit 140 may determine the user's exercise time based on the exercise image.

기구 판별부(150)는 사용자가 선택한 운동기구의 종류를 판별할 수 있다.The equipment determining unit 150 may determine the type of the exercise equipment selected by the user.

아울러, 기구 판별부(150)는 운동 종류가 웨이트 기구를 이용한 운동인 경우, 웨이트 기구에 설정된 로드(Load)를 판별할 수 있다.In addition, when the exercise type is an exercise using a weight mechanism, the mechanism determining unit 150 may determine a load set in the weight mechanism.

추적부(160)는 미리 설정된 운동영역 내에서 복수의 사용자들 중 선택된 사용자를 타깃(Target)으로 추적할 수 있다.The tracker 160 may track a user selected from among a plurality of users as a target within a preset exercise area.

경로 판별부(170)는 운동 영상을 근거로 하여 선택된 사용자의 운동영역 내에서의 경로에 대한 정보를 판별할 수 있다.The path determining unit 170 may determine information on a path within the exercise area of the user selected based on the exercise image.

선호도 판별부(180)는 운동 기구에 대한 적어도 하나의 사용자의 선호도 혹은 온동 종류에 대한 적어도 하나의 사용자의 선호도를 판별할 수 있다.The preference determining unit 180 may determine at least one user's preference for the exercise equipment or at least one user's preference for the warm type.

객체 인식부(190)는 운동 영상을 분석하여 움직이는 객체(Object)를 인식할 수 있다.The object recognition unit 190 may recognize a moving object by analyzing the motion image.

운동성 산출부(200)는 객체 인식부(190)가 인식한 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출할 수 있다.The mobility calculating unit 200 may classify the movement of the moving object recognized by the object recognition unit 190 by varying the brightness over time, and may calculate the mobility based on the direction and degree of the change in brightness.

정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 추천 정보를 제공할 수 있다.The information providing unit 210 may provide recommended information to the user based on at least one of information on the type of exercise, information on the number of exercises, or information on the exercise time.

아울러, 정보 제공부(210)는 운동 영상을 분석하여 획득한 다양한 정보를 사용자, 다른 기기 및/또는 미리 지정된 웹사이트에 제공할 수 있다.In addition, the information providing unit 210 may provide various information obtained by analyzing the exercise image to the user, other devices, and/or a website designated in advance.

영상 편집부(220)는 사용자의 운동 영상에서 하이라이트 영상을 추출/편집할 수 있다.The image editing unit 220 may extract/edit a highlight image from the user's exercise image.

도 1의 구성의 운동 정보 처리 장치(10)는 다양한 형태의 하드웨어로 실현될 수 있다. 예를 들면, 본 발명에 따른 운동 정보 처리 장치(10)는 스마트 폰 등의 이동통신 단말기의 형태로 제작될 수 있고, 또는 CCTV 등의 고정된 단말기 형태로 제작되는 것도 가능할 수 있다.The exercise information processing apparatus 10 of the configuration of FIG. 1 may be implemented with various types of hardware. For example, the exercise information processing apparatus 10 according to the present invention may be manufactured in the form of a mobile communication terminal such as a smart phone, or may be manufactured in the form of a fixed terminal such as a CCTV.

이러한 구성의 운동 정보 처리 장치를 이용한 운동 정보 처리 방법에 대해 첨부된 도면을 참조하여 이하에서 상세히 설명한다.An exercise information processing method using the exercise information processing apparatus having such a configuration will be described in detail below with reference to the accompanying drawings.

도 2 내지 도 37은 본 발명에 따른 운동 정보 처리 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 설명한 내용에 대한 설명은 생략될 수 있다.2 to 37 are diagrams for explaining the exercise information processing method according to the present invention. Hereinafter, a description of the content described above may be omitted.

도 2를 살펴보면, 본 발명에 따른 운동 정보 처리 방법에서는 먼저 운동 정초 처리 장치(10)를 셋팅(S100)할 수 있다.Referring to FIG. 2 , in the exercise information processing method according to the present invention, first, the exercise setting processing apparatus 10 may be set ( S100 ).

셋팅단계에서는 카메라부(300)를 운동 영상을 촬영 가능한 위치에 배치하는 것이 가능하다.In the setting step, it is possible to arrange the camera unit 300 at a position where a motion image can be captured.

또는, 운동 정보 처리 장치(10)를 운동 영상 촬영 모드로 설정할 수 있다.Alternatively, the exercise information processing apparatus 10 may be set to the exercise image capturing mode.

필요에 따라, 사용자의 아이디(ID) 또는 비밀번호(PW) 등의 정보를 입력하여 사용자를 인증할 수 있다.If necessary, the user may be authenticated by inputting information such as the user's ID or password (PW).

촬영 명령이 입력되면, 카메라부(300)는 제어부(100)의 제어에 따라 사용자의 운동 영상을 촬영(S400)할 수 있다. 예를 들면, 도 3의 경우와 같이, 사용자(H)가 운동을 하는 영상을 이동통신 단말기 형태의 운동정보 처리장치(10)가 촬영하는 것이 가능하다.When a photographing command is input, the camera unit 300 may photograph a user's exercise image under the control of the controller 100 ( S400 ). For example, as in the case of FIG. 3 , it is possible for the exercise information processing device 10 in the form of a mobile communication terminal to photograph an image of the user H exercising.

이후, 제어부(100)는 카메라부(300)가 촬영한 운동 영상을 분석(S300)할 수 있다.Thereafter, the controller 100 may analyze the motion image captured by the camera unit 300 ( S300 ).

아울러, 제어부(100)는 운동 영상을 분석한 결과물로 다양한 운동 정보를 판별(S400)할 수 있다.In addition, the controller 100 may determine various kinds of exercise information as a result of analyzing the exercise image ( S400 ).

이후, 제어부(100)는 판별한 정보들을 근거로 하여 다양한 정보를 제공(S500)할 수 있다.Thereafter, the controller 100 may provide various information based on the determined information ( S500 ).

정보 제공 단계에서는 통신부(700)가 제어부(100)의 제어에 따라 제어부(100)가 판별한 정보를 다른 기기 혹은 미리 지정된 홈페이지 등에 전송할 수 있다.In the information providing step, the communication unit 700 may transmit the information determined by the control unit 100 according to the control of the control unit 100 to another device or a preset homepage.

운동 영상을 분석하는 방법에 대해 살펴보면 아래와 같다.The method of analyzing the exercise video is as follows.

도 4를 살펴보면, 운동 영상을 분석하는 단계(S300)에서는 먼저 운동 영상에서 배경을 추출(S310)할 수 있다. 자세하게는, 복수의 영상 프레임(Frame)을 비교하여 움직임이 없거나 매우 적은 부분을 배경으로 판단하고, 판단한 결과에 따라 배경을 추출할 수 있다.Referring to FIG. 4 , in the step of analyzing the motion image ( S300 ), a background may first be extracted from the motion image ( S310 ). In detail, by comparing a plurality of image frames, it is possible to determine a portion with no or very little motion as the background, and extract the background according to the determination result.

예를 들면, 도 5의 경우와 같이, 제 1 프레임(First Frame, A)과 제 1 프레임(A) 이후의 제 2 프레임(Second Frame, B)을 비교하면, 제 2 프레임(B)에는 소정의 객체(Object, OB)가 포함되어 있고, 제 1 프레임(A)에는 객체(OB)가 포함되지 않은 것을 확인할 수 있다.For example, as in the case of FIG. 5 , when the first frame (A) and the second frame (B) after the first frame (A) are compared, the second frame (B) has a predetermined value. It can be seen that the object (Object, OB) is included, and the object (OB) is not included in the first frame (A).

이러한 경우, 시간적으로 늦은 제 2 프레임(B)에 새롭게 추가된 객체(OB)를 움직이는 객체(OB)로 인식할 수 있다.In this case, the object OB newly added to the temporally late second frame B may be recognized as the moving object OB.

제 1 프레임(A)과 제 2 프레임(B)에서 객체(OB)를 제외한 나머지 부분의 영상은 거의 변화가 없다. 다르게 표현하면, 객체(OB)를 제외한 나머지 부분의 영상은 움직임이 거의 없다. 따라서, 객체(OB)를 제외한 나머지 부분을 모두 배경으로 인식할 수 있다.In the first frame (A) and the second frame (B), the image of the remaining part except for the object OB is almost unchanged. In other words, the image of the remaining part except for the object OB hardly moves. Accordingly, all parts other than the object OB may be recognized as the background.

또는, 운동영상에 움직이는 객체(OB)가 포착되지 않는 경우에는 제 1 프레임(A)과 같은 영상이 계속 이어질 수 있다. 이러한 경우, 제 1 프레임(A) 영상을 배경 영상이라고 인식할 수 있다. 다르게 표현하면, 제 1 프레임(A)에 나타난 모든 부분을 배경으로 인식할 수 있다.Alternatively, when the moving object OB is not captured in the motion image, the same image as the first frame A may continue. In this case, the first frame (A) image may be recognized as a background image. In other words, all parts displayed in the first frame A may be recognized as a background.

이처럼, 영상에서 미리 설정된 기준 프레임 기간 동안 움직임이 없는 부분을 배경으로 인식하고 추출하는 것이 가능하다.As such, it is possible to recognize and extract a portion of the image that does not move during a preset reference frame period as a background.

제 1 프레임(A)과 유사한 배경 영상이 계속되다가 객체(OB)가 카메라부(300)에 포착되면, 제 2 프레임(B)과 유사한 영상이 획득될 수 있다. 만약, 객체(OB)가 계속해서 움직여서 화면을 벗어나면 다시금 제 1 프레임(A)과 같은 영상이 획득될 것이다.When the background image similar to the first frame A continues and the object OB is captured by the camera unit 300 , an image similar to the second frame B may be acquired. If the object OB continues to move and leaves the screen, the same image as the first frame A will be acquired again.

객체(OB)가 지나가기 이전 영상과 객체(OB)가 지나간 이후의 영상을 비교하면, 두 개의 영상은 거의 동일할 수 있다.When the image before the object OB passes and the image after the object OB passes, the two images may be substantially the same.

이처럼, 일정 기간 동안의 영상에서 객체(OB)가 이동하면서 영상에서 움직임이 감지되더라도, 객체(OB)가 포착되기 이전의 영상과 객체(OB)가 지나간 이후의 영상이 거의 동일하다면 해당 영상에 대응하는 부분이 대부분 배경일 수 있다.As such, even if motion is detected in the image while the object OB moves in the image for a certain period of time, if the image before the object OB is captured and the image after the object OB has passed are almost identical, the corresponding image Most of what you do can be the background.

다르게 표현하면, 일정 기간 동안 영상에서 움직임에 따라 변화하는 부분이 있더라도, 그 변화가 시작되기 이전과 그 변화가 종료된 이후의 영상이 거의 동일하다면 해당 영상은 배경 영상인 것으로 인식될 수 있는 것이다.In other words, even if there is a portion in the image that changes according to movement for a certain period of time, if the image before the change starts and after the change ends are almost the same, the image can be recognized as a background image.

배경을 추출한 이후, 배경의 색을 판별하여 그에 대한 정보를 저장할 수 있다.After the background is extracted, the color of the background may be determined and information on the color may be stored.

이후, 배경(배경이 되는 영상)과 다른 운동영상의 색을 비교(S320)할 수 있다.Thereafter, the color of the background (image serving as the background) and the other motion image may be compared ( S320 ).

객체 인식부(190)는 운동영상에서 배경과 다른 색상을 갖는 부분을 움직이는 객체(OB)로 인식(S330)할 수 있다.The object recognition unit 190 may recognize a part having a color different from the background in the motion image as the moving object OB ( S330 ).

예를 들면, 도 6의 (A)와 같이, 배경과 다른 색을 갖는 부분, 즉 객체(OB)를 검출할 수 있다.For example, as shown in FIG. 6A , a part having a color different from that of the background, that is, the object OB may be detected.

아울러, 배경과 객체(OB)를 구분한 이후, 배경을 단색으로 처리할 수 있다. 예를 들면, 배경을 검은색으로 처리할 수 있다. 이러한 경우, 객체(OB)의 움직임을 보다 용이하게 분석할 수 있다.In addition, after the background and the object OB are separated, the background may be processed as a single color. For example, you can treat the background as black. In this case, the movement of the object OB may be more easily analyzed.

이후, 도 6의 (B)와 같이, 객체(OB)의 실루엣을 판별할 수 있다. 도 6의 (B)에서 왼쪽 상단의 붉은색 부분(ER)은, 사람의 형태와 너무 다르므로, 에러로 처리할 수 있다.Thereafter, as shown in FIG. 6B , the silhouette of the object OB may be determined. In (B) of FIG. 6 , the red part ER in the upper left corner is too different from the human shape, so it may be treated as an error.

이러한 과정으로 운동영상에서 움직이는 객체(OB)를 인식할 수 있다.Through this process, it is possible to recognize the moving object (OB) in the motion image.

이후, 움직임 산출부(200)는 객체(OB)의 움직임을 분석(S340)할 수 있다.Thereafter, the motion calculator 200 may analyze the motion of the object OB ( S340 ).

아울러, 움직임 분석의 결과에 따라 운동성을 산출(S360)할 수 있다.In addition, the mobility may be calculated according to the result of the motion analysis ( S360 ).

자세하게는, 움직임 산출부(200)는 움직이는 객체(OB)의 움직임을 시간에 따라 밝기를 다르게 하여 구분할 수 있다. 아울러, 움직임 산출부(200)는 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출할 수 있다.In detail, the motion calculator 200 may distinguish the motion of the moving object OB by varying the brightness over time. In addition, the motion calculator 200 may calculate the mobility based on the direction and degree of the change in brightness.

예를 들면, 도 7의 경우와 같이, 객체(OB), 즉 사용자가 왼쪽 팔을 들어 올리는 경우를 가정하여 보자.For example, as in the case of FIG. 7 , it is assumed that the object OB, that is, the user raises the left arm.

도 7에서와 같이, 사용자 현재 모습은 상대적으로 밝게 처리하고, 이전 모습은 상대적으로 어둡게 처리할 수 있다.As shown in FIG. 7 , the user's current appearance may be processed to be relatively bright, and the previous appearance may be processed to be relatively dark.

이러한 경우, 어두운 부분에서 밝은 부분으로 사용자의 왼쪽 팔이 아래에서 위를 향해 움직인 것으로 판별할 수 있다. 즉, 운동방향을 판별할 수 있다.In this case, it may be determined that the user's left arm moves from the bottom to the top from the dark part to the bright part. That is, the direction of movement can be determined.

아울러, 왼쪽 팔의 밝기 변화가 급격한지 혹은 완만한지에 따라 팔의 이동속도를 판별할 수 있다.In addition, it is possible to determine the movement speed of the left arm according to whether the change in brightness of the left arm is abrupt or gentle.

예를 들면, 도 8의 (A)와 같이, 객체(OB)가 축을 중심으로 180°(도) 회전하는 경우와 도 8의 (B)와 같이 객체(OB)가 축을 중심으로 90°(도) 회전하는 경우를 가정하여 보자.For example, as shown in (A) of FIG. 8, when the object OB rotates 180° (degrees) about the axis, and as shown in FIG. 8B, the object OB rotates at 90° (degrees) about the axis. ), let's assume that it rotates.

도 8의 (A)와 (B)의 밝기의 변화가 동일한 경우에는 도 8의 (A)의 경우가 (B)의 경우에 비해 운동성이 더 크다는 것, 즉 움직임 속도가 더 빠른 것을 알 수 있다.When the change in brightness of (A) and (B) of FIG. 8 is the same, it can be seen that the case of (A) of FIG. 8 has greater mobility than the case of (B), that is, that the movement speed is faster. .

또는, 도 9의 (A)와 (B)와 같이, 객체(OB)가 각각 축을 중심으로 180°(도) 회전하는 경우를 가정하여 보자.Alternatively, as shown in FIGS. 9A and 9B , it is assumed that the object OB rotates 180° (degrees) about an axis, respectively.

도 9의 (A)에 비해 (B)의 경우에 밝기의 변화가 더 급격하게 발생하는 경우에는, 도 9의 (A)의 경우에는 상대적으로 짧은 시간동안 객체(OB)가 180°(도) 회전하고, 도 9의 (B)의 경우에는 상대적으로 긴 시간동안 객체(OB)가 180°(도) 회전하는 경우에 해당될 수 있다.When the change in brightness occurs more rapidly in (B) than in (A) of FIG. 9, in the case of (A) of FIG. 9, the object OB moves 180° (degrees) for a relatively short time. In the case of (B) of FIG. 9 , it may correspond to a case in which the object OB rotates 180° (degrees) for a relatively long time.

이에 따라, 도 9의 (A)의 경우가 (B)의 경우에 비해 운동성이 더 클 수 있다.Accordingly, the case of (A) of FIG. 9 may have greater mobility than the case of (B).

이와 같은 방법으로 움직이는 객체(OB)를 인식하고, 인식한 객체(OB)의 운동성을 산출하는 것이 가능하다.In this way, it is possible to recognize the moving object OB and calculate the movement of the recognized object OB.

한편, 움직임을 검출하기 위해 소정의 마스크(Mask)를 사용하는 것이 가능하다. 예를 들면, 영상의 특정 영역에 소정 크기의 마스크를 적용하고, 해당 마스크의 휘도 변화를 감지하여 운동성을 판별할 수 있다.On the other hand, it is possible to use a predetermined mask to detect the motion. For example, a mask of a predetermined size may be applied to a specific region of an image, and a change in luminance of the mask may be sensed to determine motion.

운동 정보를 판별하는 방법에 대해 살펴보면 아래와 같다.A method of determining exercise information is as follows.

이하에서 설명하는 운동 종류, 운동 동작, 운동 횟수, 운동 시간에 대한 정보 등은 운동성 산출부(200)가 산출한 운동성에 대한 정보를 근거로 하여 판별될 수 있다.Information on the type of exercise, the exercise action, the number of exercise, the exercise time, etc. described below may be determined based on the information on the motility calculated by the motility calculator 200 .

도 10을 살펴보면, 정보 판별 단계(S400)에서는 운동 종류, 운동 동작, 운동 횟수, 운동 시간, 운동 기구, 운동 경로 또는 선호도 중 적어도 하나를 판별할 수 있다.Referring to FIG. 10 , in the information determination step ( S400 ), at least one of an exercise type, an exercise operation, the number of exercises, an exercise time, an exercise equipment, an exercise route, or a preference may be determined.

운동 동작 및/또는 종류를 판별하는 방법에 대해 살펴보면 아래와 같다.A method of determining an exercise motion and/or type is as follows.

운동의 종류별로 기준 동작에 대한 정보를 설정하여 저장할 수 있다. 예를 들면, 도 11의 경우와 같이, 팔굽혀펴기 운동의 경우 바닥(GND)과 사용자(H)의 다리 사이의 기준각도(Xb), 상체와 바닥(GND) 사이의 기준거리(Xa) 등에 대해 정보를 미리 설정할 수 있다.Information on a reference motion may be set and stored for each type of exercise. For example, as in the case of FIG. 11 , in the case of push-up exercise, the reference angle Xb between the floor GND and the user H's leg, the reference distance Xa between the upper body and the floor GND, etc. information can be set in advance.

이후, 도 12의 (A), (B)와 같이 사용자가 운동을 진행하는 경우, 카메라부(300)가 사용자의 운동 영상을 촬영하면 동작 판별부(120)가 운동 영상을 분석하여 운동 동작에 대한 정보를 판별할 수 있다.Thereafter, as shown in (A) and (B) of FIG. 12 , when the user performs an exercise, when the camera unit 300 captures an exercise image of the user, the motion determination unit 120 analyzes the exercise image to determine the exercise motion. information can be identified.

동작 판별부(120)는 바닥과 다리 사이의 각도, 상체와 바닥 사이의 거리 등에 대한 운동 동작에 대한 정보를 판별/획득할 수 있다.The motion determining unit 120 may determine/obtain information about an exercise motion with respect to an angle between the floor and a leg, a distance between an upper body and the floor, and the like.

종류 판별부(110)는 동작 판별부(120)가 획득한 동작 정보를 미리 설정된 기준 운동 동작에 대한 정보와 비교할 수 있다.The type determining unit 110 may compare the motion information obtained by the motion determining unit 120 with information on a preset reference exercise motion.

예를 들어, 도 12의 (A)의 경우 바닥(GND)과 사용자(H)의 다리 사이의 각도가 제 1 각도(Xb1)이고, 상체와 바닥(GND) 사이의 거리가 제 1 거리(Xa1)인 경우, 제 1 각도(Xb1)가 미리 설정된 기준각도(Xb)와 어느 정도 유사한지 판별하고, 제 1 거리(Xa1)가 기준거리(Xa)와 어느 정도 유사한지를 판별할 수 있다.For example, in (A) of FIG. 12 , the angle between the floor GND and the leg of the user H is the first angle Xb1, and the distance between the upper body and the floor GND is the first distance Xa1 ), it is possible to determine how similar the first angle Xb1 is to a preset reference angle Xb, and to determine how similar the first distance Xa1 is to the reference distance Xa.

만약, 제 1 각도(Xb1)가 기준각도(Xb)와 미리 설정된 일정 범위 내에서 유사하고, 제 1 거리(Xa1)가 기준거리(Xa)와 미리 설정된 일정 범위 내에서 유사하다면, 도 12의 (A)와 같은 운동 형태를 팔굽혀펴기로 판별할 수 있다.If the first angle Xb1 is similar to the reference angle Xb within a predetermined range, and the first distance Xa1 is similar to the reference distance Xa within a predetermined range, ( The same type of exercise as A) can be identified as push-ups.

이와 같은 방법으로 도 12의 (B)의 운동 형태를 팔굽혀펴기로 판별하는 것이 가능하다.In this way, it is possible to determine the exercise form of Figure 12 (B) as push-ups.

만약, 사용자가 도 13의 경우와 같은 형태로 운동을 하는 경우에는, 바닥(GND)과 다리 사이의 각도(제 3 각도(X2))가 미리 설정된 기준각도(Xb)와 미리 설정된 범위 내에서 유사하더라도, 사용자(H)의 상체가 바닥(GND)과 접촉하고 있으므로, 종류 판별부(110)는 해다 운동이 팔굽혀펴기가 아닌 것으로 인식할 수 있다.If the user exercises in the same manner as in the case of FIG. 13, the angle between the floor GND and the leg (the third angle X2) is similar to the preset reference angle Xb within the preset range. Even so, since the upper body of the user H is in contact with the floor GND, the type determining unit 110 may recognize that the exercise is not push-ups.

여기서는, 설명의 편의를 위해 기준 정보에 대해 기준거리(Xa)와 기준각도(Xb)에 대해서만 설명하고 있지만, 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 엉덩이의 위치, 무릎의 각도, 머리의 위치, 양팔의 각도, 양손의 위치 등에 대한 정보를 기준정보로 설정할 수 있다.Here, only the reference distance Xa and the reference angle Xb are described for reference information for convenience of explanation, but the present invention may not be limited thereto. For example, information on the position of the hip, the angle of the knee, the position of the head, the angle of both arms, the position of both hands, etc. may be set as reference information.

동작 판별부(120)는 운동 영상에서 운동 동작에 대한 정보를 판별/획득하고, 아울러 운동 정확성에 대한 정보도 판별할 수 있다.The motion determining unit 120 may determine/obtain information about an exercise motion from an exercise image, and may also determine information on exercise accuracy.

동작 판별부(120)는 사용자의 운동 동작이 미리 설정된 기준 동작과 얼마나 유사한지를 판별할 수 있다. 다르게 표현하면, 동작 판별부(120)는 사용자(H)가 얼마나 정확하고 좋은 폼(동작)으로 운동을 하는가를 판별할 수 있는 것이다.The motion determining unit 120 may determine how similar the user's exercise motion is to a preset reference motion. In other words, the motion determining unit 120 can determine how accurate and how good the user H is to exercise in a good form (movement).

예를 들면, 도 14의 경우와 같이, 사용자의 운동 동작에서 팔각도, 팔을 굽히는 정도, 바닥과 다리 사이의 각도, 무릎 각도, 엉덩이 높이 등에 대한 정보를 미리 설정된 기준 운동 동작과 비교하여 각각 정확성에 대한 점수를 판별할 수 있다.For example, as in the case of FIG. 14 , information on the octagonal angle, the degree of bending of the arm, the angle between the floor and the leg, the knee angle, the hip height, etc. in the user's exercise motion is compared with a preset reference motion motion for accuracy, respectively. score can be determined.

아울러, 동작 판별부(120)는 사용자의 운동의 기준 운동 동작 대비 정확성에 대해 종합평가 점수를 산출할 수 있다. 즉, 운동동작에 대해 모범답안을 설정해 놓고, 사용자의 운동 동작에 대해 점수를 평가하는 것이 가능하다.In addition, the motion determining unit 120 may calculate a comprehensive evaluation score for the accuracy of the user's exercise compared to the reference exercise motion. That is, it is possible to set a model answer for the exercise motion, and to evaluate the score for the exercise motion of the user.

동작 판별부(120)가 평가하는 항목은 다양하게 변경될 수 있다.The items evaluated by the operation determining unit 120 may be variously changed.

예를 들어, 달리기 운동의 경우, 발을 내딛는 각도, 보폭, 팔의 각도, 상체 및 하체의 움직임 등의 항목을 평가하고, 평가 결과에 따라 정확성을 판별할 수 있다.For example, in the case of a running exercise, items such as step angle, stride length, arm angle, and upper and lower body movements may be evaluated, and accuracy may be determined according to the evaluation result.

아울러, 동작 판별부(120)는 사용자의 운동에 대해 난이도를 평가하는 것도 가능하다.In addition, the motion determining unit 120 may evaluate the difficulty of the user's exercise.

예를 들면, 사용자가 도 15의 (A), (B), (C), (D) 또는 (E)와 같은 형태로 운동을 진행하는 경우, 동작 판별부(120)는 도 15의 (A), (B), (C), (D), (E)의 경우를 모두 팔굽혀펴기 운동으로 판별할 수 있다.For example, when the user performs an exercise in a form such as (A), (B), (C), (D) or (E) of FIG. 15 , the motion determining unit 120 is shown in FIG. ), (B), (C), (D), and (E) can all be identified as push-ups.

아울러, 동작 판별부(120)는 도 15의 (A)와 같은 경우의 난이도를 제 1 레벨(First Level)로 판별하고, 도 15의 (B)와 같은 경우의 난이도를 제 1 레벨보다 난이도가 높은 제 2 레벨(Second Level)로 판별하고, 도 15의 (C)와 같은 경우의 난이도를 제 2 레벨보다 높은 제 3 레벨(Third Level)로 판별하고, 도 15의 (D)와 같은 경우의 난이도를 제 3 레벨보다 높은 제 4 레벨(Fourth Level)로 판별하고, 도 15의 (E)와 같은 경우의 난이도를 제 4 레벨보다 높은 제 5 레벨(Fifth Level)로 판별하는 것이 가능하다.In addition, the operation determining unit 120 determines the difficulty level in the case of FIG. 15A as the first level, and the difficulty level in the case of FIG. 15B is higher than the first level. It is determined as a high second level (Second Level), and the difficulty in the case as in (C) of FIG. 15 is determined as a third level higher than the second level, and in the same case as in (D) of FIG. It is possible to determine the difficulty level as a fourth level higher than the third level, and determine the difficulty level as a fifth level higher than the fourth level as shown in FIG. 15E .

이상에서는 맨손운동(팔굽혀펴기)의 경우에 대해 설명하였지만, 이상의 내용은 기구를 이용하는 운동에도 적용될 수 있다.In the above, the case of bare-handed exercise (push-up) has been described, but the above content can also be applied to exercise using a device.

동작 판별부(120)의 동작의 정확성 판별 기준은 맨손 운동, 기구 운동 별로 다르게 설정될 수 있으며, 아울러 기구의 종류에 따라 다르게 설정되는 것이 가능하다.The criterion for determining the accuracy of the operation of the operation determining unit 120 may be set differently for each movement of the bare hand and the movement of the instrument, and it is also possible to be set differently according to the type of the instrument.

도 16과 같이, 사용자(H)가 소정의 운동기구(800)를 사용하여 운동을 진행하는 경우에, 이동통신 단말기 형태의 운동정보 처리장치(10)는 이에 대한 운동 영상을 촬영할 수 있다.As shown in FIG. 16 , when the user H exercises by using a predetermined exercise device 800 , the exercise information processing device 10 in the form of a mobile communication terminal may photograph an exercise image.

이러한 경우, 운동정보 처리장치(10)는 위에서 설명한 내용에 따라 운동의 종류 및 운동 동작에 대한 정보를 분석/판별할 수 있다.In this case, the exercise information processing apparatus 10 may analyze/discriminate the type of exercise and information on the exercise motion according to the above description.

운동정보 처리장치(10)의 기구 판별부(150)는 사용자(H)가 운동을 하는데 사용하는 운동기구(800)의 종류를 판별할 수 있다.The apparatus determining unit 150 of the exercise information processing device 10 may determine the type of the exercise equipment 800 used by the user H to exercise.

예를 들면, 메모리부(600)에 각각의 운동기구에 대한 형태 정보 및 이미지 정보를 저장하고, 이를 운동 영상에 나타난 운동기구와 비교하여 사용자가 사용하는 운동기구가 어떠한 것인지를 판별하는 것이 가능하다.For example, it is possible to store shape information and image information for each exercise equipment in the memory unit 600 and compare it with the exercise equipment shown in the exercise image to determine which type of exercise equipment the user uses. .

또는, 각각의 운동기구에 기구를 식별할 수 있는 바코드와 같은 식별정보를 할당하고, 이를 이용하여 운동기구를 판별하는 것도 가능할 수 있다.Alternatively, it may be possible to assign identification information such as a barcode that can identify the equipment to each exercise equipment, and to use this to determine the exercise equipment.

아울러, 기구 판별부(150)는 종류 판별부(110)가 판별한 운동 종류가 웨이트 기구를 이용한 운동인 경우, 웨이트 기구에 설정된 로드(Load)를 판별할 수 있다.In addition, when the type of exercise determined by the type determining unit 110 is an exercise using a weight mechanism, the mechanism determining unit 150 may determine a load set in the weight mechanism.

예를 들어, 메모리부(600)에 각 운동기구에 사용되는 무게추의 무게, 크기, 형태 등에 대한 정보를 미리 저장하고, 이를 이용하여 운동영상에 나타나 있는 사용자가 사용하는 무게추와 비교하여 총 로드를 판별할 수 있다.For example, information on the weight, size, shape, etc. of the weight used in each exercise equipment is stored in the memory unit 600 in advance, and compared with the weight used by the user displayed in the exercise image using this information, the total load can be determined.

또는, 운동기구에 스트레인게이지를 설치하고, 이를 이용하여 기구의 로드를 확인하는 것이 가능하다.Alternatively, it is possible to install a strain gauge in the exercise equipment, and to check the load of the equipment using this.

시간 판별부(140)는 운동영상을 근거로 하여 사용자의 운동시간을 측정/판별할 수 있다.The time determining unit 140 may measure/determine the user's exercise time based on the exercise image.

예를 들어, 사용자의 운동 영상을 분석한 결과 도 17과 같은 결과를 획득한 경우를 가정하여 보자.For example, it is assumed that a result as shown in FIG. 17 is obtained as a result of analyzing a user's exercise image.

도 17을 살펴보면, T0시점에서 운동을 시작하여 Te시점에서 운동을 종료하는 과정에서, T1-T2, T3-T4, T5-T6 기간 동안 사용자의 운동성이 평균값(Aa)을 넘을 수 있다.Referring to FIG. 17 , in the process of starting the exercise at time T0 and ending the exercise at time Te, the user's mobility may exceed the average value Aa during periods T1-T2, T3-T4, and T5-T6.

이러한 경우, 시간 판별부(140)는 사용자는 T1-T2, T3-T4 및 T5-T6 기간 동안 운동을 실시하고, T0-T1, T2-T3, T4-T5 및 T6-Te 기간 동안에는 휴식을 취한 것으로 판별할 수 있다.In this case, the time determining unit 140 allows the user to exercise during periods T1-T2, T3-T4, and T5-T6, and rest during periods T0-T1, T2-T3, T4-T5 and T6-Te. can be identified as

이처럼, 시간 판별부(140)는 사용자의 운동 시간에 대한 정보 뿐 아니라 휴식 시간에 대한 정보도 판별할 수 있다.In this way, the time determining unit 140 may determine information about the user's exercise time as well as information about the rest time.

이상에서 설명한 운동 종류, 운동 동작, 운동 시간, 운동 기구에 대한 정보 등은 사용자에게 확인 가능한 형태로 가공되어 제공될 수 있다.The above-described exercise type, exercise motion, exercise time, information on exercise equipment, etc. may be processed and provided in a form that can be checked by the user.

예를 들면, 도 18의 경우와 같이, 사용자가 벤치프레스 운동을 실시한 경우, 해당 운동의 총 운동시간, 휴식시간, 셋트 수, 각 셋트별 운동 횟수, 각 셋트별 로드(무게), 각 셋트별 운동시간 등에 대한 정보를 사용자에게 제공할 수 있다.For example, as in the case of FIG. 18, when the user performs a bench press exercise, the total exercise time of the exercise, rest time, number of sets, number of exercises for each set, load (weight) for each set, each set Information on exercise time and the like may be provided to the user.

운동 셋트에 대한 정보는 앞선 도 17에서와 같은 방법으로 판별될 수 있다.Information on the exercise set may be determined in the same way as in FIG. 17 .

횟수 판별부(130)는 운동 영상을 근거로 하여 사용자의 운동 횟수를 판별할 수 있다.The number of times determining unit 130 may determine the number of times of exercise of the user based on the exercise image.

예를 들어, 도 19와 같이 사용자(H)가 팔굽혀펴기 운동을 실시하는 경우에, 엎드린 상태에서 팔을 굽혔다가 펴는 동작을 팔굽혀펴기 운동 1회로 판별할 수 있다. 만약, 사용자가 팔을 굽히지 않고 계속 편 상태를 유지한다면 아무리 오랜 시간이 지나더라도 팔굽혀펴기 운동을 하지 않은 것으로 판별될 수 있다.For example, when the user H performs the push-up exercise as shown in FIG. 19 , the motion of bending and stretching the arm in the prone state may be determined as one push-up exercise. If the user does not bend his arm and maintains the straightened state, it may be determined that no push-up exercise has been performed no matter how long time passes.

횟수 판별부(130)는 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트하는 것이 바람직할 수 있다.It may be preferable that the number of times determining unit 130 counts the number of times when the user's exercise motion matches the preset reference motion by more than a preset reference ratio.

예를 들어, 도 20의 (A)와 같이, 팔굽혀펴기 운동의 경우 바닥(GND)과 사용자(H)의 다리 사이의 기준각도(Xb), 상체와 바닥(GND) 사이의 기준거리(Xa) 등에 대해 정보를 미리 설정할 수 있다.For example, as shown in (A) of Figure 20, in the case of push-up exercise, the reference angle (Xb) between the floor (GND) and the user's (H) leg, the reference distance (Xa) between the upper body and the floor (GND) ) can be set in advance.

이후, 도 20의 (B)와 같이 사용자가 팔굽혀펴기 운동을 진행하는 경우, 바닥(GND)과 사용자(H)의 다리 사이의 각도가 제 3 각도(Xb3)이고, 상체와 바닥(GND) 사이의 거리가 제 3 거리(Xa3)인 경우, 제 3 각도(Xb3)가 미리 설정된 기준각도(Xb)와 어느 정도 유사한지 판별하고, 제 3 거리(Xa3)가 기준거리(Xa)와 어느 정도 유사한지를 판별할 수 있다.Then, when the user performs push-ups as shown in (B) of FIG. 20 , the angle between the floor GND and the user's leg is the third angle Xb3, and the upper body and the floor GND. If the distance between them is the third distance Xa3, it is determined how similar the third angle Xb3 is to the preset reference angle Xb, and to what extent the third distance Xa3 is the reference distance Xa. similarity can be determined.

판별한 결과, 제 3 각도(Xb3)가 기준동작(기준각도(Xb))과 기준 비율 이상 매칭되고, 제 3 거리(Xa3)가 기준동작(기준거리(Xa))과 기준 동작과 기준 비율 이상 매칭되는 경우에 사용자(H)가 팔굽혀펴기 운동을 1회 실시한 것으로 판별할 수 있다.As a result of the determination, the third angle Xb3 matches the reference motion (reference angle Xb) by more than the reference ratio, and the third distance Xa3 matches the reference operation (reference distance Xa) and the reference operation and the reference ratio or more In the case of matching, it may be determined that the user H has performed one push-up exercise.

만약, 사용자가 도 21의 (B)의 경우와 같은 형태로 운동을 하는 경우에는, 바닥(GND)과 다리 사이의 각도(Xb4)가 기준각도(Xb)와 기준 비율 이상 매칭되더라도, 사용자(H)의 상체와 바닥(GND)과의 거리(Xa4)가 변화가 없으므로, 즉 사용자(H)의 상체와 바닥(GND)과의 거리(Xa4)가 기준 동작과 기준 비율 이상 매칭되지 않으므로, 팔굽혀펴기 운동을 실시하지 않은 것으로 판별할 수 있다.If the user exercises in the same manner as in the case of (B) of FIG. 21 , even if the angle Xb4 between the floor GND and the leg matches the reference angle Xb by more than the reference ratio, the user H ), since the distance Xa4 between the upper body and the floor GND does not change, that is, the distance Xa4 between the user H's upper body and the floor GND does not match the reference motion by more than the reference ratio, so It can be determined that the stretching exercise is not performed.

운동 횟수를 판별하는 방법은 팔굽혀펴기 등의 맨손 운동 뿐 아니라 기구를 이용하는 기구 운동의 경우에도 적용될 수 있다.The method of determining the number of exercises may be applied not only to bare-handed exercises such as push-ups, but also to instrument exercises using instruments.

예를 들면, 도 22와 같이, 사용자(H)가 풀다운 운동기구(810)를 사용하는 경우를 가정하여 보자.For example, as shown in FIG. 22 , it is assumed that the user H uses the pull-down exercise device 810 .

이러한 경우, 사용자(H)가 팔을 올려다가 내리는 동작을 하면서, 이와 함께 풀다운 운동기구(810)의 손잡이가 사용자(H)의 팔과 함께 상하로 움직여야만 풀다운 운동을 1회 실시한 것으로 판별될 수 있다.In this case, while the user (H) raises and lowers his arm, the handle of the pull-down exercise device 810 must move up and down together with the user's arm to determine that the pull-down exercise has been performed once. have.

정보 제공부(210)는 운동 결과에 대한 정보를 사용자에게 제공할 수 있다.The information providing unit 210 may provide information on the exercise result to the user.

예를 들면, 도 23의 (A)의 경우와 같이, 사용자가 실시한 팔굽혀펴기 운동에 대해 사용자의 현재 상태(사용자가 실시한 팔굽혀펴기 운동의 횟수), 평균 횟수 및 목표치에 대한 정보를 함께 제공하는 것이 가능하다.For example, as in the case of FIG. 23 (A), information about the user's current state (the number of push-ups performed by the user), the average number of push-ups, and the target value for the push-up exercise performed by the user are provided together. it is possible to do

또는, 도 23의 (B)와 같이, 풀다운 운동의 경우, 현재 상태(사용자가 실시한 풀다운 운동의 로드(무게)), 평균 로드 및 목표치에 대한 정보를 함께 제공하는 것이 가능하다.Alternatively, as shown in (B) of FIG. 23 , in the case of a pull-down exercise, it is possible to provide information on a current state (load (weight) of a pull-down exercise performed by a user), an average load, and a target value together.

도 23의 (C)에는 벤치프레스 운동의 경우가 개시되어 있다.The case of the bench press exercise is disclosed in (C) of FIG.

정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 성취도에 대한 정보를 제공하는 것이 바람직할 수 있다. 성취도는 운동 횟수가 많을수록, 운동 시간이 짧을수록 상승할 수 있다.The information providing unit 210 may preferably provide information on achievement to the user based on at least one of information on the type of exercise, information on the number of exercises, or information on the exercise time. The achievement may increase as the number of exercise increases and the exercise time decreases.

예를 들면, 도 23의 (A)와 도 24의 (A)를 참조하면, 팔굽혀펴기 운동의 경우 사용자의 성취도는 평균 횟수 대비 80%이고, 목표치 대비 67%일 수 있다.For example, referring to FIGS. 23A and 24A , in the case of push-up exercise, the user's achievement may be 80% of the average number of times and 67% of the target value.

성취도 정보는 풀다운 운동 및 벤치프레스 운동의 경우에도 적용될 수 있다.Achievement information can also be applied to pull-down exercises and bench press exercises.

아울러, 정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 추천 정보를 제공할 수 있다. 여기서, 추천 정보는 운동 횟수에 대한 추천 정보, 운동 시간에 대한 추천 정보 또는 운동 종류에 대한 추천 정보 중 적어도 하나를 포함할 수 있다.In addition, the information providing unit 210 may provide recommended information to the user based on at least one of information on the type of exercise, information on the number of exercises, or information on the exercise time. Here, the recommendation information may include at least one of recommendation information on the number of workouts, recommendation information on the workout time, or recommendation information on the type of workout.

예를 들면, 도 24의 (B)와 같이, 팔굽혀펴기 운동의 경우 실시 횟수를 20% 늘릴 것을 추천하고, 풀다운 운동의 경우 로드를 16%늘릴 것을 추천하고, 벤치프레스 운동의 경우 횟수를 30%줄일 것을 추천할 수 있다. 아울러, 벤치프레스 운동의 횟수를 줄이는 대신에 버터플라이 운동을 추가할 것을 추천할 수 있다. 이는 벤치프레임 운동에 대한 성취도가 도 24의 (A)에서와 같이 100%를 넘었기 때문이다.For example, as shown in (B) of Figure 24, in the case of push-up exercise, it is recommended to increase the number of executions by 20%, in the case of a pull-down exercise, it is recommended to increase the load by 16%, and in the case of a bench press exercise, it is recommended to increase the number of times by 30 % reduction is recommended. In addition, instead of reducing the number of bench press exercises, it may be recommended to add butterfly exercises. This is because the achievement for the bench frame exercise exceeded 100% as shown in (A) of FIG. 24 .

또는, 도 25의 (A)와 같이, 팔굽혀펴기 운동의 경우 무릎을 좀 더 곧게 펴라는 등의 운동 동작에 대한 추천정보를 사용자에게 제공하는 것이 가능하다.Alternatively, as shown in (A) of FIG. 25 , in the case of push-up exercise, it is possible to provide the user with recommended information on an exercise motion, such as straightening the knee.

이와 함께, 사용자가 보다 용이하게 이해할 수 있도록, 도 25의 (B)와 같이, 바람직한 팔굽혀펴기 동작에 대한 일례를 표시부(410)에 표시할 수 있다.In addition, an example of a desirable push-up operation may be displayed on the display unit 410 as shown in FIG. 25B so that the user can more easily understand.

추천 정보의 제공은 팔굽혀펴기 등의 운동 횟수와 관련이 있는 운동 이외에 운동 동작 자체가 중요하게 여겨지는 요가 등의 운동에도 적용될 수 있다.The provision of recommended information may be applied to an exercise such as yoga, in which the exercise movement itself is considered important, in addition to an exercise related to the number of exercises such as push-ups.

예를 들면, 26의 (A)와 같이, 사용자(H)가 요가 운동을 실시하면, 사용자의 운동 영상으로부터 운동 동작 정보(MD)를 추출할 수 있다.For example, as shown in (A) of 26 , when the user H performs a yoga exercise, the exercise motion information MD may be extracted from the user's exercise image.

도 26에서는 설명의 편의를 위해, 도 26의 (B)와 같이 골격의 움직임으로 운동 동작을 표현하였지만 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 요가 운동의 경우에도 앞서 설명한 객체 인식부(190) 및 운동성 산출부(200)에 의해 운동성이 분석/판별될 수 있다.In FIG. 26, for convenience of explanation, a movement motion is expressed as a movement of a skeleton as shown in FIG. 26(B), but the present invention may not be limited thereto. For example, even in the case of yoga exercise, the movement may be analyzed/discerned by the object recognition unit 190 and the movement calculating unit 200 described above.

사용자의 운동 동작 정보(MD)가 획득되면, 도 26의 (C)와 같이, 사용자의 운동 동작 정보(MD)를 미리 설정된 기준 동작 정보(SD)와 비교할 수 있다.When the user's exercise motion information MD is obtained, as shown in FIG. 26C , the user's exercise motion information MD may be compared with preset reference motion information SD.

비교결과, 사용자의 동작 정보(MD)와 기준 동작 정보(SD)의 유사성을 성취도로서 판별할 수 있다.As a result of the comparison, the similarity between the user's motion information MD and the reference motion information SD may be determined as an achievement.

예를 들면, 도 27의 (A)와 같이, 사용자의 요가 운동에서 팔동작은 기준 동작 정보(SD)와 92%유사하고, 다리동작은 95%유사하고, 몸통동작은 98%유사한다는 정확성에 대한 정보를 판별할 수 있다. 다르게 표현하면, 사용자의 요가 동작은 팔동작 항목에서 92%의 정확성을 갖는 것으로 볼 수 있다.For example, as shown in (A) of Figure 27, in the user's yoga exercise, the arm motion is 92% similar to the reference motion information (SD), the leg motion is 95% similar, and the trunk motion is 98% similar. information can be identified. In other words, it can be seen that the user's yoga movement has an accuracy of 92% in the arm movement item.

이러한 정확성에 대한 정보를 바탕으로, 도 27의 (B)와 같이, 사용자에게 해당 운동에 대한 추천 정보를 제공할 수 있다.Based on the information on the accuracy, as shown in (B) of FIG. 27 , it is possible to provide the user with recommendation information for the corresponding exercise.

성취도는 로드, 횟수와 관계없이 운동시간에 따라 결정되는 것도 가능할 수 있다.It may also be possible that the achievement is determined according to the exercise time regardless of the load or the number of times.

예를 들면, 도 28의 (A)와 같이, 벤치프레스 운동, 풀다운 운동, 팔굽혀펴기 운동, 달리기 등 다양한 운동의 운동 시간에 대한 성취도를 판별/제공할 수 있다.For example, as shown in (A) of Figure 28, it is possible to determine / provide the achievement of various exercises, such as bench press exercise, pull-down exercise, push-up exercise, running, etc. for the exercise time.

아울러, 도 28의 (B)와 같이, 각 운동의 성취도에 근거하여 사용자에게 추천 정보를 제공할 수 있다.In addition, as shown in (B) of FIG. 28 , it is possible to provide recommended information to the user based on the achievement of each exercise.

예를 들면, 사용자의 팔굽혀펴기 운동의 운동시간이 평균(10분)보다 적은 경우, 사용자에게 팔굽혀펴기 운동에 좀 더 시간을 투자하라는 내용을 추천 정보를 사용자에게 제공하는 것이 가능하다.For example, when the exercise time of the user's push-up exercise is less than the average (10 minutes), it is possible to provide the user with recommendation information that tells the user to invest more time in the push-up exercise.

운동시간에 따른 성취도는 요가, 달리기 등의 운동에 적용되는 것이 바람직할 수 있다.The achievement according to the exercise time may be preferably applied to exercises such as yoga and running.

예를 들면, 도 29의 (A)와 같이, 요가 운동 시 사용자(H)가 메뚜기 자세, 견상 자세, 쟁기 자세 및 독수리 자세를 취하는 경우를 가정하여 보자.For example, as shown in FIG. 29(A) , it is assumed that the user H takes a grasshopper posture, a straight posture, a plow posture, and an eagle posture during yoga exercise.

이러한 경우, 사용자가 메뚜기 자세를 취하고 그 자세는 유지한 시간(60초)을 미리 설정된 기준 시간(60초)과 비교하여 성취도(100%)를 판별/제공할 수 있다.In this case, the user can determine/provide the achievement (100%) by comparing the time (60 seconds) the user takes the grasshopper posture and the posture is maintained with a preset reference time (60 seconds).

아울러, 성취도에 근거하여 사용자에게 독수리 자세 시간을 줄이고 견상 자세 및 쟁기 자세의 연습 시간을 늘리라는 등의 추천 정보를 제공할 수 있다.In addition, it is possible to provide the user with recommendation information, such as reducing the time for the eagle posture and increasing the practice time for the straight posture and the plow posture, based on the achievement.

한편, 난이도에 따라 추천 정보를 다르게 제공하는 것이 가능하다.Meanwhile, it is possible to provide different recommended information according to difficulty.

예를 들어, 도 30의 경우와 같이, 팔굽혀펴기 운동의 경우 10분 동안 100번 실시하는 경우를 레벨 1로 설정하고, 10분 동안 130번 실시하는 경우를 레벨 2, 10분 동안 160번 실시하는 경우를 레벨 3, 10분 동안 190번 실시하는 경우를 레벨 4, 10분 동안 220번 실시하는 경우를 레벨 5로 설정하는 경우를 가정하자.For example, as in the case of Figure 30, in the case of push-ups, the case of performing 100 times in 10 minutes is set to level 1, and the case of performing 130 times in 10 minutes is performed at level 2, 160 times in 10 minutes Assume that the case of performing 190 times in level 3 and 10 minutes is set to level 4, and the case of performing 220 times in 10 minutes is set to level 5.

도 31의 (A)와 같이, 레벨 2 단계인 사용자 A가 10분 동안 총 90개의 팔굽혀펴기 운동을 실시하여 성취도가 69%인 경우에는, 도 31의 (B)와 같이 레벨 1로 레벨을 하향조정할 것을 추천할 수 있다.As shown in (A) of Figure 31, if the level 2 user A performs a total of 90 push-ups for 10 minutes and the achievement is 69%, the level is set to level 1 as shown in Figure 31 (B). Downgrade can be recommended.

또는, 운동정보 처리장치(10)에서 강제로 사용자 A의 레벨을 레벨 2에서 레벨 1로 낮출 수 있다.Alternatively, the exercise information processing apparatus 10 may forcibly lower the level of user A from level 2 to level 1.

반면에, 도 32의 (A)와 같이, 레벨 4 단계인 사용자 B가 10분 동안 총 230개의 팔굽혀펴기 운동을 실시하여 성취도가 121인 경우에는, 도 32의 (B)와 같이 레벨 5로 레벨을 상향조정할 것을 추천할 수 있다.On the other hand, as shown in (A) of FIG. 32, when the level 4 user B performs a total of 230 push-ups for 10 minutes and the achievement is 121, as shown in (B) of FIG. It can be recommended to raise the level.

또는, 운동정보 처리장치(10)에서 강제로 사용자 B의 레벨을 레벨 4에서 레벨 5로 높일 수 있다.Alternatively, the exercise information processing apparatus 10 may forcibly increase the level of user B from level 4 to level 5 .

정보 제공부(210)는 사용자로부터 수집한 다양한 정보를 다른 사용자들의 정보와 비교하여 사용자의 건강 상태에 대한 정보를 제공할 수 있다.The information providing unit 210 may compare various types of information collected from the user with information of other users to provide information on the user's health status.

예를 들면, 도 33의 경우와 같이, 사용자의 운동 영상을 분석하여 판별/획득한 정보를 빅데이터와 비교하여 사용자의 현재 근력, 근지구력, 심폐지구력 등의 정보를 예측하고, 이에 대한 정보를 사용자에게 제공하는 것이 가능하다.For example, as in the case of FIG. 33, information such as the user's current muscle strength, muscular endurance, cardiorespiratory endurance, etc. is predicted by analyzing the user's exercise image and comparing the determined/obtained information with big data, and It is possible to provide it to the user.

이상에서는 운동 정보 처리 장치(10)가 운동 영상으로부터 사용자가 실시하는 운동의 종류를 판별하는 경우를 설명하였지만, 이와는 다르게 운동 정보 처리 장치(10)에서 운동 종류에 대한 정보를 먼저 제공하는 것이 가능하다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.In the above, the case where the exercise information processing apparatus 10 determines the type of exercise performed by the user from the exercise image has been described. However, unlike this, the exercise information processing apparatus 10 may provide information on the exercise type first. . With reference to the accompanying drawings, it is as follows.

도 34 내지 도 37은 본 발명에 따른 또 다른 운동 정보 처리 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략한다. 예를 들면, 이하의 내용은 운동의 종류에 대한 정보 및 해당 운동의 기준 동작에 대한 정보를 촬영전에 사용자에게 미리 제공한다는 점을 제외하면 특별한 언급이 없는 한 이상에서 설명한 내용과 대략 동일할 수 있다.34 to 37 are diagrams for explaining another exercise information processing method according to the present invention. Hereinafter, a description of the parts described in detail above will be omitted. For example, the following contents may be approximately the same as those described above, unless otherwise stated, except that information on the type of exercise and information on the reference motion of the exercise are provided to the user in advance before shooting. .

도 34를 살펴보면, 촬영(S200) 단계 이전에 운동 종류에 대한 정보를 제공하는 단계(S600)가 포함될 수 있다.Referring to FIG. 34 , a step ( S600 ) of providing information on the type of exercise before the step ( S200 ) of photographing may be included.

이러한 경우에는, 제어부(100)에서 종류 판별부(110)가 생략되는 것도 가능하다.In this case, it is also possible that the type determining unit 110 is omitted from the control unit 100 .

예를 들면, 도 35 내지 도 36의 경우와 같이, 운동정보 처리 장치(10)는 운동 영상 촬영 이전에 사용자에게 운동 종류에 대한 정보 및 그 운동의 기준동작에 대한 정보를 화면(표시부(410))에 표시하여 제공할 수 있다.For example, as in the case of FIGS. 35 to 36 , the exercise information processing device 10 displays information on the type of exercise and information on the reference motion of the exercise to the user before the exercise image is captured on the screen (display unit 410). ) can be provided.

그러면, 사용자는 현재 자신이 어떤 운동을 해야 하는지를 확인할 수 있다.Then, the user can check what kind of exercise he or she currently needs to do.

그리고 운동 정보 처리 장치(10)는 사용자(H)가 해당 운동을 실시하고 있는지를 모니터링하는 것이다.And the exercise information processing device 10 is to monitor whether the user (H) is performing the corresponding exercise.

이러한 방법은 크로스핏(Crossfit)과 같이 다양한 운동을 셋트별로 실시하는 운동에 적용되는 것이 바람직할 수 있다.This method may be preferably applied to an exercise in which various exercises are performed for each set, such as Crossfit.

예를 들면, 도 37의 경우와 같이, 첫 번째 단계에서 꼰다리 자세를 유지하는 요가 운동을 실시할 수 있다.For example, as in the case of FIG. 37, a yoga exercise that maintains the braided posture in the first step may be performed.

이러한 경우에는, 도 35의 경우와 같이, 표시부(410)에 꼰다리 자세의 기준 동작 정보에 대한 정보를 표시할 수 있다.In this case, as in the case of FIG. 35 , information on the reference motion information of the braided posture may be displayed on the display unit 410 .

이러한 경우, 운동정보 처리장치(10)에서는 사용자의 꼰다리 자세 운동에 대한 운동 동작을 판별할 수 있다.In this case, the exercise information processing device 10 may determine the exercise motion for the user's braided posture exercise.

아울러, 운동정보 처리장치(10)는 사용자가 꼰다리 자세를 유지하는 요가 운동을 완수하는 경우, 즉 해당 운동이 종료되는 경우에 또 다른 운동, 예컨대 팔굽혀펴기 운동에 대한 운동 종류 및 기준 동작에 대한 정보를 제공할 수 있다.In addition, when the user completes the yoga exercise that maintains the braided leg posture, that is, when the exercise ends, the exercise information processing device 10 performs another exercise, for example, an exercise type and a reference motion for a push-up exercise. information can be provided.

이후, 운동정보 처리장치(10)는 팔굽혀펴기 운동에 대해 사용자의 운동 횟수를 판별할 수 있다.Thereafter, the exercise information processing device 10 may determine the number of times the user exercises for the push-up exercise.

다르게 표현하면, 운동정보 처리장치(10)에서는 사용자에게 제 1 운동(First Exercise)에 대한 기준 동작에 대한 정보를 제공하고, 제 1 운동에 대한 운동 동작 및/또는 운동 횟수에 대한 정보를 판별/획득할 수 있다.In other words, the exercise information processing device 10 provides information on a reference motion for the first exercise to the user, and determines/ can be obtained

이후 운동정보 처리장치(10)는 제 1 운동이 종료되는 경우에 제 1 운동과 다른 제 2 운동(Second Exercise)의 기준 동작에 대한 정보를 더 제공하고, 제 2 운동에 대한 운동 동작 및/또는 운동 횟수에 대한 정보를 판별/획득할 수 있다.Thereafter, the exercise information processing device 10 further provides information on a reference motion of a second exercise different from the first exercise when the first exercise is ended, and an exercise motion for the second exercise and/or It is possible to determine/obtain information about the number of exercises.

여기서, 운동이 종료되는지를 판단하는 방법은 아래와 같다.Here, a method of determining whether the exercise is finished is as follows.

사용자의 제 1 운동에 대한 운동 횟수가 미리 설정된 기준 횟수에 도달하는 것을 제 1 조건이라 하고, 사용자의 제 1 운동에 대한 운동 동작이 기준 동작과 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우를 제 2 조건이라 가정하자.The first condition is that the number of exercises for the user's first exercise reaches a preset reference number, and the case where the exercise motion for the user's first exercise matches the reference motion and the preset reference ratio or more Let's assume 2 conditions.

여기서, 제 1 조건 또는 제 2 조건 중 적어도 하나가 만족할 때, 제 1 운동이 종료되는 것으로 판별할 수 있다.Here, when at least one of the first condition and the second condition is satisfied, it may be determined that the first exercise is ended.

이러한 방법으로 크로스핏과 같은 운동 시에 다양한 운동정보를 판별/획득하는 것이 가능하다.In this way, it is possible to determine/acquire various exercise information during exercise such as CrossFit.

이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, those skilled in the art to which the present invention pertains will understand that the above-described technical configuration of the present invention may be implemented in other specific forms without changing the technical spirit or essential characteristics of the present invention.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the embodiments described above are to be understood as illustrative and not restrictive in all respects, and the scope of the present invention is indicated by the following claims rather than the foregoing detailed description, and the meaning and scope of the claims And all changes or modifications derived from the equivalent concept should be construed as being included in the scope of the present invention.

Claims (20)

사용자의 운동 영상을 촬영하는 카메라부;
상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 종류 판별부;
상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 동작 판별부;
상기 운동 영상에서 배경을 추출하고, 상기 추출된 배경과 다른 색상을 갖는 부분을 움직이는 객체(Object)로 인식하는 객체 인식부; 및
상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 운동성 산출부;를 포함하는 장치.
a camera unit for photographing a user's exercise image;
a type determining unit for determining the type of exercise of the user based on the exercise image;
a motion determining unit for determining the user's motion motion based on the motion image;
an object recognition unit for extracting a background from the motion image and recognizing a part having a color different from the extracted background as a moving object; and
and a mobility calculator for classifying the movement of the moving object by varying the brightness over time, and calculating the mobility based on the direction and degree of the change in the brightness.
제 1 항에 있어서,
상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 시간 판별부를 더 포함하는 장치.
The method of claim 1,
The apparatus further comprising a time determining unit for measuring the user's exercise time based on the exercise image.
제 2 항에 있어서,
상기 운동 종류에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 정보 제공부를 더 포함하는 장치.
3. The method of claim 2,
The apparatus further comprising an information providing unit for providing recommendation information to the user based on at least one of the information on the exercise type, the information on the exercise motion, and the information on the exercise time.
제 3 항에 있어서,
상기 정보 제공부는 상기 운동 종류에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 성취도에 대한 정보를 더 제공하는 장치.
4. The method of claim 3,
The information providing unit further provides information on achievement to the user based on at least one of the information on the exercise type, the information on the exercise motion, and the information on the exercise time.
제 1 항에 있어서,
상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 기구 판별부를 더 포함하는 장치.
The method of claim 1,
When the type of exercise is an exercise using a weight mechanism, the apparatus further comprising a mechanism determining unit for determining a load (Load) set in the weight mechanism.
제 1 항에 있어서,
상기 동작 판별부는 상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성에 대한 정보를 더 제공하는 장치.
The method of claim 1,
The motion determining unit further provides information on the similarity between the user's exercise motion and a preset reference motion.
삭제delete 삭제delete 제 1 항에 있어서,
상기 종류 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 종류를 판별하는 장치.
The method of claim 1,
The type determining unit is a device for determining the type of exercise of the user based on the movement.
제 1 항에 있어서,
상기 동작 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별하는 장치.
The method of claim 1,
The motion determining unit determines the user's motion motion based on the motion.
사용자의 운동 영상을 촬영하는 단계;
상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 단계;
상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계;
상기 운동 영상에서 배경을 추출하고, 상기 추출된 배경과 다른 색상을 갖는 부분을 움직이는 객체(Object)로 인식하는 인식단계; 및
상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 단계;를 포함하는 방법.
taking a user's exercise video;
determining the type of exercise of the user based on the exercise image;
determining an exercise motion of the user based on the exercise image;
a recognition step of extracting a background from the motion image and recognizing a part having a color different from the extracted background as a moving object; and
and classifying the movement of the moving object by varying the brightness according to time, and calculating the mobility based on the direction and degree of the change in the brightness.
제 11 항에 있어서,
상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 단계를 더 포함하는 방법.
12. The method of claim 11,
The method further comprising the step of measuring a user's exercise time based on the exercise image.
제 12 항에 있어서,
상기 운동 종류에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 단계를 더 포함하는 방법.
13. The method of claim 12,
The method further comprising the step of providing recommendation information to the user based on at least one of the information on the exercise type, the information on the exercise motion, and the information on the exercise time.
제 12 항에 있어서,
상기 사용자에게 성취도에 대한 정보를 제공하는 단계를 더 포함하고,
상기 성취도에 대한 정보는 상기 운동 종류에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 도출되는 방법.
13. The method of claim 12,
Further comprising the step of providing information about the achievement to the user,
The information on the achievement is derived based on at least one of the information on the exercise type, the information on the exercise motion, and the information on the exercise time.
제 11 항에 있어서,
상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 단계를 더 포함하는 방법.
12. The method of claim 11,
When the exercise type is an exercise using a weight mechanism, the method further comprising the step of determining a load (Load) set in the weight mechanism.
제 11 항에 있어서,
상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성(정확성)에 대한 정보를 제공하는 단계를 더 포함하는 방법.
12. The method of claim 11,
The method further comprising the step of providing information about the similarity (accuracy) between the user's exercise motion and a preset reference motion.
삭제delete 삭제delete 제 11 항에 있어서,
상기 운동성을 근거로 하여 상기 사용자의 운동 종류를 판별하는 방법.
12. The method of claim 11,
A method of determining the type of exercise of the user based on the movement.
제 11 항에 있어서,
상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별하는 방법.
12. The method of claim 11,
A method of determining the exercise motion of the user on the basis of the movement.
KR1020160046719A 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information KR102425255B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160046719A KR102425255B1 (en) 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160046719A KR102425255B1 (en) 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information

Publications (2)

Publication Number Publication Date
KR20170119335A KR20170119335A (en) 2017-10-27
KR102425255B1 true KR102425255B1 (en) 2022-07-27

Family

ID=60300427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160046719A KR102425255B1 (en) 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information

Country Status (1)

Country Link
KR (1) KR102425255B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102493856B1 (en) * 2022-08-26 2023-02-01 임요셉 Method of providing composite video based on athletics video
KR102493843B1 (en) * 2022-08-26 2023-02-01 임요셉 Method of providing composite video based on athletics video

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013022214A2 (en) * 2011-08-05 2013-02-14 (주)앱스원 Apparatus and method for analyzing exercise motion
KR101582347B1 (en) * 2015-04-08 2016-01-04 (주)프로차일드 Personal Health Training Services Method and Systems

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040081668A (en) * 2003-03-15 2004-09-22 이종환 Automatic system and process of health club
KR20110017258A (en) * 2009-08-13 2011-02-21 에스케이씨앤씨 주식회사 Fitness learning system based on user's participation and the method of training
US9283429B2 (en) * 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
KR101416282B1 (en) * 2012-02-29 2014-08-12 디게이트 주식회사 Functional measurement and evaluation system for exercising Health and Rehabilitation based on Natural Interaction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013022214A2 (en) * 2011-08-05 2013-02-14 (주)앱스원 Apparatus and method for analyzing exercise motion
KR101582347B1 (en) * 2015-04-08 2016-01-04 (주)프로차일드 Personal Health Training Services Method and Systems

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102493856B1 (en) * 2022-08-26 2023-02-01 임요셉 Method of providing composite video based on athletics video
KR102493843B1 (en) * 2022-08-26 2023-02-01 임요셉 Method of providing composite video based on athletics video

Also Published As

Publication number Publication date
KR20170119335A (en) 2017-10-27

Similar Documents

Publication Publication Date Title
US10898755B2 (en) Method for providing posture guide and apparatus thereof
JP6703199B2 (en) Operating state evaluation system, operating state evaluation device, operating state evaluation server, operating state evaluation method, and operating state evaluation program
KR101980378B1 (en) Exercise motion guidance system using dynamic motion and body balance
CN108525261A (en) A kind of Intelligent mirror exercise guide method and system
US20150347717A1 (en) Hybrid personal training system and method
KR102356685B1 (en) Home training providing system based on online group and method thereof
JP2020174910A (en) Exercise support system
KR102425255B1 (en) Apparatus and Method for Processing of Exercise Information
KR102425256B1 (en) Apparatus and Method for Processing of Exercise Information
WO2023108842A1 (en) Motion evaluation method and system based on fitness teaching training
KR20170119337A (en) Apparatus and Method for Processing of Exercise Information
WO2021217947A1 (en) Handle type exercise counting method and terminal
KR102430305B1 (en) Apparatus and Method for Processing of Exercise Information
US20240042281A1 (en) User experience platform for connected fitness systems
KR102425254B1 (en) Apparatus and Method for Processing of Exercise Information
KR102430306B1 (en) Apparatus and Method for Processing of Exercise Information
KR102500621B1 (en) Apparatus and Method for Processing of Exercise Information
CN117292288A (en) Sports test method, system, electronic device, chip and storage medium
US11992745B2 (en) Method and system for assessing and improving wellness of person using body gestures
Youssef et al. VCOACH: A Virtual Coaching System Based on Visual Streaming
KR20160121460A (en) Fitness monitoring system
JP2021191356A (en) Correction content learning device, operation correction device and program
KR20170119341A (en) Apparatus and Method for Processing of Exercise Information
US11944870B2 (en) Movement determination method, movement determination device and computer-readable storage medium
CN115712405B (en) Picture presentation method and device, intelligent body-building display equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant