KR102500621B1 - Apparatus and Method for Processing of Exercise Information - Google Patents

Apparatus and Method for Processing of Exercise Information Download PDF

Info

Publication number
KR102500621B1
KR102500621B1 KR1020160046730A KR20160046730A KR102500621B1 KR 102500621 B1 KR102500621 B1 KR 102500621B1 KR 1020160046730 A KR1020160046730 A KR 1020160046730A KR 20160046730 A KR20160046730 A KR 20160046730A KR 102500621 B1 KR102500621 B1 KR 102500621B1
Authority
KR
South Korea
Prior art keywords
exercise
user
information
image
motion
Prior art date
Application number
KR1020160046730A
Other languages
Korean (ko)
Other versions
KR20170119340A (en
Inventor
이민순
최용식
박상현
조용인
서영철
박정수
김보성
Original Assignee
(주)아이들
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이들 filed Critical (주)아이들
Priority to KR1020160046730A priority Critical patent/KR102500621B1/en
Publication of KR20170119340A publication Critical patent/KR20170119340A/en
Application granted granted Critical
Publication of KR102500621B1 publication Critical patent/KR102500621B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0224Discounts or incentives, e.g. coupons or rebates based on user history
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0255Targeted advertisements based on user history
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Game Theory and Decision Science (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 운동정보 처리 장치 및 방법에 관한 것이다.
본 발명에 따른 운동정보 처리 장치는 미리 설정된 운동영역 내에서 복수의 사용자들 중 타깃(Target)으로 선택된 사용자의 운동 영상을 촬영하는 카메라부 및 상기 운동 영상을 근거로 하여 선택된 상기 사용자의 운동에 대한 정보를 획득하는 제어부를 포함할 수 있다.
The present invention relates to an exercise information processing apparatus and method.
An exercise information processing apparatus according to the present invention includes a camera unit for capturing an exercise image of a user selected as a target among a plurality of users in a preset exercise area, and a camera unit for the user's exercise selected based on the exercise image. It may include a control unit for obtaining information.

Description

운동정보 처리 장치 및 방법{Apparatus and Method for Processing of Exercise Information}Exercise information processing device and method {Apparatus and Method for Processing of Exercise Information}

본 발명은 운동정보 처리 장치 및 방법에 관한 것이다.The present invention relates to an exercise information processing apparatus and method.

생활수준 향상에 따라, 현대인들의 건강에 대한 관심이 급증하고 있다. 이에 대한 일환으로, 현대인들은 질병예방 및 개인의 취미로 운동을 하는 사람이 점차 증가하고 있는 실정이다.BACKGROUND ART With the improvement of living standards, people's interest in health is rapidly increasing. As part of this, modern people are gradually increasing the number of people who exercise for disease prevention and personal hobbies.

근래에 들어서는, 트레이너와 1:1로 운동을 진행하는 퍼스널 트레이닝(Personal Training, PT)이 각광받고 있다.In recent years, Personal Training (PT), which is a 1: 1 exercise with a trainer, is in the spotlight.

그러나 PT의 경우에는 비용이 비싸다는 단점이 있다.However, in the case of PT, the cost is expensive.

만약, 사용자가 혼자 운동을 진행하는 경우에는 본인의 동작의 정확성이나 본인이 진행하는 운동의 적절성을 판단하기 어렵다는 문제점이 있다.If the user exercises alone, there is a problem in that it is difficult to determine the accuracy of the user's motion or the appropriateness of the exercise performed by the user.

본 발명은 상기한 문제점을 해결하기 위해 도출된 것으로서, 사용자의 운동 영상을 촬영하고, 촬영한 운동 영상을 분석하여 운동에 대한 정보를 제공하는 운동정보 처리 장치 및 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide an exercise information processing apparatus and method for providing exercise information by photographing a user's exercise image and analyzing the photographed exercise image.

본 발명에 따른 운동정보 처리 장치는 미리 설정된 운동영역 내에서 복수의 사용자들 중 타깃(Target)으로 선택된 사용자의 운동 영상을 촬영하는 카메라부 및 상기 운동 영상을 근거로 하여 선택된 상기 사용자의 운동에 대한 정보를 획득하는 제어부를 포함할 수 있다.An exercise information processing apparatus according to the present invention includes a camera unit for capturing an exercise image of a user selected as a target among a plurality of users in a preset exercise area, and a camera unit for the user's exercise selected based on the exercise image. It may include a control unit for obtaining information.

또한, 상기 제어부는 상기 운동 영상을 근거로 하여 선택된 상기 사용자의 상기 운동영역 내에서의 경로에 대한 정보를 판별하는 경로 판별부를 포함할 수 있다.Also, the control unit may include a path determination unit that determines information about a path within the exercise area of the user selected based on the exercise image.

또한, 상기 제어부는 상기 운동 영상을 근거로 하여 상기 사용자가 사용하는 운동기구에 대한 정보를 판별하는 기구 판별부를 포함할 수 있다.In addition, the control unit may include a mechanism discrimination unit that determines information on the exercise equipment used by the user based on the exercise image.

또한, 상기 제어부는 상기 운동 영상을 근거로 하여 상기 사용자의 상기 운동기구에 대한 선호도에 대한 정보를 판별하는 선호도 판별부를 포함할 수 있다.Also, the control unit may include a preference determination unit that determines information about the user's preference for the exercise machine based on the exercise image.

또한, 상기 카메라부는 제 1 카메라(First Camera)와 제 2 카메라(Second Camera)를 포함하고, 상기 제 1 카메라가 상기 사용자를 촬영하는 과정에서 상기 사용자를 시야에서 놓치는 경우, 상기 제어부는 상기 제 2 카메라가 촬영한 영상에서 상기 사용자를 추적할 수 있다.In addition, the camera unit includes a first camera and a second camera, and when the first camera loses the user from the field of view while photographing the user, the controller controls the second camera. The user may be tracked in an image captured by a camera.

또한, 상기 제어부는 상기 운동 영상을 근거로 하여 상기 사용자의 운동의 종류를 판별하는 종류 판별부를 포함할 수 있다.Also, the control unit may include a type determining unit that determines the type of the user's exercise based on the exercise image.

또한, 상기 제어부는 상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 동작 판별부를 포함할 수 있다.In addition, the control unit may include a motion determining unit for discriminating an exercise motion of the user based on the exercise image.

또한, 상기 제어부는 상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 횟수 판별부를 포함할 수 있다.In addition, the control unit may include a number determination unit for determining the number of times of exercise of the user based on the exercise image.

또한, 상기 제어부는 상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 시간 판별부를 포함할 수 있다.In addition, the control unit may include a time determination unit for measuring the user's exercise time based on the exercise image.

또한, 상기 제어부는 상기 사용자가 상기 운동영역을 미리 지정된 기준 시간 이상 벗어나는 경우 상기 사용자의 운동이 종료되는 것으로 판단할 수 있다.In addition, the control unit may determine that the user's exercise ends when the user leaves the exercise area for more than a predetermined reference time.

본 발명에 따른 운동정보 처리방법은 카메라부가 미리 설정된 운동영역 내에서 복수의 사용자들 중 타깃(Target)으로 선택된 사용자의 운동 영상을 촬영하는 촬영단계 및 상기 운동 영상을 근거로 하여 선택된 상기 사용자의 운동에 대한 정보를 획득하는 정보획득단계를 포함할 수 있다.An exercise information processing method according to the present invention includes a photographing step of photographing an exercise image of a user selected as a target among a plurality of users in a preset exercise area by a camera unit, and an exercise of the user selected based on the exercise image It may include an information acquisition step of acquiring information about.

또한, 상기 정보획득단계는 상기 운동 영상을 근거로 하여 상기 사용자의 상기 운동영역 내에서의 경로에 대한 정보를 판별하는 단계를 포함할 수 있다.Also, the information acquisition step may include determining information about a path of the user within the exercise area based on the exercise image.

또한, 상기 정보획득단계는 상기 운동 영상을 근거로 하여 상기 사용자가 사용하는 운동기구에 대한 정보를 판별하는 단계를 더 포함할 수 있다.In addition, the information acquisition step may further include determining information about an exercise device used by the user based on the exercise image.

또한, 상기 정보획득단계는 상기 운동 영상을 근거로 하여 상기 사용자의 상기 운동기구에 대한 선호도에 대한 정보를 판별하는 단계를 포함할 수 있다.The information acquisition step may include determining information about the user's preference for the exercise equipment based on the exercise image.

또한, 상기 카메라부는 제 1 카메라(First Camera)와 제 2 카메라(Second Camera)를 포함하고, 상기 제 1 카메라가 상기 사용자를 촬영하는 과정에서 상기 사용자를 시야에서 놓치는 경우, 상기 제 2 카메라가 촬영한 영상에서 상기 사용자를 추적할 수 있다.In addition, the camera unit includes a first camera and a second camera, and when the first camera misses the user in the process of photographing the user, the second camera captures the user. The user can be tracked in one video.

또한, 상기 정보획득단계는 상기 운동 영상을 근거로 하여 상기 사용자의 운동의 종류를 판별하는 단계를 포함할 수 있다.Also, the information acquisition step may include determining the type of exercise of the user based on the exercise image.

또한, 상기 정보획득단계는 상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계를 포함할 수 있다.Also, the information acquisition step may include determining an exercise motion of the user based on the exercise image.

또한, 상기 정보획득단계는 상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 단계를 포함할 수 있다.Also, the information acquisition step may include determining the number of times of exercise of the user based on the exercise image.

또한, 상기 정보획득단계는 상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 단계를 더 포함할 수 있다.Also, the information acquisition step may further include measuring an exercise time of the user based on the exercise image.

또한, 상기 정보획득단계는 상기 사용자가 상기 운동영역을 미리 지정된 기준 시간 이상 벗어나는 경우 상기 사용자의 운동이 종료되는 것으로 판단하는 단계를 더 포함할 수 있다.The information acquisition step may further include determining that the user's exercise ends when the user leaves the exercise area for more than a predetermined reference time.

본 발명에 따른 운동정보 처리 장치 및 방법은 사용자의 운동 영상을 분석하여 사용자의 운동 동작, 운동 횟수 등에 대한 정보를 제공할 수 있어서, 보다 저렴한 비용으로 객관적이고 정확한 운동 정보를 사용자에게 제공할 수 있다는 효과가 있다.The exercise information processing apparatus and method according to the present invention can provide information about the user's exercise motion, exercise frequency, etc. by analyzing the user's exercise image, thereby providing objective and accurate exercise information to the user at a lower cost. It works.

도 1은 본 발명에 따른 운동정보 처리 장치의 구성에 대해 설명하기 위한 도면,
도 2 내지 도 33은 본 발명에 따른 운동 정보 처리 방법에 대해 설명하기 위한 도면,
도 34 내지 도 37은 본 발명에 따른 또 다른 운동 정보 처리 방법에 대해 설명하기 위한 도면이고,
도 38 내지 도 47은 운동 경로를 고려한 운동 정보 처리 방법에 대해 설명하기 위한 도면이다.
1 is a diagram for explaining the configuration of an exercise information processing device according to the present invention;
2 to 33 are diagrams for explaining an exercise information processing method according to the present invention;
34 to 37 are views for explaining another exercise information processing method according to the present invention,
38 to 47 are diagrams for explaining a method of processing exercise information in consideration of a motion path.

이하, 첨부된 도면을 참조하여 본 발명에 따른 운동정보 처리 장치 및 방법에 대해 상세히 설명한다.Hereinafter, an exercise information processing apparatus and method according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. This is not intended to limit the present invention to specific embodiments, and it can be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention.

본 발명을 설명함에 있어서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다.In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms. The terms may only be used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함할 수 있다.The terms and/or may include any combination of a plurality of related recited items or any of a plurality of related recited items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. can be understood On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it may be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions may include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In this application, terms such as "comprise" or "having" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features It may be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries may be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, interpreted in an ideal or excessively formal meaning. It may not be.

아울러, 이하의 실시예는 당 업계에서 평균적인 지식을 가진 자에게 보다 완전하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, the following embodiments are provided to more completely explain to those with average knowledge in the art, and the shapes and sizes of elements in the drawings may be exaggerated for clearer explanation.

도 1은 본 발명에 따른 운동정보 처리 장치의 구성에 대해 설명하기 위한 도면이다.1 is a diagram for explaining the configuration of an exercise information processing device according to the present invention.

도 1을 살펴보면, 본 발명에 따른 운동정보 처리 장치(10)는 제어부(100), 카메라부(300), 출력부(400), 사용자 입력부(500), 메모리부(600) 및 통신부(700)를 포함할 수 있다.1, the exercise information processing device 10 according to the present invention includes a control unit 100, a camera unit 300, an output unit 400, a user input unit 500, a memory unit 600, and a communication unit 700. can include

카메라부(300)는 제어부(100)의 제어에 따라 소정의 영상을 촬영할 수 있다. 예를 들면, 카메라부(300)는 사용자의 운동 영상을 촬영할 수 있다. 또는, 카메라부(300)는 소정의 운동 영역(헬스클럽 등)의 영상을 촬영하는 것이 가능하다.The camera unit 300 may capture a predetermined image under the control of the controller 100 . For example, the camera unit 300 may capture an exercise image of the user. Alternatively, the camera unit 300 can capture an image of a predetermined exercise area (eg, a gym).

카메라부(300)는 적어도 하나의 카메라를 포함할 수 있다.The camera unit 300 may include at least one camera.

출력부(400)는 제어부(100)의 제어에 따라 소정의 정보를 사용자가 확인가능하도록 출력할 수 있다. 자세하게는, 출력부(400)는 운동에 대한 정보, 예컨대 운동의 기준 동작, 기준 횟수 등에 대한 정보를 사용자가 확인할 수 있도록 출력할 수 있다.The output unit 400 may output predetermined information under the control of the control unit 100 so that the user can check it. In detail, the output unit 400 may output information about exercise, for example, information about a reference motion, a reference number of times, and the like of an exercise so that the user can check it.

출력부(400)는 표시부(410) 및 음성출력부(420)를 포함할 수 있다.The output unit 400 may include a display unit 410 and an audio output unit 420 .

표시부(410)는 다양한 정보를 영상으로 표시할 수 있다. 음성출력부(420)는 다양한 정보를 음성으로 출력할 수 있다.The display unit 410 may display various information as images. The audio output unit 420 may output various information as audio.

사용자 입력부(500)는 사용자가 소정의 명령을 입력하는데 사용될 수 있다. 이러한 사용자 입력부(500)는 키 입력부, 터치 입력부 또는 음성 입력부 중 적어도 하나를 포함할 수 있다.The user input unit 500 may be used for a user to input a predetermined command. The user input unit 500 may include at least one of a key input unit, a touch input unit, and a voice input unit.

메모리부(600)는 제어부(100)의 제어에 따라 다양한 정보를 저장할 수 있다. 예를 들면, 메모리부(600)는 기준 횟수, 기준 동작, 기준 시간 등에 대한 정보를 저장할 수 있다.The memory unit 600 may store various types of information under the control of the controller 100 . For example, the memory unit 600 may store information about a reference number of times, a reference operation, and a reference time.

통신부(700)는 다른 기기와 통신을 수행할 수 있다. 예를 들면, 통신부(700)는 제어부(100)의 제어에 따라 운동에 대한 정보 또는 편집된 운동영상을 다른 기기 혹은 미리 지정된 소정의 페이지(웹사이트)로 전송할 수 있다.The communication unit 700 may communicate with other devices. For example, the communication unit 700 may transmit exercise information or an edited exercise video to another device or a predetermined page (website) under the control of the control unit 100 .

제어부(100)는 운동정보 처리 장치(10)의 전반적인 동작을 제어할 수 있다.The controller 100 may control overall operations of the exercise information processing device 10 .

제어부(100)는 카메라부(300)가 촬영한 운동 영상을 근거로 하여 사용자의 운동에 대한 다양한 정보를 획득할 수 있다.The controller 100 may obtain various information about the user's exercise based on the exercise image captured by the camera unit 300 .

제어부(100)는 사용자의 운동의 시작과 종료를 판별할 수 있다.The controller 100 may determine the start and end of the user's exercise.

제어부(100)는, 사용자의 운동에 대한 다양한 정보를 획득하기 위해, 종류 판별부(110), 동작 판별부(120), 횟수 판별부(130), 시간 판별부(140), 기구 판별부(150), 추적부(160), 경로 판별부(170), 선호도 판별부(180), 객체 인식부(190), 운동성 판별부(200), 정보 제공부(210) 및 편집부(220)를 포함할 수 있다.The control unit 100 includes a type determination unit 110, an action determination unit 120, a number determination unit 130, a time determination unit 140, an apparatus determination unit ( 150), tracking unit 160, path determination unit 170, preference determination unit 180, object recognition unit 190, motility determination unit 200, information provision unit 210 and editing unit 220 can do.

종류 판별부(110)는 카메라부(300)가 촬영한 사용자의 운동 영상을 근거로 하여 사용자의 운동에 대한 운동 종류를 판별할 수 있다.The type determination unit 110 may determine the type of exercise for the user's exercise based on the user's exercise image captured by the camera unit 300 .

동작 판별부(120)는 운동 영상을 근거로 하여 사용자의 운동 동작을 판별할 수 있다.The motion determining unit 120 may determine the user's motion motion based on the motion image.

횟수 판별부(130)는 운동 영상을 근거로 하여 사용자의 운동 횟수를 판별할 수 있다.The number determination unit 130 may determine the number of times the user exercises based on the exercise image.

이러한 횟수 판별부(130)는 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 운동 횟수를 카운트할 수 있다.The number determination unit 130 may count the number of exercises when the user's exercise motion matches a preset standard ratio or more.

시간 판별부(140)는 운동 영상을 근거로 하여 사용자의 운동 시간을 판별할 수 있다.The time determination unit 140 may determine the user's exercise time based on the exercise image.

기구 판별부(150)는 사용자가 선택한 운동기구의 종류를 판별할 수 있다.The equipment determination unit 150 may determine the type of exercise equipment selected by the user.

아울러, 기구 판별부(150)는 운동 종류가 웨이트 기구를 이용한 운동인 경우, 웨이트 기구에 설정된 로드(Load)를 판별할 수 있다.In addition, when the exercise type is an exercise using a weight mechanism, the mechanism determining unit 150 may determine a load set in the weight mechanism.

추적부(160)는 미리 설정된 운동영역 내에서 복수의 사용자들 중 선택된 사용자를 타깃(Target)으로 추적할 수 있다.The tracking unit 160 may track a selected user among a plurality of users as a target within a preset exercise area.

경로 판별부(170)는 운동 영상을 근거로 하여 선택된 사용자의 운동영역 내에서의 경로에 대한 정보를 판별할 수 있다.The path determination unit 170 may determine information about a path within the selected user's exercise area based on the exercise image.

선호도 판별부(180)는 운동 기구에 대한 적어도 하나의 사용자의 선호도 혹은 온동 종류에 대한 적어도 하나의 사용자의 선호도를 판별할 수 있다.The preference determining unit 180 may determine at least one user's preference for exercise equipment or at least one user's preference for a warming type.

객체 인식부(190)는 운동 영상을 분석하여 움직이는 객체(Object)를 인식할 수 있다.The object recognizing unit 190 may recognize a moving object by analyzing the motion image.

운동성 산출부(200)는 객체 인식부(190)가 인식한 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출할 수 있다.The motility calculation unit 200 may classify the motion of the moving object recognized by the object recognition unit 190 by varying the brightness over time, and calculate the motility based on the direction and degree of change in brightness.

정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 추천 정보를 제공할 수 있다.The information providing unit 210 may provide recommendation information to the user based on at least one of information on the type of exercise, information on the number of exercises, or information on the exercise time.

아울러, 정보 제공부(210)는 운동 영상을 분석하여 획득한 다양한 정보를 사용자, 다른 기기 및/또는 미리 지정된 웹사이트에 제공할 수 있다.In addition, the information providing unit 210 may provide various information obtained by analyzing the exercise images to the user, other devices, and/or a predetermined website.

영상 편집부(220)는 사용자의 운동 영상에서 하이라이트 영상을 추출/편집할 수 있다.The image editing unit 220 may extract/edit a highlight image from the user's exercise image.

도 1의 구성의 운동 정보 처리 장치(10)는 다양한 형태의 하드웨어로 실현될 수 있다. 예를 들면, 본 발명에 따른 운동 정보 처리 장치(10)는 스마트 폰 등의 이동통신 단말기의 형태로 제작될 수 있고, 또는 CCTV 등의 고정된 단말기 형태로 제작되는 것도 가능할 수 있다.The exercise information processing device 10 configured in FIG. 1 may be realized with various types of hardware. For example, the exercise information processing device 10 according to the present invention may be manufactured in the form of a mobile communication terminal such as a smart phone, or may be manufactured in the form of a fixed terminal such as a CCTV.

이러한 구성의 운동 정보 처리 장치를 이용한 운동 정보 처리 방법에 대해 첨부된 도면을 참조하여 이하에서 상세히 설명한다.An exercise information processing method using the exercise information processing apparatus having this configuration will be described in detail below with reference to the accompanying drawings.

도 2 내지 도 37은 본 발명에 따른 운동 정보 처리 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 설명한 내용에 대한 설명은 생략될 수 있다.2 to 37 are diagrams for explaining an exercise information processing method according to the present invention. Hereinafter, description of the contents described above may be omitted.

도 2를 살펴보면, 본 발명에 따른 운동 정보 처리 방법에서는 먼저 운동 정초 처리 장치(10)를 셋팅(S100)할 수 있다.Referring to FIG. 2 , in the exercise information processing method according to the present invention, first, the exercise foundation processing device 10 may be set (S100).

셋팅단계에서는 카메라부(300)를 운동 영상을 촬영 가능한 위치에 배치하는 것이 가능하다.In the setting step, it is possible to place the camera unit 300 at a location where motion images can be captured.

또는, 운동 정보 처리 장치(10)를 운동 영상 촬영 모드로 설정할 수 있다.Alternatively, the exercise information processing device 10 may be set to an exercise image capturing mode.

필요에 따라, 사용자의 아이디(ID) 또는 비밀번호(PW) 등의 정보를 입력하여 사용자를 인증할 수 있다.If necessary, the user can be authenticated by inputting information such as the user's ID or password (PW).

촬영 명령이 입력되면, 카메라부(300)는 제어부(100)의 제어에 따라 사용자의 운동 영상을 촬영(S400)할 수 있다. 예를 들면, 도 3의 경우와 같이, 사용자(H)가 운동을 하는 영상을 이동통신 단말기 형태의 운동정보 처리장치(10)가 촬영하는 것이 가능하다.When a photographing command is input, the camera unit 300 may capture an exercise image of the user under the control of the controller 100 (S400). For example, as in the case of FIG. 3 , it is possible for the exercise information processing device 10 in the form of a mobile communication terminal to capture an image of the user H exercising.

이후, 제어부(100)는 카메라부(300)가 촬영한 운동 영상을 분석(S300)할 수 있다.Thereafter, the controller 100 may analyze the motion image captured by the camera unit 300 (S300).

아울러, 제어부(100)는 운동 영상을 분석한 결과물로 다양한 운동 정보를 판별(S400)할 수 있다.In addition, the controller 100 may determine various exercise information as a result of analyzing the exercise image (S400).

이후, 제어부(100)는 판별한 정보들을 근거로 하여 다양한 정보를 제공(S500)할 수 있다.Thereafter, the controller 100 may provide various information based on the determined information (S500).

정보 제공 단계에서는 통신부(700)가 제어부(100)의 제어에 따라 제어부(100)가 판별한 정보를 다른 기기 혹은 미리 지정된 홈페이지 등에 전송할 수 있다.In the information providing step, the communication unit 700 may transmit the information determined by the controller 100 to another device or a pre-designated homepage under the control of the controller 100 .

운동 영상을 분석하는 방법에 대해 살펴보면 아래와 같다.A method for analyzing motion images is described below.

도 4를 살펴보면, 운동 영상을 분석하는 단계(S300)에서는 먼저 운동 영상에서 배경을 추출(S310)할 수 있다. 자세하게는, 복수의 영상 프레임(Frame)을 비교하여 움직임이 없거나 매우 적은 부분을 배경으로 판단하고, 판단한 결과에 따라 배경을 추출할 수 있다.Referring to FIG. 4 , in the step of analyzing the motion image (S300), a background may be first extracted from the motion image (S310). In detail, a plurality of image frames are compared to determine a part without motion or very little as a background, and the background can be extracted according to the result of the determination.

예를 들면, 도 5의 경우와 같이, 제 1 프레임(First Frame, A)과 제 1 프레임(A) 이후의 제 2 프레임(Second Frame, B)을 비교하면, 제 2 프레임(B)에는 소정의 객체(Object, OB)가 포함되어 있고, 제 1 프레임(A)에는 객체(OB)가 포함되지 않은 것을 확인할 수 있다.For example, as in the case of FIG. 5 , when a first frame (A) and a second frame (B) after the first frame (A) are compared, the second frame (B) has a predetermined It can be seen that the object (OB) is included, and the object (OB) is not included in the first frame (A).

이러한 경우, 시간적으로 늦은 제 2 프레임(B)에 새롭게 추가된 객체(OB)를 움직이는 객체(OB)로 인식할 수 있다.In this case, the newly added object OB in the temporally late second frame B may be recognized as the moving object OB.

제 1 프레임(A)과 제 2 프레임(B)에서 객체(OB)를 제외한 나머지 부분의 영상은 거의 변화가 없다. 다르게 표현하면, 객체(OB)를 제외한 나머지 부분의 영상은 움직임이 거의 없다. 따라서, 객체(OB)를 제외한 나머지 부분을 모두 배경으로 인식할 수 있다.In the first frame (A) and the second frame (B), there is almost no change in the images of the remaining parts except for the object (OB). In other words, the image of the remaining part except for the object OB hardly moves. Accordingly, all parts other than the object OB may be recognized as a background.

또는, 운동영상에 움직이는 객체(OB)가 포착되지 않는 경우에는 제 1 프레임(A)과 같은 영상이 계속 이어질 수 있다. 이러한 경우, 제 1 프레임(A) 영상을 배경 영상이라고 인식할 수 있다. 다르게 표현하면, 제 1 프레임(A)에 나타난 모든 부분을 배경으로 인식할 수 있다.Alternatively, when the moving object OB is not captured in the motion image, an image such as the first frame A may continue. In this case, the first frame (A) image may be recognized as a background image. In other words, all parts appearing in the first frame A can be recognized as a background.

이처럼, 영상에서 미리 설정된 기준 프레임 기간 동안 움직임이 없는 부분을 배경으로 인식하고 추출하는 것이 가능하다.As such, it is possible to recognize and extract a non-moving part of an image as a background during a preset reference frame period.

제 1 프레임(A)과 유사한 배경 영상이 계속되다가 객체(OB)가 카메라부(300)에 포착되면, 제 2 프레임(B)과 유사한 영상이 획득될 수 있다. 만약, 객체(OB)가 계속해서 움직여서 화면을 벗어나면 다시금 제 1 프레임(A)과 같은 영상이 획득될 것이다.When a background image similar to the first frame A continues and the object OB is captured by the camera unit 300, an image similar to the second frame B may be obtained. If the object OB continues to move and leaves the screen, an image similar to that of the first frame A will be obtained again.

객체(OB)가 지나가기 이전 영상과 객체(OB)가 지나간 이후의 영상을 비교하면, 두 개의 영상은 거의 동일할 수 있다.If an image before the object OB passes and an image after the object OB passes is compared, the two images may be almost the same.

이처럼, 일정 기간 동안의 영상에서 객체(OB)가 이동하면서 영상에서 움직임이 감지되더라도, 객체(OB)가 포착되기 이전의 영상과 객체(OB)가 지나간 이후의 영상이 거의 동일하다면 해당 영상에 대응하는 부분이 대부분 배경일 수 있다.As such, even if motion is detected in the image as the object OB moves in the image for a certain period of time, if the image before the object OB is captured and the image after the object OB has passed are almost the same, it corresponds to the corresponding image. Most of what you do may be the background.

다르게 표현하면, 일정 기간 동안 영상에서 움직임에 따라 변화하는 부분이 있더라도, 그 변화가 시작되기 이전과 그 변화가 종료된 이후의 영상이 거의 동일하다면 해당 영상은 배경 영상인 것으로 인식될 수 있는 것이다.In other words, even if there is a part that changes according to movement in the image for a certain period of time, if the image before the change starts and after the change ends are almost the same, the corresponding image can be recognized as a background image.

배경을 추출한 이후, 배경의 색을 판별하여 그에 대한 정보를 저장할 수 있다.After extracting the background, the color of the background can be determined and information about it can be stored.

이후, 배경(배경이 되는 영상)과 다른 운동영상의 색을 비교(S320)할 수 있다.Thereafter, the color of the background (image that becomes the background) and other motion images may be compared (S320).

객체 인식부(190)는 운동영상에서 배경과 다른 색상을 갖는 부분을 움직이는 객체(OB)로 인식(S330)할 수 있다.The object recognizing unit 190 may recognize a part having a different color from the background in the motion image as a moving object OB (S330).

예를 들면, 도 6의 (A)와 같이, 배경과 다른 색을 갖는 부분, 즉 객체(OB)를 검출할 수 있다.For example, as shown in (A) of FIG. 6 , a part having a different color from the background, that is, the object OB may be detected.

아울러, 배경과 객체(OB)를 구분한 이후, 배경을 단색으로 처리할 수 있다. 예를 들면, 배경을 검은색으로 처리할 수 있다. 이러한 경우, 객체(OB)의 움직임을 보다 용이하게 분석할 수 있다.In addition, after distinguishing the background and the object OB, the background may be treated as a single color. For example, the background can be treated as black. In this case, the motion of the object OB can be more easily analyzed.

이후, 도 6의 (B)와 같이, 객체(OB)의 실루엣을 판별할 수 있다. 도 6의 (B)에서 왼쪽 상단의 붉은색 부분(ER)은, 사람의 형태와 너무 다르므로, 에러로 처리할 수 있다.Thereafter, as shown in (B) of FIG. 6 , the silhouette of the object OB may be determined. In (B) of FIG. 6, the red part (ER) in the upper left corner is too different from the shape of a person, so it can be treated as an error.

이러한 과정으로 운동영상에서 움직이는 객체(OB)를 인식할 수 있다.Through this process, it is possible to recognize a moving object (OB) in a motion image.

이후, 움직임 산출부(200)는 객체(OB)의 움직임을 분석(S340)할 수 있다.Then, the motion calculation unit 200 may analyze the motion of the object OB (S340).

아울러, 움직임 분석의 결과에 따라 운동성을 산출(S360)할 수 있다.In addition, mobility may be calculated according to the result of the motion analysis (S360).

자세하게는, 움직임 산출부(200)는 움직이는 객체(OB)의 움직임을 시간에 따라 밝기를 다르게 하여 구분할 수 있다. 아울러, 움직임 산출부(200)는 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출할 수 있다.In detail, the motion calculation unit 200 may distinguish the motion of the moving object OB by varying brightness according to time. In addition, the motion calculation unit 200 may calculate mobility based on the direction and degree of change in brightness.

예를 들면, 도 7의 경우와 같이, 객체(OB), 즉 사용자가 왼쪽 팔을 들어 올리는 경우를 가정하여 보자.For example, as in the case of FIG. 7 , assume a case where the object OB, that is, the user lifts the left arm.

도 7에서와 같이, 사용자 현재 모습은 상대적으로 밝게 처리하고, 이전 모습은 상대적으로 어둡게 처리할 수 있다.As shown in FIG. 7 , the current appearance of the user may be relatively bright and the previous appearance may be relatively dark.

이러한 경우, 어두운 부분에서 밝은 부분으로 사용자의 왼쪽 팔이 아래에서 위를 향해 움직인 것으로 판별할 수 있다. 즉, 운동방향을 판별할 수 있다.In this case, it can be determined that the user's left arm moved from the bottom to the top from the dark area to the light area. That is, the direction of movement can be determined.

아울러, 왼쪽 팔의 밝기 변화가 급격한지 혹은 완만한지에 따라 팔의 이동속도를 판별할 수 있다.In addition, the movement speed of the left arm may be determined according to whether the change in brightness of the left arm is rapid or gradual.

예를 들면, 도 8의 (A)와 같이, 객체(OB)가 축을 중심으로 180°(도) 회전하는 경우와 도 8의 (B)와 같이 객체(OB)가 축을 중심으로 90°(도) 회전하는 경우를 가정하여 보자.For example, as shown in (A) of FIG. 8, when the object OB rotates 180° (degrees) around an axis and as shown in (B) of FIG. 8, the object (OB) rotates 90° (degrees) around an axis. ) Let's assume the case of rotation.

도 8의 (A)와 (B)의 밝기의 변화가 동일한 경우에는 도 8의 (A)의 경우가 (B)의 경우에 비해 운동성이 더 크다는 것, 즉 움직임 속도가 더 빠른 것을 알 수 있다.When the change in brightness of (A) and (B) of FIG. 8 is the same, it can be seen that the case of (A) of FIG. 8 has greater mobility than the case of (B), that is, the movement speed is faster. .

또는, 도 9의 (A)와 (B)와 같이, 객체(OB)가 각각 축을 중심으로 180°(도) 회전하는 경우를 가정하여 보자.Alternatively, as shown in (A) and (B) of FIG. 9 , assume a case in which the object OB rotates 180° (degrees) around an axis, respectively.

도 9의 (A)에 비해 (B)의 경우에 밝기의 변화가 더 급격하게 발생하는 경우에는, 도 9의 (A)의 경우에는 상대적으로 짧은 시간동안 객체(OB)가 180°(도) 회전하고, 도 9의 (B)의 경우에는 상대적으로 긴 시간동안 객체(OB)가 180°(도) 회전하는 경우에 해당될 수 있다.When the change in brightness occurs more rapidly in (B) than in (A) of FIG. 9, in the case of (A) of FIG. 9, the object OB rotates 180° (degree) for a relatively short time. rotation, and in the case of (B) of FIG. 9 , it may correspond to a case where the object OB rotates 180° (degrees) for a relatively long time.

이에 따라, 도 9의 (A)의 경우가 (B)의 경우에 비해 운동성이 더 클 수 있다.Accordingly, the case of (A) of FIG. 9 may have greater mobility than the case of (B).

이와 같은 방법으로 움직이는 객체(OB)를 인식하고, 인식한 객체(OB)의 운동성을 산출하는 것이 가능하다.In this way, it is possible to recognize a moving object OB and calculate the movement of the recognized object OB.

한편, 움직임을 검출하기 위해 소정의 마스크(Mask)를 사용하는 것이 가능하다. 예를 들면, 영상의 특정 영역에 소정 크기의 마스크를 적용하고, 해당 마스크의 휘도 변화를 감지하여 운동성을 판별할 수 있다.Meanwhile, it is possible to use a predetermined mask to detect motion. For example, a mask having a predetermined size may be applied to a specific region of an image, and a change in luminance of the corresponding mask may be detected to determine mobility.

운동 정보를 판별하는 방법에 대해 살펴보면 아래와 같다.A method for determining exercise information is as follows.

이하에서 설명하는 운동 종류, 운동 동작, 운동 횟수, 운동 시간에 대한 정보 등은 운동성 산출부(200)가 산출한 운동성에 대한 정보를 근거로 하여 판별될 수 있다.Information about the type of exercise, exercise operation, number of exercises, and exercise time described below may be determined based on the information about the mobility calculated by the mobility calculation unit 200 .

도 10을 살펴보면, 정보 판별 단계(S400)에서는 운동 종류, 운동 동작, 운동 횟수, 운동 시간, 운동 기구, 운동 경로 또는 선호도 중 적어도 하나를 판별할 수 있다.Referring to FIG. 10 , in the information determination step (S400), at least one of an exercise type, exercise motion, exercise frequency, exercise time, exercise equipment, exercise route, or preference may be determined.

운동 동작 및/또는 종류를 판별하는 방법에 대해 살펴보면 아래와 같다.A method for determining an exercise motion and/or type is as follows.

운동의 종류별로 기준 동작에 대한 정보를 설정하여 저장할 수 있다. 예를 들면, 도 11의 경우와 같이, 팔굽혀펴기 운동의 경우 바닥(GND)과 사용자(H)의 다리 사이의 기준각도(Xb), 상체와 바닥(GND) 사이의 기준거리(Xa) 등에 대해 정보를 미리 설정할 수 있다.Information on the reference motion may be set and stored for each type of exercise. For example, as in the case of FIG. 11, in the case of a push-up exercise, a reference angle (Xb) between the floor (GND) and the leg of the user (H), a reference distance (Xa) between the upper body and the floor (GND), etc. information can be set in advance.

이후, 도 12의 (A), (B)와 같이 사용자가 운동을 진행하는 경우, 카메라부(300)가 사용자의 운동 영상을 촬영하면 동작 판별부(120)가 운동 영상을 분석하여 운동 동작에 대한 정보를 판별할 수 있다.Thereafter, when the user performs an exercise as shown in (A) and (B) of FIG. 12, when the camera unit 300 captures an exercise image of the user, the motion determination unit 120 analyzes the exercise image and determines the exercise motion. information can be identified.

동작 판별부(120)는 바닥과 다리 사이의 각도, 상체와 바닥 사이의 거리 등에 대한 운동 동작에 대한 정보를 판별/획득할 수 있다.The motion determination unit 120 may discriminate/obtain information about exercise motions, such as an angle between the floor and the leg, a distance between the upper body and the floor, and the like.

종류 판별부(110)는 동작 판별부(120)가 획득한 동작 정보를 미리 설정된 기준 운동 동작에 대한 정보와 비교할 수 있다.The type determining unit 110 may compare motion information acquired by the motion determining unit 120 with information on a preset reference motion.

예를 들어, 도 12의 (A)의 경우 바닥(GND)과 사용자(H)의 다리 사이의 각도가 제 1 각도(Xb1)이고, 상체와 바닥(GND) 사이의 거리가 제 1 거리(Xa1)인 경우, 제 1 각도(Xb1)가 미리 설정된 기준각도(Xb)와 어느 정도 유사한지 판별하고, 제 1 거리(Xa1)가 기준거리(Xa)와 어느 정도 유사한지를 판별할 수 있다.For example, in the case of (A) of FIG. 12 , the angle between the floor (GND) and the leg of the user (H) is the first angle (Xb1), and the distance between the upper body and the floor (GND) is the first distance (Xa1). ), it is possible to determine how similar the first angle Xb1 is to the preset reference angle Xb, and how similar the first distance Xa1 is to the reference distance Xa.

만약, 제 1 각도(Xb1)가 기준각도(Xb)와 미리 설정된 일정 범위 내에서 유사하고, 제 1 거리(Xa1)가 기준거리(Xa)와 미리 설정된 일정 범위 내에서 유사하다면, 도 12의 (A)와 같은 운동 형태를 팔굽혀펴기로 판별할 수 있다.If the first angle Xb1 is similar to the reference angle Xb within a predetermined range and the first distance Xa1 is similar to the reference distance Xa within a predetermined range, FIG. 12 ( The same type of exercise as A) can be identified as push-ups.

이와 같은 방법으로 도 12의 (B)의 운동 형태를 팔굽혀펴기로 판별하는 것이 가능하다.In this way, it is possible to determine the exercise type of FIG. 12 (B) as a push-up.

만약, 사용자가 도 13의 경우와 같은 형태로 운동을 하는 경우에는, 바닥(GND)과 다리 사이의 각도(제 3 각도(X2))가 미리 설정된 기준각도(Xb)와 미리 설정된 범위 내에서 유사하더라도, 사용자(H)의 상체가 바닥(GND)과 접촉하고 있으므로, 종류 판별부(110)는 해다 운동이 팔굽혀펴기가 아닌 것으로 인식할 수 있다.13, the angle between the floor (GND) and the leg (third angle (X2)) is similar to the preset reference angle (Xb) within a preset range. However, since the upper body of the user H is in contact with the floor GND, the type determination unit 110 may recognize that the exercise is not push-up.

여기서는, 설명의 편의를 위해 기준 정보에 대해 기준거리(Xa)와 기준각도(Xb)에 대해서만 설명하고 있지만, 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 엉덩이의 위치, 무릎의 각도, 머리의 위치, 양팔의 각도, 양손의 위치 등에 대한 정보를 기준정보로 설정할 수 있다.Here, only the reference distance Xa and the reference angle Xb are described for reference information for convenience of explanation, but the present invention may not be limited thereto. For example, information about the position of the hip, the angle of the knee, the position of the head, the angle of both arms, and the position of both hands may be set as reference information.

동작 판별부(120)는 운동 영상에서 운동 동작에 대한 정보를 판별/획득하고, 아울러 운동 정확성에 대한 정보도 판별할 수 있다.The motion determination unit 120 may discriminate/acquire information on an exercise motion from an exercise image, and may also determine information on exercise accuracy.

동작 판별부(120)는 사용자의 운동 동작이 미리 설정된 기준 동작과 얼마나 유사한지를 판별할 수 있다. 다르게 표현하면, 동작 판별부(120)는 사용자(H)가 얼마나 정확하고 좋은 폼(동작)으로 운동을 하는가를 판별할 수 있는 것이다.The motion determination unit 120 may determine how similar the user's exercise motion is to a preset reference motion. In other words, the action determination unit 120 can determine how accurately and in good form (action) the user H is exercising.

예를 들면, 도 14의 경우와 같이, 사용자의 운동 동작에서 팔각도, 팔을 굽히는 정도, 바닥과 다리 사이의 각도, 무릎 각도, 엉덩이 높이 등에 대한 정보를 미리 설정된 기준 운동 동작과 비교하여 각각 정확성에 대한 점수를 판별할 수 있다.For example, as in the case of FIG. 14, information about the angle of the arm, the degree of bending of the arm, the angle between the floor and the leg, the angle of the knee, the height of the hip, etc. in the user's exercise motion is compared with a preset reference exercise motion, and each accuracy score can be determined.

아울러, 동작 판별부(120)는 사용자의 운동의 기준 운동 동작 대비 정확성에 대해 종합평가 점수를 산출할 수 있다. 즉, 운동동작에 대해 모범답안을 설정해 놓고, 사용자의 운동 동작에 대해 점수를 평가하는 것이 가능하다.In addition, the motion determining unit 120 may calculate a comprehensive evaluation score for the accuracy of the user's motion compared to the reference motion motion. That is, it is possible to set a model answer for the exercise motion and evaluate the score for the user's exercise motion.

동작 판별부(120)가 평가하는 항목은 다양하게 변경될 수 있다.Items evaluated by the operation determination unit 120 may be variously changed.

예를 들어, 달리기 운동의 경우, 발을 내딛는 각도, 보폭, 팔의 각도, 상체 및 하체의 움직임 등의 항목을 평가하고, 평가 결과에 따라 정확성을 판별할 수 있다.For example, in the case of a running exercise, items such as a step angle, stride length, arm angle, upper and lower body movements, etc. may be evaluated, and accuracy may be determined according to the evaluation result.

아울러, 동작 판별부(120)는 사용자의 운동에 대해 난이도를 평가하는 것도 가능하다.In addition, the motion determination unit 120 may also evaluate the difficulty of the user's exercise.

예를 들면, 사용자가 도 15의 (A), (B), (C), (D) 또는 (E)와 같은 형태로 운동을 진행하는 경우, 동작 판별부(120)는 도 15의 (A), (B), (C), (D), (E)의 경우를 모두 팔굽혀펴기 운동으로 판별할 수 있다.For example, when the user performs an exercise in the form of (A), (B), (C), (D) or (E) of FIG. 15, the motion determination unit 120 (A) of FIG. ), (B), (C), (D), and (E) can all be identified as push-ups.

아울러, 동작 판별부(120)는 도 15의 (A)와 같은 경우의 난이도를 제 1 레벨(First Level)로 판별하고, 도 15의 (B)와 같은 경우의 난이도를 제 1 레벨보다 난이도가 높은 제 2 레벨(Second Level)로 판별하고, 도 15의 (C)와 같은 경우의 난이도를 제 2 레벨보다 높은 제 3 레벨(Third Level)로 판별하고, 도 15의 (D)와 같은 경우의 난이도를 제 3 레벨보다 높은 제 4 레벨(Fourth Level)로 판별하고, 도 15의 (E)와 같은 경우의 난이도를 제 4 레벨보다 높은 제 5 레벨(Fifth Level)로 판별하는 것이 가능하다.In addition, the operation determination unit 120 determines the degree of difficulty in the case of FIG. 15 (A) as a first level, and sets the degree of difficulty in the case of FIG. 15 (B) to a level higher than the first level. It is determined as a high second level, and the difficulty in the case of FIG. 15 (C) is determined as a third level higher than the second level, and the case of FIG. 15 (D) It is possible to determine the degree of difficulty as a fourth level higher than the third level, and to determine the degree of difficulty in the case of FIG. 15(E) as a fifth level higher than the fourth level.

이상에서는 맨손운동(팔굽혀펴기)의 경우에 대해 설명하였지만, 이상의 내용은 기구를 이용하는 운동에도 적용될 수 있다.In the above, the case of bare-handed exercise (push-up) has been described, but the above information can also be applied to exercise using equipment.

동작 판별부(120)의 동작의 정확성 판별 기준은 맨손 운동, 기구 운동 별로 다르게 설정될 수 있으며, 아울러 기구의 종류에 따라 다르게 설정되는 것이 가능하다.The criterion for determining the accuracy of the operation of the operation determination unit 120 may be set differently for each exercise with bare hands and for each exercise with equipment, and may also be set differently according to the type of equipment.

도 16과 같이, 사용자(H)가 소정의 운동기구(800)를 사용하여 운동을 진행하는 경우에, 이동통신 단말기 형태의 운동정보 처리장치(10)는 이에 대한 운동 영상을 촬영할 수 있다.As shown in FIG. 16 , when the user H performs an exercise using a predetermined exercise device 800, the exercise information processing device 10 in the form of a mobile communication terminal may capture an exercise image.

이러한 경우, 운동정보 처리장치(10)는 위에서 설명한 내용에 따라 운동의 종류 및 운동 동작에 대한 정보를 분석/판별할 수 있다.In this case, the exercise information processing device 10 may analyze/determine information on the type of exercise and motion motion according to the above description.

운동정보 처리장치(10)의 기구 판별부(150)는 사용자(H)가 운동을 하는데 사용하는 운동기구(800)의 종류를 판별할 수 있다.The equipment determination unit 150 of the exercise information processing device 10 may determine the type of exercise equipment 800 used by the user H to exercise.

예를 들면, 메모리부(600)에 각각의 운동기구에 대한 형태 정보 및 이미지 정보를 저장하고, 이를 운동 영상에 나타난 운동기구와 비교하여 사용자가 사용하는 운동기구가 어떠한 것인지를 판별하는 것이 가능하다.For example, it is possible to determine which type of exercise machine the user is using by storing shape information and image information for each exercise machine in the memory unit 600 and comparing it with the exercise machine shown in the exercise image. .

또는, 각각의 운동기구에 기구를 식별할 수 있는 바코드와 같은 식별정보를 할당하고, 이를 이용하여 운동기구를 판별하는 것도 가능할 수 있다.Alternatively, it may be possible to allocate identification information such as a barcode capable of identifying the equipment to each exercise equipment, and to determine the exercise equipment using this.

아울러, 기구 판별부(150)는 종류 판별부(110)가 판별한 운동 종류가 웨이트 기구를 이용한 운동인 경우, 웨이트 기구에 설정된 로드(Load)를 판별할 수 있다.In addition, when the type of exercise determined by the type determining unit 110 is an exercise using a weight mechanism, the mechanism determination unit 150 may determine a load set in the weight mechanism.

예를 들어, 메모리부(600)에 각 운동기구에 사용되는 무게추의 무게, 크기, 형태 등에 대한 정보를 미리 저장하고, 이를 이용하여 운동영상에 나타나 있는 사용자가 사용하는 무게추와 비교하여 총 로드를 판별할 수 있다.For example, information on the weight, size, shape, etc. of weights used for each exercise device is stored in advance in the memory unit 600, and the total weight is compared with the weights used by the user shown in the exercise video using this information. load can be identified.

또는, 운동기구에 스트레인게이지를 설치하고, 이를 이용하여 기구의 로드를 확인하는 것이 가능하다.Alternatively, it is possible to install a strain gauge on an exercise device and check the load of the device using the strain gauge.

시간 판별부(140)는 운동영상을 근거로 하여 사용자의 운동시간을 측정/판별할 수 있다.The time determining unit 140 may measure/determine the user's exercise time based on the exercise image.

예를 들어, 사용자의 운동 영상을 분석한 결과 도 17과 같은 결과를 획득한 경우를 가정하여 보자.For example, let's assume a case where the result shown in FIG. 17 is obtained as a result of analyzing the user's exercise image.

도 17을 살펴보면, T0시점에서 운동을 시작하여 Te시점에서 운동을 종료하는 과정에서, T1-T2, T3-T4, T5-T6 기간 동안 사용자의 운동성이 평균값(Aa)을 넘을 수 있다.Referring to FIG. 17, in the process of starting the exercise at time T0 and ending the exercise at time Te, the user's mobility may exceed the average value Aa during the periods T1-T2, T3-T4, and T5-T6.

이러한 경우, 시간 판별부(140)는 사용자는 T1-T2, T3-T4 및 T5-T6 기간 동안 운동을 실시하고, T0-T1, T2-T3, T4-T5 및 T6-Te 기간 동안에는 휴식을 취한 것으로 판별할 수 있다.In this case, the time determination unit 140 determines that the user exercises during periods T1-T2, T3-T4, and T5-T6, and takes a break during periods T0-T1, T2-T3, T4-T5, and T6-Te. can be identified as

이처럼, 시간 판별부(140)는 사용자의 운동 시간에 대한 정보 뿐 아니라 휴식 시간에 대한 정보도 판별할 수 있다.In this way, the time determination unit 140 may determine information on a break time as well as information on a user's exercise time.

이상에서 설명한 운동 종류, 운동 동작, 운동 시간, 운동 기구에 대한 정보 등은 사용자에게 확인 가능한 형태로 가공되어 제공될 수 있다.The above-described exercise type, exercise operation, exercise time, information on exercise equipment, etc. may be processed and provided in a form that can be checked by the user.

예를 들면, 도 18의 경우와 같이, 사용자가 벤치프레스 운동을 실시한 경우, 해당 운동의 총 운동시간, 휴식시간, 셋트 수, 각 셋트별 운동 횟수, 각 셋트별 로드(무게), 각 셋트별 운동시간 등에 대한 정보를 사용자에게 제공할 수 있다.For example, as in the case of FIG. 18, when the user performs a bench press exercise, the total exercise time, rest time, number of sets, number of exercises for each set, load (weight) for each set, and each set Information about exercise time and the like may be provided to the user.

운동 셋트에 대한 정보는 앞선 도 17에서와 같은 방법으로 판별될 수 있다.Information on the exercise set can be determined in the same way as in FIG. 17 above.

횟수 판별부(130)는 운동 영상을 근거로 하여 사용자의 운동 횟수를 판별할 수 있다.The number determination unit 130 may determine the number of times the user exercises based on the exercise image.

예를 들어, 도 19와 같이 사용자(H)가 팔굽혀펴기 운동을 실시하는 경우에, 엎드린 상태에서 팔을 굽혔다가 펴는 동작을 팔굽혀펴기 운동 1회로 판별할 수 있다. 만약, 사용자가 팔을 굽히지 않고 계속 편 상태를 유지한다면 아무리 오랜 시간이 지나더라도 팔굽혀펴기 운동을 하지 않은 것으로 판별될 수 있다.For example, as shown in FIG. 19 , when the user H performs a push-up exercise, a motion of bending and straightening his arm in a prone state may be determined as one push-up exercise. If the user maintains an extended state without bending the arm, it may be determined that the user did not perform a push-up exercise no matter how long a time elapses.

횟수 판별부(130)는 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트하는 것이 바람직할 수 있다.It may be desirable for the number determination unit 130 to count the number of times when the user's exercise motion matches a preset reference ratio or more to a preset reference motion.

예를 들어, 도 20의 (A)와 같이, 팔굽혀펴기 운동의 경우 바닥(GND)과 사용자(H)의 다리 사이의 기준각도(Xb), 상체와 바닥(GND) 사이의 기준거리(Xa) 등에 대해 정보를 미리 설정할 수 있다.For example, as shown in (A) of FIG. 20, in the case of a push-up exercise, a reference angle (Xb) between the floor (GND) and the leg of the user (H), a reference distance (Xa) between the upper body and the floor (GND) ), etc., information can be set in advance.

이후, 도 20의 (B)와 같이 사용자가 팔굽혀펴기 운동을 진행하는 경우, 바닥(GND)과 사용자(H)의 다리 사이의 각도가 제 3 각도(Xb3)이고, 상체와 바닥(GND) 사이의 거리가 제 3 거리(Xa3)인 경우, 제 3 각도(Xb3)가 미리 설정된 기준각도(Xb)와 어느 정도 유사한지 판별하고, 제 3 거리(Xa3)가 기준거리(Xa)와 어느 정도 유사한지를 판별할 수 있다.Thereafter, when the user performs a push-up exercise as shown in (B) of FIG. 20, the angle between the floor (GND) and the user's (H) leg is the third angle (Xb3), and the upper body and the floor (GND) When the distance between them is the third distance Xa3, it is determined how similar the third angle Xb3 is to the preset reference angle Xb, and to what extent the third distance Xa3 is equal to the reference distance Xa. similarity can be determined.

판별한 결과, 제 3 각도(Xb3)가 기준동작(기준각도(Xb))과 기준 비율 이상 매칭되고, 제 3 거리(Xa3)가 기준동작(기준거리(Xa))과 기준 동작과 기준 비율 이상 매칭되는 경우에 사용자(H)가 팔굽혀펴기 운동을 1회 실시한 것으로 판별할 수 있다.As a result of the determination, the third angle (Xb3) matches the reference motion (reference angle (Xb)) and the reference ratio or more, and the third distance (Xa3) matches the reference motion (reference distance (Xa)), the reference motion, or more than the reference ratio. In the case of matching, it may be determined that the user H performed a push-up exercise once.

만약, 사용자가 도 21의 (B)의 경우와 같은 형태로 운동을 하는 경우에는, 바닥(GND)과 다리 사이의 각도(Xb4)가 기준각도(Xb)와 기준 비율 이상 매칭되더라도, 사용자(H)의 상체와 바닥(GND)과의 거리(Xa4)가 변화가 없으므로, 즉 사용자(H)의 상체와 바닥(GND)과의 거리(Xa4)가 기준 동작과 기준 비율 이상 매칭되지 않으므로, 팔굽혀펴기 운동을 실시하지 않은 것으로 판별할 수 있다.If the user exercises in the form of (B) of FIG. 21, even if the angle Xb4 between the floor GND and the leg matches the reference angle Xb and the reference ratio or more, the user H ), since the distance Xa4 between the upper body and the floor GND does not change, that is, the distance Xa4 between the user H's upper body and the floor GND does not match the standard motion and the standard ratio or more, It can be determined that the stretching exercise was not performed.

운동 횟수를 판별하는 방법은 팔굽혀펴기 등의 맨손 운동 뿐 아니라 기구를 이용하는 기구 운동의 경우에도 적용될 수 있다.The method of determining the number of exercises can be applied not only to bare-handed exercises such as push-ups, but also to machine exercises using a machine.

예를 들면, 도 22와 같이, 사용자(H)가 풀다운 운동기구(810)를 사용하는 경우를 가정하여 보자.For example, as shown in FIG. 22, let's assume a case in which the user H uses the pull-down exercise device 810.

이러한 경우, 사용자(H)가 팔을 올려다가 내리는 동작을 하면서, 이와 함께 풀다운 운동기구(810)의 손잡이가 사용자(H)의 팔과 함께 상하로 움직여야만 풀다운 운동을 1회 실시한 것으로 판별될 수 있다.In this case, it can be determined that the pull-down exercise has been performed once only when the handle of the pull-down exercise device 810 moves up and down together with the user H's arm while the user H raises and lowers his arm. there is.

정보 제공부(210)는 운동 결과에 대한 정보를 사용자에게 제공할 수 있다.The information providing unit 210 may provide information about exercise results to the user.

예를 들면, 도 23의 (A)의 경우와 같이, 사용자가 실시한 팔굽혀펴기 운동에 대해 사용자의 현재 상태(사용자가 실시한 팔굽혀펴기 운동의 횟수), 평균 횟수 및 목표치에 대한 정보를 함께 제공하는 것이 가능하다.For example, as in the case of (A) of FIG. 23, the user's current state (the number of push-up exercises performed by the user), average number of push-ups, and information on the target value for push-up exercises performed by the user are provided together. It is possible.

또는, 도 23의 (B)와 같이, 풀다운 운동의 경우, 현재 상태(사용자가 실시한 풀다운 운동의 로드(무게)), 평균 로드 및 목표치에 대한 정보를 함께 제공하는 것이 가능하다.Alternatively, as shown in (B) of FIG. 23, in the case of a pull-down exercise, it is possible to provide information on the current state (load (weight) of the pull-down exercise performed by the user), average load, and target value.

도 23의 (C)에는 벤치프레스 운동의 경우가 개시되어 있다.23 (C) discloses the case of bench press exercise.

정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 성취도에 대한 정보를 제공하는 것이 바람직할 수 있다. 성취도는 운동 횟수가 많을수록, 운동 시간이 짧을수록 상승할 수 있다.It may be desirable for the information providing unit 210 to provide information on achievement to the user based on at least one of information on the type of exercise, information on the number of exercises, and information on exercise time. The higher the number of exercises and the shorter the exercise time, the higher the achievement level.

예를 들면, 도 23의 (A)와 도 24의 (A)를 참조하면, 팔굽혀펴기 운동의 경우 사용자의 성취도는 평균 횟수 대비 80%이고, 목표치 대비 67%일 수 있다.For example, referring to FIGS. 23(A) and 24(A) , in the case of a push-up exercise, the user's achievement may be 80% of the average number of times and 67% of the target value.

성취도 정보는 풀다운 운동 및 벤치프레스 운동의 경우에도 적용될 수 있다.Achievement information may also be applied to pull-down exercise and bench press exercise.

아울러, 정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 추천 정보를 제공할 수 있다. 여기서, 추천 정보는 운동 횟수에 대한 추천 정보, 운동 시간에 대한 추천 정보 또는 운동 종류에 대한 추천 정보 중 적어도 하나를 포함할 수 있다.In addition, the information providing unit 210 may provide recommended information to the user based on at least one of information on the type of exercise, information on the number of exercises, or information on the exercise time. Here, the recommendation information may include at least one of recommendation information on the number of times of exercise, recommendation information on exercise time, or recommendation information on the type of exercise.

예를 들면, 도 24의 (B)와 같이, 팔굽혀펴기 운동의 경우 실시 횟수를 20% 늘릴 것을 추천하고, 풀다운 운동의 경우 로드를 16%늘릴 것을 추천하고, 벤치프레스 운동의 경우 횟수를 30%줄일 것을 추천할 수 있다. 아울러, 벤치프레스 운동의 횟수를 줄이는 대신에 버터플라이 운동을 추가할 것을 추천할 수 있다. 이는 벤치프레임 운동에 대한 성취도가 도 24의 (A)에서와 같이 100%를 넘었기 때문이다.For example, as shown in (B) of FIG. 24, in the case of push-up exercise, it is recommended to increase the number of executions by 20%, in the case of pull-down exercise, it is recommended to increase the load by 16%, and in the case of bench press exercise, it is recommended to increase the number of times by 30 A reduction of % can be recommended. In addition, instead of reducing the number of bench press exercises, it can be recommended to add butterfly exercises. This is because the achievement of the bench frame exercise exceeded 100% as shown in FIG. 24 (A).

또는, 도 25의 (A)와 같이, 팔굽혀펴기 운동의 경우 무릎을 좀 더 곧게 펴라는 등의 운동 동작에 대한 추천정보를 사용자에게 제공하는 것이 가능하다.Alternatively, as shown in (A) of FIG. 25 , in case of a push-up exercise, it is possible to provide the user with recommended information about an exercise operation, such as straightening the knees.

이와 함께, 사용자가 보다 용이하게 이해할 수 있도록, 도 25의 (B)와 같이, 바람직한 팔굽혀펴기 동작에 대한 일례를 표시부(410)에 표시할 수 있다.In addition, as shown in (B) of FIG. 25, an example of a desirable push-up motion may be displayed on the display unit 410 so that the user can more easily understand.

추천 정보의 제공은 팔굽혀펴기 등의 운동 횟수와 관련이 있는 운동 이외에 운동 동작 자체가 중요하게 여겨지는 요가 등의 운동에도 적용될 수 있다.The provision of recommendation information may be applied to exercises such as yoga, in which the exercise itself is considered important, in addition to exercises related to the number of exercises, such as push-ups.

예를 들면, 26의 (A)와 같이, 사용자(H)가 요가 운동을 실시하면, 사용자의 운동 영상으로부터 운동 동작 정보(MD)를 추출할 수 있다.For example, as shown in (A) of 26, when the user H performs a yoga exercise, exercise motion information MD may be extracted from the user's exercise image.

도 26에서는 설명의 편의를 위해, 도 26의 (B)와 같이 골격의 움직임으로 운동 동작을 표현하였지만 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 요가 운동의 경우에도 앞서 설명한 객체 인식부(190) 및 운동성 산출부(200)에 의해 운동성이 분석/판별될 수 있다.In FIG. 26, for convenience of explanation, exercise motions are represented by movements of the skeleton as shown in (B) of FIG. 26, but the present invention may not be limited thereto. For example, even in the case of yoga exercise, mobility can be analyzed/determined by the object recognition unit 190 and the mobility calculation unit 200 described above.

사용자의 운동 동작 정보(MD)가 획득되면, 도 26의 (C)와 같이, 사용자의 운동 동작 정보(MD)를 미리 설정된 기준 동작 정보(SD)와 비교할 수 있다.When the user's exercise motion information (MD) is obtained, as shown in FIG. 26 (C), the user's exercise motion information (MD) may be compared with preset reference motion information (SD).

비교결과, 사용자의 동작 정보(MD)와 기준 동작 정보(SD)의 유사성을 성취도로서 판별할 수 있다.As a result of the comparison, the similarity between the motion information MD of the user and the reference motion information SD may be determined as an achievement level.

예를 들면, 도 27의 (A)와 같이, 사용자의 요가 운동에서 팔동작은 기준 동작 정보(SD)와 92%유사하고, 다리동작은 95%유사하고, 몸통동작은 98%유사한다는 정확성에 대한 정보를 판별할 수 있다. 다르게 표현하면, 사용자의 요가 동작은 팔동작 항목에서 92%의 정확성을 갖는 것으로 볼 수 있다.For example, as shown in (A) of FIG. 27, in the user's yoga exercise, the arm motion is 92% similar to the reference motion information (SD), the leg motion is 95% similar, and the trunk motion is 98% similar to the accuracy. information can be identified. In other words, the user's yoga motion can be regarded as having 92% accuracy in the arm motion category.

이러한 정확성에 대한 정보를 바탕으로, 도 27의 (B)와 같이, 사용자에게 해당 운동에 대한 추천 정보를 제공할 수 있다.Based on this accuracy information, as shown in (B) of FIG. 27, recommendation information for a corresponding exercise may be provided to the user.

성취도는 로드, 횟수와 관계없이 운동시간에 따라 결정되는 것도 가능할 수 있다.It may also be possible that the achievement level is determined according to the exercise time regardless of the load or the number of times.

예를 들면, 도 28의 (A)와 같이, 벤치프레스 운동, 풀다운 운동, 팔굽혀펴기 운동, 달리기 등 다양한 운동의 운동 시간에 대한 성취도를 판별/제공할 수 있다.For example, as shown in (A) of FIG. 28 , it is possible to determine/provide achievement levels for exercise time of various exercises such as bench press exercise, pull-down exercise, push-up exercise, and running.

아울러, 도 28의 (B)와 같이, 각 운동의 성취도에 근거하여 사용자에게 추천 정보를 제공할 수 있다.In addition, as shown in (B) of FIG. 28, recommendation information may be provided to the user based on the achievement level of each exercise.

예를 들면, 사용자의 팔굽혀펴기 운동의 운동시간이 평균(10분)보다 적은 경우, 사용자에게 팔굽혀펴기 운동에 좀 더 시간을 투자하라는 내용을 추천 정보를 사용자에게 제공하는 것이 가능하다.For example, if the user's push-up exercise time is shorter than the average (10 minutes), it is possible to provide the user with recommendation information telling the user to invest more time in the push-up exercise.

운동시간에 따른 성취도는 요가, 달리기 등의 운동에 적용되는 것이 바람직할 수 있다.It may be desirable to apply the achievement according to exercise time to exercise such as yoga and running.

예를 들면, 도 29의 (A)와 같이, 요가 운동 시 사용자(H)가 메뚜기 자세, 견상 자세, 쟁기 자세 및 독수리 자세를 취하는 경우를 가정하여 보자.For example, as shown in (A) of FIG. 29 , it is assumed that the user H assumes a grasshopper posture, a dog posture, a plow posture, and an eagle posture during yoga exercise.

이러한 경우, 사용자가 메뚜기 자세를 취하고 그 자세는 유지한 시간(60초)을 미리 설정된 기준 시간(60초)과 비교하여 성취도(100%)를 판별/제공할 수 있다.In this case, it is possible to determine/provide an achievement level (100%) by comparing the time (60 seconds) for which the user assumes the grasshopper posture and maintains the posture with a preset reference time (60 seconds).

아울러, 성취도에 근거하여 사용자에게 독수리 자세 시간을 줄이고 견상 자세 및 쟁기 자세의 연습 시간을 늘리라는 등의 추천 정보를 제공할 수 있다.In addition, based on the level of achievement, it is possible to provide recommendation information to the user, such as reducing the eagle posture time and increasing the practice time for the dog posture and the plow posture.

한편, 난이도에 따라 추천 정보를 다르게 제공하는 것이 가능하다.Meanwhile, it is possible to differently provide recommendation information according to the degree of difficulty.

예를 들어, 도 30의 경우와 같이, 팔굽혀펴기 운동의 경우 10분 동안 100번 실시하는 경우를 레벨 1로 설정하고, 10분 동안 130번 실시하는 경우를 레벨 2, 10분 동안 160번 실시하는 경우를 레벨 3, 10분 동안 190번 실시하는 경우를 레벨 4, 10분 동안 220번 실시하는 경우를 레벨 5로 설정하는 경우를 가정하자.For example, as in the case of FIG. 30, in the case of push-up exercise, level 1 is set for 100 times for 10 minutes, and level 2 is for 130 times for 10 minutes, 160 times for 10 minutes. Let's assume that level 3 sets the case of performing 190 times for 10 minutes as level 4, and level 5 sets the case of performing 220 times for 10 minutes.

도 31의 (A)와 같이, 레벨 2 단계인 사용자 A가 10분 동안 총 90개의 팔굽혀펴기 운동을 실시하여 성취도가 69%인 경우에는, 도 31의 (B)와 같이 레벨 1로 레벨을 하향조정할 것을 추천할 수 있다.As shown in (A) of FIG. 31, when user A at the level 2 stage performs a total of 90 push-ups for 10 minutes and the achievement is 69%, the level is set to level 1 as shown in (B) of FIG. Downgrading can be recommended.

또는, 운동정보 처리장치(10)에서 강제로 사용자 A의 레벨을 레벨 2에서 레벨 1로 낮출 수 있다.Alternatively, the exercise information processing device 10 may forcibly lower the level of user A from level 2 to level 1.

반면에, 도 32의 (A)와 같이, 레벨 4 단계인 사용자 B가 10분 동안 총 230개의 팔굽혀펴기 운동을 실시하여 성취도가 121인 경우에는, 도 32의 (B)와 같이 레벨 5로 레벨을 상향조정할 것을 추천할 수 있다.On the other hand, as shown in (A) of FIG. 32, when user B at level 4 performs a total of 230 push-ups for 10 minutes and his achievement is 121, he moves to level 5 as shown in (B) of FIG. I can recommend upgrading the level.

또는, 운동정보 처리장치(10)에서 강제로 사용자 B의 레벨을 레벨 4에서 레벨 5로 높일 수 있다.Alternatively, the exercise information processing device 10 may forcibly raise the level of user B from level 4 to level 5.

정보 제공부(210)는 사용자로부터 수집한 다양한 정보를 다른 사용자들의 정보와 비교하여 사용자의 건강 상태에 대한 정보를 제공할 수 있다.The information providing unit 210 may compare various information collected from the user with information of other users to provide information on the health status of the user.

예를 들면, 도 33의 경우와 같이, 사용자의 운동 영상을 분석하여 판별/획득한 정보를 빅데이터와 비교하여 사용자의 현재 근력, 근지구력, 심폐지구력 등의 정보를 예측하고, 이에 대한 정보를 사용자에게 제공하는 것이 가능하다.For example, as in the case of FIG. 33, information such as the user's current muscle strength, muscular endurance, cardiorespiratory endurance is predicted by comparing the information obtained by analyzing the user's exercise image and discriminated/obtained with big data, and It is possible to provide it to users.

이상에서는 운동 정보 처리 장치(10)가 운동 영상으로부터 사용자가 실시하는 운동의 종류를 판별하는 경우를 설명하였지만, 이와는 다르게 운동 정보 처리 장치(10)에서 운동 종류에 대한 정보를 먼저 제공하는 것이 가능하다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.In the above, the case where the exercise information processing device 10 determines the type of exercise performed by the user from the exercise image has been described. However, it is possible for the exercise information processing device 10 to provide information on the type of exercise first. . In this regard, referring to the accompanying drawings, it will be described as follows.

도 34 내지 도 37은 본 발명에 따른 또 다른 운동 정보 처리 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략한다. 예를 들면, 이하의 내용은 운동의 종류에 대한 정보 및 해당 운동의 기준 동작에 대한 정보를 촬영전에 사용자에게 미리 제공한다는 점을 제외하면 특별한 언급이 없는 한 이상에서 설명한 내용과 대략 동일할 수 있다.34 to 37 are diagrams for explaining another exercise information processing method according to the present invention. Hereinafter, descriptions of the parts described in detail above will be omitted. For example, the following contents may be substantially the same as those described above unless otherwise specified, except that information on the type of exercise and information on the reference motion of the corresponding exercise are provided to the user in advance before shooting. .

도 34를 살펴보면, 촬영(S200) 단계 이전에 운동 종류에 대한 정보를 제공하는 단계(S600)가 포함될 수 있다.Referring to FIG. 34 , a step of providing information on the type of exercise (S600) may be included before the step of photographing (S200).

이러한 경우에는, 제어부(100)에서 종류 판별부(110)가 생략되는 것도 가능하다.In this case, it is also possible that the type determination unit 110 in the control unit 100 is omitted.

예를 들면, 도 35 내지 도 36의 경우와 같이, 운동정보 처리 장치(10)는 운동 영상 촬영 이전에 사용자에게 운동 종류에 대한 정보 및 그 운동의 기준동작에 대한 정보를 화면(표시부(410))에 표시하여 제공할 수 있다.For example, as in the case of FIGS. 35 to 36, the exercise information processing device 10 displays information on the type of exercise and information on the reference motion of the exercise to the user before capturing an exercise image on a screen (display unit 410). ) can be provided.

그러면, 사용자는 현재 자신이 어떤 운동을 해야 하는지를 확인할 수 있다.Then, the user can check what kind of exercise he or she should currently do.

그리고 운동 정보 처리 장치(10)는 사용자(H)가 해당 운동을 실시하고 있는지를 모니터링하는 것이다.Further, the exercise information processing device 10 monitors whether the user H is performing a corresponding exercise.

이러한 방법은 크로스핏(Crossfit)과 같이 다양한 운동을 셋트별로 실시하는 운동에 적용되는 것이 바람직할 수 있다.This method may be preferably applied to exercises in which various exercises are performed by sets, such as Crossfit.

예를 들면, 도 37의 경우와 같이, 첫 번째 단계에서 꼰다리 자세를 유지하는 요가 운동을 실시할 수 있다.For example, as in the case of FIG. 37 , in the first step, a yoga exercise maintaining the crossed legs posture may be performed.

이러한 경우에는, 도 35의 경우와 같이, 표시부(410)에 꼰다리 자세의 기준 동작 정보에 대한 정보를 표시할 수 있다.In this case, as in the case of FIG. 35 , information on the reference motion information of the braided posture may be displayed on the display unit 410 .

이러한 경우, 운동정보 처리장치(10)에서는 사용자의 꼰다리 자세 운동에 대한 운동 동작을 판별할 수 있다.In this case, the exercise information processing device 10 may determine an exercise action for the user's cross-legged posture exercise.

아울러, 운동정보 처리장치(10)는 사용자가 꼰다리 자세를 유지하는 요가 운동을 완수하는 경우, 즉 해당 운동이 종료되는 경우에 또 다른 운동, 예컨대 팔굽혀펴기 운동에 대한 운동 종류 및 기준 동작에 대한 정보를 제공할 수 있다.In addition, when the user completes a yoga exercise in which the user maintains a cross-legged posture, that is, when the corresponding exercise ends, the exercise information processing device 10 determines the type of exercise and the reference motion for another exercise, such as a push-up exercise. information can be provided.

이후, 운동정보 처리장치(10)는 팔굽혀펴기 운동에 대해 사용자의 운동 횟수를 판별할 수 있다.Then, the exercise information processing device 10 may determine the user's number of exercises for the push-up exercise.

다르게 표현하면, 운동정보 처리장치(10)에서는 사용자에게 제 1 운동(First Exercise)에 대한 기준 동작에 대한 정보를 제공하고, 제 1 운동에 대한 운동 동작 및/또는 운동 횟수에 대한 정보를 판별/획득할 수 있다.In other words, the exercise information processing device 10 provides information on the reference motion for the first exercise to the user, and discriminates / can be obtained

이후 운동정보 처리장치(10)는 제 1 운동이 종료되는 경우에 제 1 운동과 다른 제 2 운동(Second Exercise)의 기준 동작에 대한 정보를 더 제공하고, 제 2 운동에 대한 운동 동작 및/또는 운동 횟수에 대한 정보를 판별/획득할 수 있다.Thereafter, when the first exercise is finished, the exercise information processing device 10 further provides information on a reference motion of a second exercise that is different from the first exercise, and provides exercise motion and/or motion for the second exercise and/or Information on the number of exercises can be determined/obtained.

여기서, 운동이 종료되는지를 판단하는 방법은 아래와 같다.Here, a method of determining whether the exercise is finished is as follows.

사용자의 제 1 운동에 대한 운동 횟수가 미리 설정된 기준 횟수에 도달하는 것을 제 1 조건이라 하고, 사용자의 제 1 운동에 대한 운동 동작이 기준 동작과 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우를 제 2 조건이라 가정하자.A first condition is that the number of exercises for the user's first exercise reaches a preset reference number, and a case in which the exercise motion for the user's first exercise matches the reference motion with a preset reference ratio or more is determined. Let's assume 2 conditions.

여기서, 제 1 조건 또는 제 2 조건 중 적어도 하나가 만족할 때, 제 1 운동이 종료되는 것으로 판별할 수 있다.Here, when at least one of the first condition or the second condition is satisfied, it may be determined that the first exercise ends.

이러한 방법으로 크로스핏과 같은 운동 시에 다양한 운동정보를 판별/획득하는 것이 가능하다.In this way, it is possible to discriminate/acquire various exercise information during exercise such as CrossFit.

도 38 내지 도 47은 운동 경로를 고려한 운동 정보 처리 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.38 to 47 are diagrams for explaining a method of processing exercise information in consideration of a motion path. Hereinafter, description of the parts described in detail above may be omitted.

도 38을 살펴보면, 운동영상을 촬영하기 위해 셋팅하는 단계(S100)에서 좀 더 넓은 공간을 촬영할 수 있도록 운동정보 처리장치(10), 즉 카메라부(300)를 설치할 수 있다.Referring to FIG. 38 , in the setting step (S100) to capture an exercise image, an exercise information processing device 10, that is, a camera unit 300 may be installed to capture a wider space.

예를 들면, 도 39의 경우와 같이, 헬스클럽의 운동영역(900)을 촬영할 수 있도록 카메라부(300)를 설치할 수 있다.For example, as in the case of FIG. 39 , the camera unit 300 may be installed to take pictures of the exercise area 900 of the health club.

이후, 미리 설정된 운동영역(900) 내에서 복수의 사용자들 중 타깃(Target)으로 선택된 사용자를 추적(S900)하고, 추적하는 사용자의 운동 영상을 촬영(S200)할 수 있다.Thereafter, a user selected as a target among a plurality of users in a preset exercise area 900 may be tracked (S900), and an exercise image of the user being tracked may be captured (S200).

예를 들면, 사용자가 개인용 이동통신 단말기를 다수의 사용자가 사용하는 헬스클럽에 설치하고, 자신을 사용자로 지정한 상태에서 운동을 진행하면서 자신의 운동영상을 촬영할 수 있다.For example, a user may install a personal mobile communication terminal in a health club used by a plurality of users, and take pictures of his/her own exercise while exercising while designating himself/herself as a user.

또는, 헬스클럽에 설치된 공용 단말기 및 공용 카메라(CCTV 카메라 등)를 이용하여 특정 사용자의 운동 영상을 촬영하는 것이 가능하다.Alternatively, it is possible to capture an exercise image of a specific user using a public terminal and a public camera (CCTV camera, etc.) installed in the health club.

이후, 촬영한 운동영상을 분석(S300)하여, 다양한 데이터를 판별(S400)하고, 이를 바탕으로 다양한 정보를 획득(S1000)할 수 있다.Thereafter, the photographed exercise image may be analyzed (S300), various data may be discriminated (S400), and various information may be acquired based on this (S1000).

복수의 사용자들 중에서 원하는 사용자를 선택하고, 추적하는 방법의 일례에 대 살펴보면 아래와 같다.An example of a method of selecting and tracking a desired user from among a plurality of users is as follows.

도 40의 경우와 같이, 운동기구(IG)가 배치되어 운동을 할 수 있는 소정 공간을 운동여역(900)으로 설정할 수 있다.As in the case of FIG. 40 , a predetermined space in which the exercise equipment IG is disposed and can exercise may be set as the exercise area 900 .

이러한 운동영역(900)에는 출입구도 설정될 수 있다.An entrance may also be set in the exercise area 900 .

설정된 운동영역(900) 내에 위치하는 적어도 하나의 사용자 중 운동영상을 촬영할 대상이 되는 사용자를 선택할 수 있다. 예를 들면, 관리자가 사용자를 지정하거나, 사용자 자신이 스스로를 지정하는 것도 가능하다.Among at least one user located within the set exercise area 900, a user to be photographed may be selected. For example, it is possible for an administrator to designate a user or a user to designate himself.

운동정보 처리장치(10)는 선택된 사용자에 대한 정보를 저장할 수 있다. 예를 들면, 운동정보 처리장치(10)는 사용자의 얼굴, 옷, 키, 체형, 헤어스타일 등의 다양한 정보를 저장하고, 이를 이용하여 사용자를 추적하는 것이 가능하다.The exercise information processing device 10 may store information on the selected user. For example, the exercise information processing device 10 may store various information such as a user's face, clothes, height, body shape, and hairstyle, and track the user by using the stored information.

사용자가 운동영역(900)으로 진입하면 운동정보 처리장치(10)가 이를 감지하여 자동으로 사용자를 추적하면서 운동영상을 촬영하는 것이 가능하다.When the user enters the exercise area 900, the exercise information processing device 10 detects this and automatically tracks the user while capturing an exercise image.

또는, 사용자가 추적을 위한 소정의 추적장치를 착용하는 것이 가능하다. 예를 들면, 사용자는 머리띠, 팔찌, 반지, 옷 등의 형태로 제작된 추적장치를 착용한 상태에서 운동을 진행할 수 있다.Alternatively, it is possible for the user to wear a predetermined tracking device for tracking. For example, a user may exercise while wearing a tracking device manufactured in the form of a headband, bracelet, ring, or clothes.

이러한 경우, 운동정보 처리장치(10)는 사용자가 착용한 추적장치를 이용하여 사용자를 추적하면서 운동영상을 촬영하는 것이 가능하다.In this case, the exercise information processing device 10 can capture an exercise image while tracking the user using a tracking device worn by the user.

추적장치를 이용하여 사용자에 대한 정보를 인식하는 것도 가능할 수 있다. 예를 들면, 사용자가 추적장치를 착용한 상태에서 운동영역(900)에 진입하면, 운동정보 처리장치(10)에서는 추적장치를 인식함으로써, 사용자 '홍길동'이 언제(날짜, 시간 등)부터 언제(날짜, 시간 등)까지 운동영역(900)에 들어와서 운동을 진행했음을 인식하고 판별할 수 있다.It may also be possible to recognize information about a user using a tracking device. For example, when a user enters the exercise area 900 while wearing a tracking device, the exercise information processing device 10 recognizes the tracking device, so that when (date, time, etc.) It is possible to recognize and determine that the exercise has been performed by entering the exercise area 900 by (date, time, etc.).

본 발명에 따른 운동정보 처리장치(10)의 제어부(100)의 경로 판별부(170)는 운동영상을 근거로하여 사용자의 운동경로에 대한 정보를 판별할 수 있다.The path determination unit 170 of the control unit 100 of the exercise information processing device 10 according to the present invention may determine information about the user's exercise path based on the exercise image.

예를 들면, 도 41의 경우와 같이, 경로 판별부(170)는 사용자가 운동영역(900) 내에서 어떠한 경로(PT)로 이동하면서 운동을 진행하는지에 대한 정보를 판별하고 획득할 수 있다.For example, as in the case of FIG. 41 , the path determining unit 170 may determine and obtain information on which path PT the user moves in the exercise area 900 while exercising.

이러한 운동 경로에 대한 정보를 이용하면 사용자가 선호하는 운동 및/또는 운동기구(IG)에 대한 정보를 획득할 수 있다.Information on the user's preferred exercise and/or exercise equipment (IG) can be obtained by using the information on the exercise path.

아울러, 제어부(100)는 운동영상을 분석하여 사용자가 진행한 운동 혹은 사용한 운동기구에 할당된 시간(운동시간)에 대한 정보를 획득할 수 있다.In addition, the control unit 100 may analyze the exercise images to obtain information about the time (exercise time) allocated to the exercise performed by the user or the exercise equipment used.

예를 들면, 도 42의 경우와 같이, 제어부(100)는 사용자가 런닝머신을 이용하여 운동을 진행한 시간(T13), 벤치프레스를 이용하여 운동을 진행한 시간(T10), 풀다운 기구를 이용하여 운동을 진행한 시간(T11) 및 사이클을 이용하여 운동을 진행한 시간(T12) 등에 대한 정보를 획득할 수 있다.For example, as in the case of FIG. 42, the controller 100 determines the time the user exercised using the treadmill (T13), the time the user exercised using the bench press (T10), and the pull-down mechanism. It is possible to obtain information about the time T11 for exercising and the time T12 for exercising using a cycle.

아울러, 제어부(100)의 선호도 판별부(180)는 운동 영상을 근거로 하여 사용자의 운동기구(IG)에 대한 선호도에 대한 정보를 판별할 수 있다.In addition, the preference determination unit 180 of the control unit 100 may determine information about the user's preference for the exercise equipment (IG) based on the exercise image.

예를 들면, 제어부(100)는, 도 42와 같은 운동시간에 대한 정보를 근거로 하여, 각 운동에 대한 점유율에 대한 정보를 판별할 수 있다.For example, the controller 100 may determine information about the occupancy rate for each exercise based on the information about exercise time as shown in FIG. 42 .

도 43을 살펴보면, 사용자가 진행한 운동에서 런닝머신 운동에 투자한 시간이 전체 운동 시간의 45%이고, 벤치프레스 운동에 투자한 시간이 전체 운동 시간의 8%이고, 풀다운 운동에 투자한 시간이 전체 운동 시간의 12%이고, 사이클 운동에 투자한 시간이 전체 운동 시간의 35%인 것을 알 수 있다.Referring to FIG. 43, in the exercise performed by the user, the time invested in the treadmill exercise is 45% of the total exercise time, the time invested in the bench press exercise is 8% of the total exercise time, and the time invested in the pull-down exercise is It can be seen that it is 12% of the total exercise time, and the time invested in cycling exercise is 35% of the total exercise time.

아울러, 제어부(100)는 사용자의 기간별(요일, 달 등)에 따른 선호도를 판별할 수 있다. 예를 들면, 도 44의 경우와 같이, 제어부(100)는 사용자가 런닝머신 운동을 실시한 요일, 벤치프레스 운동을 실시한 요일 등에 대한 정보를 획득할 수 있다.In addition, the controller 100 may determine the user's preference according to each period (day of the week, month, etc.). For example, as in the case of FIG. 44 , the controller 100 may obtain information about the day on which the user performed a treadmill exercise, the day on which a bench press exercise was performed, and the like.

아울러, 제어부(100)는 상기한 정보들을 근거로 하여 분석한 내용을 바탕으로 사용자에게 추천정보를 제공할 수 있다.In addition, the control unit 100 may provide recommendation information to the user based on the content analyzed based on the above information.

운동정보 처리장치(10)는 복수의 카메라부(300)를 이용하여 운동영상을 촬영하는 것이 가능하다.The exercise information processing device 10 can capture motion images using a plurality of camera units 300 .

예를 들면, 도 45의 경우와 같이, 운동영역(900) 중 제 1 운동영역(910)은 제 1 카메라부(310)가 촬영을 담당하고, 제 2 운동영역(920)은 제 2 카메라부(320)가 촬영을 담당하는 것이 가능하다.For example, as in the case of FIG. 45 , the first exercise area 910 of the exercise area 900 is photographed by the first camera unit 310, and the second exercise area 920 is captured by the second camera unit. It is possible that 320 is in charge of shooting.

이러한 경우는 하나의 카메라가 전체 운동영역(900)을 커버하기 어려운 경우에 해당될 수 있다.This case may correspond to a case where it is difficult for one camera to cover the entire exercise area 900 .

만약 선택된 사용자가 제 1 운동영역(910)에서 운동을 진행하는 경우에는 사용자의 운동영상을 제 1 카메라(310)가 촬영할 수 있다.If the selected user exercises in the first exercise area 910, the first camera 310 may capture an exercise image of the user.

이후, 사용자가 제 1 운동영역(910)을 벗어나서 제 2 운동영역(920)으로 진입하는 경우에는 제 1 카메라(310)가 촬영한 영상에는 해당 사용자가 잡히지 않을 수 있다. 즉, 제 1 카메라(310)가 사용자를 시야에서 놓칠 수 있다.Thereafter, when the user leaves the first exercise area 910 and enters the second exercise area 920, the user may not be captured in the image taken by the first camera 310. That is, the first camera 310 may lose sight of the user.

이러한 경우에는, 제 2 카메라(320)가 촬영한 영상에서 해당 사용자를 추적할 수 있다.In this case, the corresponding user may be tracked in an image taken by the second camera 320 .

만약, 제 2 카메라(320)가 촬영한 영상에서 해당 사용자를 찾으면 제 2 카메라(320)를 기본 카메라로 설정하고, 제 2 카메라(320)를 이용하여 사용자의 운동영상을 이어서 촬영할 수 있다.If the second camera 320 finds the corresponding user in the captured image, the second camera 320 is set as a basic camera, and the user's motion image can be subsequently captured using the second camera 320 .

한편, 제어부(100)는 사용자가 운동영역(900)을 미리 지정된 기준 시간 이상 벗어나는 경우 사용자의 운동이 종료되는 것으로 판단하는 것이 가능하다.Meanwhile, the controller 100 may determine that the user's exercise ends when the user leaves the exercise area 900 for a predetermined reference time or longer.

또는, 제어부(100)는 사용자가 운동영역(900)에 설정된 출구를 나가서 기준 시간 이상 지나는 경우에는 운동이 종료된 것으로 판단할 수 있다.Alternatively, the controller 100 may determine that the exercise has ended when the user leaves the exit set in the exercise area 900 and passes a reference time or more.

또는, 제어부(100)는 사용자가 운동영역(900)에 설정된 출구를 나가지 않은 상태에서 운동영역(900)을 기준 시간 이상 벗어나는 경우에는 운동은 종료되지 않고, 사용자가 휴식을 취하는 것으로 판단할 수 있다.Alternatively, the controller 100 may determine that the exercise is not ended and the user is taking a break when the user leaves the exercise area 900 for more than a reference time without leaving the exit set in the exercise area 900. .

이후, 제어부(100)는 사용자가 운동영역(900) 내로 재진입하면 휴식이 종료되고, 운동이 다시 시작되는 것으로 판단할 수 있다.Thereafter, the controller 100 may determine that when the user re-enters the exercise area 900, the rest ends and the exercise resumes.

이사에서는, 일정영역(운동영역(900)) 내에서 한명의 사용자를 추적하고 운동영상을 촬영하는 경우를 설명하고 있지만, 다수의 사용자를 동시에 추적하고 운동영상을 촬영하는 것이 가능하다. 이에 대해 설명하면 아래와 같다.In the above, a case of tracking a single user within a certain area (exercise area 900) and capturing a motion image is described, but it is possible to simultaneously track a plurality of users and capture a motion image. An explanation of this is as follows.

도 46을 살펴보면, 사용자를 추적하는 단계(S900)에서는 동시에 제 1 사용자를 추적(S910)하고, 제 2 사용자를 추적(S920)하고, 제 3 사용자를 추적(S930)하는 것이 가능하다.Referring to FIG. 46 , in the step of tracking a user (S900), it is possible to simultaneously track a first user (S910), track a second user (S920), and track a third user (S930).

이러한 경우에는, 동시에 제 1 사용자, 제 2 사용자 및 제 3 사용자에 대한 운동영상을 찰영하는 것이 가능하다.In this case, it is possible to capture motion images for the first user, the second user, and the third user at the same time.

아울러, 경로 판별부(170)는 선택된 복수의 사용자들의 운동경로에 대한 정보를 판별하고 획득하는 것이 가능하다.In addition, the path determination unit 170 is capable of determining and obtaining information about the movement path of the selected plurality of users.

예를 들면, 도 47의 경우와 같이, 운동경로에 대한 정보는 운동영역(900) 내에서 제 1 사용자의 운동경로(PT1)에 대한 정보, 제 2 사용자의 운동경로(PT2)에 대한 정보 및 제 3 사용자의 운동경로(PT3)에 대한 정보를 포함할 수 있다.For example, as in the case of FIG. 47 , the information on the motion path includes information on the motion path PT1 of the first user in the exercise area 900, information on the motion path PT2 of the second user, and It may include information about the motion path PT3 of the third user.

이러한 복수의 사용자의 운동경로에 대한 정보를 이용하면 각각의 운동기구(IG)에 대한 선호도에 대한 정보를 획득하는 것이 가능하다. 아울러, 사용자들이 선호하는 영역, 경로 등에 대한 정보도 획득할 수 있다.Using the information on the movement paths of the plurality of users, it is possible to obtain information on the preference for each exercise equipment (IG). In addition, information on areas and routes preferred by users may also be obtained.

그러면, 사용자들이 선호하는 경로에 따라 운동기구(IG)들을 재배치하는 것도 가능할 수 있다.Then, it may be possible to rearrange the exercise equipments IG according to the route preferred by the users.

예를 들어, 도 47의 경우를 보면, 운동영역(900) 중 제 1 영역(AR)은 제 1, 2, 3 사용자의 운동경로(PT1, PT2, PT3)가 지나지 않을 수 있다. 그러면, 제 1 영역(AR)에는 선호도가 낮은 운동기구(IG)를 배치하거나 혹은 운동기구(IG)를 배치하지 않는 것이 가능하다.For example, referring to the case of FIG. 47 , the first area AR of the exercise area 900 may not pass through the exercise paths PT1, PT2, and PT3 of the first, second, and third users. Then, it is possible to dispose the exercise equipment IG having a low preference or not to arrange the exercise equipment IG in the first area AR.

이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, it will be understood that the technical configuration of the present invention described above can be implemented in other specific forms without changing the technical spirit or essential features of the present invention by those skilled in the art to which the present invention pertains.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting, and the scope of the present invention is indicated by the claims to be described later rather than the foregoing detailed description, and the meaning and scope of the claims And all changes or modified forms derived from the equivalent concept should be construed as being included in the scope of the present invention.

Claims (20)

미리 설정된 운동영역 내에서 복수의 사용자들 중 타깃(Target)으로 선택된 사용자의 운동 영상을 촬영하는 카메라부; 및
상기 운동 영상을 근거로 하여 선택된 상기 사용자의 운동에 대한 정보를 획득하는 제어부;를 포함하고,
상기 제어부는
상기 운동 영상을 근거로 하여 상기 사용자가 사용하는 운동기구에 대한 정보를 판별하는 기구 판별부를 포함하는 장치.
a camera unit for capturing an exercise image of a user selected as a target among a plurality of users within a preset exercise area; and
A control unit for obtaining information on the user's exercise selected on the basis of the exercise image; includes,
The control unit
An apparatus including an apparatus determining unit for discriminating information on an exercise apparatus used by the user based on the exercise image.
제 1 항에 있어서,
상기 제어부는
상기 운동 영상을 근거로 하여 선택된 상기 사용자의 상기 운동영역 내에서의 경로에 대한 정보를 판별하는 경로 판별부를 포함하는 장치.
According to claim 1,
The control unit
and a path determination unit configured to determine information about a path of the selected user within the exercise area based on the exercise image.
삭제delete 제 1 항에 있어서,
상기 제어부는
상기 운동 영상을 근거로 하여 상기 사용자의 상기 운동기구에 대한 선호도에 대한 정보를 판별하는 선호도 판별부를 포함하는 장치.
According to claim 1,
The control unit
and a preference determination unit configured to determine information about the user's preference for the exercise equipment based on the exercise image.
제 1 항에 있어서,
상기 카메라부는 제 1 카메라(First Camera)와 제 2 카메라(Second Camera)를 포함하고,
상기 제 1 카메라가 상기 사용자를 촬영하는 과정에서 상기 사용자를 시야에서 놓치는 경우,
상기 제어부는 상기 제 2 카메라가 촬영한 영상에서 상기 사용자를 추적하는 장치.
According to claim 1,
The camera unit includes a first camera and a second camera,
When the first camera loses the user from view while photographing the user,
The control unit tracks the user in the image captured by the second camera.
제 1 항에 있어서,
상기 제어부는
상기 운동 영상을 근거로 하여 상기 사용자의 운동의 종류를 판별하는 종류 판별부를 포함하는 장치.
According to claim 1,
The control unit
An apparatus comprising a type determination unit for determining the type of exercise of the user based on the exercise image.
제 1 항에 있어서,
상기 제어부는
상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 동작 판별부를 포함하는 장치.
According to claim 1,
The control unit
An apparatus comprising a motion determining unit configured to determine an exercise motion of the user based on the exercise image.
제 1 항에 있어서,
상기 제어부는
상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 횟수 판별부를 포함하는 장치.
According to claim 1,
The control unit
and a number determination unit configured to determine the number of times of exercise of the user based on the exercise image.
제 1 항에 있어서,
상기 제어부는
상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 시간 판별부를 포함하는 장치.
According to claim 1,
The control unit
Device comprising a time determination unit for measuring the exercise time of the user based on the exercise image.
제 1 항에 있어서,
상기 제어부는
상기 사용자가 상기 운동영역을 미리 지정된 기준 시간 이상 벗어나는 경우 상기 사용자의 운동이 종료되는 것으로 판단하는 장치.
According to claim 1,
The control unit
Apparatus for determining that the user's exercise ends when the user leaves the exercise area for more than a predetermined reference time.
카메라부가 미리 설정된 운동영역 내에서 복수의 사용자들 중 타깃(Target)으로 선택된 사용자의 운동 영상을 촬영하는 촬영단계; 및
상기 운동 영상을 근거로 하여 선택된 상기 사용자의 운동에 대한 정보를 획득하는 정보획득단계;를 포함하고,
상기 정보획득단계는
상기 운동 영상을 근거로 하여 상기 사용자가 사용하는 운동기구에 대한 정보를 판별하는 단계를 더 포함하는 방법.
A photographing step of capturing an exercise image of a user selected as a target among a plurality of users in a preset exercise area by a camera unit; and
An information acquisition step of acquiring information on the user's exercise selected on the basis of the exercise image;
The information acquisition step
The method further comprising the step of determining information on the exercise equipment used by the user based on the exercise image.
제 11 항에 있어서,
상기 정보획득단계는
상기 운동 영상을 근거로 하여 상기 사용자의 상기 운동영역 내에서의 경로에 대한 정보를 판별하는 단계를 포함하는 방법.
According to claim 11,
The information acquisition step
and determining information about a path of the user within the exercise area based on the exercise image.
삭제delete 제 11 항에 있어서,
상기 정보획득단계는
상기 운동 영상을 근거로 하여 상기 사용자의 상기 운동기구에 대한 선호도에 대한 정보를 판별하는 단계를 포함하는 방법.
According to claim 11,
The information acquisition step
and determining information about the user's preference for the exercise equipment based on the exercise image.
제 11 항에 있어서,
상기 카메라부는 제 1 카메라(First Camera)와 제 2 카메라(Second Camera)를 포함하고,
상기 제 1 카메라가 상기 사용자를 촬영하는 과정에서 상기 사용자를 시야에서 놓치는 경우,
상기 제 2 카메라가 촬영한 영상에서 상기 사용자를 추적하는 방법.
According to claim 11,
The camera unit includes a first camera and a second camera,
When the first camera loses the user from the field of view while photographing the user,
A method of tracking the user in an image captured by the second camera.
제 11 항에 있어서,
상기 정보획득단계는
상기 운동 영상을 근거로 하여 상기 사용자의 운동의 종류를 판별하는 단계를 포함하는 방법.
According to claim 11,
The information acquisition step
and determining the type of exercise of the user based on the exercise image.
제 11 항에 있어서,
상기 정보획득단계는
상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계를 포함하는 방법.
According to claim 11,
The information acquisition step
and determining an exercise motion of the user based on the exercise image.
제 11 항에 있어서,
상기 정보획득단계는
상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 단계를 포함하는 방법.
According to claim 11,
The information acquisition step
and determining the number of times of exercise of the user based on the exercise image.
제 11 항에 있어서,
상기 정보획득단계는
상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 단계를 더 포함하는 방법.
According to claim 11,
The information acquisition step
The method further comprising measuring a user's exercise time based on the exercise image.
제 11 항에 있어서,
상기 정보획득단계는
상기 사용자가 상기 운동영역을 미리 지정된 기준 시간 이상 벗어나는 경우 상기 사용자의 운동이 종료되는 것으로 판단하는 단계를 더 포함하는 방법.
According to claim 11,
The information acquisition step
The method further comprising determining that the user's exercise ends when the user leaves the exercise area for more than a predetermined reference time.
KR1020160046730A 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information KR102500621B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160046730A KR102500621B1 (en) 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160046730A KR102500621B1 (en) 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information

Publications (2)

Publication Number Publication Date
KR20170119340A KR20170119340A (en) 2017-10-27
KR102500621B1 true KR102500621B1 (en) 2023-02-17

Family

ID=60300239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160046730A KR102500621B1 (en) 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information

Country Status (1)

Country Link
KR (1) KR102500621B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102088673B1 (en) * 2018-07-09 2020-03-13 주식회사 삼육오엠씨네트웍스 Apparatus for personal fitness management

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012011106A (en) * 2010-07-02 2012-01-19 Tsutomu Sugihara Method for determining order in virtual participation in actual running race or the like using momentum measuring device, and scenery image display method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080057500A (en) * 2006-12-20 2008-06-25 재단법인 포항산업과학연구원 System and method for tracking movement images of people
US9283429B2 (en) * 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
KR101416282B1 (en) * 2012-02-29 2014-08-12 디게이트 주식회사 Functional measurement and evaluation system for exercising Health and Rehabilitation based on Natural Interaction
KR101598041B1 (en) * 2014-08-08 2016-02-26 주식회사 월드텍 Traffic line device using camera

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012011106A (en) * 2010-07-02 2012-01-19 Tsutomu Sugihara Method for determining order in virtual participation in actual running race or the like using momentum measuring device, and scenery image display method

Also Published As

Publication number Publication date
KR20170119340A (en) 2017-10-27

Similar Documents

Publication Publication Date Title
JP6703199B2 (en) Operating state evaluation system, operating state evaluation device, operating state evaluation server, operating state evaluation method, and operating state evaluation program
KR101980378B1 (en) Exercise motion guidance system using dynamic motion and body balance
US10898755B2 (en) Method for providing posture guide and apparatus thereof
Sundholm et al. Smart-mat: Recognizing and counting gym exercises with low-cost resistive pressure sensing matrix
Mortazavi et al. Determining the single best axis for exercise repetition recognition and counting on smartwatches
Spina et al. COPDTrainer: a smartphone-based motion rehabilitation training system with real-time acoustic feedback
CN108525261A (en) A kind of Intelligent mirror exercise guide method and system
US9224037B2 (en) Apparatus and method for controlling presentation of information toward human object
KR102320960B1 (en) Personalized home training behavior guidance and correction system
US20150347717A1 (en) Hybrid personal training system and method
WO2017161734A1 (en) Correction of human body movements via television and motion-sensing accessory and system
KR102356685B1 (en) Home training providing system based on online group and method thereof
JP2020174910A (en) Exercise support system
JP7078577B2 (en) Operational similarity evaluation device, method and program
KR102425255B1 (en) Apparatus and Method for Processing of Exercise Information
KR102425256B1 (en) Apparatus and Method for Processing of Exercise Information
KR20170119337A (en) Apparatus and Method for Processing of Exercise Information
US20240042281A1 (en) User experience platform for connected fitness systems
KR102500621B1 (en) Apparatus and Method for Processing of Exercise Information
KR102430305B1 (en) Apparatus and Method for Processing of Exercise Information
CN117292288A (en) Sports test method, system, electronic device, chip and storage medium
KR102425254B1 (en) Apparatus and Method for Processing of Exercise Information
KR102430306B1 (en) Apparatus and Method for Processing of Exercise Information
Gharasuie et al. Performance monitoring for exercise movements using mobile cameras
JP2021037168A (en) Movement analysis system, movement analysis program, and movement analysis method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant