KR20170119337A - Apparatus and Method for Processing of Exercise Information - Google Patents

Apparatus and Method for Processing of Exercise Information Download PDF

Info

Publication number
KR20170119337A
KR20170119337A KR1020160046724A KR20160046724A KR20170119337A KR 20170119337 A KR20170119337 A KR 20170119337A KR 1020160046724 A KR1020160046724 A KR 1020160046724A KR 20160046724 A KR20160046724 A KR 20160046724A KR 20170119337 A KR20170119337 A KR 20170119337A
Authority
KR
South Korea
Prior art keywords
motion
information
user
exercise
unit
Prior art date
Application number
KR1020160046724A
Other languages
Korean (ko)
Inventor
이민순
최용식
박상현
조용인
서영철
박정수
김보성
Original Assignee
(주)아이들
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이들 filed Critical (주)아이들
Priority to KR1020160046724A priority Critical patent/KR20170119337A/en
Priority to PCT/KR2017/003125 priority patent/WO2017183818A1/en
Publication of KR20170119337A publication Critical patent/KR20170119337A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • G06K9/00369
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N5/225
    • H04N5/232
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • A63B2024/0012Comparing movements or motion sequences with a registered reference
    • A63B2024/0015Comparing movements or motion sequences with computerised simulations of movements or motion sequences, e.g. for generating an ideal template as reference to be achieved by the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • A63B2024/0068Comparison to target or threshold, previous performance or not real time comparison to other individuals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

본 발명은 운동정보 처리 장치 및 방법에 관한 것이다.
본 발명에 따른 운동정보 처리 장치는 사용자의 운동 영상을 촬영하는 카메라부, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 종류 판별부, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 횟수 판별부 및 상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 동작 판별부를 포함할 수 있다.
The present invention relates to an apparatus and method for processing a motion information.
A motion information processing apparatus according to the present invention includes a camera unit for photographing a motion image of a user, a type discrimination unit for discriminating a motion type of the user on the basis of the motion image, And an operation determination unit for determining the motion of the user based on the motion image.

Description

운동정보 처리 장치 및 방법{Apparatus and Method for Processing of Exercise Information}[0001] Apparatus and Method for Processing Exercise Information [

본 발명은 운동정보 처리 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for processing a motion information.

생활수준 향상에 따라, 현대인들의 건강에 대한 관심이 급증하고 있다. 이에 대한 일환으로, 현대인들은 질병예방 및 개인의 취미로 운동을 하는 사람이 점차 증가하고 있는 실정이다.With the improvement of living standards, the interest of modern people is increasing rapidly. As a part of this, modern people are increasingly exercising with disease prevention and personal hobbies.

근래에 들어서는, 트레이너와 1:1로 운동을 진행하는 퍼스널 트레이닝(Personal Training, PT)이 각광받고 있다.In recent years, Personal Training (PT), which performs a 1: 1 exercise with a trainer, is in the spotlight.

그러나 PT의 경우에는 비용이 비싸다는 단점이 있다.However, PT has the disadvantage of high cost.

만약, 사용자가 혼자 운동을 진행하는 경우에는 본인의 동작의 정확성이나 본인이 진행하는 운동의 적절성을 판단하기 어렵다는 문제점이 있다.If the user conducts the exercise alone, it is difficult to determine the accuracy of the motion of the user or the fitness of the user.

본 발명은 상기한 문제점을 해결하기 위해 도출된 것으로서, 사용자의 운동 영상을 촬영하고, 촬영한 운동 영상을 분석하여 운동에 대한 정보를 제공하는 운동정보 처리 장치 및 방법을 제공하는데 그 목적이 있다.It is an object of the present invention to provide a motion information processing apparatus and method for capturing a motion image of a user and analyzing a photographed motion image to provide motion information.

본 발명에 따른 운동정보 처리 장치는 사용자의 운동 영상을 촬영하는 카메라부, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 종류 판별부, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 횟수 판별부 및 상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 동작 판별부를 포함할 수 있다.A motion information processing apparatus according to the present invention includes a camera unit for photographing a motion image of a user, a type discrimination unit for discriminating a motion type of the user on the basis of the motion image, And an operation determination unit for determining the motion of the user based on the motion image.

또한, 상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 시간 판별부를 더 포함할 수 있다.The apparatus may further include a time determination unit for measuring a user's exercise time based on the motion image.

또한, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 정보 제공부를 더 포함할 수 있다.The information processing apparatus may further include an information providing unit for providing recommendation information to the user based on at least one of information on the type of exercise, information on the number of exercises, information on the exercise operation, and information on the exercise time .

또한, 상기 정보 제공부는 상기 운동 동작에 대한 정보, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 성취도에 대한 정보를 더 제공할 수 있다.The information providing unit may further provide the user with information on the achievement level based on at least one of the information on the exercise operation, information on the exercise type, information on the exercise frequency, or information on the exercise time can do.

또한, 상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 기구 판별부를 더 포함할 수 있다.In addition, when the motion type is a motion using a weight mechanism, the apparatus may further include a mechanism determination unit that determines a load set to the weight mechanism.

또한, 상기 횟수 판별부는 상기 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트할 수 있다.The number determining unit may count the number of times when the motion of the user is matched by a predetermined reference ratio or more to a preset reference motion.

또한, 상기 동작 판별부는 상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성에 대한 정보를 더 제공할 수 있다.In addition, the operation determination unit may further provide information on the similarity between the motion operation of the user and a preset reference motion.

또한, 상기 운동 영상을 분석하여 움직이는 객체(Object)를 인식하는 객체 인식부를 더 포함하고, 상기 객체 인식부는 상기 운동 영상에서 배경을 추출하고, 추출한 배경과 다른 색상을 갖는 부분을 상기 움직이는 객체로 인식할 수 있다.The object recognition unit may further include an object recognition unit for analyzing the motion image to recognize a moving object. The object recognition unit extracts a background from the motion image, recognizes a portion having a color different from the extracted background as the moving object can do.

또한, 상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 운동성 산출부를 더 포함할 수 있다.The motion estimating unit may further include a motion calculating unit that calculates motions based on the direction and degree of the brightness varying by dividing the motion of the moving object with different brightness according to time.

또한, 상기 횟수 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 횟수를 판별하고, 상기 동작 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별할 수 있다.In addition, the frequency determining unit may determine the number of times of motion of the user based on the motility, and the motion determining unit may determine the motion of the user based on the motility.

본 발명에 따른 운동정보 처리방법은 사용자의 운동 영상을 촬영하는 단계, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 단계, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 단계 및 상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for processing a motion information, comprising the steps of capturing a motion image of a user, discriminating the type of motion of the user based on the motion image, determining the number of motions of the user based on the motion image And determining the motion of the user based on the motion image.

또한, 상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 단계를 더 포함할 수 있다.The method may further include measuring a user's exercise time based on the motion image.

또한, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 단계를 더 포함할 수 있다.The method may further include providing the recommendation information to the user based on at least one of information on the type of exercise, information on the number of times of exercise, information on the exercise operation, or information on the exercise time have.

또한, 상기 운동 동작에 대한 정보, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 성취도에 대한 정보를 제공하는 단계를 더 포함할 수 있다.The method may further include providing information on the achievement level to the user based on at least one of the information on the exercise operation, information on the exercise type, information on the exercise frequency, and information on the exercise time can do.

또한, 상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 단계를 포함할 수 있다.Further, when the motion type is a motion using a weight mechanism, it may include a step of determining a load set to the weight mechanism.

또한, 상기 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트할 수 있다.In addition, the number of times the user's motion is counted can be counted when the motion of the user is matched more than a predetermined reference ratio to a preset reference motion.

또한, 상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성에 대한 정보를 제공하는 단계를 더 포함할 수 있다.In addition, the method may further include providing information on the motion of the user and the similarity of the preset reference motion.

또한, 상기 운동 영상을 분석하여 움직이는 객체(Object)를 인식하는 인식단계를 더 포함하고, 상기 인식단계에서는 상기 운동 영상에서 배경을 추출하고, 추출한 배경과 다른 색상을 갖는 부분을 상기 움직이는 객체로 인식할 수 있다.Further, the method may further include a recognition step of analyzing the motion image to recognize a moving object. In the recognition step, a background is extracted from the motion image, and a part having a color different from the extracted background is recognized as the moving object can do.

또한, 상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 단계를 더 포함할 수 있다.Further, the method may further include dividing the movement of the moving object by different brightness according to time, and calculating the mobility based on the direction and the degree of change of the brightness.

또한,상기 운동성을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 단계 및 상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계를 더 포함할 수 있다.The method may further include determining a number of times of the user's motion based on the motility, and determining the motion of the user based on the motility.

본 발명에 따른 운동정보 처리 장치 및 방법은 사용자의 운동 영상을 분석하여 사용자의 운동 동작, 운동 횟수 등에 대한 정보를 제공할 수 있어서, 보다 저렴한 비용으로 객관적이고 정확한 운동 정보를 사용자에게 제공할 수 있다는 효과가 있다.The apparatus and method for processing exercise information according to the present invention can provide information about the exercise operation and the number of exercises of the user by analyzing the user's exercise image to provide objective and accurate exercise information to the user at a lower cost It is effective.

도 1은 본 발명에 따른 운동정보 처리 장치의 구성에 대해 설명하기 위한 도면,
도 2 내지 도 33은 본 발명에 따른 운동 정보 처리 방법에 대해 설명하기 위한 도면이고,
도 34 내지 도 37은 본 발명에 따른 또 다른 운동 정보 처리 방법에 대해 설명하기 위한 도면이다.
1 is a diagram for explaining a configuration of a motion information processing apparatus according to the present invention,
2 to 33 are views for explaining a method of processing exercise information according to the present invention,
34 to 37 are diagrams for explaining another exercise information processing method according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 운동정보 처리 장치 및 방법에 대해 상세히 설명한다.Hereinafter, an apparatus and method for processing motion information according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood that the present invention is not intended to be limited to the specific embodiments but includes all changes, equivalents, and alternatives falling within the spirit and scope of the present invention.

본 발명을 설명함에 있어서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다.In describing the present invention, the terms first, second, etc. may be used to describe various components, but the components may not be limited by the terms. The terms may only be used for the purpose of distinguishing one element from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함할 수 있다.The term " and / or " may include any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may be present in between Can be understood. On the other hand, when it is mentioned that an element is "directly connected" or "directly connected" to another element, it can be understood that no other element exists in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions may include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In the present application, the terms "comprises", "having", and the like are used interchangeably to designate one or more of the features, numbers, steps, operations, elements, components, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries can be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are, unless expressly defined in the present application, interpreted in an ideal or overly formal sense .

아울러, 이하의 실시예는 당 업계에서 평균적인 지식을 가진 자에게 보다 완전하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, the following embodiments are provided to explain more fully to the average person skilled in the art. The shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.

도 1은 본 발명에 따른 운동정보 처리 장치의 구성에 대해 설명하기 위한 도면이다.1 is a diagram for explaining a configuration of a motion information processing apparatus according to the present invention.

도 1을 살펴보면, 본 발명에 따른 운동정보 처리 장치(10)는 제어부(100), 카메라부(300), 출력부(400), 사용자 입력부(500), 메모리부(600) 및 통신부(700)를 포함할 수 있다.1, a motion information processing apparatus 10 according to the present invention includes a control unit 100, a camera unit 300, an output unit 400, a user input unit 500, a memory unit 600, and a communication unit 700, . ≪ / RTI >

카메라부(300)는 제어부(100)의 제어에 따라 소정의 영상을 촬영할 수 있다. 예를 들면, 카메라부(300)는 사용자의 운동 영상을 촬영할 수 있다. 또는, 카메라부(300)는 소정의 운동 영역(헬스클럽 등)의 영상을 촬영하는 것이 가능하다.The camera unit 300 can take a predetermined image under the control of the control unit 100. [ For example, the camera unit 300 can take a motion image of the user. Alternatively, the camera unit 300 can photograph an image of a predetermined exercise area (such as a health club).

카메라부(300)는 적어도 하나의 카메라를 포함할 수 있다.The camera unit 300 may include at least one camera.

출력부(400)는 제어부(100)의 제어에 따라 소정의 정보를 사용자가 확인가능하도록 출력할 수 있다. 자세하게는, 출력부(400)는 운동에 대한 정보, 예컨대 운동의 기준 동작, 기준 횟수 등에 대한 정보를 사용자가 확인할 수 있도록 출력할 수 있다.The output unit 400 may output predetermined information according to the control of the control unit 100 so that the user can confirm the information. In detail, the output unit 400 may output information on the motion, such as the reference motion of the motion, the reference frequency, etc., so that the user can confirm the information.

출력부(400)는 표시부(410) 및 음성출력부(420)를 포함할 수 있다.The output unit 400 may include a display unit 410 and an audio output unit 420.

표시부(410)는 다양한 정보를 영상으로 표시할 수 있다. 음성출력부(420)는 다양한 정보를 음성으로 출력할 수 있다.The display unit 410 may display various information as an image. The audio output unit 420 can output various information by voice.

사용자 입력부(500)는 사용자가 소정의 명령을 입력하는데 사용될 수 있다. 이러한 사용자 입력부(500)는 키 입력부, 터치 입력부 또는 음성 입력부 중 적어도 하나를 포함할 수 있다.The user input unit 500 may be used by a user to input a predetermined command. The user input unit 500 may include at least one of a key input unit, a touch input unit, and a voice input unit.

메모리부(600)는 제어부(100)의 제어에 따라 다양한 정보를 저장할 수 있다. 예를 들면, 메모리부(600)는 기준 횟수, 기준 동작, 기준 시간 등에 대한 정보를 저장할 수 있다.The memory unit 600 may store various information under the control of the control unit 100. [ For example, the memory unit 600 may store information on a reference count, a reference operation, a reference time, and the like.

통신부(700)는 다른 기기와 통신을 수행할 수 있다. 예를 들면, 통신부(700)는 제어부(100)의 제어에 따라 운동에 대한 정보 또는 편집된 운동영상을 다른 기기 혹은 미리 지정된 소정의 페이지(웹사이트)로 전송할 수 있다.The communication unit 700 can perform communication with other devices. For example, the communication unit 700 can transmit motion information or an edited motion image to another device or a pre-designated predetermined page (web site) under the control of the control unit 100. [

제어부(100)는 운동정보 처리 장치(10)의 전반적인 동작을 제어할 수 있다.The control unit 100 can control the overall operation of the exercise information processing apparatus 10. [

제어부(100)는 카메라부(300)가 촬영한 운동 영상을 근거로 하여 사용자의 운동에 대한 다양한 정보를 획득할 수 있다.The control unit 100 can acquire various information on the motion of the user based on the motion image captured by the camera unit 300.

제어부(100)는 사용자의 운동의 시작과 종료를 판별할 수 있다.The control unit 100 can determine the start and end of the user's motion.

제어부(100)는, 사용자의 운동에 대한 다양한 정보를 획득하기 위해, 종류 판별부(110), 동작 판별부(120), 횟수 판별부(130), 시간 판별부(140), 기구 판별부(150), 추적부(160), 경로 판별부(170), 선호도 판별부(180), 객체 인식부(190), 운동성 판별부(200), 정보 제공부(210) 및 편집부(220)를 포함할 수 있다.The control unit 100 includes a type determination unit 110, an operation determination unit 120, a frequency determination unit 130, a time determination unit 140, and a device determination unit (not shown) The navigation system includes a tracking unit 160, a path determination unit 170, a preference determination unit 180, an object recognition unit 190, a motility determination unit 200, an information providing unit 210, and an editing unit 220 can do.

종류 판별부(110)는 카메라부(300)가 촬영한 사용자의 운동 영상을 근거로 하여 사용자의 운동에 대한 운동 종류를 판별할 수 있다.The type determining unit 110 may determine the type of motion for the user's motion based on the motion image of the user captured by the camera unit 300. [

동작 판별부(120)는 운동 영상을 근거로 하여 사용자의 운동 동작을 판별할 수 있다.The motion determining unit 120 can determine the motion of the user based on the motion image.

횟수 판별부(130)는 운동 영상을 근거로 하여 사용자의 운동 횟수를 판별할 수 있다.The frequency determination unit 130 can determine the number of times of the user's motion based on the motion image.

이러한 횟수 판별부(130)는 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 운동 횟수를 카운트할 수 있다.The number determining unit 130 may count the number of motions when the user's motion is matched with a preset reference motion by a predetermined ratio or more.

시간 판별부(140)는 운동 영상을 근거로 하여 사용자의 운동 시간을 판별할 수 있다.The time determining unit 140 can determine the user's exercise time based on the motion image.

기구 판별부(150)는 사용자가 선택한 운동기구의 종류를 판별할 수 있다.The apparatus determining unit 150 can determine the type of the exercise instrument selected by the user.

아울러, 기구 판별부(150)는 운동 종류가 웨이트 기구를 이용한 운동인 경우, 웨이트 기구에 설정된 로드(Load)를 판별할 수 있다.In addition, when the motion type is the motion using the weight mechanism, the device determination unit 150 can determine the load set in the weight mechanism.

추적부(160)는 미리 설정된 운동영역 내에서 복수의 사용자들 중 선택된 사용자를 타깃(Target)으로 추적할 수 있다.The tracking unit 160 may track a selected user among a plurality of users as a target within a preset moving range.

경로 판별부(170)는 운동 영상을 근거로 하여 선택된 사용자의 운동영역 내에서의 경로에 대한 정보를 판별할 수 있다.The path determination unit 170 can determine information about a path in the motion area of the selected user based on the motion image.

선호도 판별부(180)는 운동 기구에 대한 적어도 하나의 사용자의 선호도 혹은 온동 종류에 대한 적어도 하나의 사용자의 선호도를 판별할 수 있다.The preference determining unit 180 may determine at least one user's preference or at least one user's preference for the warm-up type for the exercise device.

객체 인식부(190)는 운동 영상을 분석하여 움직이는 객체(Object)를 인식할 수 있다.The object recognition unit 190 may recognize a moving object by analyzing the motion image.

운동성 산출부(200)는 객체 인식부(190)가 인식한 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출할 수 있다.The motility calculation unit 200 can distinguish the motions of the moving objects recognized by the object recognition unit 190 with different brightnesses according to time, and calculate the motility based on the direction and degree of brightness change.

정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 추천 정보를 제공할 수 있다.The information providing unit 210 may provide recommendation information to the user based on at least one of information on the type of exercise, information on the number of times of exercise, or information on the exercise time.

아울러, 정보 제공부(210)는 운동 영상을 분석하여 획득한 다양한 정보를 사용자, 다른 기기 및/또는 미리 지정된 웹사이트에 제공할 수 있다.In addition, the information providing unit 210 may provide various information obtained by analyzing the motion image to a user, another device, and / or a predetermined web site.

영상 편집부(220)는 사용자의 운동 영상에서 하이라이트 영상을 추출/편집할 수 있다.The image editing unit 220 can extract / edit the highlight image from the user's motion image.

도 1의 구성의 운동 정보 처리 장치(10)는 다양한 형태의 하드웨어로 실현될 수 있다. 예를 들면, 본 발명에 따른 운동 정보 처리 장치(10)는 스마트 폰 등의 이동통신 단말기의 형태로 제작될 수 있고, 또는 CCTV 등의 고정된 단말기 형태로 제작되는 것도 가능할 수 있다.The exercise information processing device 10 having the configuration shown in Fig. 1 can be realized by various types of hardware. For example, the motion information processing apparatus 10 according to the present invention may be manufactured in the form of a mobile communication terminal such as a smart phone or a fixed terminal such as a CCTV.

이러한 구성의 운동 정보 처리 장치를 이용한 운동 정보 처리 방법에 대해 첨부된 도면을 참조하여 이하에서 상세히 설명한다.A motion information processing method using the motion information processing device having such a configuration will be described in detail below with reference to the accompanying drawings.

도 2 내지 도 37은 본 발명에 따른 운동 정보 처리 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 설명한 내용에 대한 설명은 생략될 수 있다.2 to 37 are views for explaining a motion information processing method according to the present invention. In the following, description of the contents described above may be omitted.

도 2를 살펴보면, 본 발명에 따른 운동 정보 처리 방법에서는 먼저 운동 정초 처리 장치(10)를 셋팅(S100)할 수 있다.Referring to FIG. 2, in the motion information processing method according to the present invention, it is possible to first set the motion picture processing apparatus 10 (S100).

셋팅단계에서는 카메라부(300)를 운동 영상을 촬영 가능한 위치에 배치하는 것이 가능하다.In the setting step, it is possible to arrange the camera unit 300 at a position where the motion image can be photographed.

또는, 운동 정보 처리 장치(10)를 운동 영상 촬영 모드로 설정할 수 있다.Alternatively, the motion information processing apparatus 10 can be set to the motion image shooting mode.

필요에 따라, 사용자의 아이디(ID) 또는 비밀번호(PW) 등의 정보를 입력하여 사용자를 인증할 수 있다.If necessary, the user can be authenticated by inputting information such as a user ID (ID) or a password (PW).

촬영 명령이 입력되면, 카메라부(300)는 제어부(100)의 제어에 따라 사용자의 운동 영상을 촬영(S400)할 수 있다. 예를 들면, 도 3의 경우와 같이, 사용자(H)가 운동을 하는 영상을 이동통신 단말기 형태의 운동정보 처리장치(10)가 촬영하는 것이 가능하다.When a photographing command is input, the camera unit 300 can photograph a user's motion image under control of the controller 100 (S400). For example, as in the case of Fig. 3, it is possible for the motion information processing device 10 in the form of a mobile communication terminal to photograph an image in which the user H is moving.

이후, 제어부(100)는 카메라부(300)가 촬영한 운동 영상을 분석(S300)할 수 있다.Thereafter, the control unit 100 may analyze the motion image captured by the camera unit 300 (S300).

아울러, 제어부(100)는 운동 영상을 분석한 결과물로 다양한 운동 정보를 판별(S400)할 수 있다.In addition, the controller 100 may identify various kinds of exercise information as a result of analyzing the exercise image (S400).

이후, 제어부(100)는 판별한 정보들을 근거로 하여 다양한 정보를 제공(S500)할 수 있다.Thereafter, the control unit 100 may provide various information based on the determined information (S500).

정보 제공 단계에서는 통신부(700)가 제어부(100)의 제어에 따라 제어부(100)가 판별한 정보를 다른 기기 혹은 미리 지정된 홈페이지 등에 전송할 수 있다.In the information providing step, the communication unit 700 can transmit the information determined by the control unit 100 to another device or a predetermined homepage or the like under the control of the control unit 100. [

운동 영상을 분석하는 방법에 대해 살펴보면 아래와 같다.A method of analyzing the motion image will be described below.

도 4를 살펴보면, 운동 영상을 분석하는 단계(S300)에서는 먼저 운동 영상에서 배경을 추출(S310)할 수 있다. 자세하게는, 복수의 영상 프레임(Frame)을 비교하여 움직임이 없거나 매우 적은 부분을 배경으로 판단하고, 판단한 결과에 따라 배경을 추출할 수 있다.Referring to FIG. 4, in step S300 of analyzing the motion image, a background may be extracted from the motion image S310. More specifically, a plurality of image frames can be compared to determine a motionless or very small portion as a background, and a background can be extracted according to the determined result.

예를 들면, 도 5의 경우와 같이, 제 1 프레임(First Frame, A)과 제 1 프레임(A) 이후의 제 2 프레임(Second Frame, B)을 비교하면, 제 2 프레임(B)에는 소정의 객체(Object, OB)가 포함되어 있고, 제 1 프레임(A)에는 객체(OB)가 포함되지 않은 것을 확인할 수 있다.For example, as in the case of FIG. 5, if the first frame (A) and the second frame (B) after the first frame A are compared with each other, (OB), and it can be confirmed that the object (OB) is not included in the first frame (A).

이러한 경우, 시간적으로 늦은 제 2 프레임(B)에 새롭게 추가된 객체(OB)를 움직이는 객체(OB)로 인식할 수 있다.In this case, the object OB newly added to the temporally late second frame B can be recognized as the moving object OB.

제 1 프레임(A)과 제 2 프레임(B)에서 객체(OB)를 제외한 나머지 부분의 영상은 거의 변화가 없다. 다르게 표현하면, 객체(OB)를 제외한 나머지 부분의 영상은 움직임이 거의 없다. 따라서, 객체(OB)를 제외한 나머지 부분을 모두 배경으로 인식할 수 있다.The images of the remaining portions except the object OB in the first frame A and the second frame B hardly change. In other words, the rest of the image except the object OB has little motion. Therefore, all the remaining parts except the object OB can be recognized as the background.

또는, 운동영상에 움직이는 객체(OB)가 포착되지 않는 경우에는 제 1 프레임(A)과 같은 영상이 계속 이어질 수 있다. 이러한 경우, 제 1 프레임(A) 영상을 배경 영상이라고 인식할 수 있다. 다르게 표현하면, 제 1 프레임(A)에 나타난 모든 부분을 배경으로 인식할 수 있다.Alternatively, if the moving object OB is not captured in the moving image, the same image as the first frame A may continue. In this case, the first frame (A) image can be recognized as a background image. In other words, all the parts of the first frame A can be recognized as backgrounds.

이처럼, 영상에서 미리 설정된 기준 프레임 기간 동안 움직임이 없는 부분을 배경으로 인식하고 추출하는 것이 가능하다.As described above, it is possible to recognize and extract a motionless portion as a background during a preset reference frame period in an image.

제 1 프레임(A)과 유사한 배경 영상이 계속되다가 객체(OB)가 카메라부(300)에 포착되면, 제 2 프레임(B)과 유사한 영상이 획득될 수 있다. 만약, 객체(OB)가 계속해서 움직여서 화면을 벗어나면 다시금 제 1 프레임(A)과 같은 영상이 획득될 것이다.When a background image similar to the first frame A is continued and the object OB is captured by the camera unit 300, an image similar to the second frame B can be obtained. If the object OB continuously moves and leaves the screen, the same image as the first frame A will be obtained again.

객체(OB)가 지나가기 이전 영상과 객체(OB)가 지나간 이후의 영상을 비교하면, 두 개의 영상은 거의 동일할 수 있다.When the image before the object OB passes and the image after the object OB passes are compared, the two images can be almost the same.

이처럼, 일정 기간 동안의 영상에서 객체(OB)가 이동하면서 영상에서 움직임이 감지되더라도, 객체(OB)가 포착되기 이전의 영상과 객체(OB)가 지나간 이후의 영상이 거의 동일하다면 해당 영상에 대응하는 부분이 대부분 배경일 수 있다.As described above, even if the motion of the object OB is detected while moving the object OB for a predetermined period of time, if the image before the object OB is captured and the images after the object OB have passed are substantially the same, Can be mostly background.

다르게 표현하면, 일정 기간 동안 영상에서 움직임에 따라 변화하는 부분이 있더라도, 그 변화가 시작되기 이전과 그 변화가 종료된 이후의 영상이 거의 동일하다면 해당 영상은 배경 영상인 것으로 인식될 수 있는 것이다.In other words, even if there is a part that changes according to the motion in the image for a certain period of time, if the image before the change starts and after the end of the change are almost the same, the corresponding image can be recognized as the background image.

배경을 추출한 이후, 배경의 색을 판별하여 그에 대한 정보를 저장할 수 있다.After extracting the background, the color of the background can be determined and information about the background can be stored.

이후, 배경(배경이 되는 영상)과 다른 운동영상의 색을 비교(S320)할 수 있다.Thereafter, the background (the background image) and the colors of the other motion images can be compared (S320).

객체 인식부(190)는 운동영상에서 배경과 다른 색상을 갖는 부분을 움직이는 객체(OB)로 인식(S330)할 수 있다.The object recognizer 190 recognizes a portion having a color different from the background in the moving image as the moving object OB (S330).

예를 들면, 도 6의 (A)와 같이, 배경과 다른 색을 갖는 부분, 즉 객체(OB)를 검출할 수 있다.For example, as shown in Fig. 6A, a portion having a different color from the background, that is, the object OB can be detected.

아울러, 배경과 객체(OB)를 구분한 이후, 배경을 단색으로 처리할 수 있다. 예를 들면, 배경을 검은색으로 처리할 수 있다. 이러한 경우, 객체(OB)의 움직임을 보다 용이하게 분석할 수 있다.In addition, after separating the background and the object (OB), the background can be processed in a single color. For example, you can treat the background as black. In this case, the motion of the object OB can be more easily analyzed.

이후, 도 6의 (B)와 같이, 객체(OB)의 실루엣을 판별할 수 있다. 도 6의 (B)에서 왼쪽 상단의 붉은색 부분(ER)은, 사람의 형태와 너무 다르므로, 에러로 처리할 수 있다.Thereafter, as shown in Fig. 6B, the silhouette of the object OB can be discriminated. In Fig. 6 (B), the red part ER in the upper left corner is very different from the human form, so it can be treated as an error.

이러한 과정으로 운동영상에서 움직이는 객체(OB)를 인식할 수 있다.In this process, the moving object (OB) can be recognized in the motion image.

이후, 움직임 산출부(200)는 객체(OB)의 움직임을 분석(S340)할 수 있다.Thereafter, the motion calculating unit 200 may analyze the motion of the object OB (S340).

아울러, 움직임 분석의 결과에 따라 운동성을 산출(S360)할 수 있다.In addition, the mobility can be calculated (S360) according to the result of the motion analysis.

자세하게는, 움직임 산출부(200)는 움직이는 객체(OB)의 움직임을 시간에 따라 밝기를 다르게 하여 구분할 수 있다. 아울러, 움직임 산출부(200)는 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출할 수 있다.In detail, the motion calculating unit 200 can distinguish the motion of the moving object OB by changing the brightness with time. In addition, the motion calculating unit 200 can calculate the mobility based on the direction and degree of change in brightness.

예를 들면, 도 7의 경우와 같이, 객체(OB), 즉 사용자가 왼쪽 팔을 들어 올리는 경우를 가정하여 보자.For example, as in the case of Fig. 7, suppose that the object OB, i.e., the user lifts the left arm.

도 7에서와 같이, 사용자 현재 모습은 상대적으로 밝게 처리하고, 이전 모습은 상대적으로 어둡게 처리할 수 있다.As shown in FIG. 7, the current state of the user can be relatively brightened, and the previous state can be relatively darkened.

이러한 경우, 어두운 부분에서 밝은 부분으로 사용자의 왼쪽 팔이 아래에서 위를 향해 움직인 것으로 판별할 수 있다. 즉, 운동방향을 판별할 수 있다.In such a case, it can be determined that the user's left arm moves from the dark portion to the bright portion upward from below. That is, the direction of motion can be determined.

아울러, 왼쪽 팔의 밝기 변화가 급격한지 혹은 완만한지에 따라 팔의 이동속도를 판별할 수 있다.In addition, the movement speed of the arm can be determined according to whether the brightness change of the left arm is abrupt or gentle.

예를 들면, 도 8의 (A)와 같이, 객체(OB)가 축을 중심으로 180°(도) 회전하는 경우와 도 8의 (B)와 같이 객체(OB)가 축을 중심으로 90°(도) 회전하는 경우를 가정하여 보자.For example, as shown in Fig. 8A, when the object OB rotates 180 degrees (degrees) about the axis and when the object OB is 90 degrees (degrees) about the axis as shown in Fig. 8B, ) Let us suppose that it rotates.

도 8의 (A)와 (B)의 밝기의 변화가 동일한 경우에는 도 8의 (A)의 경우가 (B)의 경우에 비해 운동성이 더 크다는 것, 즉 움직임 속도가 더 빠른 것을 알 수 있다.8 (A) and 8 (B) are the same, it can be seen that the case of FIG. 8 (A) is higher in motility than the case of (B), that is, the moving speed is faster .

또는, 도 9의 (A)와 (B)와 같이, 객체(OB)가 각각 축을 중심으로 180°(도) 회전하는 경우를 가정하여 보자.Alternatively, as shown in FIGS. 9A and 9B, it is assumed that the object OB rotates 180 degrees (degrees) about the respective axes.

도 9의 (A)에 비해 (B)의 경우에 밝기의 변화가 더 급격하게 발생하는 경우에는, 도 9의 (A)의 경우에는 상대적으로 짧은 시간동안 객체(OB)가 180°(도) 회전하고, 도 9의 (B)의 경우에는 상대적으로 긴 시간동안 객체(OB)가 180°(도) 회전하는 경우에 해당될 수 있다.In the case of FIG. 9A, when the change of brightness occurs more rapidly in the case of FIG. 9A than in FIG. 9A, the object OB is 180 degrees in a relatively short time, In the case of FIG. 9B, the object OB may rotate 180 degrees (degrees) for a relatively long time.

이에 따라, 도 9의 (A)의 경우가 (B)의 경우에 비해 운동성이 더 클 수 있다.Accordingly, the case of (A) in Fig. 9 can be greater in motility than the case of (B).

이와 같은 방법으로 움직이는 객체(OB)를 인식하고, 인식한 객체(OB)의 운동성을 산출하는 것이 가능하다.In this way, it is possible to recognize the moving object OB and to calculate the mobility of the recognized object OB.

한편, 움직임을 검출하기 위해 소정의 마스크(Mask)를 사용하는 것이 가능하다. 예를 들면, 영상의 특정 영역에 소정 크기의 마스크를 적용하고, 해당 마스크의 휘도 변화를 감지하여 운동성을 판별할 수 있다.On the other hand, it is possible to use a predetermined mask to detect motion. For example, a predetermined size mask may be applied to a specific area of the image, and the mobility may be determined by detecting a change in luminance of the mask.

운동 정보를 판별하는 방법에 대해 살펴보면 아래와 같다.How to identify exercise information is as follows.

이하에서 설명하는 운동 종류, 운동 동작, 운동 횟수, 운동 시간에 대한 정보 등은 운동성 산출부(200)가 산출한 운동성에 대한 정보를 근거로 하여 판별될 수 있다.The information on the type of exercise, the exercise operation, the number of times of exercise, and the exercise time, which will be described below, can be determined based on the information on the mobility calculated by the mobility calculation unit 200.

도 10을 살펴보면, 정보 판별 단계(S400)에서는 운동 종류, 운동 동작, 운동 횟수, 운동 시간, 운동 기구, 운동 경로 또는 선호도 중 적어도 하나를 판별할 수 있다.Referring to FIG. 10, in the information determination step (S400), at least one of the type of motion, the motion motion, the number of motions, the motion time, the motion mechanism, the motion path, or the preference can be determined.

운동 동작 및/또는 종류를 판별하는 방법에 대해 살펴보면 아래와 같다.A method of discriminating a movement operation and / or a kind will be described as follows.

운동의 종류별로 기준 동작에 대한 정보를 설정하여 저장할 수 있다. 예를 들면, 도 11의 경우와 같이, 팔굽혀펴기 운동의 경우 바닥(GND)과 사용자(H)의 다리 사이의 기준각도(Xb), 상체와 바닥(GND) 사이의 기준거리(Xa) 등에 대해 정보를 미리 설정할 수 있다.Information about the reference motion can be set and stored for each type of motion. 11, the reference angle Xb between the ground (GND) and the legs of the user H, the reference distance Xa between the upper body and the floor GND, etc. in the case of the push- Information can be set in advance.

이후, 도 12의 (A), (B)와 같이 사용자가 운동을 진행하는 경우, 카메라부(300)가 사용자의 운동 영상을 촬영하면 동작 판별부(120)가 운동 영상을 분석하여 운동 동작에 대한 정보를 판별할 수 있다.12 (A) and 12 (B), when the camera unit 300 captures a user's motion image, the motion determiner 120 analyzes the motion image to perform a motion operation Can be identified.

동작 판별부(120)는 바닥과 다리 사이의 각도, 상체와 바닥 사이의 거리 등에 대한 운동 동작에 대한 정보를 판별/획득할 수 있다.The operation determination unit 120 can determine / obtain information about the motion operation with respect to the angle between the floor and the leg, the distance between the upper body and the floor, and the like.

종류 판별부(110)는 동작 판별부(120)가 획득한 동작 정보를 미리 설정된 기준 운동 동작에 대한 정보와 비교할 수 있다.The type determining unit 110 may compare the operation information acquired by the operation determining unit 120 with information on a preset reference motion operation.

예를 들어, 도 12의 (A)의 경우 바닥(GND)과 사용자(H)의 다리 사이의 각도가 제 1 각도(Xb1)이고, 상체와 바닥(GND) 사이의 거리가 제 1 거리(Xa1)인 경우, 제 1 각도(Xb1)가 미리 설정된 기준각도(Xb)와 어느 정도 유사한지 판별하고, 제 1 거리(Xa1)가 기준거리(Xa)와 어느 정도 유사한지를 판별할 수 있다.12 (A), the angle between the ground (GND) and the legs of the user H is the first angle Xb1, and the distance between the upper body and the floor GND is the first distance Xa1 , It is possible to discriminate to what extent the first angle Xb1 is similar to the preset reference angle Xb and to what extent the first distance Xa1 is similar to the reference distance Xa.

만약, 제 1 각도(Xb1)가 기준각도(Xb)와 미리 설정된 일정 범위 내에서 유사하고, 제 1 거리(Xa1)가 기준거리(Xa)와 미리 설정된 일정 범위 내에서 유사하다면, 도 12의 (A)와 같은 운동 형태를 팔굽혀펴기로 판별할 수 있다.If the first angle Xb1 is similar to the reference angle Xb within a predetermined predetermined range and the first distance Xa1 is similar to the reference distance Xa within a preset predetermined range, A) can be identified by push-and-push.

이와 같은 방법으로 도 12의 (B)의 운동 형태를 팔굽혀펴기로 판별하는 것이 가능하다.In this way, it is possible to discriminate the exercise form of FIG. 12 (B) by pushing up and down.

만약, 사용자가 도 13의 경우와 같은 형태로 운동을 하는 경우에는, 바닥(GND)과 다리 사이의 각도(제 3 각도(X2))가 미리 설정된 기준각도(Xb)와 미리 설정된 범위 내에서 유사하더라도, 사용자(H)의 상체가 바닥(GND)과 접촉하고 있으므로, 종류 판별부(110)는 해다 운동이 팔굽혀펴기가 아닌 것으로 인식할 수 있다.13, the angle (third angle X2) between the ground (GND) and the leg is set to be similar to the preset reference angle Xb within a preset range The upper end of the user H is in contact with the floor (GND), so that the type discriminating unit 110 can recognize that the stroke is not the arm-pushing-up.

여기서는, 설명의 편의를 위해 기준 정보에 대해 기준거리(Xa)와 기준각도(Xb)에 대해서만 설명하고 있지만, 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 엉덩이의 위치, 무릎의 각도, 머리의 위치, 양팔의 각도, 양손의 위치 등에 대한 정보를 기준정보로 설정할 수 있다.For convenience of explanation, only the reference distance Xa and the reference angle Xb are described for the reference information, but the present invention is not limited to this. For example, information on the position of the buttocks, the angle of the knee, the position of the head, the angle of both arms, the position of both hands, and the like can be set as the reference information.

동작 판별부(120)는 운동 영상에서 운동 동작에 대한 정보를 판별/획득하고, 아울러 운동 정확성에 대한 정보도 판별할 수 있다.The motion determining unit 120 can discriminate / acquire information on the motion motion in the motion image, and can also determine information on the motion accuracy.

동작 판별부(120)는 사용자의 운동 동작이 미리 설정된 기준 동작과 얼마나 유사한지를 판별할 수 있다. 다르게 표현하면, 동작 판별부(120)는 사용자(H)가 얼마나 정확하고 좋은 폼(동작)으로 운동을 하는가를 판별할 수 있는 것이다.The operation determination unit 120 may determine how similar the user's motion is to a preset reference motion. In other words, the operation determination unit 120 can determine how precisely and accurately the user H is performing the motion.

예를 들면, 도 14의 경우와 같이, 사용자의 운동 동작에서 팔각도, 팔을 굽히는 정도, 바닥과 다리 사이의 각도, 무릎 각도, 엉덩이 높이 등에 대한 정보를 미리 설정된 기준 운동 동작과 비교하여 각각 정확성에 대한 점수를 판별할 수 있다.For example, as in the case of Fig. 14, the information about the octagon angle, the degree of bending arm, the angle between the floor and the leg, the knee angle, the hip height, Can be determined.

아울러, 동작 판별부(120)는 사용자의 운동의 기준 운동 동작 대비 정확성에 대해 종합평가 점수를 산출할 수 있다. 즉, 운동동작에 대해 모범답안을 설정해 놓고, 사용자의 운동 동작에 대해 점수를 평가하는 것이 가능하다.In addition, the operation determination unit 120 may calculate an overall evaluation score on the accuracy with respect to the reference motion operation of the user's motion. That is, it is possible to set a model answer for the exercise operation and to evaluate the score of the user's exercise operation.

동작 판별부(120)가 평가하는 항목은 다양하게 변경될 수 있다.The items evaluated by the operation determination unit 120 may be variously changed.

예를 들어, 달리기 운동의 경우, 발을 내딛는 각도, 보폭, 팔의 각도, 상체 및 하체의 움직임 등의 항목을 평가하고, 평가 결과에 따라 정확성을 판별할 수 있다.For example, in the case of a running exercise, items such as the angle at which the foot is taken, the stride, the angle of the arm, the movement of the upper body and the lower body can be evaluated, and the accuracy can be determined according to the evaluation result.

아울러, 동작 판별부(120)는 사용자의 운동에 대해 난이도를 평가하는 것도 가능하다.In addition, the operation determination unit 120 may evaluate the degree of difficulty of the user's motion.

예를 들면, 사용자가 도 15의 (A), (B), (C), (D) 또는 (E)와 같은 형태로 운동을 진행하는 경우, 동작 판별부(120)는 도 15의 (A), (B), (C), (D), (E)의 경우를 모두 팔굽혀펴기 운동으로 판별할 수 있다.For example, when the user proceeds the motion in the form of (A), (B), (C), (D), or (E) of FIG. 15, the operation determining unit 120 determines ), (B), (C), (D), and (E) can all be determined as an arm push-up motion.

아울러, 동작 판별부(120)는 도 15의 (A)와 같은 경우의 난이도를 제 1 레벨(First Level)로 판별하고, 도 15의 (B)와 같은 경우의 난이도를 제 1 레벨보다 난이도가 높은 제 2 레벨(Second Level)로 판별하고, 도 15의 (C)와 같은 경우의 난이도를 제 2 레벨보다 높은 제 3 레벨(Third Level)로 판별하고, 도 15의 (D)와 같은 경우의 난이도를 제 3 레벨보다 높은 제 4 레벨(Fourth Level)로 판별하고, 도 15의 (E)와 같은 경우의 난이도를 제 4 레벨보다 높은 제 5 레벨(Fifth Level)로 판별하는 것이 가능하다.In addition, the operation determination unit 120 determines the degree of difficulty in the case of FIG. 15A as the first level and the degree of difficulty in the case of FIG. 15B as the degree of difficulty The degree of difficulty in the case of FIG. 15 (C) is determined to be a second level higher than the second level, and the degree of difficulty in the case of FIG. 15 (D) It is possible to determine the degree of difficulty as a fourth level higher than the third level and determine the degree of difficulty in the case of (E) in Fig. 15 as a fifth level (Fifth Level) higher than the fourth level.

이상에서는 맨손운동(팔굽혀펴기)의 경우에 대해 설명하였지만, 이상의 내용은 기구를 이용하는 운동에도 적용될 수 있다.In the above description, the case of bare-handed motion (push-up) is explained, but the above description can also be applied to the exercise using the apparatus.

동작 판별부(120)의 동작의 정확성 판별 기준은 맨손 운동, 기구 운동 별로 다르게 설정될 수 있으며, 아울러 기구의 종류에 따라 다르게 설정되는 것이 가능하다.The criterion for determining the accuracy of the operation of the operation determination unit 120 can be set differently according to the movement of the bare hand and the movement of the mechanism, and can be set differently according to the type of the mechanism.

도 16과 같이, 사용자(H)가 소정의 운동기구(800)를 사용하여 운동을 진행하는 경우에, 이동통신 단말기 형태의 운동정보 처리장치(10)는 이에 대한 운동 영상을 촬영할 수 있다.As shown in FIG. 16, when the user H carries out a movement using a predetermined exercise device 800, the exercise information processing device 10 in the form of a mobile communication terminal can take a motion image thereon.

이러한 경우, 운동정보 처리장치(10)는 위에서 설명한 내용에 따라 운동의 종류 및 운동 동작에 대한 정보를 분석/판별할 수 있다.In this case, the motion information processing apparatus 10 can analyze / discriminate the kind of motion and information on the motion motion according to the above-described contents.

운동정보 처리장치(10)의 기구 판별부(150)는 사용자(H)가 운동을 하는데 사용하는 운동기구(800)의 종류를 판별할 수 있다.The device determining unit 150 of the motion information processing device 10 can determine the type of the exercise device 800 used by the user H to exercise.

예를 들면, 메모리부(600)에 각각의 운동기구에 대한 형태 정보 및 이미지 정보를 저장하고, 이를 운동 영상에 나타난 운동기구와 비교하여 사용자가 사용하는 운동기구가 어떠한 것인지를 판별하는 것이 가능하다.For example, it is possible to store shape information and image information for each exercise apparatus in the memory unit 600, compare the same with the exercise apparatus shown in the exercise image, and determine what type of exercise apparatus is used by the user .

또는, 각각의 운동기구에 기구를 식별할 수 있는 바코드와 같은 식별정보를 할당하고, 이를 이용하여 운동기구를 판별하는 것도 가능할 수 있다.Alternatively, it is also possible to assign identification information, such as a bar code, to each exercise device so as to identify the device, and to use this information to identify the exercise device.

아울러, 기구 판별부(150)는 종류 판별부(110)가 판별한 운동 종류가 웨이트 기구를 이용한 운동인 경우, 웨이트 기구에 설정된 로드(Load)를 판별할 수 있다.In addition, when the type determined by the type determining unit 110 is a motion using a weight mechanism, the device determining unit 150 can determine a load set in the weighting mechanism.

예를 들어, 메모리부(600)에 각 운동기구에 사용되는 무게추의 무게, 크기, 형태 등에 대한 정보를 미리 저장하고, 이를 이용하여 운동영상에 나타나 있는 사용자가 사용하는 무게추와 비교하여 총 로드를 판별할 수 있다.For example, information on the weight, size, and shape of the weight used in each exercise machine is stored in advance in the memory 600, and compared with the weight used by the user in the exercise image, The load can be determined.

또는, 운동기구에 스트레인게이지를 설치하고, 이를 이용하여 기구의 로드를 확인하는 것이 가능하다.Alternatively, it is possible to install a strain gauge on the exercise device, and to confirm the load of the device by using it.

시간 판별부(140)는 운동영상을 근거로 하여 사용자의 운동시간을 측정/판별할 수 있다.The time determining unit 140 may measure / identify the user's exercise time based on the motion image.

예를 들어, 사용자의 운동 영상을 분석한 결과 도 17과 같은 결과를 획득한 경우를 가정하여 보자.For example, let us assume that the result of analyzing the user's motion image is as shown in FIG. 17.

도 17을 살펴보면, T0시점에서 운동을 시작하여 Te시점에서 운동을 종료하는 과정에서, T1-T2, T3-T4, T5-T6 기간 동안 사용자의 운동성이 평균값(Aa)을 넘을 수 있다.Referring to FIG. 17, in the process of starting the movement at the time T0 and ending the movement at the time Te, the user's mobility may exceed the average value Aa during the period of T1-T2, T3-T4, and T5-T6.

이러한 경우, 시간 판별부(140)는 사용자는 T1-T2, T3-T4 및 T5-T6 기간 동안 운동을 실시하고, T0-T1, T2-T3, T4-T5 및 T6-Te 기간 동안에는 휴식을 취한 것으로 판별할 수 있다.In this case, the time determining unit 140 determines whether the user performs the exercise during the periods T1-T2, T3-T4 and T5-T6 and rests during the periods T0-T1, T2-T3, T4- .

이처럼, 시간 판별부(140)는 사용자의 운동 시간에 대한 정보 뿐 아니라 휴식 시간에 대한 정보도 판별할 수 있다.As described above, the time determination unit 140 can determine not only the information on the user's exercise time but also information on the break time.

이상에서 설명한 운동 종류, 운동 동작, 운동 시간, 운동 기구에 대한 정보 등은 사용자에게 확인 가능한 형태로 가공되어 제공될 수 있다.The above-described information on the type of exercise, exercise operation, exercise time, exercise equipment, and the like can be processed in a form that can be confirmed to the user.

예를 들면, 도 18의 경우와 같이, 사용자가 벤치프레스 운동을 실시한 경우, 해당 운동의 총 운동시간, 휴식시간, 셋트 수, 각 셋트별 운동 횟수, 각 셋트별 로드(무게), 각 셋트별 운동시간 등에 대한 정보를 사용자에게 제공할 수 있다.For example, as in the case of FIG. 18, when the user performs a bench press exercise, the total exercise time, rest time, number of sets, number of exercises for each set, load (weight) Exercise time and the like can be provided to the user.

운동 셋트에 대한 정보는 앞선 도 17에서와 같은 방법으로 판별될 수 있다.Information on the exercise set can be determined in the same manner as in FIG.

횟수 판별부(130)는 운동 영상을 근거로 하여 사용자의 운동 횟수를 판별할 수 있다.The frequency determination unit 130 can determine the number of times of the user's motion based on the motion image.

예를 들어, 도 19와 같이 사용자(H)가 팔굽혀펴기 운동을 실시하는 경우에, 엎드린 상태에서 팔을 굽혔다가 펴는 동작을 팔굽혀펴기 운동 1회로 판별할 수 있다. 만약, 사용자가 팔을 굽히지 않고 계속 편 상태를 유지한다면 아무리 오랜 시간이 지나더라도 팔굽혀펴기 운동을 하지 않은 것으로 판별될 수 있다.For example, when the user H performs the push-up exercise as shown in Fig. 19, one arm-pushing motion can be discriminated from the operation of bending and stretching the arm in the prone position. If the user keeps his / her arm without bowing, it can be judged that he / she does not perform the push-up exercise for a long time.

횟수 판별부(130)는 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트하는 것이 바람직할 수 있다.The frequency determining unit 130 may preferably count the number of times when the user's motion is matched by more than a predetermined reference ratio to a preset reference motion.

예를 들어, 도 20의 (A)와 같이, 팔굽혀펴기 운동의 경우 바닥(GND)과 사용자(H)의 다리 사이의 기준각도(Xb), 상체와 바닥(GND) 사이의 기준거리(Xa) 등에 대해 정보를 미리 설정할 수 있다.20A, the reference angle Xb between the ground (GND) and the leg of the user H, the reference distance Xa between the upper body and the floor GND in the case of the push-up and pull-up motion, And the like can be set in advance.

이후, 도 20의 (B)와 같이 사용자가 팔굽혀펴기 운동을 진행하는 경우, 바닥(GND)과 사용자(H)의 다리 사이의 각도가 제 3 각도(Xb3)이고, 상체와 바닥(GND) 사이의 거리가 제 3 거리(Xa3)인 경우, 제 3 각도(Xb3)가 미리 설정된 기준각도(Xb)와 어느 정도 유사한지 판별하고, 제 3 거리(Xa3)가 기준거리(Xa)와 어느 정도 유사한지를 판별할 수 있다.20B, the angle between the ground GND and the legs of the user H is the third angle Xb3, and the angle between the upper body and the floor GND, It is judged how much the third angle Xb3 is similar to the preset reference angle Xb when the distance between the third distance Xa3 and the third distance Xa3 is larger than the reference distance Xa, A similarity can be determined.

판별한 결과, 제 3 각도(Xb3)가 기준동작(기준각도(Xb))과 기준 비율 이상 매칭되고, 제 3 거리(Xa3)가 기준동작(기준거리(Xa))과 기준 동작과 기준 비율 이상 매칭되는 경우에 사용자(H)가 팔굽혀펴기 운동을 1회 실시한 것으로 판별할 수 있다.As a result of the determination, if the third angle Xb3 matches the reference operation (reference angle Xb) more than the reference ratio and the third distance Xa3 is larger than the reference operation (reference distance Xa) It can be determined that the user H has performed the push-up exercise once.

만약, 사용자가 도 21의 (B)의 경우와 같은 형태로 운동을 하는 경우에는, 바닥(GND)과 다리 사이의 각도(Xb4)가 기준각도(Xb)와 기준 비율 이상 매칭되더라도, 사용자(H)의 상체와 바닥(GND)과의 거리(Xa4)가 변화가 없으므로, 즉 사용자(H)의 상체와 바닥(GND)과의 거리(Xa4)가 기준 동작과 기준 비율 이상 매칭되지 않으므로, 팔굽혀펴기 운동을 실시하지 않은 것으로 판별할 수 있다.21 (B), even if the angle Xb4 between the ground (GND) and the leg is matched with the reference angle Xb by more than the reference ratio, the user H Since the distance Xa4 between the upper body of the user H and the ground GND is not matched with the reference movement by more than the reference ratio because the distance Xa4 between the upper body of the user H and the ground GND does not change, It can be judged that the exercise is not performed.

운동 횟수를 판별하는 방법은 팔굽혀펴기 등의 맨손 운동 뿐 아니라 기구를 이용하는 기구 운동의 경우에도 적용될 수 있다.The method of determining the number of exercises can be applied not only to bare hands such as push-ups, but also to the exercise of the apparatus using the apparatus.

예를 들면, 도 22와 같이, 사용자(H)가 풀다운 운동기구(810)를 사용하는 경우를 가정하여 보자.For example, assume that the user H uses a pull-down exercise device 810 as shown in Fig.

이러한 경우, 사용자(H)가 팔을 올려다가 내리는 동작을 하면서, 이와 함께 풀다운 운동기구(810)의 손잡이가 사용자(H)의 팔과 함께 상하로 움직여야만 풀다운 운동을 1회 실시한 것으로 판별될 수 있다.In this case, it can be judged that the pulling operation of the pull-down exercising apparatus 810 is performed with the arm of the user H up and down together with the pulling operation of the user H while raising and lowering the arm, have.

정보 제공부(210)는 운동 결과에 대한 정보를 사용자에게 제공할 수 있다.The information providing unit 210 may provide information on the exercise result to the user.

예를 들면, 도 23의 (A)의 경우와 같이, 사용자가 실시한 팔굽혀펴기 운동에 대해 사용자의 현재 상태(사용자가 실시한 팔굽혀펴기 운동의 횟수), 평균 횟수 및 목표치에 대한 정보를 함께 제공하는 것이 가능하다.For example, as in the case of FIG. 23 (A), information on the current state of the user (the number of times the user performs the push-up and pull-up exercises), the average number of times, and the target value are provided together with the push- It is possible to do.

또는, 도 23의 (B)와 같이, 풀다운 운동의 경우, 현재 상태(사용자가 실시한 풀다운 운동의 로드(무게)), 평균 로드 및 목표치에 대한 정보를 함께 제공하는 것이 가능하다.Alternatively, as shown in FIG. 23B, it is possible to provide information on the current state (load (weight) of the pull-down motion performed by the user), the average load, and the target value in the case of pull down movement.

도 23의 (C)에는 벤치프레스 운동의 경우가 개시되어 있다.23 (C) shows a case of a bench press motion.

정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 성취도에 대한 정보를 제공하는 것이 바람직할 수 있다. 성취도는 운동 횟수가 많을수록, 운동 시간이 짧을수록 상승할 수 있다.The information providing unit 210 may provide information on the achievement level to the user based on at least one of information on the type of exercise, information on the number of times of exercise, or information on the exercise time. Achievement can be increased with more exercise frequency and shorter exercise time.

예를 들면, 도 23의 (A)와 도 24의 (A)를 참조하면, 팔굽혀펴기 운동의 경우 사용자의 성취도는 평균 횟수 대비 80%이고, 목표치 대비 67%일 수 있다.For example, referring to Figures 23 (A) and 24 (A), in the case of an up-and-down exercise, the user's achievement may be 80% of the average number and 67% of the target value.

성취도 정보는 풀다운 운동 및 벤치프레스 운동의 경우에도 적용될 수 있다.Achievement information can also be applied to pulldown and bench presses.

아울러, 정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 추천 정보를 제공할 수 있다. 여기서, 추천 정보는 운동 횟수에 대한 추천 정보, 운동 시간에 대한 추천 정보 또는 운동 종류에 대한 추천 정보 중 적어도 하나를 포함할 수 있다.In addition, the information providing unit 210 may provide recommendation information to the user based on at least one of information on the type of exercise, information on the number of times of exercise, or information on the exercise time. Here, the recommendation information may include at least one of recommendation information on the number of exercises, recommendation information on exercise time, or recommendation information on the kind of exercise.

예를 들면, 도 24의 (B)와 같이, 팔굽혀펴기 운동의 경우 실시 횟수를 20% 늘릴 것을 추천하고, 풀다운 운동의 경우 로드를 16%늘릴 것을 추천하고, 벤치프레스 운동의 경우 횟수를 30%줄일 것을 추천할 수 있다. 아울러, 벤치프레스 운동의 횟수를 줄이는 대신에 버터플라이 운동을 추가할 것을 추천할 수 있다. 이는 벤치프레임 운동에 대한 성취도가 도 24의 (A)에서와 같이 100%를 넘었기 때문이다.For example, as shown in FIG. 24 (B), it is recommended to increase the number of times of execution by 20% in the case of the push-up and pull-up motion, to increase the load by 16% in the case of pull-down movement, %. It is also advisable to add a butterfly motion instead of reducing the number of bench presses. This is because the achievement of the bench frame motion exceeds 100% as shown in FIG. 24 (A).

또는, 도 25의 (A)와 같이, 팔굽혀펴기 운동의 경우 무릎을 좀 더 곧게 펴라는 등의 운동 동작에 대한 추천정보를 사용자에게 제공하는 것이 가능하다.Alternatively, as shown in FIG. 25 (A), it is possible to provide the user with recommendation information on the exercise operation such as straightening the knee more straightly in the case of the push-up and pull-up exercise.

이와 함께, 사용자가 보다 용이하게 이해할 수 있도록, 도 25의 (B)와 같이, 바람직한 팔굽혀펴기 동작에 대한 일례를 표시부(410)에 표시할 수 있다.In addition, as shown in FIG. 25 (B), an example of a desired push-up and down operation can be displayed on the display unit 410 so that the user can understand it easily.

추천 정보의 제공은 팔굽혀펴기 등의 운동 횟수와 관련이 있는 운동 이외에 운동 동작 자체가 중요하게 여겨지는 요가 등의 운동에도 적용될 수 있다.Provision of recommendation information can be applied to exercises such as yoga, in which the exercise itself is considered important, in addition to exercises related to the number of exercises such as push-up.

예를 들면, 26의 (A)와 같이, 사용자(H)가 요가 운동을 실시하면, 사용자의 운동 영상으로부터 운동 동작 정보(MD)를 추출할 수 있다.For example, as shown in (A) of FIG. 26, when the user H performs the yoga exercise, the exercise motion information MD can be extracted from the user's motion image.

도 26에서는 설명의 편의를 위해, 도 26의 (B)와 같이 골격의 움직임으로 운동 동작을 표현하였지만 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 요가 운동의 경우에도 앞서 설명한 객체 인식부(190) 및 운동성 산출부(200)에 의해 운동성이 분석/판별될 수 있다.In FIG. 26, for the sake of convenience of description, the motion operation is expressed by the skeletal motion as shown in FIG. 26 (B), but the present invention is not limited thereto. For example, in the case of yoga exercise, the mobility can be analyzed / discriminated by the object recognition unit 190 and the mobility calculation unit 200 described above.

사용자의 운동 동작 정보(MD)가 획득되면, 도 26의 (C)와 같이, 사용자의 운동 동작 정보(MD)를 미리 설정된 기준 동작 정보(SD)와 비교할 수 있다.When the user's motion motion information MD is obtained, the user's motion motion information MD can be compared with preset reference motion information SD as shown in Fig. 26C.

비교결과, 사용자의 동작 정보(MD)와 기준 동작 정보(SD)의 유사성을 성취도로서 판별할 수 있다.As a result of comparison, the similarity between the user's operation information (MD) and the reference operation information (SD) can be determined as the achievement.

예를 들면, 도 27의 (A)와 같이, 사용자의 요가 운동에서 팔동작은 기준 동작 정보(SD)와 92%유사하고, 다리동작은 95%유사하고, 몸통동작은 98%유사한다는 정확성에 대한 정보를 판별할 수 있다. 다르게 표현하면, 사용자의 요가 동작은 팔동작 항목에서 92%의 정확성을 갖는 것으로 볼 수 있다.For example, as shown in FIG. 27 (A), the arm motion in the user's yaw motion is 92% similar to the reference motion information SD, the leg motion is 95% similar, and the torso motion is 98% Can be identified. In other words, the user's yoga movements can be seen to have 92% accuracy in arm movements.

이러한 정확성에 대한 정보를 바탕으로, 도 27의 (B)와 같이, 사용자에게 해당 운동에 대한 추천 정보를 제공할 수 있다.Based on the information on such accuracy, as shown in FIG. 27 (B), it is possible to provide recommendation information on the exercise to the user.

성취도는 로드, 횟수와 관계없이 운동시간에 따라 결정되는 것도 가능할 수 있다.It is also possible that performance may be determined by exercise time, regardless of load or frequency.

예를 들면, 도 28의 (A)와 같이, 벤치프레스 운동, 풀다운 운동, 팔굽혀펴기 운동, 달리기 등 다양한 운동의 운동 시간에 대한 성취도를 판별/제공할 수 있다.For example, as shown in (A) of FIG. 28, it is possible to discriminate / provide achievement of exercise time of various exercises such as bench press exercise, pull-down exercise, push-up exercise, and running.

아울러, 도 28의 (B)와 같이, 각 운동의 성취도에 근거하여 사용자에게 추천 정보를 제공할 수 있다.In addition, as shown in (B) of FIG. 28, recommendation information can be provided to the user based on the achievement of each exercise.

예를 들면, 사용자의 팔굽혀펴기 운동의 운동시간이 평균(10분)보다 적은 경우, 사용자에게 팔굽혀펴기 운동에 좀 더 시간을 투자하라는 내용을 추천 정보를 사용자에게 제공하는 것이 가능하다.For example, if the exercise time of the user's push-up exercise is less than the average (10 minutes), it is possible to provide the user with recommendation information that the user should spend more time in the push-up exercise.

운동시간에 따른 성취도는 요가, 달리기 등의 운동에 적용되는 것이 바람직할 수 있다.The performance according to the exercise time may be preferably applied to the exercise such as yoga and running.

예를 들면, 도 29의 (A)와 같이, 요가 운동 시 사용자(H)가 메뚜기 자세, 견상 자세, 쟁기 자세 및 독수리 자세를 취하는 경우를 가정하여 보자.For example, as shown in Fig. 29 (A), assume that the user H takes a grasshopper posture, a sideline posture, a plow posture, and an eagle posture in yoga exercise.

이러한 경우, 사용자가 메뚜기 자세를 취하고 그 자세는 유지한 시간(60초)을 미리 설정된 기준 시간(60초)과 비교하여 성취도(100%)를 판별/제공할 수 있다.In this case, the user can discriminate / provide the achievement (100%) by comparing the time (60 seconds) with which the user takes the grasshopper posture and maintains the posture with the preset reference time (60 seconds).

아울러, 성취도에 근거하여 사용자에게 독수리 자세 시간을 줄이고 견상 자세 및 쟁기 자세의 연습 시간을 늘리라는 등의 추천 정보를 제공할 수 있다.In addition, based on the achievement, the user can be provided with recommendation information such as reducing the eagle's posture time and increasing the practice time of the diving posture and the plow posture.

한편, 난이도에 따라 추천 정보를 다르게 제공하는 것이 가능하다.On the other hand, it is possible to provide recommendation information differently depending on the degree of difficulty.

예를 들어, 도 30의 경우와 같이, 팔굽혀펴기 운동의 경우 10분 동안 100번 실시하는 경우를 레벨 1로 설정하고, 10분 동안 130번 실시하는 경우를 레벨 2, 10분 동안 160번 실시하는 경우를 레벨 3, 10분 동안 190번 실시하는 경우를 레벨 4, 10분 동안 220번 실시하는 경우를 레벨 5로 설정하는 경우를 가정하자.For example, as in the case of Fig. 30, in the case of the push-up and pull-up exercise, the case of performing 100 times for 10 minutes is set as the level 1, the case of 130 times for 10 minutes is executed as 160 times for the level 2, , The level 3 is executed for 10 minutes, the level 4 is executed for 10 minutes, and the level 5 is set 220 times for 10 minutes.

도 31의 (A)와 같이, 레벨 2 단계인 사용자 A가 10분 동안 총 90개의 팔굽혀펴기 운동을 실시하여 성취도가 69%인 경우에는, 도 31의 (B)와 같이 레벨 1로 레벨을 하향조정할 것을 추천할 수 있다.As shown in (A) of FIG. 31, when Level A user A performs a total of 90 push-up exercises for 10 minutes and the achievement is 69%, the level is set to level 1 as shown in FIG. 31 (B) It is recommended to adjust it downward.

또는, 운동정보 처리장치(10)에서 강제로 사용자 A의 레벨을 레벨 2에서 레벨 1로 낮출 수 있다.Alternatively, the level of the user A can be forcibly lowered from the level 2 to the level 1 in the exercise information processing device 10.

반면에, 도 32의 (A)와 같이, 레벨 4 단계인 사용자 B가 10분 동안 총 230개의 팔굽혀펴기 운동을 실시하여 성취도가 121인 경우에는, 도 32의 (B)와 같이 레벨 5로 레벨을 상향조정할 것을 추천할 수 있다.On the other hand, as shown in FIG. 32 (A), when the level B level user B performs a total of 230 push-up exercises for 10 minutes and the achievement level is 121, It is recommended to adjust the level up.

또는, 운동정보 처리장치(10)에서 강제로 사용자 B의 레벨을 레벨 4에서 레벨 5로 높일 수 있다.Alternatively, the exercise information processing device 10 can forcibly increase the level of the user B from level 4 to level 5. [

정보 제공부(210)는 사용자로부터 수집한 다양한 정보를 다른 사용자들의 정보와 비교하여 사용자의 건강 상태에 대한 정보를 제공할 수 있다.The information providing unit 210 can provide information on the health status of the user by comparing various information collected from the user with information of other users.

예를 들면, 도 33의 경우와 같이, 사용자의 운동 영상을 분석하여 판별/획득한 정보를 빅데이터와 비교하여 사용자의 현재 근력, 근지구력, 심폐지구력 등의 정보를 예측하고, 이에 대한 정보를 사용자에게 제공하는 것이 가능하다.For example, as in the case of FIG. 33, by analyzing the motion image of the user and comparing the discriminated / acquired information with the big data, information such as the user's current strength, muscle endurance, cardiovascular endurance, etc. is predicted, It is possible to provide it to the user.

이상에서는 운동 정보 처리 장치(10)가 운동 영상으로부터 사용자가 실시하는 운동의 종류를 판별하는 경우를 설명하였지만, 이와는 다르게 운동 정보 처리 장치(10)에서 운동 종류에 대한 정보를 먼저 제공하는 것이 가능하다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.In the above description, the case where the motion information processing apparatus 10 discriminates the kind of exercise performed by the user from the motion image has been described, but it is possible to provide the motion information processing apparatus 10 with information on the type of motion first . Hereinafter, the present invention will be described with reference to the accompanying drawings.

도 34 내지 도 37은 본 발명에 따른 또 다른 운동 정보 처리 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략한다. 예를 들면, 이하의 내용은 운동의 종류에 대한 정보 및 해당 운동의 기준 동작에 대한 정보를 촬영전에 사용자에게 미리 제공한다는 점을 제외하면 특별한 언급이 없는 한 이상에서 설명한 내용과 대략 동일할 수 있다.34 to 37 are diagrams for explaining another exercise information processing method according to the present invention. Hereinafter, the description of the portions described in detail above will be omitted. For example, the following may be approximately the same as described above unless otherwise noted, except that it provides information about the type of motion and information about the reference motion of the motion in advance to the user .

도 34를 살펴보면, 촬영(S200) 단계 이전에 운동 종류에 대한 정보를 제공하는 단계(S600)가 포함될 수 있다.Referring to FIG. 34, step S600 of providing information on the type of exercise before the photographing (S200) step may be included.

이러한 경우에는, 제어부(100)에서 종류 판별부(110)가 생략되는 것도 가능하다.In this case, the type discriminating unit 110 may be omitted in the control unit 100. [

예를 들면, 도 35 내지 도 36의 경우와 같이, 운동정보 처리 장치(10)는 운동 영상 촬영 이전에 사용자에게 운동 종류에 대한 정보 및 그 운동의 기준동작에 대한 정보를 화면(표시부(410))에 표시하여 제공할 수 있다.35 to 36, the motion information processing apparatus 10 displays information on the motion type and the reference motion of the motion on the screen (the display unit 410) before the motion image capturing, ).

그러면, 사용자는 현재 자신이 어떤 운동을 해야 하는지를 확인할 수 있다.Then, the user can confirm what kind of exercise he / she should perform at present.

그리고 운동 정보 처리 장치(10)는 사용자(H)가 해당 운동을 실시하고 있는지를 모니터링하는 것이다.The exercise information processing device 10 monitors whether the user H is performing the exercise.

이러한 방법은 크로스핏(Crossfit)과 같이 다양한 운동을 셋트별로 실시하는 운동에 적용되는 것이 바람직할 수 있다.It may be desirable to apply this method to movements that perform various exercises on a set-by-set basis, such as a crossfit.

예를 들면, 도 37의 경우와 같이, 첫 번째 단계에서 꼰다리 자세를 유지하는 요가 운동을 실시할 수 있다.For example, as in the case of FIG. 37, a yoga exercise can be performed to maintain the braided leg posture in the first step.

이러한 경우에는, 도 35의 경우와 같이, 표시부(410)에 꼰다리 자세의 기준 동작 정보에 대한 정보를 표시할 수 있다.In such a case, as in the case of Fig. 35, information on the reference operation information of the legged posture can be displayed on the display unit 410. Fig.

이러한 경우, 운동정보 처리장치(10)에서는 사용자의 꼰다리 자세 운동에 대한 운동 동작을 판별할 수 있다.In such a case, the exercise information processing apparatus 10 can discriminate the exercise operation for the braid leg posture motion of the user.

아울러, 운동정보 처리장치(10)는 사용자가 꼰다리 자세를 유지하는 요가 운동을 완수하는 경우, 즉 해당 운동이 종료되는 경우에 또 다른 운동, 예컨대 팔굽혀펴기 운동에 대한 운동 종류 및 기준 동작에 대한 정보를 제공할 수 있다.In addition, when the user completes the yoga exercise in which the user holds the legged posture, that is, when the exercise is completed, the exercise information processing device 10 performs the exercise type and the reference movement for another exercise, for example, the push- Can be provided.

이후, 운동정보 처리장치(10)는 팔굽혀펴기 운동에 대해 사용자의 운동 횟수를 판별할 수 있다.Thereafter, the exercise information processing device 10 can determine the number of times the user exercises for the push-up and pull-up motion.

다르게 표현하면, 운동정보 처리장치(10)에서는 사용자에게 제 1 운동(First Exercise)에 대한 기준 동작에 대한 정보를 제공하고, 제 1 운동에 대한 운동 동작 및/또는 운동 횟수에 대한 정보를 판별/획득할 수 있다.In other words, the motion information processing apparatus 10 provides the user with information on the reference motion for the first exercise, identifies / informs the motion information about the first motion and / Can be obtained.

이후 운동정보 처리장치(10)는 제 1 운동이 종료되는 경우에 제 1 운동과 다른 제 2 운동(Second Exercise)의 기준 동작에 대한 정보를 더 제공하고, 제 2 운동에 대한 운동 동작 및/또는 운동 횟수에 대한 정보를 판별/획득할 수 있다.Then, the motion information processing apparatus 10 further provides information on the reference motion of the second exercise (Second Exercise) different from the first motion when the first motion is finished, Information on the number of times of exercise can be discriminated / acquired.

여기서, 운동이 종료되는지를 판단하는 방법은 아래와 같다.Here, a method of determining whether the exercise is finished is as follows.

사용자의 제 1 운동에 대한 운동 횟수가 미리 설정된 기준 횟수에 도달하는 것을 제 1 조건이라 하고, 사용자의 제 1 운동에 대한 운동 동작이 기준 동작과 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우를 제 2 조건이라 가정하자.The first condition is that the number of motions for the first movement of the user reaches a preset reference number and the case where the motions for the first movement of the user are matched with the reference motion by more than a preset reference ratio, 2 condition.

여기서, 제 1 조건 또는 제 2 조건 중 적어도 하나가 만족할 때, 제 1 운동이 종료되는 것으로 판별할 수 있다.Here, when at least one of the first condition or the second condition is satisfied, it can be determined that the first motion is ended.

이러한 방법으로 크로스핏과 같은 운동 시에 다양한 운동정보를 판별/획득하는 것이 가능하다.In this way, it is possible to discriminate / acquire various kinds of exercise information during exercise such as cross pit.

이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As described above, it is to be understood that the technical structure of the present invention can be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It should be understood, therefore, that the embodiments described above are to be considered in all respects as illustrative and not restrictive, the scope of the invention being indicated by the appended claims rather than the foregoing description, And all changes or modifications derived from equivalents thereof should be construed as being included within the scope of the present invention.

Claims (20)

사용자의 운동 영상을 촬영하는 카메라부;
상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 종류 판별부;
상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 횟수 판별부; 및
상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 동작 판별부;
를 포함하는 장치.
A camera unit for photographing a user's motion image;
A type determining unit for determining a type of the user's motion based on the motion image;
A frequency determining unit for determining a frequency of motion of the user based on the motion image; And
An operation determining unit for determining a motion of the user based on the motion image;
/ RTI >
제 1 항에 있어서,
상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 시간 판별부를 더 포함하는 장치.
The method according to claim 1,
And a time discrimination unit for measuring a user's exercise time based on the motion image.
제 2 항에 있어서,
상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 정보 제공부를 더 포함하는 장치.
3. The method of claim 2,
Further comprising an information providing unit for providing recommendation information to the user based on at least one of information on the type of exercise, information on the number of exercises, information on the exercise operation, and information on the exercise time.
제 2 항에 있어서,
상기 정보 제공부는 상기 운동 동작에 대한 정보, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 성취도에 대한 정보를 더 제공하는 장치.
3. The method of claim 2,
The information providing unit may further provide information on the achievement to the user based on at least one of information on the exercise operation, information on the exercise type, information on the exercise frequency, .
제 1 항에 있어서,
상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 기구 판별부를 더 포함하는 장치.
The method according to claim 1,
And a device discrimination unit for discriminating a load set to the weight mechanism when the motion type is a motion using the weight mechanism.
제 1 항에 있어서,
상기 횟수 판별부는 상기 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트하는 장치.
The method according to claim 1,
Wherein the number determining unit counts the number of times when the motion of the user is matched by a predetermined reference ratio or more to a preset reference operation.
제 1 항에 있어서,
상기 동작 판별부는 상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성에 대한 정보를 더 제공하는 장치.
The method according to claim 1,
Wherein the operation determination unit further provides information on a similarity between a motion operation of the user and a predetermined reference operation.
제 1 항에 있어서,
상기 운동 영상을 분석하여 움직이는 객체(Object)를 인식하는 객체 인식부를 더 포함하고,
상기 객체 인식부는
상기 운동 영상에서 배경을 추출하고, 추출한 배경과 다른 색상을 갖는 부분을 상기 움직이는 객체로 인식하는 장치.
The method according to claim 1,
And an object recognition unit for analyzing the motion image and recognizing a moving object,
The object recognition unit
Extracts a background from the motion image, and recognizes a part having a color different from the extracted background as the moving object.
제 8 항에 있어서,
상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 운동성 산출부를 더 포함하는 장치.
9. The method of claim 8,
Further comprising a motion calculating unit for dividing the motion of the moving object by different brightness according to time and calculating the motion based on the direction and degree of the brightness changing.
제 9 항에 있어서,
상기 횟수 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 횟수를 판별하고,
상기 동작 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별하는 장치.
10. The method of claim 9,
Wherein the frequency determining unit determines the number of times the user exercises based on the motility,
Wherein the operation determination unit determines the motion operation of the user based on the mobility.
사용자의 운동 영상을 촬영하는 단계;
상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 단계;
상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 단계; 및
상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계;
를 포함하는 방법.
Capturing a motion image of a user;
Determining a movement type of the user based on the motion image;
Determining a number of times of motion of the user based on the motion image; And
Determining a motion of the user based on the motion image;
≪ / RTI >
제 11 항에 있어서,
상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 단계를 더 포함하는 방법.
12. The method of claim 11,
And measuring a user's exercise time based on the motion image.
제 12 항에 있어서,
상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 단계를 더 포함하는 방법.
13. The method of claim 12,
And providing recommendation information to the user based on at least one of information on the type of exercise, information on the number of times of exercise, information on the exercise operation, and information on the exercise time.
제 12 항에 있어서,
상기 운동 동작에 대한 정보, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 성취도에 대한 정보를 제공하는 단계를 더 포함하는 방법.
13. The method of claim 12,
And providing information on the achievement level to the user based on at least one of information on the exercise operation, information on the exercise type, information on the exercise frequency, and information on the exercise time .
제 11 항에 있어서,
상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 단계를 포함하는 방법.
12. The method of claim 11,
And a step of discriminating a load set to the weight mechanism when the motion type is a motion using the weight mechanism.
제 11 항에 있어서,
상기 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트하는 방법.
12. The method of claim 11,
And counting the number of times when the motion of the user is matched by a preset reference ratio to a predetermined reference operation.
제 11 항에 있어서,
상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성에 대한 정보를 제공하는 단계를 더 포함하는 방법.
12. The method of claim 11,
Further comprising providing information about the motion behavior of the user and a similarity of a predetermined reference motion.
제 11 항에 있어서,
상기 운동 영상을 분석하여 움직이는 객체(Object)를 인식하는 인식단계를 더 포함하고,
상기 인식단계에서는 상기 운동 영상에서 배경을 추출하고, 추출한 배경과 다른 색상을 갖는 부분을 상기 움직이는 객체로 인식하는 방법.
12. The method of claim 11,
Further comprising a recognition step of analyzing the motion image to recognize a moving object,
Wherein the recognition step extracts a background from the motion image and recognizes a part having a color different from the extracted background as the moving object.
제 18 항에 있어서,
상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 단계를 더 포함하는 방법.
19. The method of claim 18,
Further comprising dividing the movement of the moving object by different brightness according to time, and calculating the mobility based on the direction and degree of change of the brightness.
제 19 항에 있어서,
상기 운동성을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 단계; 및
상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계;
를 더 포함하는 방법.
20. The method of claim 19,
Determining a number of times the user is exercising based on the motility; And
Determining a motion of the user based on the motility;
≪ / RTI >
KR1020160046724A 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information KR20170119337A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160046724A KR20170119337A (en) 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information
PCT/KR2017/003125 WO2017183818A1 (en) 2016-04-18 2017-03-23 Apparatus and method for processing exercise information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160046724A KR20170119337A (en) 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information

Publications (1)

Publication Number Publication Date
KR20170119337A true KR20170119337A (en) 2017-10-27

Family

ID=60116913

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160046724A KR20170119337A (en) 2016-04-18 2016-04-18 Apparatus and Method for Processing of Exercise Information

Country Status (2)

Country Link
KR (1) KR20170119337A (en)
WO (1) WO2017183818A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190065635A (en) * 2017-12-04 2019-06-12 중앙대학교 산학협력단 Occupant MET measurement method and apparatus
KR102457450B1 (en) * 2021-07-02 2022-10-21 주식회사 아워스포츠네이션 Device and method for measuring and sharing excercise record of exercise video
KR102507792B1 (en) * 2022-08-01 2023-03-08 주식회사 엑스퍼스 Method and apparatus for providing exercise prescription service through exercise video analysis

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100513739B1 (en) * 2002-08-23 2005-09-09 삼성전자주식회사 Motion detecting device using face characteristics and monitoring system adapting it
US9532734B2 (en) * 2010-08-09 2017-01-03 Nike, Inc. Monitoring fitness using a mobile device
US9283429B2 (en) * 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
KR101416282B1 (en) * 2012-02-29 2014-08-12 디게이트 주식회사 Functional measurement and evaluation system for exercising Health and Rehabilitation based on Natural Interaction
JP2016036681A (en) * 2014-08-11 2016-03-22 セイコーエプソン株式会社 Motion analysis method, motion analysis device, motion analysis system, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190065635A (en) * 2017-12-04 2019-06-12 중앙대학교 산학협력단 Occupant MET measurement method and apparatus
KR102457450B1 (en) * 2021-07-02 2022-10-21 주식회사 아워스포츠네이션 Device and method for measuring and sharing excercise record of exercise video
KR102507792B1 (en) * 2022-08-01 2023-03-08 주식회사 엑스퍼스 Method and apparatus for providing exercise prescription service through exercise video analysis
WO2024029865A1 (en) * 2022-08-01 2024-02-08 주식회사 엑스퍼스 Method and device for providing workout prescription service through workout image analysis

Also Published As

Publication number Publication date
WO2017183818A1 (en) 2017-10-26

Similar Documents

Publication Publication Date Title
US10898755B2 (en) Method for providing posture guide and apparatus thereof
KR101980378B1 (en) Exercise motion guidance system using dynamic motion and body balance
US20190160339A1 (en) System and apparatus for immersive and interactive machine-based strength training using virtual reality
US20150347717A1 (en) Hybrid personal training system and method
WO2017161734A1 (en) Correction of human body movements via television and motion-sensing accessory and system
KR20170119337A (en) Apparatus and Method for Processing of Exercise Information
KR102356685B1 (en) Home training providing system based on online group and method thereof
KR20090084035A (en) A real time motion recognizing method
CN114100103B (en) Rope skipping counting detection system and method based on key point identification
KR20170119338A (en) Apparatus and Method for Processing of Exercise Information
KR20170119335A (en) Apparatus and Method for Processing of Exercise Information
WO2023108842A1 (en) Motion evaluation method and system based on fitness teaching training
KR20170119333A (en) Apparatus and Method for Processing of Exercise Information
KR102500621B1 (en) Apparatus and Method for Processing of Exercise Information
KR20170119334A (en) Apparatus and Method for Processing of Exercise Information
KR20170119336A (en) Apparatus and Method for Processing of Exercise Information
CN117292288A (en) Sports test method, system, electronic device, chip and storage medium
TW202119285A (en) Exercise assisting device and exercise assisting method
US20240181295A1 (en) User experience platform for connected fitness systems
CN118097765A (en) Counting method, counting device, electronic equipment and storage medium
TWM581492U (en) Weight training intelligence system
KR20170119341A (en) Apparatus and Method for Processing of Exercise Information
CN112784699B (en) Implementation method and system for assessment and guidance of exercise training gestures
Karunaratne et al. Objectively measure player performance on Olympic weightlifting
TWI533238B (en) A Movement detection and judgment device and method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application