KR20170119337A - Apparatus and Method for Processing of Exercise Information - Google Patents
Apparatus and Method for Processing of Exercise Information Download PDFInfo
- Publication number
- KR20170119337A KR20170119337A KR1020160046724A KR20160046724A KR20170119337A KR 20170119337 A KR20170119337 A KR 20170119337A KR 1020160046724 A KR1020160046724 A KR 1020160046724A KR 20160046724 A KR20160046724 A KR 20160046724A KR 20170119337 A KR20170119337 A KR 20170119337A
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- information
- user
- exercise
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012545 processing Methods 0.000 title abstract description 8
- 230000033001 locomotion Effects 0.000 claims abstract description 260
- 230000007246 mechanism Effects 0.000 claims description 16
- 230000004899 motility Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 5
- 230000010365 information processing Effects 0.000 abstract description 32
- 210000002414 leg Anatomy 0.000 description 11
- 238000004891 communication Methods 0.000 description 5
- 238000003672 processing method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 210000003127 knee Anatomy 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 241000254032 Acrididae Species 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006806 disease prevention Effects 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 230000002526 effect on cardiovascular system Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0062—Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
-
- G06K9/00369—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/32—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H04N5/225—
-
- H04N5/232—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
- A63B2024/0012—Comparing movements or motion sequences with a registered reference
- A63B2024/0015—Comparing movements or motion sequences with computerised simulations of movements or motion sequences, e.g. for generating an ideal template as reference to be achieved by the user
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0062—Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
- A63B2024/0068—Comparison to target or threshold, previous performance or not real time comparison to other individuals
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/806—Video cameras
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physical Education & Sports Medicine (AREA)
- Primary Health Care (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Epidemiology (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Child & Adolescent Psychology (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
본 발명은 운동정보 처리 장치 및 방법에 관한 것이다.
본 발명에 따른 운동정보 처리 장치는 사용자의 운동 영상을 촬영하는 카메라부, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 종류 판별부, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 횟수 판별부 및 상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 동작 판별부를 포함할 수 있다.The present invention relates to an apparatus and method for processing a motion information.
A motion information processing apparatus according to the present invention includes a camera unit for photographing a motion image of a user, a type discrimination unit for discriminating a motion type of the user on the basis of the motion image, And an operation determination unit for determining the motion of the user based on the motion image.
Description
본 발명은 운동정보 처리 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for processing a motion information.
생활수준 향상에 따라, 현대인들의 건강에 대한 관심이 급증하고 있다. 이에 대한 일환으로, 현대인들은 질병예방 및 개인의 취미로 운동을 하는 사람이 점차 증가하고 있는 실정이다.With the improvement of living standards, the interest of modern people is increasing rapidly. As a part of this, modern people are increasingly exercising with disease prevention and personal hobbies.
근래에 들어서는, 트레이너와 1:1로 운동을 진행하는 퍼스널 트레이닝(Personal Training, PT)이 각광받고 있다.In recent years, Personal Training (PT), which performs a 1: 1 exercise with a trainer, is in the spotlight.
그러나 PT의 경우에는 비용이 비싸다는 단점이 있다.However, PT has the disadvantage of high cost.
만약, 사용자가 혼자 운동을 진행하는 경우에는 본인의 동작의 정확성이나 본인이 진행하는 운동의 적절성을 판단하기 어렵다는 문제점이 있다.If the user conducts the exercise alone, it is difficult to determine the accuracy of the motion of the user or the fitness of the user.
본 발명은 상기한 문제점을 해결하기 위해 도출된 것으로서, 사용자의 운동 영상을 촬영하고, 촬영한 운동 영상을 분석하여 운동에 대한 정보를 제공하는 운동정보 처리 장치 및 방법을 제공하는데 그 목적이 있다.It is an object of the present invention to provide a motion information processing apparatus and method for capturing a motion image of a user and analyzing a photographed motion image to provide motion information.
본 발명에 따른 운동정보 처리 장치는 사용자의 운동 영상을 촬영하는 카메라부, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 종류 판별부, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 횟수 판별부 및 상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 동작 판별부를 포함할 수 있다.A motion information processing apparatus according to the present invention includes a camera unit for photographing a motion image of a user, a type discrimination unit for discriminating a motion type of the user on the basis of the motion image, And an operation determination unit for determining the motion of the user based on the motion image.
또한, 상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 시간 판별부를 더 포함할 수 있다.The apparatus may further include a time determination unit for measuring a user's exercise time based on the motion image.
또한, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 정보 제공부를 더 포함할 수 있다.The information processing apparatus may further include an information providing unit for providing recommendation information to the user based on at least one of information on the type of exercise, information on the number of exercises, information on the exercise operation, and information on the exercise time .
또한, 상기 정보 제공부는 상기 운동 동작에 대한 정보, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 성취도에 대한 정보를 더 제공할 수 있다.The information providing unit may further provide the user with information on the achievement level based on at least one of the information on the exercise operation, information on the exercise type, information on the exercise frequency, or information on the exercise time can do.
또한, 상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 기구 판별부를 더 포함할 수 있다.In addition, when the motion type is a motion using a weight mechanism, the apparatus may further include a mechanism determination unit that determines a load set to the weight mechanism.
또한, 상기 횟수 판별부는 상기 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트할 수 있다.The number determining unit may count the number of times when the motion of the user is matched by a predetermined reference ratio or more to a preset reference motion.
또한, 상기 동작 판별부는 상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성에 대한 정보를 더 제공할 수 있다.In addition, the operation determination unit may further provide information on the similarity between the motion operation of the user and a preset reference motion.
또한, 상기 운동 영상을 분석하여 움직이는 객체(Object)를 인식하는 객체 인식부를 더 포함하고, 상기 객체 인식부는 상기 운동 영상에서 배경을 추출하고, 추출한 배경과 다른 색상을 갖는 부분을 상기 움직이는 객체로 인식할 수 있다.The object recognition unit may further include an object recognition unit for analyzing the motion image to recognize a moving object. The object recognition unit extracts a background from the motion image, recognizes a portion having a color different from the extracted background as the moving object can do.
또한, 상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 운동성 산출부를 더 포함할 수 있다.The motion estimating unit may further include a motion calculating unit that calculates motions based on the direction and degree of the brightness varying by dividing the motion of the moving object with different brightness according to time.
또한, 상기 횟수 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 횟수를 판별하고, 상기 동작 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별할 수 있다.In addition, the frequency determining unit may determine the number of times of motion of the user based on the motility, and the motion determining unit may determine the motion of the user based on the motility.
본 발명에 따른 운동정보 처리방법은 사용자의 운동 영상을 촬영하는 단계, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 단계, 상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 단계 및 상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for processing a motion information, comprising the steps of capturing a motion image of a user, discriminating the type of motion of the user based on the motion image, determining the number of motions of the user based on the motion image And determining the motion of the user based on the motion image.
또한, 상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 단계를 더 포함할 수 있다.The method may further include measuring a user's exercise time based on the motion image.
또한, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 단계를 더 포함할 수 있다.The method may further include providing the recommendation information to the user based on at least one of information on the type of exercise, information on the number of times of exercise, information on the exercise operation, or information on the exercise time have.
또한, 상기 운동 동작에 대한 정보, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 성취도에 대한 정보를 제공하는 단계를 더 포함할 수 있다.The method may further include providing information on the achievement level to the user based on at least one of the information on the exercise operation, information on the exercise type, information on the exercise frequency, and information on the exercise time can do.
또한, 상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 단계를 포함할 수 있다.Further, when the motion type is a motion using a weight mechanism, it may include a step of determining a load set to the weight mechanism.
또한, 상기 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트할 수 있다.In addition, the number of times the user's motion is counted can be counted when the motion of the user is matched more than a predetermined reference ratio to a preset reference motion.
또한, 상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성에 대한 정보를 제공하는 단계를 더 포함할 수 있다.In addition, the method may further include providing information on the motion of the user and the similarity of the preset reference motion.
또한, 상기 운동 영상을 분석하여 움직이는 객체(Object)를 인식하는 인식단계를 더 포함하고, 상기 인식단계에서는 상기 운동 영상에서 배경을 추출하고, 추출한 배경과 다른 색상을 갖는 부분을 상기 움직이는 객체로 인식할 수 있다.Further, the method may further include a recognition step of analyzing the motion image to recognize a moving object. In the recognition step, a background is extracted from the motion image, and a part having a color different from the extracted background is recognized as the moving object can do.
또한, 상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 단계를 더 포함할 수 있다.Further, the method may further include dividing the movement of the moving object by different brightness according to time, and calculating the mobility based on the direction and the degree of change of the brightness.
또한,상기 운동성을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 단계 및 상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계를 더 포함할 수 있다.The method may further include determining a number of times of the user's motion based on the motility, and determining the motion of the user based on the motility.
본 발명에 따른 운동정보 처리 장치 및 방법은 사용자의 운동 영상을 분석하여 사용자의 운동 동작, 운동 횟수 등에 대한 정보를 제공할 수 있어서, 보다 저렴한 비용으로 객관적이고 정확한 운동 정보를 사용자에게 제공할 수 있다는 효과가 있다.The apparatus and method for processing exercise information according to the present invention can provide information about the exercise operation and the number of exercises of the user by analyzing the user's exercise image to provide objective and accurate exercise information to the user at a lower cost It is effective.
도 1은 본 발명에 따른 운동정보 처리 장치의 구성에 대해 설명하기 위한 도면,
도 2 내지 도 33은 본 발명에 따른 운동 정보 처리 방법에 대해 설명하기 위한 도면이고,
도 34 내지 도 37은 본 발명에 따른 또 다른 운동 정보 처리 방법에 대해 설명하기 위한 도면이다.1 is a diagram for explaining a configuration of a motion information processing apparatus according to the present invention,
2 to 33 are views for explaining a method of processing exercise information according to the present invention,
34 to 37 are diagrams for explaining another exercise information processing method according to the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 따른 운동정보 처리 장치 및 방법에 대해 상세히 설명한다.Hereinafter, an apparatus and method for processing motion information according to the present invention will be described in detail with reference to the accompanying drawings.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood that the present invention is not intended to be limited to the specific embodiments but includes all changes, equivalents, and alternatives falling within the spirit and scope of the present invention.
본 발명을 설명함에 있어서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다.In describing the present invention, the terms first, second, etc. may be used to describe various components, but the components may not be limited by the terms. The terms may only be used for the purpose of distinguishing one element from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함할 수 있다.The term " and / or " may include any combination of a plurality of related listed items or any of a plurality of related listed items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may be present in between Can be understood. On the other hand, when it is mentioned that an element is "directly connected" or "directly connected" to another element, it can be understood that no other element exists in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions may include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In the present application, the terms "comprises", "having", and the like are used interchangeably to designate one or more of the features, numbers, steps, operations, elements, components, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries can be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are, unless expressly defined in the present application, interpreted in an ideal or overly formal sense .
아울러, 이하의 실시예는 당 업계에서 평균적인 지식을 가진 자에게 보다 완전하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, the following embodiments are provided to explain more fully to the average person skilled in the art. The shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.
도 1은 본 발명에 따른 운동정보 처리 장치의 구성에 대해 설명하기 위한 도면이다.1 is a diagram for explaining a configuration of a motion information processing apparatus according to the present invention.
도 1을 살펴보면, 본 발명에 따른 운동정보 처리 장치(10)는 제어부(100), 카메라부(300), 출력부(400), 사용자 입력부(500), 메모리부(600) 및 통신부(700)를 포함할 수 있다.1, a motion
카메라부(300)는 제어부(100)의 제어에 따라 소정의 영상을 촬영할 수 있다. 예를 들면, 카메라부(300)는 사용자의 운동 영상을 촬영할 수 있다. 또는, 카메라부(300)는 소정의 운동 영역(헬스클럽 등)의 영상을 촬영하는 것이 가능하다.The
카메라부(300)는 적어도 하나의 카메라를 포함할 수 있다.The
출력부(400)는 제어부(100)의 제어에 따라 소정의 정보를 사용자가 확인가능하도록 출력할 수 있다. 자세하게는, 출력부(400)는 운동에 대한 정보, 예컨대 운동의 기준 동작, 기준 횟수 등에 대한 정보를 사용자가 확인할 수 있도록 출력할 수 있다.The
출력부(400)는 표시부(410) 및 음성출력부(420)를 포함할 수 있다.The
표시부(410)는 다양한 정보를 영상으로 표시할 수 있다. 음성출력부(420)는 다양한 정보를 음성으로 출력할 수 있다.The
사용자 입력부(500)는 사용자가 소정의 명령을 입력하는데 사용될 수 있다. 이러한 사용자 입력부(500)는 키 입력부, 터치 입력부 또는 음성 입력부 중 적어도 하나를 포함할 수 있다.The
메모리부(600)는 제어부(100)의 제어에 따라 다양한 정보를 저장할 수 있다. 예를 들면, 메모리부(600)는 기준 횟수, 기준 동작, 기준 시간 등에 대한 정보를 저장할 수 있다.The
통신부(700)는 다른 기기와 통신을 수행할 수 있다. 예를 들면, 통신부(700)는 제어부(100)의 제어에 따라 운동에 대한 정보 또는 편집된 운동영상을 다른 기기 혹은 미리 지정된 소정의 페이지(웹사이트)로 전송할 수 있다.The
제어부(100)는 운동정보 처리 장치(10)의 전반적인 동작을 제어할 수 있다.The
제어부(100)는 카메라부(300)가 촬영한 운동 영상을 근거로 하여 사용자의 운동에 대한 다양한 정보를 획득할 수 있다.The
제어부(100)는 사용자의 운동의 시작과 종료를 판별할 수 있다.The
제어부(100)는, 사용자의 운동에 대한 다양한 정보를 획득하기 위해, 종류 판별부(110), 동작 판별부(120), 횟수 판별부(130), 시간 판별부(140), 기구 판별부(150), 추적부(160), 경로 판별부(170), 선호도 판별부(180), 객체 인식부(190), 운동성 판별부(200), 정보 제공부(210) 및 편집부(220)를 포함할 수 있다.The
종류 판별부(110)는 카메라부(300)가 촬영한 사용자의 운동 영상을 근거로 하여 사용자의 운동에 대한 운동 종류를 판별할 수 있다.The
동작 판별부(120)는 운동 영상을 근거로 하여 사용자의 운동 동작을 판별할 수 있다.The
횟수 판별부(130)는 운동 영상을 근거로 하여 사용자의 운동 횟수를 판별할 수 있다.The
이러한 횟수 판별부(130)는 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 운동 횟수를 카운트할 수 있다.The
시간 판별부(140)는 운동 영상을 근거로 하여 사용자의 운동 시간을 판별할 수 있다.The
기구 판별부(150)는 사용자가 선택한 운동기구의 종류를 판별할 수 있다.The
아울러, 기구 판별부(150)는 운동 종류가 웨이트 기구를 이용한 운동인 경우, 웨이트 기구에 설정된 로드(Load)를 판별할 수 있다.In addition, when the motion type is the motion using the weight mechanism, the
추적부(160)는 미리 설정된 운동영역 내에서 복수의 사용자들 중 선택된 사용자를 타깃(Target)으로 추적할 수 있다.The
경로 판별부(170)는 운동 영상을 근거로 하여 선택된 사용자의 운동영역 내에서의 경로에 대한 정보를 판별할 수 있다.The
선호도 판별부(180)는 운동 기구에 대한 적어도 하나의 사용자의 선호도 혹은 온동 종류에 대한 적어도 하나의 사용자의 선호도를 판별할 수 있다.The
객체 인식부(190)는 운동 영상을 분석하여 움직이는 객체(Object)를 인식할 수 있다.The
운동성 산출부(200)는 객체 인식부(190)가 인식한 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출할 수 있다.The
정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 추천 정보를 제공할 수 있다.The
아울러, 정보 제공부(210)는 운동 영상을 분석하여 획득한 다양한 정보를 사용자, 다른 기기 및/또는 미리 지정된 웹사이트에 제공할 수 있다.In addition, the
영상 편집부(220)는 사용자의 운동 영상에서 하이라이트 영상을 추출/편집할 수 있다.The
도 1의 구성의 운동 정보 처리 장치(10)는 다양한 형태의 하드웨어로 실현될 수 있다. 예를 들면, 본 발명에 따른 운동 정보 처리 장치(10)는 스마트 폰 등의 이동통신 단말기의 형태로 제작될 수 있고, 또는 CCTV 등의 고정된 단말기 형태로 제작되는 것도 가능할 수 있다.The exercise
이러한 구성의 운동 정보 처리 장치를 이용한 운동 정보 처리 방법에 대해 첨부된 도면을 참조하여 이하에서 상세히 설명한다.A motion information processing method using the motion information processing device having such a configuration will be described in detail below with reference to the accompanying drawings.
도 2 내지 도 37은 본 발명에 따른 운동 정보 처리 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 설명한 내용에 대한 설명은 생략될 수 있다.2 to 37 are views for explaining a motion information processing method according to the present invention. In the following, description of the contents described above may be omitted.
도 2를 살펴보면, 본 발명에 따른 운동 정보 처리 방법에서는 먼저 운동 정초 처리 장치(10)를 셋팅(S100)할 수 있다.Referring to FIG. 2, in the motion information processing method according to the present invention, it is possible to first set the motion picture processing apparatus 10 (S100).
셋팅단계에서는 카메라부(300)를 운동 영상을 촬영 가능한 위치에 배치하는 것이 가능하다.In the setting step, it is possible to arrange the
또는, 운동 정보 처리 장치(10)를 운동 영상 촬영 모드로 설정할 수 있다.Alternatively, the motion
필요에 따라, 사용자의 아이디(ID) 또는 비밀번호(PW) 등의 정보를 입력하여 사용자를 인증할 수 있다.If necessary, the user can be authenticated by inputting information such as a user ID (ID) or a password (PW).
촬영 명령이 입력되면, 카메라부(300)는 제어부(100)의 제어에 따라 사용자의 운동 영상을 촬영(S400)할 수 있다. 예를 들면, 도 3의 경우와 같이, 사용자(H)가 운동을 하는 영상을 이동통신 단말기 형태의 운동정보 처리장치(10)가 촬영하는 것이 가능하다.When a photographing command is input, the
이후, 제어부(100)는 카메라부(300)가 촬영한 운동 영상을 분석(S300)할 수 있다.Thereafter, the
아울러, 제어부(100)는 운동 영상을 분석한 결과물로 다양한 운동 정보를 판별(S400)할 수 있다.In addition, the
이후, 제어부(100)는 판별한 정보들을 근거로 하여 다양한 정보를 제공(S500)할 수 있다.Thereafter, the
정보 제공 단계에서는 통신부(700)가 제어부(100)의 제어에 따라 제어부(100)가 판별한 정보를 다른 기기 혹은 미리 지정된 홈페이지 등에 전송할 수 있다.In the information providing step, the
운동 영상을 분석하는 방법에 대해 살펴보면 아래와 같다.A method of analyzing the motion image will be described below.
도 4를 살펴보면, 운동 영상을 분석하는 단계(S300)에서는 먼저 운동 영상에서 배경을 추출(S310)할 수 있다. 자세하게는, 복수의 영상 프레임(Frame)을 비교하여 움직임이 없거나 매우 적은 부분을 배경으로 판단하고, 판단한 결과에 따라 배경을 추출할 수 있다.Referring to FIG. 4, in step S300 of analyzing the motion image, a background may be extracted from the motion image S310. More specifically, a plurality of image frames can be compared to determine a motionless or very small portion as a background, and a background can be extracted according to the determined result.
예를 들면, 도 5의 경우와 같이, 제 1 프레임(First Frame, A)과 제 1 프레임(A) 이후의 제 2 프레임(Second Frame, B)을 비교하면, 제 2 프레임(B)에는 소정의 객체(Object, OB)가 포함되어 있고, 제 1 프레임(A)에는 객체(OB)가 포함되지 않은 것을 확인할 수 있다.For example, as in the case of FIG. 5, if the first frame (A) and the second frame (B) after the first frame A are compared with each other, (OB), and it can be confirmed that the object (OB) is not included in the first frame (A).
이러한 경우, 시간적으로 늦은 제 2 프레임(B)에 새롭게 추가된 객체(OB)를 움직이는 객체(OB)로 인식할 수 있다.In this case, the object OB newly added to the temporally late second frame B can be recognized as the moving object OB.
제 1 프레임(A)과 제 2 프레임(B)에서 객체(OB)를 제외한 나머지 부분의 영상은 거의 변화가 없다. 다르게 표현하면, 객체(OB)를 제외한 나머지 부분의 영상은 움직임이 거의 없다. 따라서, 객체(OB)를 제외한 나머지 부분을 모두 배경으로 인식할 수 있다.The images of the remaining portions except the object OB in the first frame A and the second frame B hardly change. In other words, the rest of the image except the object OB has little motion. Therefore, all the remaining parts except the object OB can be recognized as the background.
또는, 운동영상에 움직이는 객체(OB)가 포착되지 않는 경우에는 제 1 프레임(A)과 같은 영상이 계속 이어질 수 있다. 이러한 경우, 제 1 프레임(A) 영상을 배경 영상이라고 인식할 수 있다. 다르게 표현하면, 제 1 프레임(A)에 나타난 모든 부분을 배경으로 인식할 수 있다.Alternatively, if the moving object OB is not captured in the moving image, the same image as the first frame A may continue. In this case, the first frame (A) image can be recognized as a background image. In other words, all the parts of the first frame A can be recognized as backgrounds.
이처럼, 영상에서 미리 설정된 기준 프레임 기간 동안 움직임이 없는 부분을 배경으로 인식하고 추출하는 것이 가능하다.As described above, it is possible to recognize and extract a motionless portion as a background during a preset reference frame period in an image.
제 1 프레임(A)과 유사한 배경 영상이 계속되다가 객체(OB)가 카메라부(300)에 포착되면, 제 2 프레임(B)과 유사한 영상이 획득될 수 있다. 만약, 객체(OB)가 계속해서 움직여서 화면을 벗어나면 다시금 제 1 프레임(A)과 같은 영상이 획득될 것이다.When a background image similar to the first frame A is continued and the object OB is captured by the
객체(OB)가 지나가기 이전 영상과 객체(OB)가 지나간 이후의 영상을 비교하면, 두 개의 영상은 거의 동일할 수 있다.When the image before the object OB passes and the image after the object OB passes are compared, the two images can be almost the same.
이처럼, 일정 기간 동안의 영상에서 객체(OB)가 이동하면서 영상에서 움직임이 감지되더라도, 객체(OB)가 포착되기 이전의 영상과 객체(OB)가 지나간 이후의 영상이 거의 동일하다면 해당 영상에 대응하는 부분이 대부분 배경일 수 있다.As described above, even if the motion of the object OB is detected while moving the object OB for a predetermined period of time, if the image before the object OB is captured and the images after the object OB have passed are substantially the same, Can be mostly background.
다르게 표현하면, 일정 기간 동안 영상에서 움직임에 따라 변화하는 부분이 있더라도, 그 변화가 시작되기 이전과 그 변화가 종료된 이후의 영상이 거의 동일하다면 해당 영상은 배경 영상인 것으로 인식될 수 있는 것이다.In other words, even if there is a part that changes according to the motion in the image for a certain period of time, if the image before the change starts and after the end of the change are almost the same, the corresponding image can be recognized as the background image.
배경을 추출한 이후, 배경의 색을 판별하여 그에 대한 정보를 저장할 수 있다.After extracting the background, the color of the background can be determined and information about the background can be stored.
이후, 배경(배경이 되는 영상)과 다른 운동영상의 색을 비교(S320)할 수 있다.Thereafter, the background (the background image) and the colors of the other motion images can be compared (S320).
객체 인식부(190)는 운동영상에서 배경과 다른 색상을 갖는 부분을 움직이는 객체(OB)로 인식(S330)할 수 있다.The
예를 들면, 도 6의 (A)와 같이, 배경과 다른 색을 갖는 부분, 즉 객체(OB)를 검출할 수 있다.For example, as shown in Fig. 6A, a portion having a different color from the background, that is, the object OB can be detected.
아울러, 배경과 객체(OB)를 구분한 이후, 배경을 단색으로 처리할 수 있다. 예를 들면, 배경을 검은색으로 처리할 수 있다. 이러한 경우, 객체(OB)의 움직임을 보다 용이하게 분석할 수 있다.In addition, after separating the background and the object (OB), the background can be processed in a single color. For example, you can treat the background as black. In this case, the motion of the object OB can be more easily analyzed.
이후, 도 6의 (B)와 같이, 객체(OB)의 실루엣을 판별할 수 있다. 도 6의 (B)에서 왼쪽 상단의 붉은색 부분(ER)은, 사람의 형태와 너무 다르므로, 에러로 처리할 수 있다.Thereafter, as shown in Fig. 6B, the silhouette of the object OB can be discriminated. In Fig. 6 (B), the red part ER in the upper left corner is very different from the human form, so it can be treated as an error.
이러한 과정으로 운동영상에서 움직이는 객체(OB)를 인식할 수 있다.In this process, the moving object (OB) can be recognized in the motion image.
이후, 움직임 산출부(200)는 객체(OB)의 움직임을 분석(S340)할 수 있다.Thereafter, the
아울러, 움직임 분석의 결과에 따라 운동성을 산출(S360)할 수 있다.In addition, the mobility can be calculated (S360) according to the result of the motion analysis.
자세하게는, 움직임 산출부(200)는 움직이는 객체(OB)의 움직임을 시간에 따라 밝기를 다르게 하여 구분할 수 있다. 아울러, 움직임 산출부(200)는 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출할 수 있다.In detail, the
예를 들면, 도 7의 경우와 같이, 객체(OB), 즉 사용자가 왼쪽 팔을 들어 올리는 경우를 가정하여 보자.For example, as in the case of Fig. 7, suppose that the object OB, i.e., the user lifts the left arm.
도 7에서와 같이, 사용자 현재 모습은 상대적으로 밝게 처리하고, 이전 모습은 상대적으로 어둡게 처리할 수 있다.As shown in FIG. 7, the current state of the user can be relatively brightened, and the previous state can be relatively darkened.
이러한 경우, 어두운 부분에서 밝은 부분으로 사용자의 왼쪽 팔이 아래에서 위를 향해 움직인 것으로 판별할 수 있다. 즉, 운동방향을 판별할 수 있다.In such a case, it can be determined that the user's left arm moves from the dark portion to the bright portion upward from below. That is, the direction of motion can be determined.
아울러, 왼쪽 팔의 밝기 변화가 급격한지 혹은 완만한지에 따라 팔의 이동속도를 판별할 수 있다.In addition, the movement speed of the arm can be determined according to whether the brightness change of the left arm is abrupt or gentle.
예를 들면, 도 8의 (A)와 같이, 객체(OB)가 축을 중심으로 180°(도) 회전하는 경우와 도 8의 (B)와 같이 객체(OB)가 축을 중심으로 90°(도) 회전하는 경우를 가정하여 보자.For example, as shown in Fig. 8A, when the object OB rotates 180 degrees (degrees) about the axis and when the object OB is 90 degrees (degrees) about the axis as shown in Fig. 8B, ) Let us suppose that it rotates.
도 8의 (A)와 (B)의 밝기의 변화가 동일한 경우에는 도 8의 (A)의 경우가 (B)의 경우에 비해 운동성이 더 크다는 것, 즉 움직임 속도가 더 빠른 것을 알 수 있다.8 (A) and 8 (B) are the same, it can be seen that the case of FIG. 8 (A) is higher in motility than the case of (B), that is, the moving speed is faster .
또는, 도 9의 (A)와 (B)와 같이, 객체(OB)가 각각 축을 중심으로 180°(도) 회전하는 경우를 가정하여 보자.Alternatively, as shown in FIGS. 9A and 9B, it is assumed that the object OB rotates 180 degrees (degrees) about the respective axes.
도 9의 (A)에 비해 (B)의 경우에 밝기의 변화가 더 급격하게 발생하는 경우에는, 도 9의 (A)의 경우에는 상대적으로 짧은 시간동안 객체(OB)가 180°(도) 회전하고, 도 9의 (B)의 경우에는 상대적으로 긴 시간동안 객체(OB)가 180°(도) 회전하는 경우에 해당될 수 있다.In the case of FIG. 9A, when the change of brightness occurs more rapidly in the case of FIG. 9A than in FIG. 9A, the object OB is 180 degrees in a relatively short time, In the case of FIG. 9B, the object OB may rotate 180 degrees (degrees) for a relatively long time.
이에 따라, 도 9의 (A)의 경우가 (B)의 경우에 비해 운동성이 더 클 수 있다.Accordingly, the case of (A) in Fig. 9 can be greater in motility than the case of (B).
이와 같은 방법으로 움직이는 객체(OB)를 인식하고, 인식한 객체(OB)의 운동성을 산출하는 것이 가능하다.In this way, it is possible to recognize the moving object OB and to calculate the mobility of the recognized object OB.
한편, 움직임을 검출하기 위해 소정의 마스크(Mask)를 사용하는 것이 가능하다. 예를 들면, 영상의 특정 영역에 소정 크기의 마스크를 적용하고, 해당 마스크의 휘도 변화를 감지하여 운동성을 판별할 수 있다.On the other hand, it is possible to use a predetermined mask to detect motion. For example, a predetermined size mask may be applied to a specific area of the image, and the mobility may be determined by detecting a change in luminance of the mask.
운동 정보를 판별하는 방법에 대해 살펴보면 아래와 같다.How to identify exercise information is as follows.
이하에서 설명하는 운동 종류, 운동 동작, 운동 횟수, 운동 시간에 대한 정보 등은 운동성 산출부(200)가 산출한 운동성에 대한 정보를 근거로 하여 판별될 수 있다.The information on the type of exercise, the exercise operation, the number of times of exercise, and the exercise time, which will be described below, can be determined based on the information on the mobility calculated by the
도 10을 살펴보면, 정보 판별 단계(S400)에서는 운동 종류, 운동 동작, 운동 횟수, 운동 시간, 운동 기구, 운동 경로 또는 선호도 중 적어도 하나를 판별할 수 있다.Referring to FIG. 10, in the information determination step (S400), at least one of the type of motion, the motion motion, the number of motions, the motion time, the motion mechanism, the motion path, or the preference can be determined.
운동 동작 및/또는 종류를 판별하는 방법에 대해 살펴보면 아래와 같다.A method of discriminating a movement operation and / or a kind will be described as follows.
운동의 종류별로 기준 동작에 대한 정보를 설정하여 저장할 수 있다. 예를 들면, 도 11의 경우와 같이, 팔굽혀펴기 운동의 경우 바닥(GND)과 사용자(H)의 다리 사이의 기준각도(Xb), 상체와 바닥(GND) 사이의 기준거리(Xa) 등에 대해 정보를 미리 설정할 수 있다.Information about the reference motion can be set and stored for each type of motion. 11, the reference angle Xb between the ground (GND) and the legs of the user H, the reference distance Xa between the upper body and the floor GND, etc. in the case of the push- Information can be set in advance.
이후, 도 12의 (A), (B)와 같이 사용자가 운동을 진행하는 경우, 카메라부(300)가 사용자의 운동 영상을 촬영하면 동작 판별부(120)가 운동 영상을 분석하여 운동 동작에 대한 정보를 판별할 수 있다.12 (A) and 12 (B), when the
동작 판별부(120)는 바닥과 다리 사이의 각도, 상체와 바닥 사이의 거리 등에 대한 운동 동작에 대한 정보를 판별/획득할 수 있다.The
종류 판별부(110)는 동작 판별부(120)가 획득한 동작 정보를 미리 설정된 기준 운동 동작에 대한 정보와 비교할 수 있다.The
예를 들어, 도 12의 (A)의 경우 바닥(GND)과 사용자(H)의 다리 사이의 각도가 제 1 각도(Xb1)이고, 상체와 바닥(GND) 사이의 거리가 제 1 거리(Xa1)인 경우, 제 1 각도(Xb1)가 미리 설정된 기준각도(Xb)와 어느 정도 유사한지 판별하고, 제 1 거리(Xa1)가 기준거리(Xa)와 어느 정도 유사한지를 판별할 수 있다.12 (A), the angle between the ground (GND) and the legs of the user H is the first angle Xb1, and the distance between the upper body and the floor GND is the first distance Xa1 , It is possible to discriminate to what extent the first angle Xb1 is similar to the preset reference angle Xb and to what extent the first distance Xa1 is similar to the reference distance Xa.
만약, 제 1 각도(Xb1)가 기준각도(Xb)와 미리 설정된 일정 범위 내에서 유사하고, 제 1 거리(Xa1)가 기준거리(Xa)와 미리 설정된 일정 범위 내에서 유사하다면, 도 12의 (A)와 같은 운동 형태를 팔굽혀펴기로 판별할 수 있다.If the first angle Xb1 is similar to the reference angle Xb within a predetermined predetermined range and the first distance Xa1 is similar to the reference distance Xa within a preset predetermined range, A) can be identified by push-and-push.
이와 같은 방법으로 도 12의 (B)의 운동 형태를 팔굽혀펴기로 판별하는 것이 가능하다.In this way, it is possible to discriminate the exercise form of FIG. 12 (B) by pushing up and down.
만약, 사용자가 도 13의 경우와 같은 형태로 운동을 하는 경우에는, 바닥(GND)과 다리 사이의 각도(제 3 각도(X2))가 미리 설정된 기준각도(Xb)와 미리 설정된 범위 내에서 유사하더라도, 사용자(H)의 상체가 바닥(GND)과 접촉하고 있으므로, 종류 판별부(110)는 해다 운동이 팔굽혀펴기가 아닌 것으로 인식할 수 있다.13, the angle (third angle X2) between the ground (GND) and the leg is set to be similar to the preset reference angle Xb within a preset range The upper end of the user H is in contact with the floor (GND), so that the
여기서는, 설명의 편의를 위해 기준 정보에 대해 기준거리(Xa)와 기준각도(Xb)에 대해서만 설명하고 있지만, 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 엉덩이의 위치, 무릎의 각도, 머리의 위치, 양팔의 각도, 양손의 위치 등에 대한 정보를 기준정보로 설정할 수 있다.For convenience of explanation, only the reference distance Xa and the reference angle Xb are described for the reference information, but the present invention is not limited to this. For example, information on the position of the buttocks, the angle of the knee, the position of the head, the angle of both arms, the position of both hands, and the like can be set as the reference information.
동작 판별부(120)는 운동 영상에서 운동 동작에 대한 정보를 판별/획득하고, 아울러 운동 정확성에 대한 정보도 판별할 수 있다.The
동작 판별부(120)는 사용자의 운동 동작이 미리 설정된 기준 동작과 얼마나 유사한지를 판별할 수 있다. 다르게 표현하면, 동작 판별부(120)는 사용자(H)가 얼마나 정확하고 좋은 폼(동작)으로 운동을 하는가를 판별할 수 있는 것이다.The
예를 들면, 도 14의 경우와 같이, 사용자의 운동 동작에서 팔각도, 팔을 굽히는 정도, 바닥과 다리 사이의 각도, 무릎 각도, 엉덩이 높이 등에 대한 정보를 미리 설정된 기준 운동 동작과 비교하여 각각 정확성에 대한 점수를 판별할 수 있다.For example, as in the case of Fig. 14, the information about the octagon angle, the degree of bending arm, the angle between the floor and the leg, the knee angle, the hip height, Can be determined.
아울러, 동작 판별부(120)는 사용자의 운동의 기준 운동 동작 대비 정확성에 대해 종합평가 점수를 산출할 수 있다. 즉, 운동동작에 대해 모범답안을 설정해 놓고, 사용자의 운동 동작에 대해 점수를 평가하는 것이 가능하다.In addition, the
동작 판별부(120)가 평가하는 항목은 다양하게 변경될 수 있다.The items evaluated by the
예를 들어, 달리기 운동의 경우, 발을 내딛는 각도, 보폭, 팔의 각도, 상체 및 하체의 움직임 등의 항목을 평가하고, 평가 결과에 따라 정확성을 판별할 수 있다.For example, in the case of a running exercise, items such as the angle at which the foot is taken, the stride, the angle of the arm, the movement of the upper body and the lower body can be evaluated, and the accuracy can be determined according to the evaluation result.
아울러, 동작 판별부(120)는 사용자의 운동에 대해 난이도를 평가하는 것도 가능하다.In addition, the
예를 들면, 사용자가 도 15의 (A), (B), (C), (D) 또는 (E)와 같은 형태로 운동을 진행하는 경우, 동작 판별부(120)는 도 15의 (A), (B), (C), (D), (E)의 경우를 모두 팔굽혀펴기 운동으로 판별할 수 있다.For example, when the user proceeds the motion in the form of (A), (B), (C), (D), or (E) of FIG. 15, the
아울러, 동작 판별부(120)는 도 15의 (A)와 같은 경우의 난이도를 제 1 레벨(First Level)로 판별하고, 도 15의 (B)와 같은 경우의 난이도를 제 1 레벨보다 난이도가 높은 제 2 레벨(Second Level)로 판별하고, 도 15의 (C)와 같은 경우의 난이도를 제 2 레벨보다 높은 제 3 레벨(Third Level)로 판별하고, 도 15의 (D)와 같은 경우의 난이도를 제 3 레벨보다 높은 제 4 레벨(Fourth Level)로 판별하고, 도 15의 (E)와 같은 경우의 난이도를 제 4 레벨보다 높은 제 5 레벨(Fifth Level)로 판별하는 것이 가능하다.In addition, the
이상에서는 맨손운동(팔굽혀펴기)의 경우에 대해 설명하였지만, 이상의 내용은 기구를 이용하는 운동에도 적용될 수 있다.In the above description, the case of bare-handed motion (push-up) is explained, but the above description can also be applied to the exercise using the apparatus.
동작 판별부(120)의 동작의 정확성 판별 기준은 맨손 운동, 기구 운동 별로 다르게 설정될 수 있으며, 아울러 기구의 종류에 따라 다르게 설정되는 것이 가능하다.The criterion for determining the accuracy of the operation of the
도 16과 같이, 사용자(H)가 소정의 운동기구(800)를 사용하여 운동을 진행하는 경우에, 이동통신 단말기 형태의 운동정보 처리장치(10)는 이에 대한 운동 영상을 촬영할 수 있다.As shown in FIG. 16, when the user H carries out a movement using a
이러한 경우, 운동정보 처리장치(10)는 위에서 설명한 내용에 따라 운동의 종류 및 운동 동작에 대한 정보를 분석/판별할 수 있다.In this case, the motion
운동정보 처리장치(10)의 기구 판별부(150)는 사용자(H)가 운동을 하는데 사용하는 운동기구(800)의 종류를 판별할 수 있다.The
예를 들면, 메모리부(600)에 각각의 운동기구에 대한 형태 정보 및 이미지 정보를 저장하고, 이를 운동 영상에 나타난 운동기구와 비교하여 사용자가 사용하는 운동기구가 어떠한 것인지를 판별하는 것이 가능하다.For example, it is possible to store shape information and image information for each exercise apparatus in the
또는, 각각의 운동기구에 기구를 식별할 수 있는 바코드와 같은 식별정보를 할당하고, 이를 이용하여 운동기구를 판별하는 것도 가능할 수 있다.Alternatively, it is also possible to assign identification information, such as a bar code, to each exercise device so as to identify the device, and to use this information to identify the exercise device.
아울러, 기구 판별부(150)는 종류 판별부(110)가 판별한 운동 종류가 웨이트 기구를 이용한 운동인 경우, 웨이트 기구에 설정된 로드(Load)를 판별할 수 있다.In addition, when the type determined by the
예를 들어, 메모리부(600)에 각 운동기구에 사용되는 무게추의 무게, 크기, 형태 등에 대한 정보를 미리 저장하고, 이를 이용하여 운동영상에 나타나 있는 사용자가 사용하는 무게추와 비교하여 총 로드를 판별할 수 있다.For example, information on the weight, size, and shape of the weight used in each exercise machine is stored in advance in the
또는, 운동기구에 스트레인게이지를 설치하고, 이를 이용하여 기구의 로드를 확인하는 것이 가능하다.Alternatively, it is possible to install a strain gauge on the exercise device, and to confirm the load of the device by using it.
시간 판별부(140)는 운동영상을 근거로 하여 사용자의 운동시간을 측정/판별할 수 있다.The
예를 들어, 사용자의 운동 영상을 분석한 결과 도 17과 같은 결과를 획득한 경우를 가정하여 보자.For example, let us assume that the result of analyzing the user's motion image is as shown in FIG. 17.
도 17을 살펴보면, T0시점에서 운동을 시작하여 Te시점에서 운동을 종료하는 과정에서, T1-T2, T3-T4, T5-T6 기간 동안 사용자의 운동성이 평균값(Aa)을 넘을 수 있다.Referring to FIG. 17, in the process of starting the movement at the time T0 and ending the movement at the time Te, the user's mobility may exceed the average value Aa during the period of T1-T2, T3-T4, and T5-T6.
이러한 경우, 시간 판별부(140)는 사용자는 T1-T2, T3-T4 및 T5-T6 기간 동안 운동을 실시하고, T0-T1, T2-T3, T4-T5 및 T6-Te 기간 동안에는 휴식을 취한 것으로 판별할 수 있다.In this case, the
이처럼, 시간 판별부(140)는 사용자의 운동 시간에 대한 정보 뿐 아니라 휴식 시간에 대한 정보도 판별할 수 있다.As described above, the
이상에서 설명한 운동 종류, 운동 동작, 운동 시간, 운동 기구에 대한 정보 등은 사용자에게 확인 가능한 형태로 가공되어 제공될 수 있다.The above-described information on the type of exercise, exercise operation, exercise time, exercise equipment, and the like can be processed in a form that can be confirmed to the user.
예를 들면, 도 18의 경우와 같이, 사용자가 벤치프레스 운동을 실시한 경우, 해당 운동의 총 운동시간, 휴식시간, 셋트 수, 각 셋트별 운동 횟수, 각 셋트별 로드(무게), 각 셋트별 운동시간 등에 대한 정보를 사용자에게 제공할 수 있다.For example, as in the case of FIG. 18, when the user performs a bench press exercise, the total exercise time, rest time, number of sets, number of exercises for each set, load (weight) Exercise time and the like can be provided to the user.
운동 셋트에 대한 정보는 앞선 도 17에서와 같은 방법으로 판별될 수 있다.Information on the exercise set can be determined in the same manner as in FIG.
횟수 판별부(130)는 운동 영상을 근거로 하여 사용자의 운동 횟수를 판별할 수 있다.The
예를 들어, 도 19와 같이 사용자(H)가 팔굽혀펴기 운동을 실시하는 경우에, 엎드린 상태에서 팔을 굽혔다가 펴는 동작을 팔굽혀펴기 운동 1회로 판별할 수 있다. 만약, 사용자가 팔을 굽히지 않고 계속 편 상태를 유지한다면 아무리 오랜 시간이 지나더라도 팔굽혀펴기 운동을 하지 않은 것으로 판별될 수 있다.For example, when the user H performs the push-up exercise as shown in Fig. 19, one arm-pushing motion can be discriminated from the operation of bending and stretching the arm in the prone position. If the user keeps his / her arm without bowing, it can be judged that he / she does not perform the push-up exercise for a long time.
횟수 판별부(130)는 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트하는 것이 바람직할 수 있다.The
예를 들어, 도 20의 (A)와 같이, 팔굽혀펴기 운동의 경우 바닥(GND)과 사용자(H)의 다리 사이의 기준각도(Xb), 상체와 바닥(GND) 사이의 기준거리(Xa) 등에 대해 정보를 미리 설정할 수 있다.20A, the reference angle Xb between the ground (GND) and the leg of the user H, the reference distance Xa between the upper body and the floor GND in the case of the push-up and pull-up motion, And the like can be set in advance.
이후, 도 20의 (B)와 같이 사용자가 팔굽혀펴기 운동을 진행하는 경우, 바닥(GND)과 사용자(H)의 다리 사이의 각도가 제 3 각도(Xb3)이고, 상체와 바닥(GND) 사이의 거리가 제 3 거리(Xa3)인 경우, 제 3 각도(Xb3)가 미리 설정된 기준각도(Xb)와 어느 정도 유사한지 판별하고, 제 3 거리(Xa3)가 기준거리(Xa)와 어느 정도 유사한지를 판별할 수 있다.20B, the angle between the ground GND and the legs of the user H is the third angle Xb3, and the angle between the upper body and the floor GND, It is judged how much the third angle Xb3 is similar to the preset reference angle Xb when the distance between the third distance Xa3 and the third distance Xa3 is larger than the reference distance Xa, A similarity can be determined.
판별한 결과, 제 3 각도(Xb3)가 기준동작(기준각도(Xb))과 기준 비율 이상 매칭되고, 제 3 거리(Xa3)가 기준동작(기준거리(Xa))과 기준 동작과 기준 비율 이상 매칭되는 경우에 사용자(H)가 팔굽혀펴기 운동을 1회 실시한 것으로 판별할 수 있다.As a result of the determination, if the third angle Xb3 matches the reference operation (reference angle Xb) more than the reference ratio and the third distance Xa3 is larger than the reference operation (reference distance Xa) It can be determined that the user H has performed the push-up exercise once.
만약, 사용자가 도 21의 (B)의 경우와 같은 형태로 운동을 하는 경우에는, 바닥(GND)과 다리 사이의 각도(Xb4)가 기준각도(Xb)와 기준 비율 이상 매칭되더라도, 사용자(H)의 상체와 바닥(GND)과의 거리(Xa4)가 변화가 없으므로, 즉 사용자(H)의 상체와 바닥(GND)과의 거리(Xa4)가 기준 동작과 기준 비율 이상 매칭되지 않으므로, 팔굽혀펴기 운동을 실시하지 않은 것으로 판별할 수 있다.21 (B), even if the angle Xb4 between the ground (GND) and the leg is matched with the reference angle Xb by more than the reference ratio, the user H Since the distance Xa4 between the upper body of the user H and the ground GND is not matched with the reference movement by more than the reference ratio because the distance Xa4 between the upper body of the user H and the ground GND does not change, It can be judged that the exercise is not performed.
운동 횟수를 판별하는 방법은 팔굽혀펴기 등의 맨손 운동 뿐 아니라 기구를 이용하는 기구 운동의 경우에도 적용될 수 있다.The method of determining the number of exercises can be applied not only to bare hands such as push-ups, but also to the exercise of the apparatus using the apparatus.
예를 들면, 도 22와 같이, 사용자(H)가 풀다운 운동기구(810)를 사용하는 경우를 가정하여 보자.For example, assume that the user H uses a pull-down
이러한 경우, 사용자(H)가 팔을 올려다가 내리는 동작을 하면서, 이와 함께 풀다운 운동기구(810)의 손잡이가 사용자(H)의 팔과 함께 상하로 움직여야만 풀다운 운동을 1회 실시한 것으로 판별될 수 있다.In this case, it can be judged that the pulling operation of the pull-down exercising
정보 제공부(210)는 운동 결과에 대한 정보를 사용자에게 제공할 수 있다.The
예를 들면, 도 23의 (A)의 경우와 같이, 사용자가 실시한 팔굽혀펴기 운동에 대해 사용자의 현재 상태(사용자가 실시한 팔굽혀펴기 운동의 횟수), 평균 횟수 및 목표치에 대한 정보를 함께 제공하는 것이 가능하다.For example, as in the case of FIG. 23 (A), information on the current state of the user (the number of times the user performs the push-up and pull-up exercises), the average number of times, and the target value are provided together with the push- It is possible to do.
또는, 도 23의 (B)와 같이, 풀다운 운동의 경우, 현재 상태(사용자가 실시한 풀다운 운동의 로드(무게)), 평균 로드 및 목표치에 대한 정보를 함께 제공하는 것이 가능하다.Alternatively, as shown in FIG. 23B, it is possible to provide information on the current state (load (weight) of the pull-down motion performed by the user), the average load, and the target value in the case of pull down movement.
도 23의 (C)에는 벤치프레스 운동의 경우가 개시되어 있다.23 (C) shows a case of a bench press motion.
정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 성취도에 대한 정보를 제공하는 것이 바람직할 수 있다. 성취도는 운동 횟수가 많을수록, 운동 시간이 짧을수록 상승할 수 있다.The
예를 들면, 도 23의 (A)와 도 24의 (A)를 참조하면, 팔굽혀펴기 운동의 경우 사용자의 성취도는 평균 횟수 대비 80%이고, 목표치 대비 67%일 수 있다.For example, referring to Figures 23 (A) and 24 (A), in the case of an up-and-down exercise, the user's achievement may be 80% of the average number and 67% of the target value.
성취도 정보는 풀다운 운동 및 벤치프레스 운동의 경우에도 적용될 수 있다.Achievement information can also be applied to pulldown and bench presses.
아울러, 정보 제공부(210)는 운동 종류에 대한 정보, 운동 횟수에 대한 정보 또는 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 사용자에게 추천 정보를 제공할 수 있다. 여기서, 추천 정보는 운동 횟수에 대한 추천 정보, 운동 시간에 대한 추천 정보 또는 운동 종류에 대한 추천 정보 중 적어도 하나를 포함할 수 있다.In addition, the
예를 들면, 도 24의 (B)와 같이, 팔굽혀펴기 운동의 경우 실시 횟수를 20% 늘릴 것을 추천하고, 풀다운 운동의 경우 로드를 16%늘릴 것을 추천하고, 벤치프레스 운동의 경우 횟수를 30%줄일 것을 추천할 수 있다. 아울러, 벤치프레스 운동의 횟수를 줄이는 대신에 버터플라이 운동을 추가할 것을 추천할 수 있다. 이는 벤치프레임 운동에 대한 성취도가 도 24의 (A)에서와 같이 100%를 넘었기 때문이다.For example, as shown in FIG. 24 (B), it is recommended to increase the number of times of execution by 20% in the case of the push-up and pull-up motion, to increase the load by 16% in the case of pull-down movement, %. It is also advisable to add a butterfly motion instead of reducing the number of bench presses. This is because the achievement of the bench frame motion exceeds 100% as shown in FIG. 24 (A).
또는, 도 25의 (A)와 같이, 팔굽혀펴기 운동의 경우 무릎을 좀 더 곧게 펴라는 등의 운동 동작에 대한 추천정보를 사용자에게 제공하는 것이 가능하다.Alternatively, as shown in FIG. 25 (A), it is possible to provide the user with recommendation information on the exercise operation such as straightening the knee more straightly in the case of the push-up and pull-up exercise.
이와 함께, 사용자가 보다 용이하게 이해할 수 있도록, 도 25의 (B)와 같이, 바람직한 팔굽혀펴기 동작에 대한 일례를 표시부(410)에 표시할 수 있다.In addition, as shown in FIG. 25 (B), an example of a desired push-up and down operation can be displayed on the
추천 정보의 제공은 팔굽혀펴기 등의 운동 횟수와 관련이 있는 운동 이외에 운동 동작 자체가 중요하게 여겨지는 요가 등의 운동에도 적용될 수 있다.Provision of recommendation information can be applied to exercises such as yoga, in which the exercise itself is considered important, in addition to exercises related to the number of exercises such as push-up.
예를 들면, 26의 (A)와 같이, 사용자(H)가 요가 운동을 실시하면, 사용자의 운동 영상으로부터 운동 동작 정보(MD)를 추출할 수 있다.For example, as shown in (A) of FIG. 26, when the user H performs the yoga exercise, the exercise motion information MD can be extracted from the user's motion image.
도 26에서는 설명의 편의를 위해, 도 26의 (B)와 같이 골격의 움직임으로 운동 동작을 표현하였지만 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 요가 운동의 경우에도 앞서 설명한 객체 인식부(190) 및 운동성 산출부(200)에 의해 운동성이 분석/판별될 수 있다.In FIG. 26, for the sake of convenience of description, the motion operation is expressed by the skeletal motion as shown in FIG. 26 (B), but the present invention is not limited thereto. For example, in the case of yoga exercise, the mobility can be analyzed / discriminated by the
사용자의 운동 동작 정보(MD)가 획득되면, 도 26의 (C)와 같이, 사용자의 운동 동작 정보(MD)를 미리 설정된 기준 동작 정보(SD)와 비교할 수 있다.When the user's motion motion information MD is obtained, the user's motion motion information MD can be compared with preset reference motion information SD as shown in Fig. 26C.
비교결과, 사용자의 동작 정보(MD)와 기준 동작 정보(SD)의 유사성을 성취도로서 판별할 수 있다.As a result of comparison, the similarity between the user's operation information (MD) and the reference operation information (SD) can be determined as the achievement.
예를 들면, 도 27의 (A)와 같이, 사용자의 요가 운동에서 팔동작은 기준 동작 정보(SD)와 92%유사하고, 다리동작은 95%유사하고, 몸통동작은 98%유사한다는 정확성에 대한 정보를 판별할 수 있다. 다르게 표현하면, 사용자의 요가 동작은 팔동작 항목에서 92%의 정확성을 갖는 것으로 볼 수 있다.For example, as shown in FIG. 27 (A), the arm motion in the user's yaw motion is 92% similar to the reference motion information SD, the leg motion is 95% similar, and the torso motion is 98% Can be identified. In other words, the user's yoga movements can be seen to have 92% accuracy in arm movements.
이러한 정확성에 대한 정보를 바탕으로, 도 27의 (B)와 같이, 사용자에게 해당 운동에 대한 추천 정보를 제공할 수 있다.Based on the information on such accuracy, as shown in FIG. 27 (B), it is possible to provide recommendation information on the exercise to the user.
성취도는 로드, 횟수와 관계없이 운동시간에 따라 결정되는 것도 가능할 수 있다.It is also possible that performance may be determined by exercise time, regardless of load or frequency.
예를 들면, 도 28의 (A)와 같이, 벤치프레스 운동, 풀다운 운동, 팔굽혀펴기 운동, 달리기 등 다양한 운동의 운동 시간에 대한 성취도를 판별/제공할 수 있다.For example, as shown in (A) of FIG. 28, it is possible to discriminate / provide achievement of exercise time of various exercises such as bench press exercise, pull-down exercise, push-up exercise, and running.
아울러, 도 28의 (B)와 같이, 각 운동의 성취도에 근거하여 사용자에게 추천 정보를 제공할 수 있다.In addition, as shown in (B) of FIG. 28, recommendation information can be provided to the user based on the achievement of each exercise.
예를 들면, 사용자의 팔굽혀펴기 운동의 운동시간이 평균(10분)보다 적은 경우, 사용자에게 팔굽혀펴기 운동에 좀 더 시간을 투자하라는 내용을 추천 정보를 사용자에게 제공하는 것이 가능하다.For example, if the exercise time of the user's push-up exercise is less than the average (10 minutes), it is possible to provide the user with recommendation information that the user should spend more time in the push-up exercise.
운동시간에 따른 성취도는 요가, 달리기 등의 운동에 적용되는 것이 바람직할 수 있다.The performance according to the exercise time may be preferably applied to the exercise such as yoga and running.
예를 들면, 도 29의 (A)와 같이, 요가 운동 시 사용자(H)가 메뚜기 자세, 견상 자세, 쟁기 자세 및 독수리 자세를 취하는 경우를 가정하여 보자.For example, as shown in Fig. 29 (A), assume that the user H takes a grasshopper posture, a sideline posture, a plow posture, and an eagle posture in yoga exercise.
이러한 경우, 사용자가 메뚜기 자세를 취하고 그 자세는 유지한 시간(60초)을 미리 설정된 기준 시간(60초)과 비교하여 성취도(100%)를 판별/제공할 수 있다.In this case, the user can discriminate / provide the achievement (100%) by comparing the time (60 seconds) with which the user takes the grasshopper posture and maintains the posture with the preset reference time (60 seconds).
아울러, 성취도에 근거하여 사용자에게 독수리 자세 시간을 줄이고 견상 자세 및 쟁기 자세의 연습 시간을 늘리라는 등의 추천 정보를 제공할 수 있다.In addition, based on the achievement, the user can be provided with recommendation information such as reducing the eagle's posture time and increasing the practice time of the diving posture and the plow posture.
한편, 난이도에 따라 추천 정보를 다르게 제공하는 것이 가능하다.On the other hand, it is possible to provide recommendation information differently depending on the degree of difficulty.
예를 들어, 도 30의 경우와 같이, 팔굽혀펴기 운동의 경우 10분 동안 100번 실시하는 경우를 레벨 1로 설정하고, 10분 동안 130번 실시하는 경우를 레벨 2, 10분 동안 160번 실시하는 경우를 레벨 3, 10분 동안 190번 실시하는 경우를 레벨 4, 10분 동안 220번 실시하는 경우를 레벨 5로 설정하는 경우를 가정하자.For example, as in the case of Fig. 30, in the case of the push-up and pull-up exercise, the case of performing 100 times for 10 minutes is set as the
도 31의 (A)와 같이, 레벨 2 단계인 사용자 A가 10분 동안 총 90개의 팔굽혀펴기 운동을 실시하여 성취도가 69%인 경우에는, 도 31의 (B)와 같이 레벨 1로 레벨을 하향조정할 것을 추천할 수 있다.As shown in (A) of FIG. 31, when Level A user A performs a total of 90 push-up exercises for 10 minutes and the achievement is 69%, the level is set to
또는, 운동정보 처리장치(10)에서 강제로 사용자 A의 레벨을 레벨 2에서 레벨 1로 낮출 수 있다.Alternatively, the level of the user A can be forcibly lowered from the
반면에, 도 32의 (A)와 같이, 레벨 4 단계인 사용자 B가 10분 동안 총 230개의 팔굽혀펴기 운동을 실시하여 성취도가 121인 경우에는, 도 32의 (B)와 같이 레벨 5로 레벨을 상향조정할 것을 추천할 수 있다.On the other hand, as shown in FIG. 32 (A), when the level B level user B performs a total of 230 push-up exercises for 10 minutes and the achievement level is 121, It is recommended to adjust the level up.
또는, 운동정보 처리장치(10)에서 강제로 사용자 B의 레벨을 레벨 4에서 레벨 5로 높일 수 있다.Alternatively, the exercise
정보 제공부(210)는 사용자로부터 수집한 다양한 정보를 다른 사용자들의 정보와 비교하여 사용자의 건강 상태에 대한 정보를 제공할 수 있다.The
예를 들면, 도 33의 경우와 같이, 사용자의 운동 영상을 분석하여 판별/획득한 정보를 빅데이터와 비교하여 사용자의 현재 근력, 근지구력, 심폐지구력 등의 정보를 예측하고, 이에 대한 정보를 사용자에게 제공하는 것이 가능하다.For example, as in the case of FIG. 33, by analyzing the motion image of the user and comparing the discriminated / acquired information with the big data, information such as the user's current strength, muscle endurance, cardiovascular endurance, etc. is predicted, It is possible to provide it to the user.
이상에서는 운동 정보 처리 장치(10)가 운동 영상으로부터 사용자가 실시하는 운동의 종류를 판별하는 경우를 설명하였지만, 이와는 다르게 운동 정보 처리 장치(10)에서 운동 종류에 대한 정보를 먼저 제공하는 것이 가능하다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.In the above description, the case where the motion
도 34 내지 도 37은 본 발명에 따른 또 다른 운동 정보 처리 방법에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략한다. 예를 들면, 이하의 내용은 운동의 종류에 대한 정보 및 해당 운동의 기준 동작에 대한 정보를 촬영전에 사용자에게 미리 제공한다는 점을 제외하면 특별한 언급이 없는 한 이상에서 설명한 내용과 대략 동일할 수 있다.34 to 37 are diagrams for explaining another exercise information processing method according to the present invention. Hereinafter, the description of the portions described in detail above will be omitted. For example, the following may be approximately the same as described above unless otherwise noted, except that it provides information about the type of motion and information about the reference motion of the motion in advance to the user .
도 34를 살펴보면, 촬영(S200) 단계 이전에 운동 종류에 대한 정보를 제공하는 단계(S600)가 포함될 수 있다.Referring to FIG. 34, step S600 of providing information on the type of exercise before the photographing (S200) step may be included.
이러한 경우에는, 제어부(100)에서 종류 판별부(110)가 생략되는 것도 가능하다.In this case, the
예를 들면, 도 35 내지 도 36의 경우와 같이, 운동정보 처리 장치(10)는 운동 영상 촬영 이전에 사용자에게 운동 종류에 대한 정보 및 그 운동의 기준동작에 대한 정보를 화면(표시부(410))에 표시하여 제공할 수 있다.35 to 36, the motion
그러면, 사용자는 현재 자신이 어떤 운동을 해야 하는지를 확인할 수 있다.Then, the user can confirm what kind of exercise he / she should perform at present.
그리고 운동 정보 처리 장치(10)는 사용자(H)가 해당 운동을 실시하고 있는지를 모니터링하는 것이다.The exercise
이러한 방법은 크로스핏(Crossfit)과 같이 다양한 운동을 셋트별로 실시하는 운동에 적용되는 것이 바람직할 수 있다.It may be desirable to apply this method to movements that perform various exercises on a set-by-set basis, such as a crossfit.
예를 들면, 도 37의 경우와 같이, 첫 번째 단계에서 꼰다리 자세를 유지하는 요가 운동을 실시할 수 있다.For example, as in the case of FIG. 37, a yoga exercise can be performed to maintain the braided leg posture in the first step.
이러한 경우에는, 도 35의 경우와 같이, 표시부(410)에 꼰다리 자세의 기준 동작 정보에 대한 정보를 표시할 수 있다.In such a case, as in the case of Fig. 35, information on the reference operation information of the legged posture can be displayed on the
이러한 경우, 운동정보 처리장치(10)에서는 사용자의 꼰다리 자세 운동에 대한 운동 동작을 판별할 수 있다.In such a case, the exercise
아울러, 운동정보 처리장치(10)는 사용자가 꼰다리 자세를 유지하는 요가 운동을 완수하는 경우, 즉 해당 운동이 종료되는 경우에 또 다른 운동, 예컨대 팔굽혀펴기 운동에 대한 운동 종류 및 기준 동작에 대한 정보를 제공할 수 있다.In addition, when the user completes the yoga exercise in which the user holds the legged posture, that is, when the exercise is completed, the exercise
이후, 운동정보 처리장치(10)는 팔굽혀펴기 운동에 대해 사용자의 운동 횟수를 판별할 수 있다.Thereafter, the exercise
다르게 표현하면, 운동정보 처리장치(10)에서는 사용자에게 제 1 운동(First Exercise)에 대한 기준 동작에 대한 정보를 제공하고, 제 1 운동에 대한 운동 동작 및/또는 운동 횟수에 대한 정보를 판별/획득할 수 있다.In other words, the motion
이후 운동정보 처리장치(10)는 제 1 운동이 종료되는 경우에 제 1 운동과 다른 제 2 운동(Second Exercise)의 기준 동작에 대한 정보를 더 제공하고, 제 2 운동에 대한 운동 동작 및/또는 운동 횟수에 대한 정보를 판별/획득할 수 있다.Then, the motion
여기서, 운동이 종료되는지를 판단하는 방법은 아래와 같다.Here, a method of determining whether the exercise is finished is as follows.
사용자의 제 1 운동에 대한 운동 횟수가 미리 설정된 기준 횟수에 도달하는 것을 제 1 조건이라 하고, 사용자의 제 1 운동에 대한 운동 동작이 기준 동작과 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우를 제 2 조건이라 가정하자.The first condition is that the number of motions for the first movement of the user reaches a preset reference number and the case where the motions for the first movement of the user are matched with the reference motion by more than a preset reference ratio, 2 condition.
여기서, 제 1 조건 또는 제 2 조건 중 적어도 하나가 만족할 때, 제 1 운동이 종료되는 것으로 판별할 수 있다.Here, when at least one of the first condition or the second condition is satisfied, it can be determined that the first motion is ended.
이러한 방법으로 크로스핏과 같은 운동 시에 다양한 운동정보를 판별/획득하는 것이 가능하다.In this way, it is possible to discriminate / acquire various kinds of exercise information during exercise such as cross pit.
이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As described above, it is to be understood that the technical structure of the present invention can be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It should be understood, therefore, that the embodiments described above are to be considered in all respects as illustrative and not restrictive, the scope of the invention being indicated by the appended claims rather than the foregoing description, And all changes or modifications derived from equivalents thereof should be construed as being included within the scope of the present invention.
Claims (20)
상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 종류 판별부;
상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 횟수 판별부; 및
상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 동작 판별부;
를 포함하는 장치.A camera unit for photographing a user's motion image;
A type determining unit for determining a type of the user's motion based on the motion image;
A frequency determining unit for determining a frequency of motion of the user based on the motion image; And
An operation determining unit for determining a motion of the user based on the motion image;
/ RTI >
상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 시간 판별부를 더 포함하는 장치.The method according to claim 1,
And a time discrimination unit for measuring a user's exercise time based on the motion image.
상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 정보 제공부를 더 포함하는 장치.3. The method of claim 2,
Further comprising an information providing unit for providing recommendation information to the user based on at least one of information on the type of exercise, information on the number of exercises, information on the exercise operation, and information on the exercise time.
상기 정보 제공부는 상기 운동 동작에 대한 정보, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 성취도에 대한 정보를 더 제공하는 장치.3. The method of claim 2,
The information providing unit may further provide information on the achievement to the user based on at least one of information on the exercise operation, information on the exercise type, information on the exercise frequency, .
상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 기구 판별부를 더 포함하는 장치.The method according to claim 1,
And a device discrimination unit for discriminating a load set to the weight mechanism when the motion type is a motion using the weight mechanism.
상기 횟수 판별부는 상기 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트하는 장치.The method according to claim 1,
Wherein the number determining unit counts the number of times when the motion of the user is matched by a predetermined reference ratio or more to a preset reference operation.
상기 동작 판별부는 상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성에 대한 정보를 더 제공하는 장치.The method according to claim 1,
Wherein the operation determination unit further provides information on a similarity between a motion operation of the user and a predetermined reference operation.
상기 운동 영상을 분석하여 움직이는 객체(Object)를 인식하는 객체 인식부를 더 포함하고,
상기 객체 인식부는
상기 운동 영상에서 배경을 추출하고, 추출한 배경과 다른 색상을 갖는 부분을 상기 움직이는 객체로 인식하는 장치.The method according to claim 1,
And an object recognition unit for analyzing the motion image and recognizing a moving object,
The object recognition unit
Extracts a background from the motion image, and recognizes a part having a color different from the extracted background as the moving object.
상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 운동성 산출부를 더 포함하는 장치.9. The method of claim 8,
Further comprising a motion calculating unit for dividing the motion of the moving object by different brightness according to time and calculating the motion based on the direction and degree of the brightness changing.
상기 횟수 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 횟수를 판별하고,
상기 동작 판별부는 상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별하는 장치.10. The method of claim 9,
Wherein the frequency determining unit determines the number of times the user exercises based on the motility,
Wherein the operation determination unit determines the motion operation of the user based on the mobility.
상기 운동 영상을 근거로 하여 상기 사용자의 운동 종류를 판별하는 단계;
상기 운동 영상을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 단계; 및
상기 운동 영상을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계;
를 포함하는 방법.Capturing a motion image of a user;
Determining a movement type of the user based on the motion image;
Determining a number of times of motion of the user based on the motion image; And
Determining a motion of the user based on the motion image;
≪ / RTI >
상기 운동 영상을 근거로 하여 사용자의 운동 시간을 측정하는 단계를 더 포함하는 방법.12. The method of claim 11,
And measuring a user's exercise time based on the motion image.
상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보, 상기 운동 동작에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 추천 정보를 제공하는 단계를 더 포함하는 방법.13. The method of claim 12,
And providing recommendation information to the user based on at least one of information on the type of exercise, information on the number of times of exercise, information on the exercise operation, and information on the exercise time.
상기 운동 동작에 대한 정보, 상기 운동 종류에 대한 정보, 상기 운동 횟수에 대한 정보 또는 상기 운동 시간에 대한 정보 중 적어도 하나를 근거로 하여 상기 사용자에게 성취도에 대한 정보를 제공하는 단계를 더 포함하는 방법.13. The method of claim 12,
And providing information on the achievement level to the user based on at least one of information on the exercise operation, information on the exercise type, information on the exercise frequency, and information on the exercise time .
상기 운동 종류가 웨이트 기구를 이용한 운동인 경우, 상기 웨이트 기구에 설정된 로드(Load)를 판별하는 단계를 포함하는 방법.12. The method of claim 11,
And a step of discriminating a load set to the weight mechanism when the motion type is a motion using the weight mechanism.
상기 사용자의 운동 동작이 미리 설정된 기준 동작에 미리 설정된 기준 비율 이상 매칭(Matching)되는 경우에 횟수를 카운트하는 방법.12. The method of claim 11,
And counting the number of times when the motion of the user is matched by a preset reference ratio to a predetermined reference operation.
상기 사용자의 운동 동작과 미리 설정된 기준 동작의 유사성에 대한 정보를 제공하는 단계를 더 포함하는 방법.12. The method of claim 11,
Further comprising providing information about the motion behavior of the user and a similarity of a predetermined reference motion.
상기 운동 영상을 분석하여 움직이는 객체(Object)를 인식하는 인식단계를 더 포함하고,
상기 인식단계에서는 상기 운동 영상에서 배경을 추출하고, 추출한 배경과 다른 색상을 갖는 부분을 상기 움직이는 객체로 인식하는 방법.12. The method of claim 11,
Further comprising a recognition step of analyzing the motion image to recognize a moving object,
Wherein the recognition step extracts a background from the motion image and recognizes a part having a color different from the extracted background as the moving object.
상기 움직이는 객체의 움직임을 시간에 따라 밝기를 다르게 하여 구분하고, 상기 밝기가 변화하는 방향 및 정도를 근거로 하여 운동성을 산출하는 단계를 더 포함하는 방법.19. The method of claim 18,
Further comprising dividing the movement of the moving object by different brightness according to time, and calculating the mobility based on the direction and degree of change of the brightness.
상기 운동성을 근거로 하여 상기 사용자의 운동 횟수를 판별하는 단계; 및
상기 운동성을 근거로 하여 상기 사용자의 운동 동작을 판별하는 단계;
를 더 포함하는 방법.20. The method of claim 19,
Determining a number of times the user is exercising based on the motility; And
Determining a motion of the user based on the motility;
≪ / RTI >
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160046724A KR20170119337A (en) | 2016-04-18 | 2016-04-18 | Apparatus and Method for Processing of Exercise Information |
PCT/KR2017/003125 WO2017183818A1 (en) | 2016-04-18 | 2017-03-23 | Apparatus and method for processing exercise information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160046724A KR20170119337A (en) | 2016-04-18 | 2016-04-18 | Apparatus and Method for Processing of Exercise Information |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170119337A true KR20170119337A (en) | 2017-10-27 |
Family
ID=60116913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160046724A KR20170119337A (en) | 2016-04-18 | 2016-04-18 | Apparatus and Method for Processing of Exercise Information |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20170119337A (en) |
WO (1) | WO2017183818A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190065635A (en) * | 2017-12-04 | 2019-06-12 | 중앙대학교 산학협력단 | Occupant MET measurement method and apparatus |
KR102457450B1 (en) * | 2021-07-02 | 2022-10-21 | 주식회사 아워스포츠네이션 | Device and method for measuring and sharing excercise record of exercise video |
KR102507792B1 (en) * | 2022-08-01 | 2023-03-08 | 주식회사 엑스퍼스 | Method and apparatus for providing exercise prescription service through exercise video analysis |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100513739B1 (en) * | 2002-08-23 | 2005-09-09 | 삼성전자주식회사 | Motion detecting device using face characteristics and monitoring system adapting it |
US9532734B2 (en) * | 2010-08-09 | 2017-01-03 | Nike, Inc. | Monitoring fitness using a mobile device |
US9283429B2 (en) * | 2010-11-05 | 2016-03-15 | Nike, Inc. | Method and system for automated personal training |
KR101416282B1 (en) * | 2012-02-29 | 2014-08-12 | 디게이트 주식회사 | Functional measurement and evaluation system for exercising Health and Rehabilitation based on Natural Interaction |
JP2016036681A (en) * | 2014-08-11 | 2016-03-22 | セイコーエプソン株式会社 | Motion analysis method, motion analysis device, motion analysis system, and program |
-
2016
- 2016-04-18 KR KR1020160046724A patent/KR20170119337A/en not_active Application Discontinuation
-
2017
- 2017-03-23 WO PCT/KR2017/003125 patent/WO2017183818A1/en active Application Filing
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190065635A (en) * | 2017-12-04 | 2019-06-12 | 중앙대학교 산학협력단 | Occupant MET measurement method and apparatus |
KR102457450B1 (en) * | 2021-07-02 | 2022-10-21 | 주식회사 아워스포츠네이션 | Device and method for measuring and sharing excercise record of exercise video |
KR102507792B1 (en) * | 2022-08-01 | 2023-03-08 | 주식회사 엑스퍼스 | Method and apparatus for providing exercise prescription service through exercise video analysis |
WO2024029865A1 (en) * | 2022-08-01 | 2024-02-08 | 주식회사 엑스퍼스 | Method and device for providing workout prescription service through workout image analysis |
Also Published As
Publication number | Publication date |
---|---|
WO2017183818A1 (en) | 2017-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10898755B2 (en) | Method for providing posture guide and apparatus thereof | |
KR101980378B1 (en) | Exercise motion guidance system using dynamic motion and body balance | |
US20190160339A1 (en) | System and apparatus for immersive and interactive machine-based strength training using virtual reality | |
US20150347717A1 (en) | Hybrid personal training system and method | |
WO2017161734A1 (en) | Correction of human body movements via television and motion-sensing accessory and system | |
KR20170119337A (en) | Apparatus and Method for Processing of Exercise Information | |
KR102356685B1 (en) | Home training providing system based on online group and method thereof | |
KR20090084035A (en) | A real time motion recognizing method | |
CN114100103B (en) | Rope skipping counting detection system and method based on key point identification | |
KR20170119338A (en) | Apparatus and Method for Processing of Exercise Information | |
KR20170119335A (en) | Apparatus and Method for Processing of Exercise Information | |
WO2023108842A1 (en) | Motion evaluation method and system based on fitness teaching training | |
KR20170119333A (en) | Apparatus and Method for Processing of Exercise Information | |
KR102500621B1 (en) | Apparatus and Method for Processing of Exercise Information | |
KR20170119334A (en) | Apparatus and Method for Processing of Exercise Information | |
KR20170119336A (en) | Apparatus and Method for Processing of Exercise Information | |
CN117292288A (en) | Sports test method, system, electronic device, chip and storage medium | |
TW202119285A (en) | Exercise assisting device and exercise assisting method | |
US20240181295A1 (en) | User experience platform for connected fitness systems | |
CN118097765A (en) | Counting method, counting device, electronic equipment and storage medium | |
TWM581492U (en) | Weight training intelligence system | |
KR20170119341A (en) | Apparatus and Method for Processing of Exercise Information | |
CN112784699B (en) | Implementation method and system for assessment and guidance of exercise training gestures | |
Karunaratne et al. | Objectively measure player performance on Olympic weightlifting | |
TWI533238B (en) | A Movement detection and judgment device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |