KR102493903B1 - Method and apparatus for providing exercise informaion - Google Patents
Method and apparatus for providing exercise informaion Download PDFInfo
- Publication number
- KR102493903B1 KR102493903B1 KR1020220126210A KR20220126210A KR102493903B1 KR 102493903 B1 KR102493903 B1 KR 102493903B1 KR 1020220126210 A KR1020220126210 A KR 1020220126210A KR 20220126210 A KR20220126210 A KR 20220126210A KR 102493903 B1 KR102493903 B1 KR 102493903B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- exercise
- user
- neural network
- artificial neural
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000013528 artificial neural network Methods 0.000 claims abstract description 129
- 230000033001 locomotion Effects 0.000 claims description 72
- 230000005484 gravity Effects 0.000 claims description 20
- 235000019577 caloric intake Nutrition 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 7
- 239000003086 colorant Substances 0.000 claims description 3
- 230000000386 athletic effect Effects 0.000 claims 2
- 238000004891 communication Methods 0.000 description 28
- 238000012545 processing Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 238000013503 de-identification Methods 0.000 description 13
- 210000003205 muscle Anatomy 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 210000000577 adipose tissue Anatomy 0.000 description 8
- 210000003127 knee Anatomy 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 210000003371 toe Anatomy 0.000 description 3
- 230000003442 weekly effect Effects 0.000 description 3
- 230000037396 body weight Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000001900 endoderm Anatomy 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 235000012631 food intake Nutrition 0.000 description 2
- 230000037406 food intake Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000001994 activation Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 150000001720 carbohydrates Chemical class 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 210000003981 ectoderm Anatomy 0.000 description 1
- 210000004744 fore-foot Anatomy 0.000 description 1
- 238000009532 heart rate measurement Methods 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000003716 mesoderm Anatomy 0.000 description 1
- 230000037323 metabolic rate Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0062—Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0075—Means for generating exercise programs or schemes, e.g. computerized virtual trainer, e.g. using expert databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/806—Video cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Physical Education & Sports Medicine (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
Abstract
Description
아래 실시예들은 운동 정보 제공 방법 및 장치에 관한 것이다.The following embodiments relate to a method and apparatus for providing exercise information.
운동 관리 어플리케이션은 회원들이 자신의 운동 관련 기록을 직접 입력하고, 이를 데이터베이스화하는 수준으로 구현되어 있다.The exercise management application is implemented at a level where members directly input their own exercise-related records and convert them into a database.
이에 따라 자신의 운동관련 정보를 기록하기 위해서는 사용자가 직접 운동기록을 입력해야하는 번거로움이 있을 뿐만 아니라, 운동 횟수 카운트 역시도 자의적인 판단으로 정확도가 낮게 이루어질 수 있다.Accordingly, in order to record the user's exercise-related information, not only is it cumbersome for the user to directly input the exercise record, but also the accuracy of the count of the number of exercises may be low due to arbitrary judgment.
기존의 퍼스널 트레이닝은 높은 비용이 책정될 뿐만 아니라, 트레이너가 직접 사용자 옆에서 운동 감독하기 때문에, 성향에 따라 반감을 가지는 사용자도 있으며, 특히나 코로나 시국에 있어서 질병 감염 위험성이 높을 수 있다.Existing personal training is not only expensive, but also because the trainer directly supervises the exercise next to the user, some users have antipathy depending on their inclination, and the risk of disease infection can be high, especially in the corona situation.
일 실시예에 따른 제2 전자 장치에 의해 수행되는 운동 정보 제공 방법은,사용자 운동 영상에 대응되는 제1 정보에서 현재 사용자를 제외한 다른 사용자를 비식별화한 제2 정보를 제1 전자 장치로부터 수신하는 단계; 상기 제2 정보를 미리 학습된 인공 신경망에 입력함으로써, 상기 현재 사용자의 운동 정보를 생성하는 단계; 및 상기 운동 정보를 외부 엔티티에 제공하는 단계를 포함하고, 상기 제2 정보는, 상기 제1 정보를 제1 인공 신경망에 입력하여 상기 현재 사용자를 인식하고, 상기 현재 사용자외 다른 사용자를 비식별화함으로써, 생성될 수 있다.A method of providing exercise information performed by a second electronic device according to an embodiment includes receiving, from the first electronic device, second information in which a user other than a current user is de-identified from first information corresponding to a user's exercise image. doing; generating exercise information of the current user by inputting the second information to a pre-learned artificial neural network; and providing the exercise information to an external entity, wherein the second information inputs the first information to a first artificial neural network to recognize the current user and de-identify users other than the current user. By doing so, it can be created.
상기 운동 정보를 생성하는 단계는, 입력 영상으로부터 사용자의 포즈를 추정하도록 미리 학습된 제2 인공 신경망에 상기 제2 정보를 입력함으로써, 상기 현재 사용자의 움직임에 대한 제3 정보를 획득하는 단계; 입력 영상으로부터 운동 기구의 포즈를 추정하도록 미리 학습된 제3 인공 신경망에 상기 제2 정보를 입력함으로써, 상기 현재 사용자가 사용하는 운동 기구의 움직임에 대한 제4 정보를 획득하는 단계; 및 상기 현재 사용자의 움직임에 대한 정보 및 상기 운동 기구의 움직임에 대한 정보에 기초하여 운동 보조 정보를 생성하는 단계를 포함할 수 있다.The generating of the motion information may include: acquiring third information about the current motion of the user by inputting the second information to a second artificial neural network previously trained to estimate a pose of the user from an input image; obtaining fourth information about motion of an exercise machine currently used by the user by inputting the second information to a third artificial neural network pretrained to estimate a pose of the exercise machine from an input image; and generating exercise assistance information based on the information on the motion of the current user and the information on the motion of the exercise equipment.
상기 제3 인공 신경망은, 무게 별로 서로 다른 색상 및 크기로 구별된 운동 기구를 포함하는 영상에 대응하는 제1 학습 데이터에 기초하여, 운동 기구 및 중량을 추정하도록 학습된 제3-1 인공 신경망; 및 운동 기구의 힘점 및 중량부에 노드가 라벨링된 영상인 제2 학습 데이터에 기초하여, 운동 기구의 포즈를 추정하도록 학습된 제3-2 인공 신경망을 포함할 수 있다.The third artificial neural network may include a 3-1 artificial neural network learned to estimate exercise equipment and weight based on first learning data corresponding to an image including exercise equipment distinguished by weight in different colors and sizes; and a 3-2 artificial neural network trained to estimate a pose of the exercise machine based on second learning data, which is an image in which nodes are labeled on the force point and weight of the exercise machine.
상기 현재 사용자의 운동 정보를 생성하는 단계는, 상기 제3 정보에 기초하여 산출되는 현재 사용자 무게 중심의 이동 거리 정보 및 상기 제4 정보에 기초하여 산출되는 상기 현재 사용자가 사용하는 운동 기구 무게 중심의 이동거리 정보에 기초하여 운동량을 산출할 수 있다.The generating of the exercise information of the current user may include moving distance information of the center of gravity of the current user calculated based on the third information and the center of gravity of the exercise equipment used by the current user calculated based on the fourth information. Momentum may be calculated based on the movement distance information.
일 실시예에 따른 운동 정보 제공 방법은, 상기 제3 정보에 산출되는 상기 현재 사용자의 노드와, 미리 저장된 교습자의 노드 사이의 매칭에 기초하여 상기 현재 사용자의 영상에 가이드 영상을 오버랩하여 제공하는 단계를 더 포함할 수 있다.An exercise information providing method according to an embodiment includes the steps of overlapping a guide image with an image of the current user based on matching between the current user's node calculated in the third information and a pre-stored instructor's node; may further include.
일 실시예에 따른 운동 정보 제공 방법은, 상기 사용자의 심박수의 역수와 배수 관계에 있는 BPM의 음악 또는 개별 운동 동작의 주기의 역수와 배수 관계에 있는 BPM의 음악을 추천 음악으로 제공하는 단계를 더 포함할 수 있다.The exercise information providing method according to an embodiment further includes the step of providing, as recommended music, BPM music having a multiple relationship with the reciprocal of the user's heart rate or BPM music having a multiple relationship with the reciprocal of the period of an individual exercise motion. can include
일 실시예에 따른 운동 정보 제공 방법은, 바닥에 배치된 압력 센서를 통해 획득되는 센싱 정보로부터 상기 사용자가 운동을 시작하는 시작 시점 및 상기 사용자가 운동을 종료하는 종료 시점을 인식하는 단계; 상기 시작 시점 및 종료 시점에 기초하여 사용자가 실제 운동을 수행하는 시점에 대응되는 실제 운동 영상을 획득하는 단계; 및 상기 실제 운동 영상을 외부 엔티티에 제공하는 단계를 더 포함할 수 있다.An exercise information providing method according to an embodiment includes recognizing a start time when the user starts an exercise and an end time when the user ends the exercise from sensing information obtained through a pressure sensor disposed on the floor; obtaining an actual exercise image corresponding to a time when a user actually performs an exercise based on the start time and the end time; and providing the actual motion image to an external entity.
상기 현재 사용자의 운동 정보를 생성하는 단계는, 상기 현재 사용자의 특성 정보, 운동량 정보 및 순 소비 칼로리 정보를 제4 인공 신경망에 입력하여, 목표치에 도달할 확률에 대한 정보를 생성하는 단계를 포함할 수 있다.The generating of exercise information of the current user may include generating information about a probability of reaching a target value by inputting characteristic information, exercise amount information, and net calorie consumption information of the current user into a fourth artificial neural network. can
일 실시예에 따른 운동 정보를 제공하는 전자 장치는 메모리; 및 프로세서를 포함하고, 상기 프로세서는, 사용자 운동 영상에 대응되는 제1 정보에서 현재 사용자를 제외한 다른 사용자를 비식별화한 제2 정보를 제1 전자 장치로부터 수신하고, 상기 제2 정보를 미리 학습된 인공 신경망에 입력함으로써, 상기 현재 사용자의 운동 정보를 생성하고, 상기 운동 정보를 외부 엔티티에 제공하고, 상기 제2 정보는, 상기 제1 정보를 제1 인공 신경망에 입력하여 상기 현재 사용자를 인식하고, 상기 현재 사용자외 다른 사용자를 비식별화함으로써, 생성될 수 있다.An electronic device providing exercise information according to an embodiment includes a memory; and a processor, wherein the processor receives, from the first electronic device, second information that de-identifies other users other than the current user in the first information corresponding to the user's exercise image, and learns the second information in advance. By inputting the first information to the artificial neural network, the current user's exercise information is generated, the exercise information is provided to an external entity, and the second information inputs the first information to a first artificial neural network to recognize the current user. And, it can be created by de-identifying other users than the current user.
도 1a는 다양한 실시 예에 따른 운동 정보 제공 시스템을 설명하기 위한 도면이다.
도 1b는 다양한 실시 예에 따른 운동 정보 제공 시스템을 예시적으로 설명하기 위한 도면이다.
도 2는 다양한 실시 예에 따른 전자 장치의 구성을 설명하기 위한 도면이다.
도 3은 다양한 실시 예에 따른 제1 전자 장치 및 제2 전자 장치를 통해 수행되는 운동 정보 제공 방법을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 제2 인공 신경망 및 제3 인공 신경망의 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 센싱 장치에서 사용자의 영상을 수신하는 과정에서 제공되는 인터페이스의 일례를 도시하는 도면이다.
도 6는 일 실시예에 따른 제2 전자 장치가 제5 정보 중 하나인 운동 목표 달성 확률 정보를 제공하는 방식을 예시적으로 설명하기 위한 도면이다.
도 7은 다양한 실시 예에 따른 운동 정보 제공 방법의 동작을 설명하기 위한 도면이다.
도 8a는 인공 신경망을 이용한 딥러닝 연산 방법을 설명하기 위한 도면이다.
도 8b는 일 실시예에 따른 인공 신경망 모델의 학습 및 추론 방법을 설명하기 위한 도면이다.1A is a diagram for explaining an exercise information providing system according to various embodiments.
1B is a diagram for explaining an exercise information providing system according to various embodiments by way of example.
2 is a diagram for explaining a configuration of an electronic device according to various embodiments.
3 is a diagram for explaining a method of providing exercise information performed through a first electronic device and a second electronic device according to various embodiments.
4 is a diagram for explaining operations of a second artificial neural network and a third artificial neural network according to an embodiment.
5 is a diagram illustrating an example of an interface provided in a process of receiving a user's image in a sensing device according to an exemplary embodiment.
6 is a diagram for illustratively explaining a method of providing exercise goal attainment probability information, which is one of fifth information, by a second electronic device according to an embodiment.
7 is a diagram for explaining the operation of a method for providing exercise information according to various embodiments.
8A is a diagram for explaining a deep learning operation method using an artificial neural network.
8B is a diagram for explaining a learning and reasoning method of an artificial neural network model according to an embodiment.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are only illustrated for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention These may be embodied in various forms and are not limited to the embodiments described herein.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the concept of the present invention can apply various changes and can have various forms, so the embodiments are illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosures, and includes modifications, equivalents, or substitutes included in the spirit and scope of the present invention.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component, for example, without departing from the scope of rights according to the concept of the present invention, a first component may be named a second component, Similarly, the second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle. Expressions describing the relationship between components, such as "between" and "directly between" or "directly adjacent to" should be interpreted similarly.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but one or more other features or numbers, It should be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't
본 명세서에서의 모듈(module)은 본 명세서에서 설명되는 각 명칭에 따른 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다.A module in this specification may mean hardware capable of performing functions and operations according to each name described in this specification, or may mean computer program code capable of performing specific functions and operations, , or an electronic recording medium loaded with computer program codes capable of performing specific functions and operations, for example, a processor or a microprocessor.
다시 말해, 모듈이란 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.In other words, a module may mean a functional and/or structural combination of hardware for implementing the technical concept of the present invention and/or software for driving the hardware.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these examples. Like reference numerals in each figure indicate like elements.
도 1a는 다양한 실시 예에 따른 운동 정보 제공 시스템을 설명하기 위한 도면이다.1A is a diagram for explaining an exercise information providing system according to various embodiments.
도 1a를 참조하면, 운동 정보 제공 시스템(100)은 제1 전자 장치(110), 제2 전자 장치(120), 센싱 장치(200) 및 사용자 단말(300)을 포함할 수 있다. Referring to FIG. 1A , an exercise
다양한 실시 예에 따라, 제1 전자 장치(110)는 스마트폰, 미니 PC, 태블릿 PC, 휴대용 멀티미디어 장치 등을 포함할 수 있으며, 제2 전자 장치(120)는 퍼스널 컴퓨터, 서버 등을 포함할 수 있다. 전술한 제1 전자 장치(110) 및 제2 전자 장치(120)의 일례는 예시적인 것에 불과할 뿐, 연산 처리가 가능한 임의의 전자 장치로 제1 전자 장치(110) 및 제2 전자 장치(120)가 구현될 수 있다.According to various embodiments, the first
제1 전자 장치(110)는 센싱 장치(200)로부터 수신한 데이터에 대한 1차적인 연산을 수행하는 장치로, 제2 전자 장치(120)에 비해 적은 부하의 연산이 수행될 수 있다. 이에 따라, 제1 전자 장치(110)는 제2 전자 장치(120)에 비해 적은 연산 능력을 가지는 전자 장치로 구현될 수 있다.The first
다양한 실시 예에 따라, 제1 전자 장치(110)는 센싱 장치(200)로부터 센싱 정보를 수신할 수 있다.According to various embodiments, the first
다양한 실시 예에 따라, 센싱 장치(200)는, 피트니스 센터 내 배치된 영상 획득 장치, RFID 태그 장치, 발판 압력 센서 등과 같은 임의의 센서 중 적어도 하나를 포함할 수 있다. 영상 획득 장치는 개별 운동 기구에 배치되거나, 천장을 포함한 피트니스 센터 내 임의의 영역에 배치된 카메라를 포함할 수 있고, 영상 획득 장치는 피트니스 센터 내의 사용자들의 영상을 실시간으로 획득할 수 있다. 구현 예에 따라서, 영상 획득 장치는 사용자의 전면 영상을 획득하는 전면 영상 획득부 및 사용자의 측면 영상을 획득하는 측면 영상 획득부(예시에 따라 추가적인 영상 획득부를 포함할 수도 있다.)를 포함하는 구조로 구현될 수 있으며, 획득한 영상을 사용자에게 디스플레이하는 디스플레이(또는 키오스크)와 결합된 형태일 수도 있다. 또한, RFID 태그 장치는 개별 운동 기구에 배치되어 개별 사용자의 태깅을 통해 개별 사용자가 피트니스 센터 내에서 사용하는 운동 기구 및 운동과 관련된 특징(종류, 중량 등)에 대한 정보를 수집할 수 있다.According to various embodiments, the
다양한 실시예에 따라, 센싱 장치(200)는 사용자의 영상, 바닥에 배치된 압력 센서를 통해 측정한 사용자의 무게 정보, RFID 태깅 정보 및 임의의 센서를 통해 수집된 정보 등을 포함하는 센싱 정보가 획득되면, 획득한 센싱 정보를 제1 전자 장치(110)에 전송할 수 있다.According to various embodiments, the
다양한 실시예에 따라, 제1 전자 장치(110)는 센싱 정보를 수신하면, 센싱 정보에 대응되는 사용자를 식별하고, 제2 전자 장치(120)와 연계하여 식별된 사용자에게 운동 정보를 제공할 수 있다. 예를 들어, 피트니스 센터의 회원인 A가 벤치 프레스를 사용하는 상황에서, 센싱 장치(200)는 A의 영상을 획득하여 제1 전자 장치(110)에 전송하고, 제1 전자 장치(110)는 A의 영상에 기초하여 A를 식별하고, 식별된 A에게 운동 정보를 제공할 수 있다. 운동 정보는 A의 사용자 단말(300) 혹은 운동 기구에 배치된 센싱 장치(200)에 구비된 디스플레이 등으로 제공될 수 있다. 운동 정보는 사용자의 운동량에 대한 정보, 사용자에게 맞는 운동법, 운동 루틴, 목표 날짜 내에 목표 체지방량 및 목표 근육량을 달성할 확률 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니고, 센싱 정보 분석에 기초하여 제공할 수 있는 임의의 운동 정보를 포함할 수 있다.According to various embodiments, upon receiving sensing information, the first
일 실시예에 따르면, 제1 전자 장치(110)는 사용자 얼굴이 나타난 영상으로부터 현재 사용자의 얼굴을 식별하고, 영상 내 다른 사용자의 얼굴을 비식별화 처리하도록 미리 학습된 제1 인공 신경망에 센싱 정보(개별 사용자를 촬영한 영상)를 입력함으로써, 영상 내에 포함된 다른 사용자의 프라이버시를 보호할 수 있다. 비식별화 처리는 영상을 통해 다른 사용자를 식별할 수 없도록 하는 임의의 영상 처리를 포함할 수 있으며, 예를 들어, 다른 사용자의 얼굴에 대한 블러 처리, 모자이크 처리, 캐릭터 대체 처리 등을 포함할 수 있다. 실시예에 따라서, 제1 인공 신경망은 카메라에 가장 가까운 것으로 인식된 사용자를 현재 사용자로 결정하고, 나머지 사용자에 대한 비식별화 처리를 수행할 수 있으며, 다른 실시예에 따르면, 현재 사용자에 대한 등록 절차를 통해, 기등록된 현재 사용자 이외의 사용자를 비식별화처리할 수도 있다. 예를 들어, 제1 전자 장치(110)는 제1 전자 장치(110)에 대한 로그인시 가장 가까운 얼굴을 인식하고, 인식된 얼굴을 추적하여, 인식된 얼굴 이외의 얼굴을 블러 처리함으로써, 앞서 설명된 비식별화처리를 수행할 수 있다. 제1 전자 장치(110)는 제1 인공 신경망에 기초한 영상 처리가 완료된 데이터를 제2 전자 장치(120)에 전송할 수 있다. 이를 통해 제2 전자 장치(120)는 비식별화가 완료된 데이터에 기반한 분석을 수행할 수 있을 뿐, 원본 영상을 확인할 수 없는 바, 현재 사용자 외 다른 사용자들의 프라이버시가 높은 수준으로 보호될 수 있다. 실시예에 따라서, 제1 전자 장치(110)의 연산 능력이 충분하지 않은 경우, 제1 인공 신경망에 기초한 비식별화 처리는 제2 전자 장치(120)를 통해 직접 수행될 수도 있다. 이 경우, 제2 전자 장치(120)는 제1 인공신경망에 기초한 비식별화 처리 및 이후 일련의 프로세스를 수행할 수 있다.According to an embodiment, the first
또한, 제2 전자 장치(120)는 앞선 비식별화 과정에서 현재 사용자 식별 결과에 기초하여, 실시간으로 현재 사용자가 수행하는 운동과 관련된 운동 정보를 생성하고, 생성된 운동 정보를 현재 사용자에게 제공하거나 데이터베이스화할 수 있다.In addition, the second
사용자가 마스크를 착용하고 있거나 학습이 고도화되지 않은 경우, 제1 인공 신경망의 인식 성능이 저하될 수 있는 바, 제1 전자 장치(110)는 개별 운동 기구에 배치된 RFID 판독기와 개별 사용자에게 배치되는 태그를 통해 수집된 정보를 이용하여 개별 사용자를 식별함으로써, 위 이슈에 대한 해결책을 제공할 수 있다.If the user is wearing a mask or the learning is not advanced, the recognition performance of the first artificial neural network may be degraded. A solution to the above issue can be provided by identifying individual users using information collected through tags.
다양한 실시 예에 따라, 제1 전자 장치(110) 및 제2 전자 장치(120)의 세부적인 동작은 이하 첨부되는 도면을 통해 보다 상세하게 설명하기로 한다.According to various embodiments, detailed operations of the first
도 1b는 다양한 실시 예에 따른 운동 정보 제공 시스템을 예시적으로 설명하기 위한 도면이다.1B is a diagram for explaining an exercise information providing system according to various embodiments by way of example.
도 1b를 참조하면, 운동 정보 제공 시스템(100)은 제1 전자 장치(110), 제2 전자 장치(120), 센싱 장치(200) 및 사용자 단말(300)을 포함할 수 있다.Referring to FIG. 1B , the exercise
제시된 예시에서, 제1 전자 장치(110)는 연산 능력이 비교적 작아도 사용자 인식 및 비식별화 처리에 문제가 없는 미니 PC로 구현되며, 제2 전자 장치(120)는 사용자 및 운동기구의 움직임 분석이 가능한 클라우드 서버로 제1 전자 장치(110)에 비해 연산 능력이 큰 장치로 구현될 수 있다. 제시된 예시에서 센서 장치(200)는 2채널 카메라와 촬영 상황을 디스플레이하는 터치 스크린이 결합된 형태로 구현될 수 있다. 제1 전자 장치(110)는 영상으로부터 현재 사용자를 식별하고, 다른 사용자의 얼굴을 비식별화처리하는 제1 인공신경망을 통해 입력 영상(제1 정보)의 비식별화 처리를 수행하여 제2 정보를 생성하고, 이를 제2 전자 장치(120)에 제공할 수 있다. 제2 전자 장치(120)는 제2 정보를 토대로 제2 인공 신경망 및 제3 인공 신경망에 기초하여 사용자와 운동 기구의 움직임에 대한 정보를 획득하고, 이에 기초하여 운동 보조 정보를 생성할 수 있다. 제1 인공 신경망은 제2 인공 신경망에 비해 적은 연산이 필요한 바, 운동 정보 제공 시스템(100)에서 제1 전자 장치(110)는 비교적 적은 연산 능력을 가지는 컴퓨팅 장치로 구현될 수 있는 장점이 있으며, 제2 전자 장치(120)에 제공되는 정보에서 발생될 수 있는 프라이버시 이슈가 저감될 수 있다.In the presented example, the first
제2 전자 장치(120)는 수신한 제2 정보를 제2 인공신경망 및 제3 인공신경망에 입력함으로써, 이하 설명되는 운동 관련 정보를 사용자에게 제공할 수 있다. 사용자는 사용자 단말(300)를 통해 영상을 제1 전자 장치(120)에 업로드하거나 다운로드함으로써, 운동 관련 보조 정보를 획득할 수 있다. The second
도 2는 다양한 실시 예에 따른 전자 장치의 구성을 설명하기 위한 도면이다.2 is a diagram for explaining a configuration of an electronic device according to various embodiments.
도 2를 참조하면, 제1 전자 장치(110)는 메모리(111), 통신 모듈(112) 및 프로세서(113)를 포함할 수 있다. 제2 전자 장치(120)는 메모리(121), 통신 모듈(122) 및 프로세서(123)를 포함할 수 있다.Referring to FIG. 2 , the first
다양한 실시 예에 따라, 메모리(111, 121)는, 전자 장치(110, 120)의 적어도 하나의 구성요소(예: 통신 모듈(112, 122) 또는 프로세서(113, 123))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(111, 121)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.According to various embodiments, the
통신 모듈(112, 122)은 전자 장치(110, 120)와 외부 전자 장치(예: 센싱 장치(200) 또는 사용자 단말(300)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(112, 122)은 프로세서(113, 123)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(112, 122)은 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(예: 센싱 장치(200), 사용자 단말(300))와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다.The
프로세서(113, 123)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(113, 123)에 연결된 전자 장치(110, 120)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(113, 123)는 다른 구성요소(예: 메모리(111, 121) 또는 통신 모듈(112, 122))로부터 수신된 명령 또는 데이터를 휘발성 메모리에 저장하고, 휘발성 메모리에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다. 일 실시예에 따르면, 프로세서(113, 123)는 메인 프로세서(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(110, 120)가 메인 프로세서 및 보조 프로세서를 포함하는 경우, 보조 프로세서는 메인 프로세서보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서는 메인 프로세서와 별개로, 또는 그 일부로서 구현될 수 있다.The
도 3은 다양한 실시 예에 따른 제1 전자 장치 및 제2 전자 장치를 통해 수행되는 운동 정보 제공 방법을 설명하기 위한 도면이다.3 is a diagram for explaining a method of providing exercise information performed through a first electronic device and a second electronic device according to various embodiments.
도 3을 참조하면, 단계(310)에서 제1 전자 장치(110)는 센싱 장치(200)로부터 센싱 정보에 해당하는 제1 정보를 수신할 수 있다. 예를 들어, 제1 정보는 피트니스 센터에 배치된 영상 획득 장치를 통해 획득한 영상일 수 있으며, 추가로, RFID를 통해 획득한 태깅 정보, 압력 센서를 통해 획득한 사용자의 무게 정보 등 임의의 센서를 통해 획득한 정보를 더 포함할 수도 있다. 실시예에 따라서, 사용자는 제1 전자 장치(110)를 통해 운동 영상에 포함된 운동 종목/중량에 대한 라벨링을 수행할 수 있으며, 라벨링 결과는 이하 설명될 제3 인공 신경망의 고도화 및 제2 정보 생성에 활용될 수 있다.Referring to FIG. 3 , in
단계(320)에서 제1 전자 장치(110)는 제1 정보에서 현재 사용자를 제외한 다른 사용자에 대한 비식별화 처리를 수행함으로써, 제2 정보를 생성할 수 있다. 제1 정보(센싱 정보)에 대한 비식별화 처리를 통해 제2 정보를 생성하는 구체적인 방식은 앞선 도 1을 통해 설명한 방식과 동일할 수 있다. 제1 전자 장치(110)는 생성된 제2 정보를 제2 전자 장치(120)에 전송할 수 있다.In
단계(330)에서 제2 전자 장치(120)는 미리 학습된 인공신경망을 활용하여 제2 정보로부터 현재 사용자의 움직임 정보와 관련된 제3 정보 및 현재 사용자가 사용하고 있는 운동 기구와 관련된 제4 정보를 생성할 수 있다. 보다 구체적으로, 제2 전자 장치(120)는 입력된 영상 내의 개별 사용자의 포즈를 추정하도록 미리 학습된 제2 인공 신경망에 기초하여 현재 사용자의 움직임 정보를 포함하는 제3 정보를 생성할 수 있다. 제2 인공 신경망은 운동의 종류별로 구별되어 사용자의 포즈를 추정하도록 학습될 수 있다. 제2 인공 신경망은 예시적으로 스켈레톤 기반 포즈 추정 방법을 개시하고 있는 참고문헌 (Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields, Zhe Cao, Tomas Simon외 2017)의 방식을 참고하여 사용자의 포즈를 추정하도록 구현될 수 있으나, 제2 인공 신경망 학습 방식은 이에 한정되는 것은 아니고 인공 신경망을 이용하여 포즈를 추정하는 임의의 방식을 통해 구현될 수 있다.In
제2 전자 장치(120)는 제3 정보에 기초하여 카운팅 정보(제5 정보)(예를 들어, 개별 운동을 반복한 횟수에 대한 정보)를 생성할 수 있다. 예를 들어, 제2 전자 장치(120)는 스쿼트를 수행하는 사용자의 무릎 각도가 소정의 임계 조건(예를 들어, 무릎 각도가 100도 이내의 각도를 형성하는 지 여부 등)을 만족하는 지 여부에 기초하여 카운팅 정보를 생성할 수 있다. 제2 인공 신경망은 스쿼트 이외에도 임의의 운동에 대한 포즈를 추정하도록 운동 별로 별개로 학습될 수 있으며, 제2 전자 장치(120)는 각각의 운동에 대응하는 제2 인공 신경망에 기초하여 카운팅 정보를 생성할 수 있다.The second
또한, 제2 전자 장치(120)는 미리 학습된 인공신경망을 활용하여 제2 정보로부터 현재 사용자가 사용하는 운동 기구와 관련된 제4 정보를 생성할 수 있다. 보다 구체적으로, 제2 전자 장치(120)는 입력된 영상 내의 개별 사용자가 사용하는 운동 기구를 식별하고, 식별된 운동 기구의 중량 정보를 생성하고, 운동 기구의 움직임 정보를 추정하도록 미리 학습된 제3 인공 신경망에 기초하여 제4 정보를 생성할 수 있다. 중량 정보는 개별 운동에 활용되는 원판, 바벨, 바 등 운동 기구의 무게에 대한 정보일 수 있으며, 움직임 정보는 운동 기구의 이동 궤적, 이동 거리를 포함하는 움직임에 대한 정보를 포함할 수 있다. 예를 들어, 제3 인공 신경망은 제2 정보에서 운동 기구를 인식하고, 운동 기구에 대한 중량 정보를 생성하는 제3-1 인공 신경망 및 식별된 운동 기구의 움직임(포즈) 정보를 생성하는 제3-2 인공 신경망을 포함할 수 있다. 제3-1 인공 신경망은 CNN(convolution Neural Network)에 기초하여 구현될 수 있으며, 제3-2 인공 신경망은 앞서 예시적으로 스켈레톤 기반 움직임 추정 방식으로 구현될 수 있다. 제3-1 인공 신경망을 학습시키기 위한 학습 데이터(예를 들어, 운동 기구가 포함된 영상)는 운동 기구(예를 들어, 원판, 바벨 등)가 무게 별로 서로 다른 색상 및 크기로 구현된 형태일 수 있으며, 중량 별 운동 기구의 특징(Feature)의 차이가 커지므로, 제3-1 인공 신경망의 예측 성능이 향상될 수 있다. 또한, 제2-2 인공 신경망은 운동 기구의 힘점 및 중량부(예를 들어, 원판)에 노드가 라벨링된 영상을 학습 데이터로 하여 스켈레톤 모델을 통해 운동 기구의 움직임에 따른 포즈를 추정하도록 학습될 수 있다. 예를 들어, 제2-2 인공 신경망을 학습하기 위한 학습데이터는 이하 첨부될 도 4와 같이 도시될 수 있으며, 앞서 설명된 스켈레톤 모델 기반 포즈 추정 방식에 기초하여 운동기구의 움직임이 추정될 수 있다In addition, the second
제2 전자 장치(120)는 생성된 제4 정보에 기초하여 카운팅 정보(제5 정보)(예를 들어, 바벨의 움직임에 따른 스쿼트 횟수 카운팅 등)를 생성할 수도 있다. 예를 들어, 미리 설정된 특정 포즈에 도달하는지 여부에 기초하여 제4 정보에 기초한 카운팅 정보가 생성될 수 있다.The second
앞선 예시에서 제3-1 인공 신경망과 제3-2 인공 신경망이 구별되며, 별도로 학습되는 방향으로 설명이 되었으나, 실시예는 이에 한정되는 것이 아니고, 단일 신경망에 기초하여 제2 인공 신경망이 구현될 수 있음은 통상의 기술자가 이해할 것이다.In the previous example, the 3-1 artificial neural network and the 3-2 artificial neural network were distinguished and described in the direction of learning separately, but the embodiment is not limited thereto, and the second artificial neural network is implemented based on a single neural network. It will be appreciated by those skilled in the art.
단계(340)에서 제2 전자 장치(120)는 생성된 제3 정보 및 제4 정보를 외부 엔티티에 제공할 수 있다. In
제2 전자 장치(120)는 제3 정보 및 제4 정보를 토대로 사용자의 운동을 보조할 수 있는 보조 정보인 제5 정보를 생성하여 제공할 수 있다.The second
제5 정보는, 개별 운동의 반복 횟수를 포함하는 카운팅 정보, 운동량 정보,운동량/식사량 변화에 따른 체성분 변화 예측 추이에 대한 정보, 목표 체중 등에 도달할 수 있는 확률에 대한 정보 등 운동 및 그 성과와 관련된 임의의 정보를 포함할 수 있다.Fifth information is information related to exercise and its performance, such as counting information including the number of repetitions of individual exercises, information on exercise amount, information on prediction trend of body composition changes according to exercise/meal changes, and information about probability of reaching a target weight, etc. It may contain any relevant information.
제2 전자 장치(120)는 현재 사용자의 특징 정보를 더 고려하여 제5 정보를 생성할 수 있다. 예를 들어, 특징 정보는 사용자의 나이, 성별, 신장, 몸무게, 전체 근육량, 부위별 근육량, 체지방량, 부상 여부, 목표 체중, 목표 근육량 및 목표 체지방량, 목표 달성 시점, 신체 성향(예를 들어, 내배엽, 중배엽, 외배엽 등)에 대한 정보 중 적어도 하나를 포함할 수 있다.The second
제2 전자 장치(120)는 앞서 획득된 제3 정보 및 제4 정보에 기초하여 현재 사용자의 운동량 정보를 생성할 수 있다. 보다 구체적으로, 제2 전자 장치(120)는 앞서 획득한 제3 정보를 토대로 산출된 개별 운동을 반복한 횟수를 산출한 카운팅 정보, 상기 제4 정보를 토대로 산출된 운동 기구의 중량 정보를 토대로 운동량 정보를 생성할 수 있다.The second
실시예에 따라서, 제2 전자 장치(120)는 카운팅 정보가 아닌, 현재 사용자의 실제 움직임(예를 들어, 무게 중심의 이동 거리 정보)과 운동 기구의 실제 움직임(예를 들어, 무게 중심의 이동 거리 정보)을 토대로 운동량 정보를 산출함으로써, 보다 정확도 높은 운동량에 대한 정보를 사용자에게 제공할 수 있다.According to an embodiment, the second
이동 거리 정보는 운동에 사용되는 운동 기구의 무게 중심 및 사용자의 무게 중심이 이동한 거리에 대한 이동 거리에 대한 정보로, 운동 종류에 따라 중력 방향 이동거리에 기초하여 산출될 수 있다. 제2 전자 장치(120)는 앞서 획득한 사용자의 포즈에 대한 제3 정보 및 운동기구의 포즈에 대한 제4 정보에 기초하여 사용자 및 운동 기구의 무게 중심의 이동 거리 정보를 획득할 수 있다. 예를 들어, 사용자가 스쿼트를 하는 경우에 10회가 카운팅 되더라도 개별 카운팅에서 실제 운동기구(바 등)이 이동한 거리는 상이할 수 있다. 상이한 이동 거리는 운동량 측정에 영향을 미칠 수 있는 바, 제2 전자 장치(120)는 운동량 정보를 산출하는 과정에서 이동 거리 정보를 반영할 수 있다.The movement distance information is information about a movement distance for a movement distance between a center of gravity of an exercise device used for exercise and a center of gravity of a user, and may be calculated based on a movement distance in a direction of gravity according to an exercise type. The second
일 실시예에 따르면, 제2 전자 장치(120)는 수학식 1에 기초하여 운동량 정보를 산출할 수 있다.According to an embodiment, the second
는 운동량 정보, 는 중량 정보, 는 중력 가속도, 는 이동 거리 정보를 의미할 수 있다. 제2 전자 장치(120)는 앞선 수학식 1을 사용자 및 운동 기구 각각에 적용하여 사용자의 운동량에 대한 I1 및 운동기구의 운동량에 I2 를 개별적으로 산출하여 합산함으로써, 운동량에 산출의 정확도를 향상시킬 수 있다. is the momentum information, is the weight information, is the gravitational acceleration, may mean movement distance information. The second
다른 실시예에 따르면, 제2 전자 장치(120)는 사용자와 운동기구 전체에 대한 무게 중심을 산출하고, 해당 무게 중심의 이동거리에 기초하여 운동량을 산출할 수도 있다. 예를 들어, 제2 전자 장치(120)는 수학식 2에 기초하여 사용자 및 운동기구 전체에 대한 무게 중심의 위치를 결정할 수 있다.According to another embodiment, the second
는 사용자와 운동기구 전체의 무게 중심, 는 사용자의 체중, 는 사용자의 무게 중심의 위치, 는 운동기구의 중량, 는 운동기구의 무게 중심일 수 있다. is the center of gravity of the user and the entire exercise equipment, is the user's weight, is the position of the user's center of gravity, is the weight of the exercise equipment, May be the center of gravity of the exercise equipment.
사람 및 운동 기구의 무게 중심점의 경우, 앞서 설명된 바닥에 배치된 압력 센서의 센싱 정보와 제2 인공 신경망을 통해 산출된 포즈 예측 정보, 제3 인공 신경망을 통해 산출된 포즈 예측 정보가 조합되어 산출될 수 있다.In the case of the center of gravity of a person and an exercise machine, the sensing information of the pressure sensor disposed on the floor described above, the pose prediction information calculated through the second artificial neural network, and the pose prediction information calculated through the third artificial neural network are combined and calculated. It can be.
스쿼트와 같은 프리웨이트 운동에서는 앉았다가 일어나는 상황에서 지면을 뒷꿈치 방향으로 미는 느낌으로 무게 중심을 뒤에 두고 일어나는 것이 운동 효과와 안전성에 있어서 중요한 바, 스쿼트에 대한 분석을 위한 제2 인공 신경망의 경우, 발목 노드 뿐만 아니라, 뒷꿈치(힐) 및 앞꿈치(토)까지 별도의 노드를 부여한 제2 인공 신경망이 활용될 수 있다. In free weight exercises such as squats, it is important for the exercise effect and safety to stand up with the center of gravity behind with the feeling of pushing the ground in the direction of the heel in a situation where you stand up after sitting down. In the case of the second artificial neural network for analysis of squats, ankle In addition to the node, a second artificial neural network to which separate nodes are assigned to the heel (heel) and the forefoot (toe) may be utilized.
또 다른 실시예에 따르면, 운동량 정보는 중량 정보와 카운팅 정보가 매핑된 형태로 산출될 수 있다. 예를 들어, 제2 전자 장치(120)는 스쿼트를 하는 사용자에 대하여, 100kg의 중량으로 10회 스쿼트를 수행하는 것으로 운동량 정보를 결정할 수도 있다.According to another embodiment, the momentum information may be calculated in a form in which weight information and counting information are mapped. For example, the second
스트레칭 또는 맨몸 운동의 경우, 제3 정보에 포함된 현재 사용자의 움직임 정보에 기초하여 운동량 정보가 산출될 수 있다. 런닝머신, 사이클과 같은 유산소 운동의 경우, 앞서 설명된 사용자의 움직임 정보에 기초하여 운동량 정보가 산출될 수 있다. 예를 들어, 움직임 속도에 기초하여 스트레칭, 맨몸 운동, 유산소 운동의 운동량에 대한 운동량 정보가 산출될 수 있다.In the case of stretching or bare-body exercise, exercise amount information may be calculated based on motion information of the current user included in the third information. In the case of aerobic exercise such as running on a treadmill or cycling, momentum information may be calculated based on the user's motion information described above. For example, based on the movement speed, information on the amount of exercise for stretching, bare-body exercise, and aerobic exercise may be calculated.
또한, 각각의 운동 기구에 배치된 계측 장치(예를 들어, 심박수 측정 장치)를 통해 획득한 계측 정보에 기초하여 운동량 정보가 산출될 수도 있다. 계측 정보 그 자체가 운동량 정보로써 산출되거나, 일부 오차 보정 프로세스를 통해 운동량 정보가 산출될 수 있다.In addition, exercise amount information may be calculated based on measurement information obtained through a measurement device (eg, a heart rate measurement device) disposed in each exercise device. Measurement information itself may be calculated as momentum information, or momentum information may be calculated through some error correction process.
운동량 정보는 앞서 설명된 정보 이외에도 동작을 수행한 시간에 대한 정보, 세트 별 휴식 시간에 대한 정보, 운동 부위에 대한 정보, 유산소 운동인지 여부에 대한 정보, 소모 칼로리에 대한 정보, 운동 강도에 대한 정보를 부가정보로써 더 포함할 수 있다.In addition to the information described above, exercise amount information includes information on the time during which an action was performed, information on rest time for each set, information on the exercise part, information on whether or not it is aerobic exercise, information on calories consumed, and information on exercise intensity. may be further included as additional information.
제2 전자 장치(120)는 사용자의 섭취 칼로리 정보를 획득할 수 있으며, 이는 사용자 단말(300)로부터 수신한 사용자의 섭취 음식 이미지에 대한 분석에 기초하여 산출될 수 있다. 일 실시예에 따르면, 제2 전자 장치(120)는 음식 이미지에 기초하여 칼로리를 산출하도록 미리 학습된 제4 인공 신경망에 사용자 단말(300)로부터 수신한 섭취 음식 이미지를 입력함으로써, 섭취 칼로리 정보를 획득할 수 있다. 섭취 칼로리 정보는 사용자 단말(300)을 통한 사용자 입력에 기초하여 적합한 수치로 수정될 수 있다. 섭취 칼로리 정보는 전체 칼로리 정보 이외에도, 성분별(탄수화물, 단백질, 지방) 칼로리 정보의 형태로 산출될 수도 있다.The second
다른 실시예에 따르면, 섭취 칼로리 정보는 음식을 제공하는 업체에서 미리 결정된 수치로 제공될 수도 있다. 예를 들어, 사용자가 특정 기업의 구내 식당의 점심 메뉴를 섭취한 경우, 제2 전자 장치(120)는 구내 식당 점심 메뉴에 대해 미리 결정된 칼로리 정보를 외부 서버로부터 수신하고, 수신한 정보에 기초하여 섭취 칼로리 정보를 획득할 수 있다.According to another embodiment, the calorie intake information may be provided as a numerical value previously determined by a company providing food. For example, when a user consumes a lunch menu of a cafeteria of a specific company, the second
앞서 설명된 보조 정보인 제5 정보는 시계열적으로 누적되어 데이터베이스화될 수 있다. 데이터베이스화된 정보를 통해 개별 사용자의 특징 정보, 운동량 정보, 섭취 칼로리 정보가 시간대 별로 조회될 수 있다.Fifth information, which is the auxiliary information described above, may be time-sequentially accumulated and stored in a database. Through the databased information, individual user's characteristic information, exercise amount information, and calorie intake information can be inquired for each time period.
제2 전자 장치(120)는 사용자 특징 정보, 운동량 정보 및 섭취 칼로리 정보 중 적어도 하나에 기초하여 사용자가 미리 설정한 기간 내에 목표 체지방 및 목표 근육량을 달성할 확률 정보를 생성할 수 있다. 제5 정보는 앞서 설명된 확률 정보 외에도, 목표 도달을 위해 기간별 요구되는 운동량에 대한 정보, 기간별 권장 칼로리 섭취량에 대한 정보, 추천 운동 루틴에 대한 정보를 더 포함할 수 있다. 제5 정보는 현재 상태에서 운동이 부족한 신체 부위에 대한 정보를 더 포함할 수 있다.The second
예를 들어, 제2 전자 장치(120)는 특성 정보(예를 들어, 현재 체중 정보), 운동량 정보 및 칼로리 순 소비량 정보를 입력으로 하여 제5 정보를 출력하도록 미리 학습된 제5 인공 신경망에 기초하여 제5 정보를 생성할 수 있다. 제5 인공 신경망을 활용하는 방식은 이하 첨부될 도 6을 토해 보다 상세히 설명된다.For example, the second
앞서 설명된 사용자 특징 정보, 운동량 정보 및 섭취 칼로리 정보 및 운동보조 정보를 포함하는 제5 정보는 전자 장치(100)와 연동된 저장 장치에 데이터베이스화될 수 있으며, 운동 기구에 배치된 디스플레이, 사용자의 사용자 단말(300)을 통해 제공될 수 있다. 제공되는 데이터의 형태는 텍스트/음성 등 임의의 형태로 구현될 수 있다. 제공되는 데이터는 퍼스널 트레이닝을 대체할 수 있는 임의의 제공 방식으로 구현될 수 있음은 통상의 기술자가 이해할 것이다. 예를 들어, 운동량 정보는 운동 정보 제공 시스템을 이용하는 전체 사용자 내에서의 위치를 백분위의 형태로 제공될 수 있으며, 사용자의 체지방량, 근육량과 관련된 사용자의 특징 정보의 변화 추이는 그래프 및 차트 형태로 표현되어 제공될 수도 있고, 실시간 운동에 대한 카운팅 정보, 자세 교정에 대한 보조 정보가 텍스트/ 음성 등으로 제공될 수 있다.Fifth information including user characteristic information, exercise amount information, calorie intake information, and exercise assistance information described above may be databased in a storage device linked with the
또한, 제2 전자 장치(120)는 사용자의 운동 패턴 또는 심박수에 대응하는 추천 음악 정보를 제공할 수 있다.Also, the second
예를 들어, 제2 전자 장치(120)는 개별 운동 동작의 1/(주기)와 배수 관계에 있는 BPM(Beat Per Minute)에 대응되는 음악을 추천 음악 정보로 제공할 수 있다. 유사하게, 제2 전자 장치(120)는 사용자의 1/(심박수)와 배수 관계에 있는 BPM에 대응되는 음악을 추천 음악 정보로 제공할 수 있다.For example, the second
또한, 제2 전자 장치(120)는 현재 수행중인 운동의 운동 강도(운동량 정보)가 강할수록 보다 빠른 BPM에 대응되는 음악을 추천 음악 정보로 제공할 수 있다.In addition, the second
제2 전자 장치(120)는 센싱 정보로부터 사용자가 실제로 운동을 수행하는 시점에 대응되는 실제 운동 영상을 획득하고, 실제 운동 영상을 사용자에게 제공할 수 있다.The second
센싱 정보를 통해 수집되는 영상은 사용자가 운동을 수행하는 시점뿐만 아니라, 사용자가 운동을 수행하지 않는 시점의 영상을 포함할 수 있다. 제2 전자 장치(120)는 사용자의 움직임(포즈)에 대한 제3 정보를 토대로, 전체 영상 중 사용자가 실제 운동을 시작하는 시작 시점 및 실제 운동을 종료하는 종료 시점을 인식하고, 시작 시점 및 종료 시점에 기초하여 실제 운동 영상을 획득하고, 실제 운동 영상을 서버 혹은 사용자 단말에 제공할 수 있다. 예를 들어, 스쿼트와 같이 특정 동작을 반복하는 운동의 경우, 제2 전자 장치(120)는 현재 사용자가 운동을 시작하는 시점부터 운동을 종료하는 시점까지의 영상을 편집하여 제공하되, 중간에 휴식을 취하는 부분의 영상을 제거한 편집 영상을 현재 사용자에게 제공할 수 있다.Images collected through sensing information may include images of a time when the user performs an exercise as well as a time when the user does not exercise. The second
다른 예시에서, 제2 전자 장치(120)는 촬영된 운동 영상이 미리 설정된 임계치(예를 들어, 1분)를 초과하는 경우, 영상의 초반부(초반 1/3 분량), 중반부(중반 1/3 분량) 및, 후반부(후반 1/3 분량) 각각에 대해 미리 설정된 비율로 영상의 길이를 조절할 수 있다. 보다 구체적으로, 미리 설정된 임계치가 1분이고, 촬영된 영상이 90초 분량이며, 초반부/중반부/후반부에 대해 설정된 비율이 30%/40%/30%일 경우, 제2 전자 장치(120)는 촬영된 영상의 초반부에서 9초, 중반부에서 12초, 후반부에서 9초 분량을 줄이는 편집을 수행할 수 있다. 편집은 영상 속도를 조절하는 방식, 또는 휴식을 취하는 분량을 제거하는 방식 등 임의의 방식에 기초하여 수행될 수 있다.In another example, when the captured exercise image exceeds a preset threshold (eg, 1 minute), the second
앞선 예시를 구현하는 과정에서 제2 전자 장치(120)는 제2 인공 신경망 및 제3 인공 신경망을 통해 획득한 현재 사용자와 운동기구의 움직임에 대한 정보에 기초하여 현재 사용자가 중량을 로딩(바벨/덤벨 등의 중량 운동 기구를 짊어진 것)을 인식하고, 중량을 디로딩(중량 운동 기구를 내려 놓음)을 인식할 수 있다. 제2 전자 장치(120)는 중량을 로딩하는 시점을 운동을 시작하는 시작 시점으로 인식하고, 중량을 디로딩하는 시점을 운동을 종료하는 종료 시점으로 인식할 수 있다. 제2 전자 장치(120)는 인식된 시작 시점 및 종료 시점에 대응되는 실제 운동 영상을 획득하고, 실제 운동 영상을 데이터베이스에 저장하거나 사용자 단말에 제공할 수 있다.In the process of implementing the previous example, the second
다른 실시예에 따르면, 제2 전자 장치(120)는 바닥에 배치된 압력 센서와 연동하여 운동의 시작과 운동의 종료를 감지할 수 있다. 보다 구체적으로, 운동 기구가 있는 바닥에 배치된 압력 발판 센서를 통해 사용자의 체중보다 소정의 임계치(예를 들어 20kg) 이상 무게가 증가하는 경우 운동이 시작된 것으로 결정하고, 같은 방식으로 소정의 임계치 이상 무게가 감소하는 경우 운동이 종료된 것으로 결정할 수 있다. According to another embodiment, the second
또한, 제2 전자 장치(120)는 사용자에게 적합한 운동 영상 추천 정보를 더 제공할 수 있다. 보다 구체적으로, 제2 전자 장치(120)는 현재 사용자의 특징 정보에 기초하여 현재 사용자와 유사한 특징을 가지는 사람을 타겟으로 하는 운동 영상을 추천 정보로써 제공하거나, 현재 사용자의 운동량 정보에 기초하여 유사한 운동량이 산출될 것으로 예상되는 운동과 관련된 운동 영상에 기초하여 운동 영상 추천 정보를 제공할 수 있다.In addition, the second
또한, 제2 전자 장치(120)는 미리 저장된 교습자의 운동 영상인 가이드 영상을 사용자의 운동 영상에 오버랩하여 제공할 수 있다. 앞서 설명된 제2 인공 신경망 및 제3 인공 신경망을 활용하여, 사용자의 운동 영상에서 추출된 노드들과 미리 저장된 교습자의 운동 영상에서 추출된 노드를 매칭하여 상호 운동 진행을 오버랩한 영상을 제공할 수 있다. 이를 통해 사용자의 운동의 각 단계에서 교습자와의 자세의 차이를 실시간으로 인지할 수 있다. 예를 들어, 사용자의 운동 영상에 교습자의 운동 영상이 오버랩되어(예를 들어, 교습자의 영상에 소정 수준의 투명도를 부여하여 오버랩 할 수 있음), 제공됨으로써, 특정 자세(예를 들어, 스쿼트 진행시 무릎이 굽혀지는 각도, 엉덩이와 다리의 각도 등)의 문제점을 효과적으로 인식할 수 있다. 실시예에 따라서는 중요 요소들 사용자와 교습자의 차이에 대한 정보를 영상과 함께 제공함으로써, 사용자가 개선이 필요한 영역을 실시간으로 확인할 수 있는 수단이 제공될 수 있다. In addition, the second
또한, 제2 전자 장치(120)는 앞서 설명된 교습자의 운동 영상을 사용자의 운동 영상에 오버랩하여 제공하는 과정에서, 실시간 자세 개선점에 대한 알림을 제공할 수도 있다. 예를 들어, 스쿼트를 수행하는 과정에서, 무릎이 발끝 앞으로 나가는 정도가 운동 효과 및 안전성에 중요한 경우, 제2 전자 장치(120)는 무릎이 발끝 앞으로 소정 임계치 이상 나가는 경우, 이에 대한 알림을 제공할 수 있으며, 이외에도 최종 자에서 무릎의 각도 등에 대한 알림을 제공할 수도 있다. 제시된 예시에서는 설명을 위하여 스쿼트에 한정하여 운동 영상 및 알림이 제공되는 것으로 설명되었으나, 운동의 종류에 따라 중요 요소(자세)에 대한 모니터링이 이루어질 수 있으며, 실시간 상황에 따라 알림이 제공될 수 있음은 통상의 기술자가 이해할 것이다.In addition, the second
다양한 실시예에 따르면, 특징 정보는 사용자 별 운동 성향 정보를 더 포함하고, 제2 전자 장치(120)는 운동 성향 정보에 기초하여 피트니스 센터에 진입하는 현재 사용자에게 추천 운동 경로 정보를 제공할 수 있다. 보다 구체적으로, 제2 전자 장치(120)는 센싱 정보에 기초하여 개별 사용자의 이동 경로를 트래킹함으로써, 사용자 별 운동 성향 정보를 생성할 수 있다. According to various embodiments, the feature information further includes exercise propensity information for each user, and the second
운동 성향 정보는, 예를 들어, 개별 사용자가 사용하는 운동 기구의 종류(스미스 머신, 런닝 머신, 사이클 등)에 대한 정보, 운동 루틴(운동 순서, 개별 운동에서 소요되는 시간 등)에 대한 정보를 포함할 수 있다.Exercise propensity information includes, for example, information about the type of exercise equipment (Smith machine, treadmill, cycle, etc.) used by individual users, and information about exercise routines (exercise sequence, time required for individual exercise, etc.) can include
전자 장치(120)는 센싱 정보에 기초하여 현재 개별 운동 기구의 점유 현황 정보를 결정할 수 있고, 점유 현황 정보, 현재 피트니스 센터 내에 존재하는 사용자의 운동 성향 정보 및 현재 피트니스 센터에 입장하는 현재 사용자의 운동 성향 정보에 기초하여, 현재 사용자에게 추천 운동 경로 정보를 제공할 수 있다. 보다 구체적으로, 제2 전자 장치(120)는 현재 사용자가 런닝 머신을 이용한 유산소 운동을 우선적으로 하는 운동 성향을 가진 경우, 현재 피트니스 센터의 런닝 머신 점유 현황을 고려하여 런닝 머신을 우선적으로 진행하는 방향으로 운동 경로를 추천할 수 있으나, 현재 피트니스 센터의 런닝 머신이 모두 점유 상태에 있는 경우, 사이클을 우선적인 운동 경로로 안내하거나, 런닝 머신 사용이 종료되는 시점에 대한 예측 정보를 제공할 수 있다. 현재 사용자가 유산소 운동 이후에 스미스 머신을 통한 가슴 운동을 진행하는 운동 성향을 가지는 경우, 제2 전자 장치(120)는 현재 개별 운동 기구의 점유 현황 정보, 현재 피트니스 센터 내에 존재하는 다른 사용자의 운동 성향 정보에 기초하여, 현재 사용자가 유산소 운동을 완료하는 시점에 스미스 머신의 사용 가능 여부에 대해 예측하고, 예측 결과에 기초하여 두번째 운동경로에 대한 추천 정보를 제공할 수 있다. 보다 구체적으로, 타 사용자들의 운동 성향에 비추어 현재 사용자가 유산소 운동을 마치는 시점에 스미스 머신 사용이 불가한 경우, 전자 장치(120)는 스미스 머신 이외의 벤치 프레스 운동 기구의 사용 가능성을 예측한 뒤, 사용 가능한 벤치 프레스 머신에 대한 정보를 제공할 수 있다.The
제2 전자 장치(120)는 사용자들이 서로 최대한 먼 거리를 유지하도록 추천 운동 경로 정보를 제공할 수 있다. 예를 들어, A 사용자에게 랫 풀다운(Lat Pull Down) 운동을 위한 경로를 추천하는 과정에서, 피트니스 센터 내에 존재하는 랫 풀다운 운동 기구와 다른 사용자들 사이의 거리를 측정하고, 측정된 거리를 최대화하는 랫 풀다운동 기구를 추천하는 방향으로 추천 운동 경로 정보를 제공할 수 있다.The second
앞선 실시예들에서, 제2 전자 장치(120)의 동작들은 제1 인공 신경망에 기초하여 생성된 제2 정보에 기초하여 수행되는 것으로 설명되었으나, 구현에 따라서, 제2 정보가 아닌 제1 정보를 통해서도 일련의 동작들이 수행될 수 있음은 통상의 기술자가 이해할 것이다. 보다 구체적으로, 제2 인공 신경망 및 제3 인공 신경망은 제1 정보를 입력으로하여 제3 정보 내지 제5 정보를 생성할 수 있으며, 이를 통해 앞서 설명된 일련의 프로세스들이 수행될 수도 있다.In the foregoing embodiments, operations of the second
도 4는 일 실시예에 따른 제2 인공 신경망 및 제3 인공 신경망의 동작을 설명하기 위한 도면이다.4 is a diagram for explaining operations of a second artificial neural network and a third artificial neural network according to an embodiment.
일 실시예에 따르면, 제2 인공 신경망은 앞서 설명된 제2 정보(현재 사용자외에 타사용자가 비식별화가 수행된 영상)를 입력으로하여 사용자의 움직임(포즈) 정보에 대한 제3 정보를 생성할 수 있다. 보다 구체적으로, 제2 인공 신경망은 (a)에 도시된 바와 같이, 현재 사용자의 영상으로부터 각각의 관절에 대응되는 노드(411)를 추출하고, 추출된 노드에 기초하여 분할되는 17개의 영역(412)에 기초하여 사용자의 움직임(포즈)를 추정할 수 있다. 이를 위해, 제2 인공 신경망은 각각의 노드가 라벨링된 영상을 학습 데이터로 하여 각각의 포즈를 추정하도록 학습될 수 있다.According to an embodiment, the second artificial neural network generates third information about motion (pose) information of a user by taking the above-described second information (an image for which de-identification has been performed by another user other than the current user) as an input. can More specifically, as shown in (a), the second artificial neural
일 실시예에 따르면, 제3 인공 신경망은 앞서 설명된 제2 정보(현재 사용자외에 타사용자가 비식별화가 수행된 영상)를 입력으로하여 운동 기구의 중량 정보 및 움직임(포즈) 정보에 대한 제4 정보를 생성할 수 있다. 보다 구체적으로, 제3 인공 신경망은 (b)에 도시된 바와 같이, 제2 정보로부터 운동 기구를 식별(원판 영역(421) 및 바 영역(422)을 식별하고, 원판 및 바를 인식)하고, 운동 기구의 중량 정보를 산출하는 제3-1 인공 신경망과 운동 기구의 영상으로부터 힘점(423) 및 중량부(원판)의 중심점(424)에 대응하는 노드를 추출하고, 추출된 노드에 기초하여 운동 기구의 실시간 포즈를 추정하는 제3-2 인공 신경망을 포함할 수 있다. 제3-1 인공 신경망은 각각의 영상으로부터 운동 기구의 종류 및 그 중량이 라벨링된 학습 데이터에 기초하여 학습이 이루어질 수 있으며, 제3-2 인공 신경망은 각각의 노드가 라벨링된 영상을 학습 데이터로 하여 각각의 움직임(포즈)를 추정하도록 학습될 수 있다. According to an embodiment, the third artificial neural network receives the above-described second information (an image in which de-identification has been performed by another user other than the current user) as an input, and the fourth information about the weight information and motion (pose) information of the exercise machine. information can be generated. More specifically, as shown in (b), the third artificial neural network identifies the exercise mechanism from the second information (identifies the
예시적으로, 사용자가 데드 리프트를 수행하는 영상이 제2 전자 장치(120)에 전달되는 경우, 제2 전자 장치(120)는 제3 인공 신경망을 통해, 운동 기구를 식별 및 운동 기구의 각 요소(예를 들어, 원판, 바)의 중량을 예측하여 제공하며, 운동 기구의 포즈를 각각의 노드로 구분되는 영역을 통해 구분되는 3 영역((1) 영역, (2) 영역, (3) 영역)으로 구성된 운동 기구의 움직임(포즈)를 추정할 수 있다. 제2 전자 장치(120)는 제2 인공 신경망을 통해 각각의 노드를 추출하고, 17 구분되는 영역을 통해 사용자의 실시간 움직임(포즈)를 추정할 수 있다. 제시된 예시에서, 각각의 노드라 라벨링되는 방식, 운동 기구가 식별되는 방식은 제시된 예시에 한정되는 것이 아니고, 노드는 실시예에 따라 개수 및 위치가 달리 설정될 수 있으며, 운동 기구의 종류에 따라 식별 요소 및 노드의 구조가 상이하게 구현될 수 있다. Exemplarily, when an image of a user performing a dead lift is transmitted to the second
도 5는 일 실시예에 따른 센싱 장치에서 사용자의 영상을 수신하는 과정에서 제공되는 인터페이스의 일례를 도시하는 도면이다.5 is a diagram illustrating an example of an interface provided in a process of receiving a user's image in a sensing device according to an exemplary embodiment.
앞서 설명된 바와 같이 일례에 따르면, 센싱 장치는 영상 획득 장치를 포함할 수 있으며, 영상 획득 장치는 전면 영상 획득부 및 사용자의 측면 영상을 획득하는 측면 영상 획득부를 포함하는 2개의 채널로 구성될 수 있다.제시된 도면은 센싱 장치와 연동되는 디스플레이 화면(예를 들어, 제1 전자장치(110)의 일례인 운동기구와 함께 배치된 키오스크를 통해 제공되는 화면)에 관한 것으로, 예시적으로 도시된 바와 같이, 전면 영상 획득부와 측면 영상 획득부를 통해 획득되는 영상을 실시간으로 확인할 수 있는 인터페이스가 제공될 수 있다. 해당 인터페이스는 앱을 통해 제공되는 것이 아닌, 제1 전자 장치(110)에 구비된 디스플레이를 통해 제공될 수 있다. 영상 획득 과정에서, 현재 사용자는 영상을 획득하고자 하는 운동 종목과 관련된 중량 정보를 선택하여 영상을 획득할 수 있다. 운동 종류의 경우 예시적으로 스쿼트, 데드리프트, 벤치프레스 등 임의의 헬스 운동을 포함할 수 있다. 추가적으로, 제시된 인터페이스를 통해 대기 시간을 설정할 수 있으며, 이를 통해 녹화 시작 전에 사용자가 준비를 할 수 있는 시간을 제공할 수 있는 효과를 제공할 수 있다.As described above, according to an example, the sensing device may include an image capture device, and the image capture device may include two channels including a front image capture unit and a side image capture unit for acquiring a side image of the user. The presented drawing relates to a display screen (for example, a screen provided through a kiosk disposed with an exercise device, which is an example of the first electronic device 110) linked with a sensing device, as shown by way of example. Similarly, an interface capable of checking images acquired through the front image acquisition unit and the side image acquisition unit in real time may be provided. The corresponding interface may be provided through a display provided in the first
앞선 동작을 통해서, 사용자는 획득하는 영상에 대해 운동의 종류 및 운동 중량에 대한 라벨링을 수행할 수 있으며, 라벨링 결과는 앞서 설명된 인공 신경망의 학습 및 고도화 과정에서 활용될 수 있으며, 앞서 설명된 제3 정보를 제공하는 과정에서, 라벨링 결과도 자동으로 기록되어 함께 제공될 수 있다.Through the previous operation, the user can perform labeling on the type of exercise and exercise weight on the acquired image, and the labeling result can be used in the process of learning and upgrading the artificial neural network described above. 3 In the process of providing information, labeling results can also be automatically recorded and provided together.
도 6은 일 실시예에 따른 제2 전자 장치가 제5 정보 중 하나인 운동 목표 달성 확률 정보를 제공하는 방식을 예시적으로 설명하기 위한 도면이다.6 is a diagram for illustratively explaining a method of providing exercise goal attainment probability information, which is one of fifth information, by a second electronic device according to an embodiment.
일 실시예에 따르면, 제2 전자 장치(120)는 특성 정보(예를 들어, 현재 체중정보), 운동량 정보(목표 기간 내 기 진행된 운동량) 및 순 소비 칼로리 정보(목표 기간 내 소비된 칼로리)에 기초하여 목표치 달성을 예측하도록 미리 학습된 제5 인공 신경망을 활용하여, 사용자의 운동 목표 달성 확률인 제5 정보를 제공할 수 있다. 예를 들어, 운동량 정보는 앞서 설명된 영상을 활용한 운동량 측정 혹은 앱/스마트 워치를 활용한 정보 수집에 기초하여 산출될 수 있으며, 순 소비 칼로리 정보는 앞서 설명된 영상 기반의 방식 또는 사용자의 앱을 통한 직접 입력에 기초하여 산출될 수 있다. 보다 구체적으로, 순 소비 칼로리 정보는 기초 대사량, 운동량의 합계에 기초하여 산출되는 소비량(A) 및 투입량(섭취 칼로리량)(B)의 차에 기초하여 산출될 수 있으며, 제5 인공 신경망은 주별로 산출된 운동량 정보와 더불어 주별로 산출된 순 소비 칼로리 정보를 입력으로 하여 예측 체중을 추정하도록 학습될 수 있다. 예를 들어, 제5 인공 신경망은 RNN와 같이 시계열 특화 AI 모델이 활용되거나, 다변량 시계열 모델(예를 들어, Latent ODE 등)로 구현될 수도 있다.According to an embodiment, the second
앞선 예시에서, 제5 인공 신경망에는 사용자 특성으로 현재 체중이 입력되는 것으로 설명되었으나, 구현에 따라서 특징 정보는 나이, 성별, 신장, 몸무게, 전체 근육량, 부위별 근육량, 체지방량, 부상 여부, 목표 체중, 목표 근육량 및 목표 체지방량, 목표 달성 시점, 신체 성향(예를 들어, 내배엽, 중배엽, 외배엽 등) 등이 입력되어 학습이 이루어질 수도 있다.In the previous example, it was described that the current weight is input as a user characteristic to the fifth artificial neural network, but according to implementation, feature information includes age, gender, height, weight, total muscle mass, muscle mass by part, body fat mass, whether or not injured, target weight, Learning may be performed by inputting a target muscle mass, a target body fat mass, a target achievement time point, and a physical tendency (eg, endoderm, mesodermal, ectodermal, etc.).
도 6을 참조하면, 소비량 및 투입량은 표(610)과 같이 일간 기록되어 주간 통계가 산출될 수 있으며, 표(620)와 같이 체성분에 대한 측정도 주차별로 수행되어 기록될 수 있다. 제2 전자 장치(120)는 수학식 3에 기초하여 산출된 정규화 값 및 정규 분포 모델(630)을 통해 상응하는 확률을 예측할 수 있다.Referring to FIG. 6 , consumption and input amount may be recorded daily as shown in table 610 to calculate weekly statistics, and body composition measurements may also be performed and recorded for each week as shown in table 620 . The second
는 목표 체중, 은 제5 인공 신경망의 예측 체중, z는 정규화값일 수 있다. is the target weight, is the predicted weight of the fifth artificial neural network, and z may be a normalization value.
예를 들어, 목표 체중이 82kg이고, 제5 인공 신경망의 예측 체중이 83kg인 경우, 수학식 3에 기초하여 z 값은 -0.0122로 산출될 수 있으며, 이를 정규분포 모델(630)에 반영하여 목표 달성 확률이 95%로 산출될 수 있다. 정규 분포 모델(630)은 사용자의 특성에 따라 데이터가 축적되며 그 형태가 변화할 수 있다.For example, when the target weight is 82kg and the predicted weight of the fifth artificial neural network is 83kg, the z value may be calculated as -0.0122 based on
일 실시예에 따르면, 제2 전자 장치(120)는 앞서 설명된 제5 인공 신경망을 활용하여 목표 달성 확률을 제공할 뿐만 아니라, 추가 인공 신경망을 활용하여 개별 요소 사이의 상관도를 제공할 수 도 있다. 예를 들어, 제2 전자 장치(120)는 체중과 섭취 칼로리의 상관도, 체중과 운동량의 상관도, 체지방과 섭취 칼로리의 상관도, 체지방과 운동량의 상관도, 근육량과 섭취 칼로리의 상관도 및 근육량과 운동량의 상관도 정보를 제공할 수 있다. According to an embodiment, the second
도 7은 다양한 실시 예에 따른 운동 정보 제공 방법의 동작을 설명하기 위한 도면이다.7 is a diagram for explaining the operation of a method for providing exercise information according to various embodiments.
다양한 실시 예에 따라, 도 7을 참조하면, 센싱 장치(200)는 임의의 센서를 통해 센싱 정보를 획득(701)하고, 이를 제1 전자 장치(110)에 전송할 수 있다(702). 센싱 정보가 사용자를 촬영한 영상인 경우, 제1 전자 장치(110)는 사용자 외 타 사용자에 대한 비식별화를 통해 제2 정보를 획득하고(703), 이를 제2 전자 장치(120)에 전송할 수 있다(704). 제2 전자 장치(120)는 앞서 설명된 제2 인공신경망 및 제3 인공 신경망을 활용하여 사용자의 움직임과 관련된 제3 정보 및 운동 기구의 중량 및 움직임과 관련된 제4 정보를 생성하고(705) 이를 사용자 단말(300)에 제공할 수 있다. 이외에, 제2 전자 장치(120)는 앞서 설명된 일련의 동작을 수행할 수 있다.According to various embodiments, referring to FIG. 7 , the
일 실시예에 따른 사용자 단말(300)은 사용자로부터 소정 명령을 수신하여 이에 해당하는 동작을 구동하는 기기로서, 오디오 출력 기능, 유무선 통신 기능 또는 이와는 다른 기능을 포함하는 디지털 기기일 수 있다. 일 실시예에 따르면, 사용자 단말(240)은 태블릿 PC, 스마트폰, 개인용 컴퓨터(예를 들어, 노트북 컴퓨터 등), 스마트 TV, 이동 전화기, 내비게이션, 웹 패드, PDA, 워크스테이션 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기를 모두 포함하는 개념일 수 있다.The
일 실시예에 따른 사용자 단말(300)은 제2 전자 장치(120)와 관련된 운동 정보 제공 어플리케이션의 설치 및 실행이 가능한 모든 사용자 장치를 의미할 수 있다. 이때, 사용자 단말(300)은 운동 정보 제공 어플리케이션의 제어 하에 서비스 화면의 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등 서비스 전반의 동작을 수행할 수 있다. 진단 어플리케이션은 PC 환경은 물론 모바일 환경에서 사용 가능하도록 구현되며, 독립적으로 동작하는 프로그램 형태로 구현되거나 혹은 특정 어플리케이션의 인-앱(in-app) 형태로 구성되어 상기 특정 어플리케이션 상에서 동작이 가능하도록 구현될 수 있다.The
도 8a는 입력 데이터를 입력 받아 출력 데이터를 출력하는 인공 신경망(예를 들어, 컨볼루션 뉴럴 네트워크(Convolution Neural Network, CNN))의 구조를 도시한다. 인공 신경망은 2개 이상의 레이어(layer)를 보유한 딥 뉴럴 네트워크(deep neural network)일 수 있으며, 앞서 설명된 인공 신경망은 위 도면에 예시된 형태로 구현될 수 있다.8A illustrates the structure of an artificial neural network (eg, a Convolution Neural Network (CNN)) that receives input data and outputs output data. The artificial neural network may be a deep neural network having two or more layers, and the artificial neural network described above may be implemented in the form illustrated in the above figure.
도 8b는 일 실시예에 따른 인공 신경망 모델의 학습 및 추론 방법을 설명하기 위한 도면이다.8B is a diagram for explaining a learning and reasoning method of an artificial neural network model according to an embodiment.
도 8b를 참조하면, 일 실시예에 따른 운동 정보 제공 시스템은 학습 장치(800) 및 운동 정보 제공 장치(850)를 포함할 수 있다. 일 실시예에 따른 학습 장치(800)는 뉴럴 네트워크를 생성하거나, 뉴럴 네트워크를 훈련(train)(또는 학습(learn))하거나, 뉴럴 네트워크를 재훈련(retrain)하는 기능들과 같은 다양한 프로세싱 기능들을 갖는 컴퓨팅 디바이스에 해당된다. 예를 들어, 학습 장치(800)는 PC(personal computer), 서버 디바이스, 모바일 디바이스 등의 다양한 종류의 디바이스들로 구현될 수 있다.Referring to FIG. 8B , an exercise information providing system according to an embodiment may include a
일 실시예에 따른 학습 장치(800)는 주어진 초기 뉴럴 네트워크를 반복적으로 훈련(학습)시킴으로써, 하나 이상의 훈련된 뉴럴 네트워크(810)를 생성할 수 있다. 하나 이상의 훈련된 뉴럴 네트워크(810)를 생성하는 것은 뉴럴 네트워크 파라미터를 결정하는 것을 의미할 수 있다. 여기서, 파라미터들은 예를 들어 뉴럴 네트워크의 입/출력 액티베이션들, 웨이트들, 바이어스들 등 뉴럴 네트워크에 입/출력되는 다양한 종류의 데이터를 포함할 수 있다. 뉴럴 네트워크의 반복적인 훈련이 진행됨에 따라, 뉴럴 네트워크의 파라미터들은 주어진 입력에 대해 보다 정확한 출력을 연산하기 위해 조정될(tuned) 수 있다.The
일 실시예에 따른 학습 장치(800)는 훈련된 하나 이상의 뉴럴 네트워크(810)를 운동 정보 제공 장치(850)에 전달할 수 있다. 운동 정보 제공 장치(850)는 모바일 디바이스, 임베디드(embedded) 디바이스 등에 포함될 수 있다. 일 실시예에 따른 운동 정보 제공 장치(850)는 앞서 설명된 제1 전자 장치(110) 또는 제2 전자 장치(120)일 수 있다.The
일 실시예에 따른 운동 정보 제공 장치(850)는 하나 이상의 훈련된 뉴럴 네트워크(810)를 그대로 구동하거나, 하나 이상의 훈련된 뉴럴 네트워크(810)가 가공(예를 들어, 양자화)된 뉴럴 네트워크(860)를 구동할 수 있다. 가공된 뉴럴 네트워크(860)를 구동하는 운동 정보 제공 장치(850)는, 학습 장치(800)와는 별도의 독립적인 디바이스에서 구현될 수 있다. 하지만, 이에 제한되지 않고, 운동 정보 제공 장치(850)는 학습 장치(800)와 동일한 디바이스 내에도 구현될 수 있다. 앞서 설명된 인공 신경망은 본 도면을 통해 설명된 뉴럴 네트워크(810, 860)에 대응될 수 있다.The exercise
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (10)
현재 사용자 운동 영상에 대응되는 제1 정보를 미리 학습된 인공 신경망에 입력함으로써, 상기 현재 사용자의 운동 정보를 생성하는 단계; 및
상기 운동 정보를 외부 엔티티에 제공하는 단계
를 포함하고,
상기 운동 정보를 생성하는 단계는,
입력 영상으로부터 사용자의 포즈를 추정하도록 미리 학습된 제2 인공 신경망을 통해 상기 현재 사용자의 움직임에 대한 정보를 획득하는 단계;
입력 영상으로부터 운동 기구의 포즈를 추정하도록 미리 학습된 제3 인공 신경망을 통해 상기 현재 사용자가 사용하는 운동 기구의 움직임에 대한 정보를 획득하는 단계; 및
상기 현재 사용자의 움직임에 대한 정보 및 상기 운동 기구의 움직임에 대한 정보에 기초하여 운동 보조 정보를 생성하는 단계
를 포함하고,
상기 운동 정보를 생성하는 단계는,
상기 상기 현재 사용자의 움직임에 대한 정보에 기초하여 산출되는 현재 사용자 무게 중심의 이동 정보 및 상기 현재 사용자가 사용하는 운동 기구의 움직임에 대한 정보에 기초하여 산출되는 상기 현재 사용자가 사용하는 운동 기구 무게 중심의 이동 정보에 기초하여 운동량을 산출하는, 운동 정보 제공 방법.In the exercise information providing method performed by the second electronic device,
generating exercise information of the current user by inputting first information corresponding to the current user's exercise image to a pre-learned artificial neural network; and
providing the athletic information to an external entity;
including,
Generating the exercise information,
obtaining information about the current motion of the user through a second artificial neural network previously trained to estimate a pose of the user from an input image;
obtaining information about movement of an exercise machine currently used by the user through a third artificial neural network pretrained to estimate a pose of the exercise machine from an input image; and
Generating exercise assistance information based on information about the current user's motion and information about the motion of the exercise equipment
including,
Generating the exercise information,
The movement information of the center of gravity of the current user calculated based on the information on the movement of the current user and the center of gravity of the exercise equipment used by the current user calculated based on information on the movement of the exercise equipment used by the current user Calculating the amount of exercise based on the movement information of the, exercise information providing method.
상기 운동 정보를 생성하는 단계는,
상기 현재 사용자를 제외한 다른 사용자를 비식별화한 제2 정보를 제1 전자 장치로부터 수신하거나 생성하는 단계;
상기 제2 정보를 미리 학습된 인공 신경망에 입력함으로써, 상기 현재 사용자의 운동 정보를 생성하는 단계
를 포함하고,
상기 제2 정보는,
상기 제1 정보를 제1 인공 신경망에 입력하여 상기 현재 사용자를 인식하고, 상기 현재 사용자외 다른 사용자를 비식별화함으로써, 생성되는, 운동 정보 제공 방법.
According to claim 1,
Generating the exercise information,
Receiving or generating second information by which a user other than the current user is de-identified from a first electronic device;
Generating exercise information of the current user by inputting the second information to a pre-learned artificial neural network.
including,
The second information,
A method for providing exercise information, which is generated by inputting the first information to a first artificial neural network to recognize the current user and de-identifying users other than the current user.
상기 제1 전자 장치를 통해 사용자에 의해 운동 영상에 대해 수행된, 운동 종목 또는 중량 중 적어도 하나에 대한 라벨링 결과에 기초하여 상기 제2 인공 신경망 또는 상기 제3 인공 신경망을 학습시키는 단계
를 더 포함하는, 운동 정보 제공 방법.
According to claim 2,
Learning the second artificial neural network or the third artificial neural network based on a labeling result for at least one of an exercise event or a weight performed by a user on an exercise image through the first electronic device.
Further comprising, exercise information providing method.
상기 제3 인공 신경망은,
무게 별로 서로 다른 색상 및 크기로 구별된 운동 기구를 포함하는 영상에 대응하는 제1 학습 데이터에 기초하여, 운동 기구 및 중량을 추정하도록 학습된 제3-1 인공 신경망; 및
운동 기구의 힘점 및 중량부에 노드가 라벨링된 영상인 제2 학습 데이터에 기초하여, 운동 기구의 포즈를 추정하도록 학습된 제3-2 인공 신경망
을 포함하는, 운동 정보 제공 방법.
According to claim 1,
The third artificial neural network,
a 3-1 artificial neural network learned to estimate an exercise machine and weight based on first learning data corresponding to an image including exercise machines distinguished by different colors and sizes for each weight; and
The 3-2 artificial neural network learned to estimate the pose of the exercise machine based on the second training data, which is an image in which nodes are labeled on the force point and weight of the exercise machine.
Including, exercise information providing method.
상기 현재 사용자의 움직임에 대한 정보에 산출되는 상기 현재 사용자의 노드와, 미리 저장된 교습자의 노드 사이의 매칭에 기초하여 상기 현재 사용자의 영상에 가이드 영상을 오버랩하여 제공하는 단계
를 더 포함하는, 운동 정보 제공 방법.
According to claim 1,
Overlapping and providing a guide image to the current user's image based on matching between the current user's node calculated in the current user's motion information and the pre-stored instructor's node
Further comprising, exercise information providing method.
상기 사용자의 심박수의 역수와 배수 관계에 있는 BPM의 음악 또는 개별 운동 동작의 주기의 역수와 배수 관계에 있는 BPM의 음악을 추천 음악으로 제공하는 단계
를 더 포함하는, 운동 정보 제공 방법.
According to claim 2,
Providing recommended music with BPM music in a multiple relationship with the reciprocal of the user's heart rate or BPM music in a multiple relationship with the reciprocal of the cycle of an individual exercise motion
Further comprising, exercise information providing method.
바닥에 배치된 압력 센서를 통해 획득되는 센싱 정보로부터 상기 사용자가 운동을 시작하는 시작 시점 및 상기 사용자가 운동을 종료하는 종료 시점을 인식하는 단계;
상기 시작 시점 및 종료 시점에 기초하여 사용자가 실제 운동을 수행하는 시점에 대응되는 실제 운동 영상을 획득하는 단계; 및
상기 실제 운동 영상을 외부 엔티티에 제공하는 단계
를 포함하는, 운동 정보 제공 방법.
According to claim 2,
Recognizing a start time when the user starts the exercise and an end time when the user ends the exercise from sensing information acquired through a pressure sensor disposed on the floor;
obtaining an actual exercise image corresponding to a time when a user actually performs an exercise based on the start time and the end time; and
providing the actual motion image to an external entity;
Including, exercise information providing method.
상기 현재 사용자의 운동 정보를 생성하는 단계는,
상기 현재 사용자의 특성 정보, 운동량 정보 및 순 소비 칼로리 정보를 제4 인공 신경망에 입력하여, 목표치에 도달할 확률에 대한 정보를 생성하는 단계
를 포함하는, 운동 정보 제공 방법.
According to claim 1,
The step of generating the exercise information of the current user,
Generating information about a probability of reaching a target value by inputting the current user's characteristic information, exercise amount information, and net calorie consumption information into a fourth artificial neural network.
Including, exercise information providing method.
메모리; 및
프로세서
를 포함하고,
상기 프로세서는,
사용자 운동 영상에 대응되는 제1 정보에서 현재 사용자를 제외한 다른 사용자를 비식별화한 제2 정보를 제1 전자 장치로부터 수신하고,
상기 제2 정보를 미리 학습된 인공 신경망에 입력함으로써, 상기 현재 사용자의 운동 정보를 생성하고,
상기 운동 정보를 외부 엔티티에 제공하고,
상기 제2 정보는,
상기 제1 정보를 제1 인공 신경망에 입력하여 상기 현재 사용자를 인식하고, 상기 현재 사용자외 다른 사용자를 비식별화함으로써, 생성되고,
상기 프로세서는,
입력 영상으로부터 사용자의 포즈를 추정하도록 미리 학습된 제2 인공 신경망을 통해 상기 현재 사용자의 움직임에 대한 정보를 획득하고,
입력 영상으로부터 운동 기구의 포즈를 추정하도록 미리 학습된 제3 인공 신경망을 통해 상기 현재 사용자가 사용하는 운동 기구의 움직임에 대한 정보를 획득하고,
상기 현재 사용자의 움직임에 대한 정보 및 상기 운동 기구의 움직임에 대한 정보에 기초하여 운동 보조 정보를 생성하되,
상기 프로세서는,
상기 현재 사용자의 움직임에 대한 정보에 기초하여 산출되는 현재 사용자 무게 중심의 이동 정보 및 상기 현재 사용자가 사용하는 운동 기구의 움직임에 대한 정보에 기초하여 산출되는 상기 현재 사용자가 사용하는 운동 기구 무게 중심의 이동 정보에 기초하여 운동량을 산출하는, 전자 장치.
In an electronic device providing exercise information,
Memory; and
processor
including,
the processor,
Receiving second information that de-identifies other users other than the current user in the first information corresponding to the user's exercise image from the first electronic device;
By inputting the second information into a pre-learned artificial neural network, generating exercise information of the current user;
providing the athletic information to an external entity;
The second information,
Generated by inputting the first information into a first artificial neural network to recognize the current user and de-identifying users other than the current user,
the processor,
Obtaining information on the current motion of the user through a second artificial neural network pretrained to estimate a pose of the user from an input image;
Obtaining information about motion of an exercise machine currently used by the user through a third artificial neural network pretrained to estimate a pose of the exercise machine from an input image;
Generating exercise assistance information based on the information about the current user's motion and the information about the motion of the exercise equipment;
the processor,
The movement information of the center of gravity of the current user calculated based on the information on the movement of the current user and the center of gravity of the exercise equipment used by the current user calculated based on the information on the movement of the exercise equipment used by the current user An electronic device that calculates momentum based on movement information.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220126210A KR102493903B1 (en) | 2022-10-04 | 2022-10-04 | Method and apparatus for providing exercise informaion |
KR1020230009300A KR20240047289A (en) | 2022-10-04 | 2023-01-25 | Method and apparatus for providing exercise informaion |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220126210A KR102493903B1 (en) | 2022-10-04 | 2022-10-04 | Method and apparatus for providing exercise informaion |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230009300A Division KR20240047289A (en) | 2022-10-04 | 2023-01-25 | Method and apparatus for providing exercise informaion |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102493903B1 true KR102493903B1 (en) | 2023-02-01 |
Family
ID=85213194
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220126210A KR102493903B1 (en) | 2022-10-04 | 2022-10-04 | Method and apparatus for providing exercise informaion |
KR1020230009300A KR20240047289A (en) | 2022-10-04 | 2023-01-25 | Method and apparatus for providing exercise informaion |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230009300A KR20240047289A (en) | 2022-10-04 | 2023-01-25 | Method and apparatus for providing exercise informaion |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102493903B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011197890A (en) * | 2010-03-18 | 2011-10-06 | Hitachi Ltd | System for predicting achievement of desired exercise amount and sensor device |
KR20190029510A (en) * | 2016-04-14 | 2019-03-20 | 메드리듬스, 아이엔씨. | System and method for neurological rehabilitation |
KR102370703B1 (en) * | 2020-09-18 | 2022-03-04 | 주식회사 피트메디 | An user exercise management system, method and apparatus therefor |
US20220249934A1 (en) * | 2020-07-27 | 2022-08-11 | Tempo Interactive, Inc. | Systems and methods for computer vision and machine-learning based form feedback |
-
2022
- 2022-10-04 KR KR1020220126210A patent/KR102493903B1/en active IP Right Grant
-
2023
- 2023-01-25 KR KR1020230009300A patent/KR20240047289A/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011197890A (en) * | 2010-03-18 | 2011-10-06 | Hitachi Ltd | System for predicting achievement of desired exercise amount and sensor device |
KR20190029510A (en) * | 2016-04-14 | 2019-03-20 | 메드리듬스, 아이엔씨. | System and method for neurological rehabilitation |
US20220249934A1 (en) * | 2020-07-27 | 2022-08-11 | Tempo Interactive, Inc. | Systems and methods for computer vision and machine-learning based form feedback |
KR102370703B1 (en) * | 2020-09-18 | 2022-03-04 | 주식회사 피트메디 | An user exercise management system, method and apparatus therefor |
Also Published As
Publication number | Publication date |
---|---|
KR20240047289A (en) | 2024-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102116968B1 (en) | Method for smart coaching based on artificial intelligence | |
JP5356690B2 (en) | Method, system, and program for tracking a range of physical movement of a user | |
Velloso et al. | Qualitative activity recognition of weight lifting exercises | |
CN109155154A (en) | Adaptive motion sexuality prescription system | |
US11587665B2 (en) | Methods, systems, and non-transitory computer readable media for estimating maximum heart rate and maximal oxygen uptake from submaximal exercise intensities | |
US9393460B1 (en) | Intelligent personal fitness device | |
US20200402638A1 (en) | Exercise assistant device and exercise assistant method | |
Kowsar et al. | Detecting unseen anomalies in weight training exercises | |
US20200113518A1 (en) | System for facilitating monitoring of fitness devices | |
KR101890989B1 (en) | O2O(Online to Offline) Calorie Service Management System for Calorie Measuring and Consumption based Image Recognition using Deep Learning Algorithm | |
McNitt-Gray et al. | Using technology and engineering to facilitate skill acquisition and improvements in performance | |
Bačić et al. | Computational intelligence for qualitative coaching diagnostics: Automated assessment of tennis swings to improve performance and safety | |
KR102416987B1 (en) | Intelligent virtual fitness system utilizing face recognition and motion recognition and operating method thereof | |
KR102026209B1 (en) | System for providing artificial intelligence based smart health care service | |
KR102321713B1 (en) | Method, apparatus and system for providing contents based on artificial intelligence using a pull-up machine | |
KR102259127B1 (en) | Method, device and system for providing training content through online | |
KR102454758B1 (en) | Method and apparatus for providing exercise informaion | |
KR102493903B1 (en) | Method and apparatus for providing exercise informaion | |
JP7164456B2 (en) | Discrimination device, information provision system, discrimination method, and information provision method | |
Pham et al. | A study on skeleton-based action recognition and its application to physical exercise recognition | |
KR102296885B1 (en) | User-customized health habit service device | |
JP2021137539A (en) | Measurement system, method, and program | |
Youssef et al. | Analysis of the Squat Exercise from Visual Data. | |
Sutar et al. | Future of Fitness App with Artificial Intelligence. | |
KR102381609B1 (en) | Method and apparatus for analyzing occupancy status of exercise equipment using neural network model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |