KR20230073681A - Electronic device and method for motion readiness check based on joint angle change - Google Patents

Electronic device and method for motion readiness check based on joint angle change Download PDF

Info

Publication number
KR20230073681A
KR20230073681A KR1020210160323A KR20210160323A KR20230073681A KR 20230073681 A KR20230073681 A KR 20230073681A KR 1020210160323 A KR1020210160323 A KR 1020210160323A KR 20210160323 A KR20210160323 A KR 20210160323A KR 20230073681 A KR20230073681 A KR 20230073681A
Authority
KR
South Korea
Prior art keywords
motion
joint
motions
machine learning
angle
Prior art date
Application number
KR1020210160323A
Other languages
Korean (ko)
Inventor
임대현
Original Assignee
임대현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임대현 filed Critical 임대현
Priority to KR1020210160323A priority Critical patent/KR20230073681A/en
Publication of KR20230073681A publication Critical patent/KR20230073681A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1124Determining motor skills
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey

Abstract

본 개시에 따른 관절 각도변화 기반 운동준비상태 확인방법에 있어서, 기계 학습 장치가 복수 종류의 동작마다 관절의 움직임을 나타내는 관절 데이터 집합을 이용하여 기계학습모델을 학습하는 단계, 동작 인식 장치가 각 신체영역의 동작을 인식하고, 상기 동작하는 신체영역의 해당 관절에 대한 관절 데이터를 수집하는 단계, 동작 분석 장치가 상기 관절 데이터를 스트리밍 방식으로 수신함과 동시에 실시간으로 상기 수신된 관절 데이터를 미리 학습된 상기 복수 종류의 동작들과 비교하여 유사도를 판단하는 단계, 상기 동작 분석 장치가 상기 동작이 종료되기 전에 상기 유사도가 미리 설정된 기준치 이상에 해당하는 하나의 동작을 추출하는 단계 및 동작 예측 장치가 상기 추출된 동작에 대해 운동준비 상태를 판단하는 단계;를 포함하는 것을 특징으로 한다.In the joint angle change-based movement readiness confirmation method according to the present disclosure, the machine learning device learns a machine learning model using a joint data set representing joint movements for each of a plurality of types of motions, and the motion recognition device performs a motion recognition process on each body Recognizing the motion of the region and collecting joint data for a corresponding joint of the body region in motion, wherein the motion analysis device receives the joint data in a streaming manner and simultaneously learns the received joint data in advance in real time. Comparing with a plurality of types of motions to determine similarity, the motion analysis device extracting one motion whose similarity is greater than or equal to a preset reference value before the motion is terminated, and the motion prediction device extracting the extracted motion It is characterized in that it includes; determining the exercise readiness state for the motion.

Description

관절 각도변화 기반 운동준비상태 확인 전자장치 및 방법{Electronic device and method for motion readiness check based on joint angle change}Electronic device and method for motion readiness check based on joint angle change

본 발명은 관절 각도변화 기반 운동준비상태 확인 전자장치 및 방법에 관한 것이다.The present invention relates to an electronic device and method for confirming motion readiness based on joint angle change.

현대 사회에서 운동 부족 인구가 급증함에 따라, 비만, 고혈압 등의 질병들이 발생되는 빈도가 꾸준히 증가되고 있다. 이에 따라, 가정이나 피트니스 센터 등에서 체력 및 건강 관리를 위해 운동을 하는 사람들도 많아지고 있다.BACKGROUND OF THE INVENTION As the number of people lacking in exercise increases rapidly in modern society, the frequency of diseases such as obesity and high blood pressure is steadily increasing. Accordingly, the number of people who exercise for physical strength and health management at home or at a fitness center is increasing.

최근에는 이동거리, 이동시간, 소모칼로리 등 운동량을 포함한 운동 정보를 측정하는 휴대 기구들이 출시되고 있으며, 사용자가 운동한 운동 정보를 쉽게 측정하며 운동을 할 수 있게 되었다.Recently, portable devices that measure exercise information including movement distance, movement time, and calories consumed have been released, and users can easily measure exercise information and exercise.

운동 전 충분한 준비운동을 수행하지 못하는 경우, 근력운동 중 사용자가 큰 부상의 위험에 노출될 수 있다. 또한, 준비운동에 의해 근력운동을 원활히 수행할 수 있는 상태인지 여부를 판단하는 것에 어려움과 불편함이 존재한다.If sufficient warm-up is not performed before exercise, the user may be exposed to the risk of serious injury during strength training. In addition, there are difficulties and inconveniences in determining whether or not a muscle strength exercise can be smoothly performed by a warm-up exercise.

본 발명의 목적은 무릎, 팔꿈치 및 목의 꺾임 각도 변화를 이용하여 운동준비상태를 확인함으로써 부상의 위험을 줄이고 나아가 지속적이고 효율적인 운동을 수행하게 하는 것에 있다.An object of the present invention is to reduce the risk of injury and to perform continuous and efficient exercise by confirming the exercise readiness state using changes in bending angles of the knee, elbow, and neck.

본 개시에 따른 관절 각도변화 기반 운동준비상태 확인방법에 있어서, 기계 학습 장치가 복수 종류의 동작마다 관절의 움직임을 나타내는 관절 데이터 집합을 이용하여 기계학습모델을 학습하는 단계, 동작 인식 장치가 각 신체영역의 동작을 인식하고, 상기 동작하는 신체영역의 해당 관절에 대한 관절 데이터를 수집하는 단계, 동작 분석 장치가 상기 관절 데이터를 스트리밍 방식으로 수신함과 동시에 실시간으로 상기 수신된 관절 데이터를 미리 학습된 상기 복수 종류의 동작들과 비교하여 유사도를 판단하는 단계, 상기 동작 분석 장치가 상기 동작이 종료되기 전에 상기 유사도가 미리 설정된 기준치 이상에 해당하는 하나의 동작을 추출하는 단계 및 동작 예측 장치가 상기 추출된 동작에 대해 운동준비 상태를 판단하는 단계;를 포함하는 것을 특징으로 한다.In the joint angle change-based movement readiness confirmation method according to the present disclosure, the machine learning device learns a machine learning model using a joint data set representing joint movements for each of a plurality of types of motions, and the motion recognition device performs a motion recognition process on each body Recognizing the motion of the region and collecting joint data for a corresponding joint of the body region in motion, wherein the motion analysis device receives the joint data in a streaming manner and simultaneously learns the received joint data in advance in real time. Comparing with a plurality of types of motions to determine similarity, the motion analysis device extracting one motion whose similarity is greater than or equal to a preset reference value before the motion is terminated, and the motion prediction device extracting the extracted motion It is characterized in that it includes; determining the exercise readiness state for the motion.

본 발명의 예시적 실시예에 따르면 간의 동작을 인식하고 분석하는 데에 동작의 모든 움직임과, 모든 관절에 대한 운동 데이터를 이용하는 것이 아니라, 미리 선정된 주요 관절에 대한 시계열적인 가속-감속 운동데이터를 이용함으로써, 계산량을 줄이고 따라서 동작 예측 속도를 향상시켜 운동준비상태를 신속하게 확인할 수 있다.According to an exemplary embodiment of the present invention, in order to recognize and analyze the motion of the liver, instead of using all movements of the motion and motion data for all joints, time-series acceleration-deceleration motion data for major joints selected in advance are used. By using it, it is possible to quickly check the exercise readiness state by reducing the amount of calculation and thus improving the motion estimation speed.

도 1은 운동기록 기반 운동종목 추천 전자장치(1000)를 설명하기 위한 블록도이다.
도 2는 은닉 마르코프 모델(HMM: Hidden Mark Model)을 설명하기 위함이다.
도 3은 기계 학습 장치가 기계학습모델을 학습하기 이전에 동작정보 생성장치가 복수 종류의 각 동작을 설정하는 단계를 설명하기 위함이다.
도 4는 본 발명의 실시 예에 따른 동작 예측 방법을 설명하기 위한 순서도이다.
1 is a block diagram illustrating an electronic device 1000 for recommending an exercise event based on an exercise record.
2 is for explaining a hidden mark model (HMM).
3 is to explain a step in which the motion information generating device sets each of a plurality of types of motions before the machine learning device learns the machine learning model.
4 is a flowchart for explaining a motion prediction method according to an embodiment of the present invention.

이하, 본 개시의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 개시에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present disclosure will be described with reference to the accompanying drawings. However, it should be understood that this is not intended to limit the technology described in this disclosure to specific embodiments, and includes various modifications, equivalents, and/or alternatives of the embodiments of this disclosure. . In connection with the description of the drawings, like reference numerals may be used for like elements.

본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In the present disclosure, expressions such as “has,” “can have,” “includes,” or “can include” indicate the presence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.

본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this disclosure, expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, Or (3) may refer to all cases including at least one A and at least one B.

본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. Expressions such as "first," "second," "first," or "second," used in the present disclosure may modify various elements regardless of order and/or importance, and may refer to one element as It is used only to distinguish it from other components and does not limit the corresponding components.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or connected through another component (eg, a third component). On the other hand, when an element (eg, a first element) is referred to as being “directly connected” or “directly connected” to another element (eg, a second element), the element and the above It may be understood that other components (eg, a third component) do not exist between the other components.

이하에서는 도면을 참조하여 본 개시에 대해 상세히 설명하도록 한다. Hereinafter, the present disclosure will be described in detail with reference to the drawings.

도 1은 운동기록 기반 운동종목 추천 전자장치(1000)를 설명하기 위한 블록도이다.1 is a block diagram illustrating an electronic device 1000 for recommending an exercise event based on an exercise record.

입/출력부(100)는, 사용자 및/또는 외부기기와의 인터페이스를 제공하며, 버튼(110), 커넥터(120), 키패드(130), 디스플레이부(140), 음향 출력부(150), 진동 모터(160) 등을 포함할 수 있다.The input/output unit 100 provides an interface with a user and/or an external device, and includes a button 110, a connector 120, a keypad 130, a display unit 140, an audio output unit 150, A vibration motor 160 and the like may be included.

입/출력부(100)는 사용자가 전자장치(1000)를 제어하기 위한 데이터를 입력할 수 있는 입력 수단을 제공한다. 상기한 구성 외에, 입력 수단으로, 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등)등이 더 구비될 수 있고, 이에 한정되는 것은 아니다.The input/output unit 100 provides an input means through which a user can input data for controlling the electronic device 1000 . In addition to the above configuration, as an input means, a dome switch, a touch pad (contact capacitance method, pressure resistive film method, infrared sensing method, surface ultrasonic conduction method, integral tension measurement method, piezo effect method, etc.) ) and the like may be further provided, but is not limited thereto.

또한, 입/출력부(100)는 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 출력 수단을 제공한다. 디스플레이부(140)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(140)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(140)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다.In addition, the input/output unit 100 provides an output means for outputting an audio signal, video signal, or vibration signal. When the display unit 140 and the touch pad form a layer structure to form a touch screen, the display unit 140 may be used as an input device as well as an output device. The display unit 140 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a 3D display ( 3D display) and at least one of electrophoretic display.

디스플레이부(140)는 프로세서(600)의 제어에 따라 사용자에게 필요한 운동 관리 사항에 대한 화면을 출력할 수 있다. 음향 출력부(150)는 프로세서(600)의 제어에 따라, 디스플레이부(140)에서 안내하는 화면과 관련되는 음성 메시지를 출력하거나, 기타, 사용자의 운동 상태에 따라 알림음, 경고음 등의 음향 신호를 출력할 수 있다. 이러한 음향 출력부(150)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 진동 모터(160)는 진동 신호를 출력할 수 있다. 예를 들어, 상기한 경고음과 함께, 또는 경고음 대신 진동 신호를 출력할 수 있다. 또한, 진동 모터(160)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.Under the control of the processor 600, the display unit 140 may output a screen for exercise management items necessary for the user. Under the control of the processor 600, the audio output unit 150 outputs a voice message related to the screen guided by the display unit 140, or other sound signals such as notification sounds and warning sounds according to the user's exercise state. can output The sound output unit 150 may include a speaker, a buzzer, and the like. The vibration motor 160 may output a vibration signal. For example, a vibration signal may be output together with the warning sound or instead of the warning sound. Also, the vibration motor 160 may output a vibration signal when a touch is input to the touch screen.

센서부(300)는, 전자장치(1000)의 상태, 예를 들어, 움직임, 위치 변화등을 감지하고 감지된 정보를 프로세서(600)로 전달할 수 있다. 이에 따라 전자장치(1000)를 착용한 사용자의 운동 회수, 예를 들어, 역기 운동 회사나 복근 운동 회수 등을 카운팅할 수 있게 된다.The sensor unit 300 may detect a state of the electronic device 1000, for example, movement or positional change, and transmit the detected information to the processor 600. Accordingly, it is possible to count the number of times a user wearing the electronic device 1000 exercises, for example, weight lifting companies or abdominal muscle exercises.

센서부(300)는 지자기 센서(terrestrial magnetic sensor)(310), 가속도 센서(acceleration sensor)(320), 위치 센서(330), 자이로스코프 센서(340)를 포함할 수 있다. 또한, 사용자의 생체 신호, 예를 들어, ECG(ELECTROCARDIOGRAPHY), GSR(GALVANIC SKIN REFLEX) 및 맥파(pulse wave) 등과 같은 생체 신호를 검출하기 위한 센서들을 구비할 수도 있다. 이 외에도, 온/습도 센서, 적외선 센서, 기압 센서, 근접 센서 등이 더 포함될 수 있고, 이에 한정되지 않는다.The sensor unit 300 may include a terrestrial magnetic sensor 310 , an acceleration sensor 320 , a position sensor 330 , and a gyroscope sensor 340 . In addition, sensors for detecting bio-signals of the user, such as ECG (ELECTROCARDIOGRAPHY), GSR (GALVANIC SKIN REFLEX), and pulse waves, may be provided. In addition, a temperature/humidity sensor, an infrared sensor, an air pressure sensor, a proximity sensor, and the like may be further included, but are not limited thereto.

근거리 통신부(short-range wireless communication unit)(400)는, 전자장치(1000)와 외부 기기, 예를 들어, 헬스 기기나 사용자가 휴대한 스마트폰과의 통신 기능을 제공한다.The short-range wireless communication unit 400 provides a communication function between the electronic device 1000 and an external device, such as a fitness device or a smartphone carried by a user.

근거리 통신부(400)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The short-range communication unit 400 includes a Bluetooth communication unit, a Bluetooth Low Energy (BLE) communication unit, a Near Field Communication unit (WLAN) communication unit, a Zigbee communication unit, an infrared data association (IrDA) communication unit, It may include a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, an Ant+ communication unit, etc., but is not limited thereto.

전자장치(1000)에 구비되는 통신부로, 근거리 통신부(400)만을 예시하였으나, 이에 한정되는 것은 아니며, 방송 수신부나 이동 통신부와 같은 구성이 더 구비될 수도 있다.As a communication unit provided in the electronic device 1000, only the short range communication unit 400 is exemplified, but is not limited thereto, and components such as a broadcast reception unit or a mobile communication unit may be further provided.

메모리(500)에는 프로세서(600)의 처리 및 제어를 위한 프로그램이 저장될 수 있고, 입/출력되는 데이터들 이 저장될 수 있다.A program for processing and controlling the processor 600 may be stored in the memory 500, and input/output data may be stored.

메모리(500)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 500 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , an optical disk, and at least one type of storage medium.

메모리(500)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, 센서 모듈(510), GPS 모듈(520), 통신 모듈(530), 운동 관리 모듈(540) 등으로 분류될 수 있다. 이외에도, 전자장치(1000)가 제공하고자 하는 기능에 따라, UI 모듈, 터치 스크린 모듈, 알림 모듈, 동영상 재생 모듈, 오디오 재생 모듈 등이 더 포함될 수 있다.Programs stored in the memory 500 may be classified into a plurality of modules according to their functions, for example, a sensor module 510, a GPS module 520, a communication module 530, and an exercise management module 540 etc. can be classified. In addition, a UI module, a touch screen module, a notification module, a video playback module, an audio playback module, and the like may be further included according to functions to be provided by the electronic device 1000 .

프로세서(600)는 전자장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(600)는, 메모리(170)에 저장된 프로그램들을 실행함으로써, 입/출력부(100), 센서부(300), 통신부(400) 등을 전반적으로 제어할 수 있다. 또한, 운동 관리 모듈(540)을 실행함으로써, 사용자가 헬스 기기를 사용하며 운동을 수행할 때, 스스로의 관리가 가능하도록 관리 서비스를 제공할 수 있다.The processor 600 controls the overall operation of the electronic device 1000. For example, the processor 600 may generally control the input/output unit 100, the sensor unit 300, the communication unit 400, and the like by executing programs stored in the memory 170. In addition, by executing the exercise management module 540, a management service may be provided so that the user can manage himself when performing an exercise while using the fitness equipment.

전자장치(1000)의 상기한 구성은 메모리(500)에 저장된 운동 관리 모듈(540)을 프로세서(600)에서 실행하는데 필요한 구성 요소로서 예시된 것이다. 운동 관리 모듈(540)은 생체 신호 모니터링 기능을 가지는 스마트 와치(smart watch)와 같은 형태로 구현된 전자장치에 구비될 수도 있다. 이 경우, 목적에 알맞은 추가적인 구성, 예를 들어, 생체 인증 모듈, 생체 센서, 생체 센서로부터 수신된 신호를 분석하는 분석 모듈 등이 더 구비될 수 있다.The above configuration of the electronic device 1000 is exemplified as a component required to execute the exercise management module 540 stored in the memory 500 in the processor 600 . The exercise management module 540 may be provided in an electronic device implemented in the form of a smart watch having a physiological signal monitoring function. In this case, an additional configuration suitable for the purpose, for example, a biometric authentication module, a biometric sensor, and an analysis module for analyzing a signal received from the biometric sensor may be further provided.

도면에서, 각 부, 즉, 입/출력부(100), 센서부(300), 통신부(400), 메모리(500)에 기재된 구성 요소들은 선택적인 구성요소들이며, 즉, 이들 중 하나 이상이 구비될 수 있다.In the drawing, components described in each unit, that is, the input/output unit 100, the sensor unit 300, the communication unit 400, and the memory 500, are optional components, that is, one or more of them are provided. It can be.

이하, 상기한 전자장치(1000)가 제공하는 운동프로그램 개인화 및 공유방법에 대해 상세히 살펴보기로 한다.Hereinafter, a method for personalizing and sharing an exercise program provided by the electronic device 1000 will be described in detail.

도 2는 은닉 마르코프 모델(HMM: Hidden Mark Model)을 설명하기 위함이다. 2 is for explaining a hidden mark model (HMM).

도 2를 참조하면, 동작과 가속-감속 운동 데이터와의 관계는 λ={Adn, G, π, A, B}로 표현될 수 있다. 여기서, G는 은닉 상태의 집합이고, Adn은 관찰 가능한 상태의 집합, π는 은닉 상태의 시작 확률, A 는 은닉 상태간의 전환 행렬, B는 은닉 상태에서 출력 상태의 확률이다. 따라서 λ는 학습한 Adn의 순서에 따라 대응되는 동작의 확률로 해석할 수 있다. 동작을 인식할 때에는 B의 확률을 이용해서 동작 인식을 수행한다.Referring to FIG. 2 , the relationship between motion and acceleration-deceleration motion data may be expressed as λ = {Adn, G, π, A, B}. Here, G is the set of hidden states, Adn is the set of observable states, π is the starting probability of the hidden state, A is the transition matrix between hidden states, and B is the probability of the output state from the hidden state. Therefore, λ can be interpreted as the probability of an operation corresponding to the learned order of Adn. When recognizing a motion, motion recognition is performed using the probability of B.

Adn={StartRS, StartRE, Slow_DownRS, Slow_DownRE, Aaa, Direction, EndRS, EndRE}Adn={StartRS, StartRE, Slow_DownRS, Slow_DownRE, Aaa, Direction, EndRS, EndRE}

위와 같이 Right_arm에서의 Adn은 프레임 단위로 동작 데이터가 저장된다. 동작의 예측을 위해 본 발명은 Adn의 동작 시작 방향 및 감속 시작시의 평균 각가속도를 기준으로 현재 속도의 변화가 유지된다고 가정한다. 이를 기반으로, 동작의 중지 시점 또는 감속이 시작되는 시점에서의 관절의 각도를 예측할 수 있다. 따라서 동작 인식 시에는 EndRS, EndRE의 실제 각도를 사용하지 않고 예측값을 사용하여 동작 예측을 수행한다. 이러한 방식을 통해 동작이 끝까지 수행하지 않더라도 미리 동작을 예측함으로써 동작의 종료를 예측할 수 있다.As above, Adn in Right_arm stores motion data in units of frames. For motion prediction, the present invention assumes that the current speed change is maintained based on the motion start direction of Adn and the average angular acceleration at the start of deceleration. Based on this, it is possible to predict the angle of the joint at the point at which motion is stopped or deceleration starts. Therefore, when recognizing a motion, motion prediction is performed using the predicted value without using the actual angles of EndRS and EndRE. Through this method, even if the operation is not performed to the end, it is possible to predict the end of the operation by predicting the operation in advance.

은닉 마르코프 모델 이외에도 가우시안 혼합모델(Gaussian mixture model)등의 일반적 기계학습모델 중 적어도 하나를 사용하여 동작을 학습할 수 있다.In addition to the hidden Markov model, the motion may be learned using at least one of general machine learning models such as a Gaussian mixture model.

기계 학습 장치(120)는 하나의 동작을 한번 수행하는 데에 L(L은 양의 정수)번의 가속-감속 운동이 발생하는 경우, L개 세트의 관절 데이터 집합을 생성할 수 있다.The machine learning apparatus 120 may generate L sets of joint data sets when L (L is a positive integer) number of acceleration-deceleration motions occur to perform one motion once.

한편, 동작의 모든 움직임과, 모든 관절에 대해 학습하게 되면 처리해야 할 데이터의 양이 너무 많고 이로 인해 동작 예측 속도가 느려지기 때문에, 본 발명에서는 5개의 영역으로 나뉘어진 각 신체영역(몸통, 왼팔, 오른팔, 왼다리 및 오른 다리)마다 미리 선정된 관절들에 대해서만 움직임을 관찰하고, 이에 가속-감속 운동을 위주로 관절 데이터를 획득하므로, 데이터 처리량을 줄일 수 있고 따라서 동작 예측 속도를 향상시킬 수 있다.On the other hand, since the amount of data to be processed is too large when learning about all motions and all joints of the motion, and this slows down the motion prediction speed, in the present invention, each body area divided into five areas (torso, left arm) , right arm, left leg, and right leg), the movement is observed only for preselected joints, and joint data is acquired mainly for acceleration-deceleration movement, so data throughput can be reduced and motion prediction speed can be improved accordingly. .

동작 인식 장치(130)는 각 신체영역의 동작을 인식하고, 상기 동작하는 신체영역에 해당하는 관절 데이터를 수집한다. 이러한 동작 인식 장치(130)는 앞서 설명한 상기 입력부에서 이용된 예를 들어, 3D 카메라, 초음파 센서, 키넥트(kinect) 중 적어도 하나를 통해 상기 각 신체영역의 동작을 인식할 수 있다.The motion recognition device 130 recognizes the motion of each body region and collects joint data corresponding to the motion body region. The motion recognition device 130 may recognize motions of the respective body regions through at least one of, for example, a 3D camera, an ultrasonic sensor, and a kinect used in the input unit described above.

동작 인식 장치(130)가 상기 입력부를 통해 입력받은 인체의 관절 움직임 영상을 디지털 신호로 변환하고, 변환된 디지털 신호를 복수 종류의 각 동작에 해당하는 관절 데이터로 묶을 수 있다.The motion recognition device 130 may convert motion images of human body joints received through the input unit into digital signals, and bundle the converted digital signals into joint data corresponding to a plurality of types of motions.

구체적으로, 동작 인식 장치(130)는 동작하는 신체영역에 대해 미리 선정된 기점관절 및 연동관절이 동작을 시작할 때의 각 각도, 감속시의 각 각도, 감속을 시작할 때까지의 평균 각가속도 및 이동방향을 관절 데이터로서 수집할 수 있다.Specifically, the motion recognition device 130 determines the angle at which the starting point joint and the interlocking joint selected in advance for the body region in motion start the motion, each angle at the time of deceleration, the average angular acceleration until the start of deceleration, and the direction of movement. can be collected as joint data.

동작 분석 장치(140)는 동작 인식 장치(130)로부터 관절 데이터를 스트리밍 방식으로 수신함과 동시에 실시간으로 수신된 관절 데이터를 미리 학습된 복수 종류의 동작들과 비교하여 유사도를 판단하고, 동작이 종료되기 전에 유사도가 미리 설정된 기준치 이상에 해당하는 하나의 동작을 추출한다.The motion analysis device 140 receives the joint data from the motion recognition device 130 in a streaming manner and compares the received joint data in real time with a plurality of types of pre-learned motions to determine a degree of similarity, and determines the degree of similarity before the motion ends. One motion whose similarity is equal to or higher than a predetermined reference value is extracted.

여기서 쟁점은 동작 분석 장치(140)가 입력되는 인체의 동작이 종료되기 전에 즉, 동작이 종료되는 시점의 종료정보가 입력되기 전에 스트리밍 방식으로 입력되는 관절 데이터에서 기점관절 및 연동관절의 각도, 동작 중 감속을 시작할 때의 각도, 감속을 시작할 때까지의 평균 각가속도 및 관절의 이동방향 중 적어도 하나의 정보를 미리 학습된 동작들과 비교하여 유사도를 판단하고, 유사도 판단에 기반하여 동작이 어떠한 종류의 동작인지 파악하며, 파악된 동작에 대해 미리 학습된 관절 데이터 집합을 추출하여, 추출된 관절 데이터 집합에 포함된 종료정보에 기반하여 현재 동작의 종료를 예측하는 데에 있다.The issue here is before the motion analysis device 140 inputs the motion of the human body, that is, before the end information at the time when the motion ends is input, in the joint data input in the streaming method, the angles and motions of the starting joint and interlocking joint At least one information of the angle at the start of deceleration, the average angular acceleration until the start of deceleration, and the movement direction of the joint is compared with previously learned motions to determine similarity, and based on the similarity judgment, what kind of motion is determined. It is to determine if it is a motion, extract a pre-learned joint data set for the identified motion, and predict the end of the current motion based on end information included in the extracted joint data set.

동작 예측 장치(150)는 동작 분석 장치(140)에서 추출된 동작에 대해 미리 학습된 관절 데이터 집합에 포함된 종료정보에 기반하여, 동작 인식 장치(130)를 통해 입력된 동작의 종료를 예측한다.The motion prediction device 150 predicts the end of the motion input through the motion recognition device 130 based on end information included in the pre-learned joint data set for the motion extracted by the motion analysis device 140. .

구체적으로, 동작 예측 장치(150)는 동작 분석 장치(140)에 의해 추출된 동작에 대해 미리 학습된 상기 관절 데이터 집합을 추출한다. 추출된 관절 데이터 집합 중 동작이 종료될 시 기점관절 및 연동관절의 각 각도, 해당 동작이 완성되는 시간정보, 해당 동작의 특징을 나타내는 종류정보 및 해당 동작에 연관된 관절의 위치정보 중 적어도 하나를 추출하여 동작의 종료를 예측하는 데에 이용한다.Specifically, the motion prediction device 150 extracts the joint data set pre-learned with respect to the motion extracted by the motion analysis device 140 . From the extracted joint data set, at least one of each angle of the origin joint and interlocking joint at the end of the motion, time information when the corresponding motion is completed, type information representing the characteristics of the corresponding motion, and location information of joints related to the corresponding motion are extracted. It is used to predict the end of an operation.

아울러, 동작 예측 장치(150)는 미리 학습된 동작이 완성되는 시간정보에 기초하여 현재시간으로부터 입력되는 동작의 종료시점을 산출할 수 있다.In addition, the motion prediction device 150 may calculate an end point of an input motion from a current time based on time information at which the previously learned motion is completed.

본 발명의 실시 예에 따른 동작 예측 시스템에 따르면, 사용자가 직접 명령어를 입력하지 않더라도 특정 행동을 명령으로 인식하여 시스템을 제어하는 분야에서 사용자가 직접 장치를 조작하지 않더라도, 사용자의 동작을 분석하여 게임 또는 가전제품을 조작 제어하는데 있어서, 사용자의 동작이 종료되기 전에 종료 정보를 예측함으로써, 반응 속도를 향상시킬 수 있는 효과가 있다.According to the motion prediction system according to an embodiment of the present invention, even if the user does not directly input a command, in the field of recognizing a specific action as a command and controlling the system, even if the user does not directly operate a device, the user's motion is analyzed and the game is played. Alternatively, in operating and controlling home appliances, reaction speed can be improved by predicting end information before a user's motion ends.

아울러, 본 발명의 실시 예에 따른 동작 예측 시스템에 따르면, 인간의 동작을 인식하고 분석하는 데에 동작의 모든 움직임과, 모든 관절에 대한 운동 데이터를 이용하는 것이 아니라, 미리 선정된 주요 관절에 대한 시계열적인 가속-감속 운동데이터를 이용함으로써, 계산량을 줄이고 따라서 동작 예측 속도와 더 나아가 IT 기술의 반응 속도를 향상시킬 수 있다.In addition, according to the motion prediction system according to an embodiment of the present invention, in order to recognize and analyze human motions, not all motions of motions and motion data for all joints are used, but time series for major joints selected in advance. By using regular acceleration-deceleration motion data, the amount of calculation can be reduced, and thus the motion prediction speed and furthermore, the reaction speed of IT technology can be improved.

도 3을 참조하여 동작정보 생성장치가 복수 종류의 각 동작을 설정하는 방법에 대해 설명하기로 한다. 즉, 도 3을 참조하면 기계 학습 장치가 기계학습모델을 학습하기 이전에, 동작정보 생성장치가 복수 종류의 각 동작을 설정하는 단계를 실행한다.Referring to FIG. 3 , a method for setting each of a plurality of types of motions by the motion information generating device will be described. That is, referring to FIG. 3 , before the machine learning device learns the machine learning model, the motion information generating device performs a step of setting each of a plurality of types of motions.

구체적으로 동작정보 생성장치가 각 동작을 설정하는 단계는, 도 3에 도시된 바와 같이, 1초에 M(M은 양의 정수, 예를 들어 60)프레임의 상기 관절 데이터를 획득하되, N(N은 양의 정수, 예를 들어 10, M>N) 프레임마다 모든 관절의 위치변화를 측정하는 단계(S810)와, 특정 관절이 제1 임계치 이상의 거리를 이동할 경우 해당 프레임을 동작의 시작시점으로 판단하는 단계(S820)와, 시작시점 판단 후 N 프레임 간격으로 관절의 위치변화를 계속 기록하는 단계(S830)와, 관절이 제2 임계치 이상으로 이동하지 않을 경우, 동작의 정지시점으로 판단하는 단계(S840) 및 동작의 시작시점부터 정지시점까지 기록된 관절의 이동정보를 하나의 동작으로 설정하는 단계(S850)를 포함한다.Specifically, the step of setting each motion by the motion information generating device, as shown in FIG. 3, obtaining the joint data of M (M is a positive integer, for example, 60) frames per second, N ( N is a positive integer, for example, 10, M>N) Measuring the change in position of all joints for each frame (S810), and when a specific joint moves a distance equal to or greater than a first threshold value, the corresponding frame is regarded as the starting point of the motion. Determining step (S820), continuing to record the change in position of the joint at intervals of N frames after determining the starting point (S830), and determining the motion stop point when the joint does not move beyond the second threshold. (S840) and setting the motion information of the joint recorded from the start point of the motion to the stop point as one motion (S850).

아울러, 동작정보 생성장치가 복수 종류의 각 동작을 설정하는 단계에서 각 동작마다 동작의 원점이 되는 기점관절과, 기점관절의 움직임에 연동하는 연동관절을 설정한다.In addition, in the step of setting a plurality of types of each motion by the motion information generating device, a starting point joint serving as an origin of the motion and an interlocking joint linked to the movement of the starting point joint are set for each motion.

이를 위해, 동작정보 생성장치는 인간모델의 특징과 기구학적 구속조건을 기반으로 동작의 원점이 되는 기점관절을 선정하고, 기점관절의 운동에 연동하여 움직이는 연동관절을 선정한다. 보통 연동관절은 기점관절과 하나의 마디를 두고 인접하는 관절에 해당한다.To this end, the motion information generating device selects a starting point joint that is the origin of motion based on the characteristics of the human model and kinematic constraints, and selects an interlocking joint that moves in conjunction with the movement of the starting point joint. Usually, the peristaltic joint corresponds to the joint adjacent to the origin joint with one node.

여기서 동작은 인간의 동작들 중 관절을 원점으로 하는 원주운동을 일컫는다. 관절과 인접한 관절 사이의 근육이 신축하는 데에는 한계가 있기 때문에 원주운동을 하는 모든 관절의 이동 가능 범위와 위치 변화를 파악할 수 있다.Here, the motion refers to a circumferential motion with a joint as the origin among human motions. Since there is a limit to the stretching of muscles between joints and adjacent joints, it is possible to grasp the movable range and position change of all joints performing circumferential motion.

그리고, 동작정보 생성장치는 각 동작마다 동작을 시작할 때의 기점관절 및 연동관절의 각도, 동작 중 감속을 시작할 때의 각도, 감속을 시작할 때까지의 평균 각가속도, 기점관절과 연동관절의 이동방향, 동작이 종료될 때의 기점관절과 연동관절의 각도를 동작정보에 포함시킨다. 또한, 동작정보에 동작이 완성되는 시간정보, 동작의 특징을 나타내는 종류정보 및 동작에 연관된 관절의 위치정보 중 적어도 하나의 정보를 더 포함할 수 있다.In addition, the motion information generating device includes the angle of the starting joint and interlocking joint at the start of each motion, the angle at the start of deceleration during motion, the average angular acceleration until the start of deceleration, the movement direction of the starting joint and interlocking joint, The angle of the origin joint and interlocking joint at the end of the motion is included in the motion information. In addition, the motion information may further include at least one of information about when the motion is completed, type information indicating characteristics of the motion, and location information of a joint related to the motion.

한편, 동작정보 생성장치는 입력부로부터 동작하는 인체의 관절 움직임 상태를 나타내는 적어도 하나의 관절 움직임 정보를 입력받는다. 상기 입력부는 예를 들어, 3D 카메라, 초음파 센서, 키넥트(kinect) 중 적어도 하나를 통해 인체의 관절 움직임 영상정보를 입력받을 수 있다.On the other hand, the motion information generating device receives at least one joint motion information representing a motion state of a joint of an operating human body from an input unit. The input unit may receive motion image information of human body joints through at least one of, for example, a 3D camera, an ultrasonic sensor, and a kinect.

동작정보 생성장치가 입력받은 인체의 관절 움직임 영상을 디지털 신호로 변환하고, 변환된 디지털 신호를 복수 종류의 각 동작에 해당하는 관절 데이터로 묶는 단계를 실행한다.The motion information generating device converts the received joint motion images of the human body into digital signals, and performs a step of combining the converted digital signals into joint data corresponding to a plurality of types of motions.

도 4는 본 발명의 실시 예에 따른 동작 예측 방법을 설명하기 위한 순서도이다.4 is a flowchart for explaining a motion prediction method according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시 예에 따른 동작 예측 방법은, 먼저 기계 학습 장치가 복수 종류의 동작마다 관절의 움직임을 나타내는 관절 데이터 집합을 이용하여 기계학습모델을 학습한다(S910).Referring to FIG. 4 , in the motion prediction method according to an embodiment of the present invention, first, the machine learning device learns a machine learning model using a joint data set representing motions of joints for each of a plurality of types of motions (S910).

이를 위해, 기계 학습 장치는 한 동작에 대해 동작의 원점이 되는 기점관절 및 기점관절의 움직임에 연동하는 연동관절의 시계열적인 가속-감속 운동에 관한 정보를 포함하는 관절 데이터 집합을 생성한다. 그리고, 복수 종류의 동작을 학습하기 위해 각 동작에 대해 관절 데이터 집합들을 분류하며, 관절 데이터 집합들을 이용하여 복수 종류의 동작에 대한 기계학습모델을 학습한다.To this end, the machine learning apparatus generates a joint data set including information about time-sequential acceleration-deceleration motions of the origin joint, which is the origin of the motion, and the interlocking joint linked to the movement of the origin joint, for one motion. Then, in order to learn a plurality of types of motions, joint data sets are classified for each motion, and a machine learning model for a plurality of types of motions is learned using the joint data sets.

여기서 기계학습모델은 은닉마르코프 모델(HMM: Hidden Mark Model), 가우시안 혼합모델(Gaussian mixture model)등의 일반적 기계학습모델 중 적어도 하나를 사용하여 동작을 학습할 수 있다.Here, the machine learning model may learn an operation using at least one of general machine learning models such as a hidden mark model (HMM) and a Gaussian mixture model.

기계 학습 장치는 하나의 동작을 한번 수행하는 데에 L(L은 양의 정수)번의 가속-감속 운동이 발생하는 경우, L개 세트의 관절 데이터 집합을 생성할 수 있다. 이로써, 시계열적인 가속-감속 운동 데이터를 생성한다.The machine learning apparatus may generate L sets of joint data sets when L (L is a positive integer) number of acceleration-deceleration motions occur to perform one motion once. In this way, time-sequential acceleration-deceleration motion data is generated.

다음으로, 동작 인식 장치가 각 신체영역의 동작을 인식하고, 상기 동작하는 신체영역의 해당 관절에 대한 관절 데이터를 수집한다(S920). 이를 위해 동작 인식 장치는 앞서 설명한 상기 입력부에서 이용된 예를 들어, 3D 카메라, 초음파 센서, 키넥트(kinect) 중 적어도 하나를 통해 상기 각 신체영역의 동작을 인식할 수 있다.Next, the motion recognition device recognizes the motion of each body region and collects joint data for the corresponding joint of the body region in operation (S920). To this end, the motion recognition device may recognize motions of the respective body regions through at least one of, for example, a 3D camera, an ultrasonic sensor, and a kinect used in the input unit described above.

동작 인식 장치가 상기 입력부를 통해 입력받은 인체의 관절 움직임 영상을 디지털 신호로 변환하고, 변환된 디지털 신호를 복수 종류의 각 동작에 해당하는 관절 데이터로 묶을 수 있다.The motion recognition device may convert motion images of human joints received through the input unit into digital signals, and bundle the converted digital signals into joint data corresponding to a plurality of types of motions.

구체적으로, 동작 인식 장치는 동작하는 신체영역에 대해 미리 선정된 기점관절 및 연동관절이 동작을 시작할 때의 각 각도, 감속시의 각 각도, 감속을 시작할 때까지의 평균 각가속도 및 이동방향을 관절 데이터로서 수집한다.Specifically, the motion recognition device converts each angle at the start of motion, each angle at deceleration, the average angular acceleration until the start of deceleration, and the direction of movement of the starting point joint and interlocking joint selected in advance for the body region in motion as joint data. collect as

다음으로, 동작 분석 장치가 상기 관절 데이터를 스트리밍 방식으로 수신함과 동시에 실시간으로 수신된 관절 데이터를 미리 학습된 복수 종류의 동작들과 비교하여 유사도를 판단하고(S930), 동작 분석 장치가 동작이 종료되기 전에 유사도가 미리 설정된 기준치 이상에 해당하는 하나의 동작을 추출한다(S940).Next, the motion analysis device receives the joint data in a streaming manner and compares the received joint data in real time with a plurality of previously learned motions to determine similarity (S930), and the motion analysis device ends the motion. One motion corresponding to a similarity equal to or higher than a predetermined reference value is extracted (S940).

구체적으로, 동작 분석 장치가 동작 인식 장치로부터 관절 데이터를 스트리밍 방식으로 수신함과 동시에 실시간으로 수신된 관절 데이터를 미리 학습된 복수 종류의 동작들과 비교하여 유사도를 판단하고, 동작이 종료되기 전에 유사도가 미리 설정된 기준치 이상에 해당하는 하나의 동작을 추출한다.Specifically, the motion analysis device receives joint data from the motion recognition device in a streaming manner, compares the received joint data in real time with a plurality of previously learned motions to determine similarity, and determines the similarity before the motion ends. One motion corresponding to a predetermined reference value or higher is extracted.

여기서 쟁점은 동작 분석 장치가 입력되는 인체의 동작이 종료되기 전에 즉, 동작이 종료되는 시점의 종료정보가 입력되기 전에 스트리밍 방식으로 입력되는 관절 데이터에서 기점관절 및 연동관절의 각도, 동작 중 감속을 시작할 때의 각도, 감속을 시작할 때까지의 평균 각가속도 및 관절의 이동방향 중 적어도 하나의 정보를 미리 학습된 동작들과 비교하여 유사도를 판단하고, 유사도 판단에 기반하여 동작이 어떠한 종류의 동작인지 파악하며, 파악된 동작에 대해 미리 학습된 관절 데이터 집합을 추출하여, 추출된 관절 데이터 집합에 포함된 종료정보에 기반하여 현재 동작의 종료를 예측할 수 있도록 하는 데에 있다.The issue here is before the motion analysis device inputs the motion of the human body, that is, before the end information at the time when the motion ends is input, in the joint data input in the streaming method, the angle of the origin joint and interlocking joint, and the deceleration during motion The degree of similarity is determined by comparing information of at least one of the angle at the start, the average angular acceleration until the start of deceleration, and the movement direction of the joint with previously learned motions, and based on the similarity judgment, it is determined what type of motion the motion is. And, by extracting a pre-learned joint data set for the identified motion, the end of the current motion can be predicted based on end information included in the extracted joint data set.

다음으로, 동작 예측 장치가 추출된 동작에 대해 미리 학습된 관절 데이터 집합에 포함된 종료정보에 기반하여 동작의 종료를 예측한다(S950).Next, the motion prediction device predicts the end of the motion based on the end information included in the pre-learned joint data set for the extracted motion (S950).

구체적으로, 동작 예측 장치가 동작 분석 장치에 의해 추출된 동작에 대해 미리 학습된 관절 데이터 집합을 추출한다. 추출된 관절 데이터 집합 중 동작이 종료될 시 기점관절 및 연동관절의 각 각도, 해당 동작이 완성되는 시간정보, 해당 동작의 특징을 나타내는 종류정보 및 해당 동작에 연관된 관절의 위치정보 중 적어도 하나를 추출하여 동작의 종료를 예측하는 데에 이용한다.Specifically, the motion prediction device extracts a joint data set previously learned for the motion extracted by the motion analysis device. From the extracted joint data set, at least one of each angle of the origin joint and interlocking joint at the end of the motion, time information when the corresponding motion is completed, type information representing the characteristics of the corresponding motion, and location information of joints related to the corresponding motion are extracted. It is used to predict the end of an operation.

아울러, 동작 예측 장치가 미리 학습된 동작이 완성되는 시간정보에 기초하여 현재시간으로부터 입력되는 동작의 종료시점을 산출할 수 있다.In addition, the motion prediction device may calculate an end point of an input motion from a current time based on time information at which the previously learned motion is completed.

본 발명의 실시 예에 따른 동작 예측 방법에 따르면, 사용자가 직접 명령어를 입력하지 않더라도 특정 행동을 명령으로 인식하여 시스템을 제어하는 분야에서 사용자가 직접 장치를 조작하지 않더라도, 사용자의 동작을 분석하여 게임 또는 가전제품을 조작 제어하는데 있어서, 사용자의 동작이 종료되기 전에 종료 정보를 예측함으로써, 반응 속도를 향상시킬 수 있는 효과가 있다.According to the motion prediction method according to an embodiment of the present invention, even if the user does not directly input a command, the user's motion is analyzed to play a game even if the user does not directly operate a device in the field of recognizing a specific action as a command and controlling the system. Alternatively, in operating and controlling home appliances, reaction speed can be improved by predicting end information before a user's motion ends.

아울러, 본 발명의 실시 예에 따른 동작 예측 방법에 따르면, 인간의 동작을 인식하고 분석하는 데에 동작의 모든 움직임과, 모든 관절에 대한 운동 데이터를 이용하는 것이 아니라, 미리 선정된 주요 관절에 대한 시계열적인 가속-감속 운동데이터를 이용함으로써, 계산량을 줄이고 따라서 동작 예측 속도와 더 나아가 IT 기술의 반응 속도를 향상시킬 수 있다.In addition, according to the motion prediction method according to an embodiment of the present invention, in order to recognize and analyze human motions, not all motions of motions and motion data for all joints are used, but time series for major joints selected in advance. By using regular acceleration-deceleration motion data, the amount of calculation can be reduced, and thus the motion prediction speed and furthermore, the reaction speed of IT technology can be improved.

또한, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.In addition, the embodiments of the present invention can be implemented as computer readable codes in a computer readable recording medium. The computer-readable recording medium includes all types of recording devices in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. In addition, the computer-readable recording medium may be distributed to computer systems connected through a network, so that computer-readable codes may be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention belongs.

본 발명의 단위 동작에 따른 사람의 행동 인식 방법 및 시스템은 사람의 관절 움직임 정보 중 의미있는 주요 단위 동작을 추출하고, 추출된 주요 단위 동작을 종류, 시간, 위치 중 적어도 하나의 정보에 따라 계층적으로 분류함으로써, 관절의 움직임을 통해 사람의 행동 인식에 대한 정확도를 향상시킬 수 있는 효과가 있다.A method and system for recognizing human behavior according to unit motions of the present invention extracts meaningful main unit motions from among human joint motion information, and hierarchically classifies the extracted main unit motions according to at least one information among type, time, and location. By classifying into, there is an effect of improving the accuracy of human action recognition through joint movement.

또한 본 발명의 단위 동작에 따른 사람의 행동 인식 방법 및 시스템은 사람의 행동 중 의미없는 노이즈 데이터를 제외하고 의미있는 주요 단위 동작으로부터 동작 특징을 검출함으로써, 사람의 행동 인식에 필요한 데이터 계산량을 현저히 감소시켜, 사람의 행동 인식에 따른 소요시간을 단출시킬 수 있는 효과가 있다.In addition, the method and system for recognizing human behavior according to unit motions of the present invention significantly reduce the amount of data computation required for human behavior recognition by detecting motion features from meaningful main unit motions excluding meaningless noise data among human motions. This has the effect of shortening the time required for recognizing human behavior.

이상에서, 출원인은 본 발명의 바람직한 실시예들을 설명하였지만, 이와 같은 실시예들은 본 발명의 기술적 사상을 구현하는 일 실시예일 뿐이며 본 발명의 기술적 사상을 구현하는 한 어떠한 변경예 또는 수정예도 본 발명의 범위에 속하는 것으로 해석되어야 한다.In the above, the applicant has described the preferred embodiments of the present invention, but these embodiments are only one embodiment of implementing the technical idea of the present invention, and any changes or modifications are the same as those of the present invention as long as they implement the technical idea of the present invention. should be construed as falling within the scope.

Claims (4)

기계 학습 장치가 복수 종류의 동작마다 관절의 움직임을 나타내는 관절 데이터 집합을 이용하여 기계학습모델을 학습하는 단계;
동작 인식 장치가 각 신체영역의 동작을 인식하고, 상기 동작하는 신체영역의 해당 관절에 대한 관절 데이터를 수집하는 단계;
동작 분석 장치가 상기 관절 데이터를 스트리밍 방식으로 수신함과 동시에 실시간으로 상기 수신된 관절 데이터를 미리 학습된 상기 복수 종류의 동작들과 비교하여 유사도를 판단하는 단계;
상기 동작 분석 장치가 상기 동작이 종료되기 전에 상기 유사도가 미리 설정된 기준치 이상에 해당하는 하나의 동작을 추출하는 단계; 및
동작 예측 장치가 상기 추출된 동작에 대해 운동준비 상태를 판단하는 단계;를 포함하는 것을 특징으로 하는 관절 각도변화 기반 운동준비상태 확인방법.
Learning, by a machine learning device, a machine learning model using a joint data set representing movement of a joint for each of a plurality of types of motion;
recognizing, by a motion recognition device, a motion of each body region, and collecting joint data for a corresponding joint of the body region in motion;
A motion analysis device receiving the joint data in a streaming manner and comparing the received joint data with the plurality of previously learned motions in real time to determine a degree of similarity;
extracting, by the motion analysis device, one motion corresponding to a predetermined reference value or higher in similarity before the motion ends; and
A method for confirming motion readiness based on a change in joint angle, comprising the step of determining, by a motion prediction device, a motion readiness for the extracted motion.
제1항에 있어서,
상기 기계 학습 장치가 기계학습모델을 학습하는 단계 이전에 상기 복수 종류의 각 동작을 설정하는 단계를 더 포함하는 것을 특징으로 하는 관절 각도변화 기반 운동준비상태 확인방법.
According to claim 1,
The joint angle change-based exercise readiness confirmation method further comprising the step of setting each of the plurality of types of motion prior to the step of learning the machine learning model by the machine learning device.
제2항에 있어서,
각 동작마다 동작의 원점이 되는 기점관절과, 상기 기점관절의 움직임에 연동하는 연동관절을 설정하는 단계를 더 포함하는 것을 특징으로 하는 관절 각도변화 기반 운동준비상태 확인방법.
According to claim 2,
A method for confirming readiness for motion based on a change in joint angle, further comprising setting a starting point joint serving as the origin of the motion for each motion and an interlocking joint interlocking with the movement of the starting point joint.
제3항에 있어서,
상기 각 동작마다 동작을 시작할 때의 상기 기점관절 및 연동관절의 각도, 동작 중 감속을 시작할 때의 각도, 상기 감속을 시작할 때까지의 평균 각가속도, 이동방향, 상기 동작이 종료될 때의 상기 기점관절 및 연동관절의 각도를 상기 동작정보에 포함하는 것을 특징으로 하는 관절 각도변화 기반 운동준비상태 확인방법.
According to claim 3,
For each of the motions, the angle of the origin joint and interlocking joint at the start of the motion, the angle at the start of deceleration during motion, the average angular acceleration until the start of the deceleration, the direction of movement, and the origin joint at the end of the motion and an angle of an interlocking joint is included in the motion information.
KR1020210160323A 2021-11-19 2021-11-19 Electronic device and method for motion readiness check based on joint angle change KR20230073681A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210160323A KR20230073681A (en) 2021-11-19 2021-11-19 Electronic device and method for motion readiness check based on joint angle change

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210160323A KR20230073681A (en) 2021-11-19 2021-11-19 Electronic device and method for motion readiness check based on joint angle change

Publications (1)

Publication Number Publication Date
KR20230073681A true KR20230073681A (en) 2023-05-26

Family

ID=86537372

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210160323A KR20230073681A (en) 2021-11-19 2021-11-19 Electronic device and method for motion readiness check based on joint angle change

Country Status (1)

Country Link
KR (1) KR20230073681A (en)

Similar Documents

Publication Publication Date Title
Kerdjidj et al. Fall detection and human activity classification using wearable sensors and compressed sensing
US20190230210A1 (en) Context recognition in mobile devices
US9959732B2 (en) Method and system for fall detection
US9648478B2 (en) Fall detection system using a combination of accelerometer, audio input and magnetometer
US9443536B2 (en) Apparatus and method for detecting voice based on motion information
US11047706B2 (en) Pedometer with accelerometer and foot motion distinguishing method
US20180008191A1 (en) Pain management wearable device
US11253747B2 (en) Automated activity detection and tracking
KR102089002B1 (en) Method and wearable device for providing feedback on action
KR20200011818A (en) Method and device for estimating physical state of a user
US11464477B2 (en) Blood vessel obstruction diagnosis method, apparatus and system
CN111475206B (en) Method and apparatus for waking up wearable device
JP2015088161A (en) Gesture input device, gesture input method, and gesture input program
US20150254575A1 (en) Learn-by-example systems and methos
Martínez-Villaseñor et al. Deep learning for multimodal fall detection
CN115509344A (en) Machine learning based gesture recognition with framework for adding user-customized gestures
CN105161100B (en) Control method and electronic device
Siantikos et al. A low-cost approach for detecting activities of daily living using audio information: A use case on bathroom activity monitoring
KR20230073681A (en) Electronic device and method for motion readiness check based on joint angle change
KR102108180B1 (en) Method and wearable device for providing feedback on exercise
KR102323576B1 (en) System for Determining Dementia Using Public Wireless Medical Device Based on IoT
KR20230154380A (en) System and method for providing heath-care services fitting to emotion states of users by behavioral and speaking patterns-based emotion recognition results
KR102397941B1 (en) A method and an apparatus for estimating blood pressure
KR102270637B1 (en) Method for analyzing pet behavior based on interaction with adoptees
CN114662606A (en) Behavior recognition method and apparatus, computer readable medium and electronic device