KR102566211B1 - Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model - Google Patents

Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model Download PDF

Info

Publication number
KR102566211B1
KR102566211B1 KR1020220176241A KR20220176241A KR102566211B1 KR 102566211 B1 KR102566211 B1 KR 102566211B1 KR 1020220176241 A KR1020220176241 A KR 1020220176241A KR 20220176241 A KR20220176241 A KR 20220176241A KR 102566211 B1 KR102566211 B1 KR 102566211B1
Authority
KR
South Korea
Prior art keywords
exercise
motion
patient
image
information
Prior art date
Application number
KR1020220176241A
Other languages
Korean (ko)
Inventor
김병훈
윤찬
Original Assignee
에버엑스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에버엑스 주식회사 filed Critical 에버엑스 주식회사
Priority to KR1020220176241A priority Critical patent/KR102566211B1/en
Application granted granted Critical
Publication of KR102566211B1 publication Critical patent/KR102566211B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 환자의 운동 동작을 분석하는 방법 및 시스템에 관한 것이다. 본 발명에 따른 운동 치료 제공 방법은, 본 발명에 따른 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 추정 방법은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 단계, 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 단계, 환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 단계, 인공 지능 자세 추정 모델을 이용하여, 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 단계, 상기 관절 포인트와 관련된 학습 데이터를 이용하여 학습된 인공지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하는 단계 및 상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 단계를 포함할 수 있다The present invention relates to a method and system for analyzing a patient's motor motion. The method for providing exercise therapy according to the present invention includes the steps of receiving prescription information related to exercise for a patient from a doctor terminal. Allocating an exercise plan including at least one prescription exercise to the patient's account based on the prescription information, receiving an exercise image of the exercise according to the prescription exercise from a patient terminal, extracting key points respectively corresponding to a plurality of preset joint points from the motion image using an intelligent posture estimation model; through an artificial intelligence motion analysis model learned using learning data related to the joint points; Analyzing a relative positional relationship between keypoints, and based on the analysis of the positional relationship, analyzing the exercise motion of the patient for the prescription exercise, and transmitting the analysis result of the motion motion of the patient to the patient terminal. may include steps to

Description

인공 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 방법, 그리고 시스템{METHOD AND SYSTEM FOR PROVIDING TREATMENT USING ARTIFICIAL INTELLIGENCE POSTURE ESTIMATION MODEL AND MOTION ANALYSIS MODEL}Motion therapy providing method and system using artificial intelligence posture estimation model and motion analysis model

본 발명은 근골격계 질환에 특화된 인공 지능 자세 추정 모델 및 인공 지능 동작 분석 모델을 이용하여, 환자에게 운동 치료를 제공할 수 있는 방법 및 시스템에 관한 것이다. The present invention relates to a method and system capable of providing exercise therapy to a patient using an artificial intelligence posture estimation model and an artificial intelligence motion analysis model specialized for musculoskeletal disorders.

근골격계 질환이란, 근육, 신경, 건, 인대, 뼈와 주변조직 등 근골격계에 발생하는 통증 또는 손상을 말한다. 근골격계 질환은 목과 허리, 팔과 다리 등 우리 몸의 다양한 곳에 나타난다. Musculoskeletal disorders refer to pain or damage occurring in the musculoskeletal system, such as muscles, nerves, tendons, ligaments, bones and surrounding tissues. Musculoskeletal disorders appear in various parts of our body, such as the neck, waist, arms and legs.

세계보건기구 (WHO-World Health Organization)의 보고에 따르면, 근골격계 질환으로 인한 경제적 손실은 전체 질환 중 네번째로 높은 것으로 나타났으며, 근골격계 질환은 일상 생활 뿐만 아니라 경제 활동에도 영향을 미치는 만성적인 통증이다. According to the report of the World Health Organization (WHO-World Health Organization), economic loss due to musculoskeletal disorders is the fourth highest among all diseases, and musculoskeletal disorders are chronic pains that affect not only daily life but also economic activities. .

한편, 근골격계 질환의 치료는, 침습적인 정도가 적은 치료부터 시행되는 것이 원칙으로, 비약물 보존적 치료(ex: 운동 치료 및 교육, 인지 치료 또는 이완 요법 등)가 먼저 시행되고, 이후 약물치료, 수술적 치료가 순차적으로 고려되어야 한다. On the other hand, treatment of musculoskeletal disorders, in principle, is performed starting with less invasive treatment, and non-drug conservative treatment (ex: exercise treatment and education, cognitive therapy or relaxation therapy, etc.) is performed first, followed by drug treatment, Surgical treatment should be considered sequentially.

치료 지침에서는, 근골격계 질환의 비약물 보존적 치료를 적극적으로 권장하고 있으며, 미국 및 유럽을 중심으로, 근골격계 질환의 비약물 보존적 치료를 수행하는 방법에 대한 연구가 활발하게 진행되고 있다. In the treatment guidelines, non-drug conservative treatment of musculoskeletal disorders is actively recommended, and research on methods for performing non-drug conservative treatment of musculoskeletal disorders is being actively conducted, mainly in the United States and Europe.

한편, 기술이 발전함에 따라, 전자기기(예를 들어, 스마트폰, 태블릿 PC 등)의 보급이 대중화되었으며, 이에 따라 일상생활의 많은 부분에서 인터넷에 대한 의존도가 점차적으로 높아지고 있다. On the other hand, as technology develops, the spread of electronic devices (eg, smart phones, tablet PCs, etc.) has become popular, and accordingly, dependence on the Internet is gradually increasing in many parts of daily life.

이와 같이, 인터넷을 비롯한 다양한 기술의 발전에 힘입어, 종래 오프라인에 대한 의존도가 높았던 소비패턴은, 점차적으로 온라인(on-line)으로 옮겨갔으며, 현재에는, 온라인을 중심으로 한 소비가 기하급수적으로 늘어가고 있다. In this way, thanks to the development of various technologies including the Internet, consumption patterns that were previously highly dependent on offline have gradually moved to online, and now, consumption centered on online is exponentially increasing. is increasing

이러한 트렌드의 변화에 맞추어, 의료 산업과 같은 서비스의 특성상 오프라인(off-line)에 기반을 둔 산업 분야 역시, 온라인을 통하여 의료 서비스를 제공하는 것이 보편화 되고 있다. In line with these trend changes, providing medical services online is also becoming common in industries that are based off-line due to the characteristics of services, such as the medical industry.

이에, 최근에는, 온라인을 통한 다양한 의료 서비스가 제공되고 있으며, 환자, 즉 사용자는 인터넷이 연결된 전자기기를 통해, 몇번의 클릭 만으로, 의료진과 질병에 대한 의료 상담을 할 수 있게 되었다. Accordingly, in recent years, various medical services have been provided online, and patients, that is, users, can have medical consultations about diseases with a medical staff with just a few clicks through an electronic device connected to the Internet.

이러한 기술로서, 대한민국 등록특허 제10-2195512호는 온라인 의료 플랫폼을 제공하는 서버 및 시스템과 관련된 기술을 개시하고 있으며, 온라인을 통한 의료 서비스 제공 지점에 대한 정보를 환자에게 제공하고 있다. As such technology, Korean Patent Registration No. 10-2195512 discloses a technology related to a server and system providing an online medical platform, and provides information about a medical service point through online to a patient.

이러한 트렌드에 맞추어, 근골격계 질환의 비약물 보존적 치료를 온라인으로 제공하는 방법에 니즈가 존재한다. In line with this trend, there is a need for a method of providing online non-drug conservative treatment of musculoskeletal disorders.

본 발명은, 온라인을 기반으로 근골격계 질환에 대한 운동 치료를 제공할 수 있는 운동 치료 제공 방법 및 시스템에 관한 것이다. The present invention relates to an exercise therapy providing method and system capable of providing exercise therapy for musculoskeletal disorders on an online basis.

특히, 본 발명은, 운동 영상을 기반으로, 처방된 운동을 수행하는 환자의 운동 동작을 분석할 수 있는 운동 치료 제공 방법 및 시스템에 관한 것이다. In particular, the present invention relates to a method and system for providing exercise therapy capable of analyzing a motion motion of a patient performing a prescribed exercise based on motion images.

특히, 본 발명은 근골격계 질환에 특화된 인공 지능 모델에 기반하여, 운동 영상으로부터 환자의 운동 동작을 분석할 수 있는 운동 치료 제공 방법 및 시스템에 관한 것이다. In particular, the present invention relates to a method and system for providing exercise therapy capable of analyzing a patient's exercise motion from a motion image based on an artificial intelligence model specialized for musculoskeletal disorders.

나아가, 본 발명은, 환자가 근골격계 질환의 치료에 용이하게 접근 가능한 사용자 환경을 제공할 수 있는 운동 치료 제공 방법 및 시스템에 관한 것이다. Furthermore, the present invention relates to a method and system for providing exercise therapy capable of providing a user environment in which patients can easily access treatment of musculoskeletal disorders.

위에서 살펴본 과제를 해결하기 위하여, 본 발명에 따른 운동 치료 제공 방법은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 단계, 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 단계, 환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 단계, 인공 지능 자세 추정 모델을 이용하여, 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 단계, 인공 지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하는 단계 및 상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 단계를 포함할 수 있다.In order to solve the problems described above, the exercise treatment providing method according to the present invention includes the steps of receiving prescription information related to exercise for a patient from a doctor terminal, based on the prescription information, the patient Allocating an exercise plan including at least one prescription exercise to an account of the patient, receiving an exercise image of a motion according to the prescription exercise from a patient terminal, using an artificial intelligence posture estimation model, the exercise extracting keypoints corresponding to a plurality of preset joint points from the image; analyzing the relative positional relationship between the keypoints through an artificial intelligence motion analysis model; and based on the analysis of the positional relationship, the prescription motion Analyzing the exercise motion of the patient and transmitting an analysis result of the exercise motion of the patient to the patient terminal.

나아가, 본 발명에 따른 운동 치료 제공 추정 방법은, 상기 환자 단말기에서 상기 운동 영상이 촬영되는 것에 연동하여, 상기 환자 단말기에 상기 운동 영상을 실시간으로 출력하는 단계 및 상기 환자가, 상기 환자의 운동 동작에 대해 분석이 이루어지는 관절 포인트를 인지가능 하도록, 상기 운동 영상 중 상기 환자에 대응되는 피사체가 위치한 영역에, 추출된 상기 키포인트에 해당하는 그래픽 객체를 오버랩하여 제공하는 단계를 더 포함할 수 있다. Furthermore, the method for estimating the provision of exercise therapy according to the present invention includes the steps of outputting the exercise image to the patient terminal in real time in association with the motion image being captured by the patient terminal, and the patient performing the exercise motion of the patient. The method may further include overlapping and providing a graphic object corresponding to the extracted keypoint in an area where a subject corresponding to the patient is located in the motion image so as to be able to recognize a joint point for which analysis is performed for .

일 예에 있어서, 상기 키포인트를 추출하는 단계에서는, 상기 기 설정된 복수의 관절 포인트 중, 상기 운동 영상에서 가시(visible) 가능한 상기 피사체의 가시 관절 포인트를 특정하고, 특정된 상기 가시 관절 포인트를 상기 키포인트로서 추출할 수 있다. In an example, in the step of extracting the keypoint, visible joint points of the subject that are visible in the motion image are specified among the plurality of preset joint points, and the specified visible joint points are selected as the keypoints. can be extracted as

일 예에 있어서, 상기 동작 분석 모델은, 상기 학습 데이터에 기반하여, 상기 기 설정된 복수의 관절 포인트 중 상기 운동 영상에서 가시(visible) 불가능한 상기 피사체의 비가시(invisible) 관절 포인트를 예측하고, 상기 가시 관절 포인트와 상기 비가시 관절 포인트에 기반하여, 상기 환자의 운동 동작을 분석할 수 있다. In one example, the motion analysis model predicts an invisible joint point of the subject that is not visible in the motion image among the plurality of preset joint points based on the learning data, and the An exercise motion of the patient may be analyzed based on the visible joint points and the non-visible joint points.

이 경우, 상기 키포인트는, 상기 가시 관절 포인트 및 상기 비가시 관절 포인트에 해당하는 키포인트를 포함할 수 있다. In this case, the keypoints may include keypoints corresponding to the visible joint points and the invisible joint points.

일 예에 있어서, 상기 학습 데이터는, 학습 대상 영상에 포함된 피사체의 학습 대상 가시 관절 포인트 및 상기 가시 관절 포인트에 기반하여 추정되는 학습 대상 비가시 관절 포인트에 대한 위치 정보가 순차적으로 나열된 제1 데이터 그룹 및 상기 학습 대상 가시 관절 포인트 및 상기 학습 대상 비가시 관절 포인트 각각의 가시 여부를 나타내는 데이터 값을 포함하는 제2 데이터 그룹을 포함할 수 있다. In one example, the learning data is first data in which positional information about visible joint points to be learned and non-visible joint points to be studied that are estimated based on the visible joint points of a subject included in the target image to be learned are sequentially listed. and a second data group including a data value indicating whether each of the visible joint points to be learned and the non-visible joint points to be learned are visible.

이 경우, 상기 제2 데이터 그룹에 포함된 데이터 값의 나열 순서는, 상기 학습 대상 가시 관절 포인트 및 상기 학습 대상 비가시 관절 포인트가 나열된 순서와 동일한 순서를 갖을 수 있다. In this case, the order in which data values included in the second data group are listed may have the same order as the order in which the visible joint points to be learned and the non-visible joint points to be learned are listed.

일 예에 있어서, 기 환자의 운동 동작을 분석하는 단계에서는, 상기 처방 운동과 관련된 규칙 정보를 기준으로, 상기 키포인트 간의 상대 위치 관계를 분석하고, 상기 키 포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 판단하는 것을 통해 상기 환자의 운동 동작을 분석할 수 있다.In one example, in the step of analyzing the exercise motion of the patient, the relative positional relationship between the key points is analyzed based on the rule information related to the prescribed exercise, and the relative positional relationship between the key points satisfies the rule information. It is possible to analyze the exercise motion of the patient by determining whether or not.

일 예에 있어서, 상기 운동 영상에 오버랩되는 그래픽 객체의 시각적 외관은, 추출된 상기 키포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 여부에 따라 서로 다르게 이루어질 수 있다. In one example, the visual appearance of the graphic object overlapping the motion image may be different depending on whether the relative positional relationship between the extracted keypoints satisfies the rule information.

일 예에 있어서, 상기 환자의 운동 동작에 대한 분석 결과는, 상기 운동 영상이 상기 환자 단말기에서 촬영되고 있는 상태에서, 상기 키포인트에 해당하는 상기 그래픽 객체를 상기 규칙 정보에 근거한 서로 다른 시각적 외관으로, 상기 운동 영상에 실시간으로 오버랩하여 제공하는 제1 분석 결과 및 상기 운동 영상을 구성하는 복수의 프레임들 각각으로부터 추출된 키포인트에 기초하여 상기 처방 운동에 대한 상기 환자의 평가 점수를 포함하는 제2 분석 결과를 포함할 수 있다. In one example, the analysis result of the exercise motion of the patient, in a state in which the motion image is being captured by the patient terminal, the graphic object corresponding to the key point to a different visual appearance based on the rule information, A second analysis result including the patient's evaluation score for the prescribed exercise based on a first analysis result overlapping the exercise image and provided in real time and a key point extracted from each of a plurality of frames constituting the exercise image can include

이 경우, 상기 제1 분석 결과는 상기 환자 단말기에 설치된 애플리케이션의 동작 분석 모델에 의해서 생성되고, 상기 제2 분석 결과는, 상기 애플리케이션과 연동하는 클라우드 서버에서 이루어지며, 상기 제1 분석 결과 및 상기 제2 분석 결과 모두는, 상기 의사 단말기로 전송될 수 있다. In this case, the first analysis result is generated by a motion analysis model of an application installed in the patient terminal, and the second analysis result is made in a cloud server that interworks with the application, and the first analysis result and the first analysis result are generated. 2, all of the analysis results may be transmitted to the doctor terminal.

나아가, 본 발명에 따른 운동 치료 운동 치료 제공 시스템은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 통신부 및 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 제어부를 포함하고, 상기 제어부는, 환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하고, 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하고, 인공 지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하고, 상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송할 수 있다. Furthermore, the exercise therapy exercise therapy providing system according to the present invention, based on the communication unit and the prescription information for receiving exercise-related prescription information for a patient from a doctor terminal, the patient's account, A control unit for allocating an exercise plan including at least one prescription exercise, wherein the control unit receives, from a patient terminal, an exercise image obtained by photographing an exercise according to the prescription exercise, and from the exercise image, sets a plurality of preset exercises. Keypoints corresponding to each joint point are extracted, and the relative positional relationship between the keypoints is analyzed through an artificial intelligence motion analysis model, and based on the analysis of the positional relationship, the motion motion of the patient for the prescribed motion is determined. analysis, and an analysis result of the exercise motion of the patient may be transmitted to the patient terminal.

나아가, 본 발명에 따른 운동 치료 제공 시스템은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 통신부 및 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 제어부를 포함하고, 상기 제어부는, 환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하고, 인공 지능 동작 분석 모델을 이용하여, 상기 운동 영상으로부터, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하고, 상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 것을 특징으로 한다.Furthermore, the exercise treatment providing system according to the present invention includes a communication unit that receives prescription information related to exercise for a patient from a doctor terminal and, based on the prescription information, at least one in the patient's account. A control unit for allocating an exercise plan including a prescription exercise of the exercise, wherein the control unit receives an exercise image obtained by photographing an exercise according to the prescription exercise from a patient terminal, and uses an artificial intelligence motion analysis model to perform the exercise. It is characterized in that the exercise motion of the patient for the prescription exercise is analyzed from the video, and the analysis result of the exercise motion of the patient is transmitted to the patient terminal.

나아가, 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 단계, 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 단계, 환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 단계, 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 단계, 인공 지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하는 단계 및 상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 단계를 수행하는 명령어들을 포함할 수 있다. Furthermore, a program executed by one or more processes in an electronic device and stored in a computer-readable recording medium receives prescription information related to exercise for a patient from a doctor terminal; Allocating an exercise plan including at least one prescription exercise to the patient's account based on prescription information, receiving an exercise image obtained by photographing an exercise according to the prescription exercise from a patient terminal, the exercise image extracting keypoints corresponding to a plurality of preset joint points, analyzing the relative positional relationship between the keypoints through an artificial intelligence motion analysis model, and based on the analysis of the positional relationship, the prescription exercise It may include instructions for performing the step of analyzing the exercise motion of the patient for the patient and the step of transmitting the analysis result of the motion motion of the patient to the patient terminal.

위에서 살펴본 것과 같이, 본 발명에 따른 운동 치료 제공 시스템 및 방법은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하고, 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당할 수 있다. 이를 통해, 근골격계 질환에 대한 운동 치료를 위해 의사와 환자의 대면이 없더라도, 의사는 환자에게 처방이 가능하고, 환자는 의사의 처방에 따른 운동 플랜을 제공받음으로써, 운동 치료에 대한 장소적, 시간적, 경제적 제약을 해결하고, 운동 치료에 대한 접근성을 높일 수 있다. As described above, the exercise therapy providing system and method according to the present invention receives prescription information related to exercise for a patient from a doctor terminal, and based on the prescription information, the patient's account For example, an exercise plan including at least one prescription exercise may be assigned. Through this, even if there is no face-to-face meeting between a doctor and a patient for exercise treatment for musculoskeletal disorders, the doctor can prescribe to the patient and the patient is provided with an exercise plan according to the doctor's prescription, thereby providing a spatial and temporal improvement in exercise treatment. , can address economic constraints and increase access to exercise therapy.

나아가, 본 발명에 따른 운동 치료 제공 시스템 및 방법은, 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출함으로써, 근골격계 질환의 운동 치료에 필요한 관절에 포커스(Focus)를 맞추어 사용자의 운동 동작을 분석할 수 있다. Furthermore, the system and method for providing exercise therapy according to the present invention extract key points corresponding to a plurality of preset joint points from a motion image, thereby focusing on the joints required for exercise treatment of musculoskeletal disorders, thereby helping the user's health. movement can be analyzed.

나아가, 본 발명에 따른 운동 치료 제공 시스템 및 방법은, 관절 포인트에 대한 위치 정보를 포함하는 학습 데이터 세트(data set)를 이용하여 학습된 자세 추정 모델에 기반하여, 운동 영상에 포함된 사용자의 특정 운동 동작과 관련된 운동 동작을 분석할 수 있다. 이를 통해, 본 발명에서는 운동 영상으로부터 환자의 자세에 대한 정확한 분석이 가능하며, 특히, 환자의 관절 가동 범위, 정렬 상태 및 이탈 상태 등에 대한 정보를 획득하여 의료 서비스의 퀄리티(quality)를 향상시킬 수 있다.Furthermore, the exercise therapy providing system and method according to the present invention is based on a posture estimation model learned using a learning data set including location information on joint points, and specifies a user included in an exercise image. An exercise motion related to the exercise motion may be analyzed. Through this, in the present invention, it is possible to accurately analyze the patient's posture from the motion image, and in particular, it is possible to improve the quality of medical service by obtaining information on the patient's joint range of motion, alignment state, and deviation state. there is.

나아가, 본 발명에 따른 운동 치료 제공 시스템 및 방법은, 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송함으로써, 환자는 먼 거리에 위치하는 병원에 직접 방문하지 않더라도 운동 영상에 대한 피드백(feedback)을 제공받아 운동 치료 효과를 제고할 수 있으며, 운동에 대한 환자의 순응도를 향상시킬 수 있다. Furthermore, the exercise therapy providing system and method according to the present invention transmits the analysis result of the patient's exercise motion to the patient terminal, so that the patient receives feedback on the exercise image even if he or she does not directly visit a hospital located at a distance ( feedback) can be provided to improve the exercise treatment effect, and the patient's compliance with exercise can be improved.

도 1은 본 발명에 따른 운동 치료 제공 시스템을 설명하기 위한 개념도이다.
도 2 및 도 3은 본 따른 운동 치료 제공 방법을 설명하기 위한 흐름도들이다.
도 4a 및 도 4b는 의사의 처방을 설명하기 위한 개념도들이다.
도 5 및 도 6은 운동 영상으로부터 환자의 운동 동작을 분석하는 방법을 설명하기 위한 개념도들이다.
도7, 도 8a 도 8b, 도 8c, 도 8d, 도 8e 및 도 8f은 인공 지능 자세 추정 모델을 설명하기 위한 개념도들이다.
도 9a, 도 9b 및 도9c는 환자의 운동 동작 분석 결과가 제공되는 사용자 환경을 설명하기 위한 개념도들이다.
1 is a conceptual diagram illustrating an exercise therapy providing system according to the present invention.
2 and 3 are flow charts for explaining a method for providing exercise therapy according to the present invention.
4A and 4B are conceptual diagrams for explaining a doctor's prescription.
5 and 6 are conceptual diagrams for explaining a method of analyzing a patient's exercise motion from a motion image.
7, 8a, 8b, 8c, 8d, 8e, and 8f are conceptual diagrams for explaining an artificial intelligence posture estimation model.
9A, 9B, and 9C are conceptual diagrams for explaining a user environment in which an analysis result of a patient's exercise motion is provided.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same reference numerals will be assigned to the same or similar components regardless of reference numerals, and overlapping descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

본 발명은 환자(Patient)의 단말기로부터 수신되는 운동 영상에 기반하여, 운동 영상에 포함된 환자의 운동 동작을 분석하고, 분석 결과를 제공하기 위한 것이다. 특히, 본 발명은, 근골격계 질환에 특화된 인공 지능 모델을 이용하여, 환자의 관절 포인트를 기반으로 운동 동작을 분석하는 방법에 대한 것이다. An object of the present invention is to analyze a patient's exercise motion included in an exercise image based on an exercise image received from a patient's terminal, and to provide an analysis result. Particularly, the present invention relates to a method of analyzing a movement motion based on a joint point of a patient using an artificial intelligence model specialized for musculoskeletal disorders.

본 발명에서는, 근골격계 질환에 대한 재활 운동의 운동 동작 분석을 중심으로 설명하나, 반드시 이에 한정되는 것은 아니다. 즉, 본 발명에서 동작 분석은, 운동 동작 뿐만 아니라, 일상 생활에서의 동작, 스트레칭(Stretch)시 동작 등 다양한 동작에 대한 분석을 모두 포함할 수 있다. In the present invention, the description is centered on the motion analysis of rehabilitation exercises for musculoskeletal disorders, but is not necessarily limited thereto. That is, motion analysis in the present invention may include analysis of various motions, such as motions in daily life and motions during stretching, as well as motions during exercise.

한편, 본 발명에서 설명되는 “운동 동작”은 운동을 수행하는 과정에서 이루어지는 몸짓(동작)으로, 몸의 “움직임”, “액션(action)”, “무브먼트(movement)”, “제스처(gesture)”등의 용어와 혼용하여 사용될 수 있다. On the other hand, the “exercise action” described in the present invention is a gesture (action) made in the process of performing an exercise, and includes “movement”, “action”, “movement”, and “gesture” of the body. It can be used interchangeably with terms such as “.

그리고, “운동 영상”은, 도 6에 도시된 것과 같이, 환자가 운동 동작을 수행하는 과정이 촬영(포함)된 영상(이미지 또는 동영상)으로, 환자(U)의 신체 중 적어도 일부가 포함될 수 있다. And, as shown in FIG. 6, the “exercise image” is an image (image or video) in which a process of the patient performing an exercise motion is recorded (including), and at least a part of the body of the patient U may be included. there is.

본 발명에서는, 운동 영상에 포함된 환자 객체를, “피사체(U)”로 명명하여 설명할 수 있다. 본 발명에서 “피사체(U)”는 운동 영상에서 운동하는 환자 또는 환자의 신체 일부를 의미할 수 있다. 본 발명에서는, “피사체”와 “환자”를 혼용하여 사용할 수 있으며, 동일한 도면부호 “U”를 부여하여 설명할 수 있다. In the present invention, the patient object included in the motion image may be named and described as “subject U”. In the present invention, “subject (U)” may mean a patient or a body part of a patient exercising in an exercise image. In the present invention, “subject” and “patient” can be used interchangeably, and the same reference numeral “U” can be given for explanation.

이하에서는 첨부된 도면과 함께, 본 발명에 따른 인공 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 방법 및 시스템에 대해 구체적으로 설명하도록 한다. 도 1은 본 발명에 따른 운동 치료 제공 시스템을 설명하기 위한 개념도이다. 도 2 및 도 3은 본 따른 운동 치료 제공 방법을 설명하기 위한 흐름도들이고, 도 4a 및 도 4b는 의사의 처방을 설명하기 위한 개념도들이고, 도 5 및 도 6은 운동 영상으로부터 환자의 운동 동작을 분석하는 방법을 설명하기 위한 개념도들이고, 도7, 도 8a 도 8b, 도 8c, 도 8d, 도 8e 및 도 8f은 인공 지능 자세 추정 모델을 설명하기 위한 개념도들이며, 도 9a, 도 9b 및 도9c는 환자의 운동 동작 분석 결과가 제공되는 사용자 환경을 설명하기 위한 개념도들이다. Hereinafter, a motion therapy providing method and system using an artificial intelligence posture estimation model and a motion analysis model according to the present invention will be described in detail along with accompanying drawings. 1 is a conceptual diagram illustrating an exercise therapy providing system according to the present invention. 2 and 3 are flow charts for explaining the exercise treatment providing method according to the present invention, FIGS. 4a and 4b are conceptual diagrams for explaining a doctor's prescription, and FIGS. 5 and 6 analyze a patient's exercise motion from a motion image. 7, 8a, 8b, 8c, 8d, 8e, and 8f are conceptual diagrams for explaining an artificial intelligence posture estimation model, and FIGS. 9a, 9b, and 9c are conceptual diagrams for explaining a method for These are conceptual diagrams for explaining a user environment in which a patient's movement motion analysis result is provided.

도 1에 도시된 것과 같이, 본 발명에 따른 운동 치료 제공 시스템(1000)은, 인공 지능 자세 추정 및 동작 분석 모델을 이용하여, 환자 단말기(10)로부터 수신된 운동 영상에서 환자의 운동 동작을 분석하는 것으로, 환자 단말기(10)에 설치되는 애플리케이션(Application, 100) 및 인공지능 서버(또는 클라우드 서버, 200) 중 적어도 하나를 포함하여 구성될 수 있다. 그리고, 본 발명에 따른 운동 치료 제공 시스템(1000)은, 학습 데이터를 이용하여 학습된 자세 추정 모델 및 동작 분석 모델을 포함할 수 있다. As shown in FIG. 1 , the motion therapy providing system 1000 according to the present invention analyzes the motion motion of a patient in motion images received from the patient terminal 10 using an artificial intelligence posture estimation and motion analysis model. As such, it may be configured to include at least one of an application (Application, 100) and an artificial intelligence server (or cloud server, 200) installed in the patient terminal 10. In addition, the exercise treatment providing system 1000 according to the present invention may include a posture estimation model and a motion analysis model learned using learning data.

본 발명에서의 애플리케이션(100)은, 환자 단말기(10)에 설치되어 근골격계 질환을 갖고 있는 환자(U)의 운동 동작을 분석하고, 분석 결과에 기반한 피드백(Feedback) 정보를 제공하는 기능을 수행할 수 있다. 이에 본 발명에 따른 애플리케이션(100)은, “디지털 운동 치료 솔루션”, “디지털 재활 치료 솔루션”, “디지털 운동 평가 솔루션”, “비대면 운동 치료 솔루션”, “비대면 재활 치료 솔루션”, “비대면 운동 평가 솔루션”, “모바일 운동 치료 프로그램”, “모바일 재활 치료 프로그램”, “모바일 운동 평가 프로그램” 및 “모바일 정형외과 재활 보조원(Mobile Orthopedic Rehabilitation Assistant, MORA) 등으로 명명될 수 있다. The application 100 in the present invention is installed in the patient terminal 10 to perform a function of analyzing the exercise motion of a patient U having a musculoskeletal disorder and providing feedback information based on the analysis result. can Accordingly, the application 100 according to the present invention is “digital exercise treatment solution”, “digital rehabilitation treatment solution”, “digital exercise evaluation solution”, “non-face-to-face exercise treatment solution”, “non-face-to-face rehabilitation treatment solution”, “non-face-to-face rehabilitation treatment solution” Face-to-face exercise evaluation solution”, “mobile exercise treatment program”, “mobile rehabilitation treatment program”, “mobile exercise evaluation program”, and “mobile orthopedic rehabilitation assistant (MORA) may be named.

본 발명에 따른 애플리케이션(100)은, 환자 단말기(10)에 설치되어, 근골격계 질환의 환자(U)와 정형외과 의사(D)를 연결하여, 환자(U)의 재활을 도와주는 역할을 수행할 수 있다. 이하에서는 설명의 편의를 위하여 환자 단말기(10)에 설치되는 애플리케이션(100)을, “운동 치료 애플리케이션”으로 명명하여 설명하도록 한다. The application 100 according to the present invention is installed on the patient terminal 10 to connect a patient with musculoskeletal disorders (U) and an orthopedic surgeon (D) to perform a role of helping the patient (U) rehabilitate. can Hereinafter, for convenience of description, the application 100 installed in the patient terminal 10 will be named and described as “exercise treatment application”.

한편, 본 발명에 따른 운동 치료 애플리케이션(100)은, 환자 단말기(10)에 설치될 수 있다. 본 발명에서 설명되는 환자 단말기(10)는, 환자(U)의 사용자 계정으로 로그인된 전자기기를 의미하는 것으로서, 예를 들어, 전자기기는 스마트폰(smart phone), 휴대폰, 태블릿 PC, 키오스크(KIOSK), 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), 및 PMP(Portable Multimedia Player) 중 적어도 하나를 포함할 수 있다. Meanwhile, the exercise therapy application 100 according to the present invention may be installed in the patient terminal 10 . The patient terminal 10 described in the present invention refers to an electronic device logged into a user account of the patient U, and for example, the electronic device includes a smart phone, a mobile phone, a tablet PC, and a kiosk ( KIOSK), computers, notebooks, digital broadcasting terminals, personal digital assistants (PDAs), and portable multimedia players (PMPs).

여기에서, 환자(U)의 사용자 계정은, 본 발명에 따른 운동 치료 제공 시스템(1000)에 기 등록된 환자(U)의 계정을 의미할 수 있다. 이러한 환자(U)의 사용자 계정은, “환자 계정” 또는 “환자 ID(identification, identification number)”로 이해되어질 수 있다. 본 발명에서, “환자”, “환자 계정(또는 환자의 사용자 계정)”, “환자 단말기”를 혼용하여 사용할 수 있다. Here, the user account of the patient U may mean an account of the patient U previously registered in the exercise therapy providing system 1000 according to the present invention. The user account of the patient U may be understood as a “patient account” or a “patient ID (identification, identification number)”. In the present invention, “patient”, “patient account (or patient user account)”, and “patient terminal” may be used interchangeably.

한편, 의사(Doctor)는, 의사 단말기(20)를 통해 환자(U)에게 운동과 관련된 처방을 내릴 수 있다. 본 발명에서 의사 단말기(20)는, 의사(D)의 사용자 계정으로 로그인된 전자기기를 의미할 수 있다. 의사(D)의 사용자 계정은, 본 발명에 따른 운동 치료 제공 시스템(1000)에 기 등록된 의사(D)의 계정으로, “의사 계정” 또는 “의사 ID(identification, identification number)”로 이해되어질 수 있다. 본 발명에서, “의사”, “의사 계정(또는 의사의 사용자 계정)”, “의사 단말기”를 혼용하여 사용할 수 있다.Meanwhile, the doctor may give a prescription related to exercise to the patient U through the doctor terminal 20 . In the present invention, the doctor terminal 20 may refer to an electronic device logged in with the doctor D's user account. The user account of the doctor D is the account of the doctor D previously registered in the exercise treatment providing system 1000 according to the present invention, and may be understood as a “doctor account” or “doctor ID (identification, identification number)”. can In the present invention, “doctor”, “doctor account (or doctor user account)”, and “doctor terminal” may be used interchangeably.

의사(D)는, 환자(U)의 사용자 정보가 포함된 사용자 DB(30)를 참조하여, 환자(U)에 대한 처방을 내릴 수 있다. The doctor D may make a prescription for the patient U by referring to the user DB 30 including user information of the patient U.

사용자 DB(30)에는, 환자 계정 각각에 매칭된 환자(U)의 사용자 정보(또는 환자 정보)가 존재할 수 있다. 환자(U)의 사용자 정보는, 운동 치료 제공에 필요한 다양한 정보를 포함할 수 있다. 예를 들어, 환자(U)의 사용자 정보는, 환자(U)의 질병 정보, 나이 정보, 성별 정보, 수술 이력 정보, 운동 플랜 정보, 운동 수행 정보, 신장 정보, 체중 정보 중 적어도 하나를 포함할 수 있다. 다만, 상술한 환자의 사용자 정보는 일 예시에 불과하며, 환자의 사용자 정보에는, 환자의 운동 치료 제공을 위하여 필요한 다양한 정보가 포함될 수 있음은 당연하다. User information (or patient information) of the patient U matched to each patient account may exist in the user DB 30 . The user information of the patient U may include various types of information necessary for providing exercise therapy. For example, the user information of the patient U may include at least one of disease information, age information, gender information, surgery history information, exercise plan information, exercise performance information, height information, and weight information of the patient U. can However, the above-described user information of the patient is only an example, and it is natural that the user information of the patient may include various information necessary for providing exercise therapy to the patient.

한편, 본 발명에서 설명되는 운동 치료 애플리케이션(100)은, 환자 단말기(10)에 설치되며, 의사(D) 처방에 따라 운동을 수행한 환자의 운동 동작을, 인공 지능 자세 추정 모델 및 인공지능 동작 분석 모델을 통해 분석하여 환자 단말기(10) 상에 제공할 수 있다. On the other hand, the motion therapy application 100 described in the present invention is installed in the patient terminal 10, and the exercise motion of the patient who performed the exercise according to the prescription of the doctor (D), the artificial intelligence posture estimation model and the artificial intelligence motion It may be analyzed through an analysis model and provided on the patient terminal 10 .

그리고, 운동 치료 애플리케이션(100)은, 인공지능 서버(200)와 통신을 수행하도록 이루어질 수 있으며, 인공지능 서버(200)에 의해 분석된 환자의 운동 동작 분석 결과를, 환자 단말기(10) 상에 제공할 수 있다. 인공지능 서버(200)에 의해 분석된 환자의 운동 동작 분석 결과는, 동작 분석부(210)에 포함된 인공 지능 동작 분석부(212) 및 규칙기반 동작 분석부(213) 중 적어도 하나에 의하여 생성될 수 있다. Then, the motion therapy application 100 may be configured to perform communication with the artificial intelligence server 200, and the motion motion analysis result of the patient analyzed by the artificial intelligence server 200 is displayed on the patient terminal 10. can provide The motion analysis result of the patient analyzed by the artificial intelligence server 200 is generated by at least one of the artificial intelligence motion analysis unit 212 and the rule-based motion analysis unit 213 included in the motion analysis unit 210. It can be.

운동 치료 애플리케이션(100)은, 인공지능 서버(200)와 무선 통신을 통하여, 상호 데이터를 송수신하도록 이루어지며, 무선 통신방식에는 제한이 없다. 본 발명에 따른 운동 치료 애플리케이션(100)은 환자 단말기(10)에 구비된 통신 모듈을 이용하여, 인공지능 서버(200)와의 통신을 수행할 수 있다. 환자 단말기(10)에 구비된 통신 모듈을 다양할 수 있다. The exercise therapy application 100 is made to transmit and receive mutual data through wireless communication with the artificial intelligence server 200, and there is no limitation on the wireless communication method. The exercise therapy application 100 according to the present invention may communicate with the artificial intelligence server 200 using a communication module included in the patient terminal 10 . Communication modules included in the patient terminal 10 may be varied.

예를 들어, 환자 단말기(10)에 구비된 통신 모듈은, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 인공지능 서버(200)와 통신을 수행하도록 이루어질 수 있다. For example, the communication module provided in the patient terminal 10 includes WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro ( Wireless Broadband), World Interoperability for Microwave Access (WiMAX), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), 5G (5th Generation Mobile Telecommunication), Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra-Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi Direct , Wireless USB (Wireless Universal Serial Bus) technology, using at least one, can be made to perform communication with the artificial intelligence server (200).

한편, 본 발명에서 설명되는 인공지능 서버(200)는, 운동 영상으로부터 환자(U)의 운동 동작 분석을 수행하는 클라우드 서버(Cloud Server)일 수 있다. 이러한 인공지능 서버(200)는 운동 치료 애플리케이션(100)으로부터 수신된 운동 영상을 이용하여, 환자(U)의 운동 동작에 대한 분석을 수행할 수 있다. 본 발명에서 설명되는 “인공지능 서버”는, “인공지능 운동 치료 서버”, “인공지능 재활 치료 서버”, “디지털 치료 서버” 등으로 명명될 수 있다. 이하에서는 설명의 편의를 위하여, “인공지능 서버”로 명명하여 설명하도록 한다. Meanwhile, the artificial intelligence server 200 described in the present invention may be a cloud server that analyzes the motion motion of the patient U from motion images. The artificial intelligence server 200 may analyze the motion motion of the patient U by using the motion image received from the motion therapy application 100 . The "artificial intelligence server" described in the present invention may be named "artificial intelligence exercise treatment server", "artificial intelligence rehabilitation treatment server", "digital treatment server", and the like. Hereinafter, for convenience of explanation, it will be named and described as “artificial intelligence server”.

한편, 본 발명에 따른 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 중 적어도 하나는, 도 7에 도시된 것과 같이, 관절 포인트와 관련된 학습 데이터를 이용하여 학습된 자세 추정 모델(52, 도 1의 인공 지능 자세 추정부(121a)에 대응)을 통해 운동 영상(300)으로부터, 추출된 환자(U)의 복수의 관절 포인트에 대응되는 키포인트(P1, P2) 간의 상대적인 위치 관계를 분석할 수 있다. 키포인트 간의 상대적인 위치 분석은, 동작 분석부(120, 210)에 의하여 이루어질 수 있다. 특히, 동작 분석부의 인공지능 동작 분석부(122, 212) 및 규칙기반 동작 분석부(123, 213) 중 하나에 의하여, 운동 동작 분석이 이루어질 수 있다. 인공지능 동작 분석부(122, 212) 또는 규칙기반 동작분석부(123, 213) 중 하나는 인공 지능 동작 분석 모델이라고 명명될 수 있다.On the other hand, at least one of the exercise therapy application 100 and the artificial intelligence server 200 according to the present invention, as shown in FIG. 7, a learned posture estimation model 52 using learning data related to joint points It is possible to analyze the relative positional relationship between the key points P1 and P2 corresponding to the plurality of joint points of the patient U extracted from the motion image 300 through the artificial intelligence posture estimator 121a of Fig. 1). there is. Relative location analysis between keypoints may be performed by the motion analyzers 120 and 210 . In particular, exercise motion analysis may be performed by one of the artificial intelligence motion analysis units 122 and 212 and the rule-based motion analysis units 123 and 213 of the motion analysis unit. One of the artificial intelligence motion analysis units 122 and 212 or the rule-based motion analysis units 123 and 213 may be referred to as an artificial intelligence motion analysis model.

여기에서, “관절 포인트”는, 환자(U)의 복수의 관절(또는 관절을 포함하는 환자(U) 신체의 일부)를 의미할 수 있다.Here, “joint points” may mean a plurality of joints of the patient U (or parts of the body of the patient U including the joints).

그리고, “키포인트”는, 운동 영상(300)에서 피사체(U)의 복수의 관절 포인트 각각에 대응되는 영역을 의미할 수 있다.Also, “key points” may refer to regions corresponding to each of a plurality of joint points of the subject U in the exercise image 300 .

이에, 본 발명에서는, “관절 포인트”와 “키포인트”를 혼용하여 사용할 수 있으며, 관절 포인트와 키포인트 각각에, 동일한 도면부호 “P1, P2”를 부여하여 설명할 수 있다. Accordingly, in the present invention, “joint points” and “key points” may be used interchangeably, and the same reference numerals “P1 and P2” may be given to each of the joint points and key points for description.

운동 치료 제공 시스템(1000)은, 상기 자세 추정 모델(52)을 이용하여, 환자의 운동 영상으로부터 관절 포인트에 대응하는 키포인트(P1, P2)를 추출하고, 추출된 키포인트(P1, P2) 간의 위치 관계에 대한 분석에 기반하여, 환자(U)의 운동 동작을 분석할 수 있다. 본 발명에서는, 인공 지능 자세 추정 모델(52)을 통해 추출된 키포인트를 이용하여, 운동 영상으로부터 환자의 운동 동작을 분석하는 일련의 프로세스를, “운동 동작 분석 프로세스”로 명명할 수 있다.The exercise treatment providing system 1000 extracts keypoints P1 and P2 corresponding to joint points from the motion image of the patient using the posture estimation model 52, and positions between the extracted keypoints P1 and P2. Based on the analysis of the relationship, the exercise motion of the patient U may be analyzed. In the present invention, a series of processes of analyzing a patient's movement motion from a motion image using key points extracted through the artificial intelligence posture estimation model 52 may be named "movement motion analysis process".

이러한 운동 동작 분석 프로세스는, 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 중 적어도 하나에 의해 수행될 수 있다. 구체적으로, 운동 동작 분석 프로세스는, i) 운동 치료 애플리케이션(100)에 의해 이루어지는 제1 데이터 처리 방법, ii) 인공지능 서버(200)에 의해 이루어지는 제2 데이터 처리 방법, iii) 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 모두에 의해 이루어지는 제3 데이터 처리 방법 중 적어도 하나를 포함할 수 있다. This exercise motion analysis process may be performed by at least one of the exercise treatment application 100 and the artificial intelligence server 200 . Specifically, the exercise motion analysis process includes i) a first data processing method made by the exercise treatment application 100, ii) a second data processing method made by the artificial intelligence server 200, iii) a exercise treatment application 100 ) and at least one of the third data processing method performed by both the artificial intelligence server 200.

여기에서, 제3 데이터 처리 방법은, 운동 치료 애플리케이션(100)과 인공지능 서버(200) 각각에서, 데이터 처리가 순차적으로 이루어지거나 동시에 이루어질 수 있다. Here, in the third data processing method, data processing may be performed sequentially or concurrently in the exercise therapy application 100 and the artificial intelligence server 200, respectively.

이에, 본 발명에서는, 운동 동작 분석 프로세스가 이루어지는 물리적인 공간 및 주체를 별도로 구분하지 않고, 운동 치료 제공 시스템(1000)에서 이루어지는 것으로 설명할 수 있다. Therefore, in the present invention, it can be explained that the exercise motion analysis process is performed in the exercise therapy providing system 1000 without separately distinguishing a physical space and a subject.

한편, 도 7에 도시된 것과 같이, 운동 동작 분석 프로세스는, 인공 지능 자세 추정 모델(52)에서 추출된 키포인트를 이용하여 이루어질 수 있다. 인공 지능 자세 추정 모델(52)은, 관절 포인트에 특화된 학습 데이터에 대한 학습을 통해 운동 영상으로부터 환자의 관절 포인트를 특정 또는 추정하고, 이에 대응되는 키포인트를 추출할 수 있다. Meanwhile, as shown in FIG. 7 , the exercise motion analysis process may be performed using key points extracted from the artificial intelligence posture estimation model 52 . The artificial intelligence posture estimation model 52 may specify or estimate the patient's joint points from motion images through learning on learning data specific to the joint points, and extract key points corresponding thereto.

본 발명에서, 인공 지능 자세 추정 모델(52)이 학습을 수행하는 학습 데이터는, 데이터베이스(40)에 저장되어 존재할 수 있으며, 이러한 데이터베이스(40)는, “학습 데이터 DB”로도 명명될 수 있다. 학습 데이터에 대한 자세한 내용은 후술하도록 한다. In the present invention, learning data for which the artificial intelligence posture estimation model 52 performs learning may be stored and present in the database 40, and this database 40 may also be referred to as “learning data DB”. Details of the learning data will be described later.

도 7에 도시된 것과 같이, 자세 추정 서버(50)는, 학습부(51) 및 자세 추정 모델(52) 중 적어도 하나를 포함할 수 있다. 자세 추정 서버(50)는, 본 발명에 따른 운동 치료 제공 시스템(1000) 내부에 구비되거나, 외부 서버로 이루어질 수 있다. 즉, 본 발명에 따른 자세 추정 서버(50)는, 자세 추정에 대한 학습을 수행하는 기능을 수행하는 것으로, 물리적인 공간에 대한 제약은 없는 것으로 이해될 수 있다. 자세 추정 서버(50)에 대한 자세한 내용은, 학습 데이터와 함께 후술하도록 한다. As shown in FIG. 7 , the posture estimation server 50 may include at least one of a learning unit 51 and a posture estimation model 52 . The posture estimation server 50 may be provided inside the exercise therapy providing system 1000 according to the present invention or may be configured as an external server. That is, the posture estimation server 50 according to the present invention performs a function of learning about posture estimation, and it can be understood that there is no restriction on physical space. Details of the posture estimation server 50 will be described later along with learning data.

한편, 도 1에 도시된 것과 같이, 본 발명에 따른 운동 치료 애플리케이션(100)은, 영상 수신부(110), 동작 분석부(120), 영상 처리부(130) 및 제어부(140) 중 적어도 하나의 구성을 포함할 수 있다. On the other hand, as shown in Figure 1, exercise therapy application 100 according to the present invention, the image receiving unit 110, motion analysis unit 120, image processing unit 130 and control unit 140, at least one configuration can include

운동 치료 애플리케이션(100)의 영상 수신부(110)는, 애플리케이션(100)이 설치된 환자 단말기(10)로부터 환자의 운동 모습이 포함된 운동 영상을 수신하도록 이루어질 수 있다. 이러한 운동 영상은 환자 단말기(10)에 설치된 카메라에 의해 촬영될 수 있다. 본 발명에서, “환자 단말기(10)로부터 운동 영상을 수신한다”는 것은, 운동 치료 애플리케이션(100)의 영상 수신부(110)가 환자 단말기(10)의 메모리(Memory)에 기록되는 운동 영상에 접근(access)하는 것으로 이해될 수 있다. The image receiving unit 110 of the exercise treatment application 100 may be configured to receive a motion image including a patient's motion from the patient terminal 10 in which the application 100 is installed. These motion images may be captured by a camera installed in the patient terminal 10 . In the present invention, "receiving an exercise image from the patient terminal 10" means that the image receiver 110 of the exercise treatment application 100 accesses the exercise image recorded in the memory of the patient terminal 10. (access) can be understood.

운동 치료 애플리케이션(100)의 동작 분석부(120)는, 환자 단말기(10)로부터 수신된 운동 영상에 근거하여, 환자의 운동 동작(또는 운동 자세) 분석을 수행할 수 있다. 이를 위해, 운동 치료 애플리케이션(100)의 동작 분석부(120)는, 키포인트 추출부(121), 인공지능 동작분석부(122) 및 규칙기반 동작분석부(123) 중 적어도 하나의 구성을 포함하여 이루어질 수 있다. 인공지능 동작분석부(122) 또는 규칙기반 동작분석부(123)는 “인공 지능 동작 분석 모델”로 명명될 수 있다.The motion analysis unit 120 of the motion therapy application 100 may analyze the motion motion (or motion posture) of the patient based on the motion image received from the patient terminal 10 . To this end, the motion analysis unit 120 of the exercise therapy application 100 includes at least one configuration of a keypoint extraction unit 121, an artificial intelligence motion analysis unit 122 and a rule-based motion analysis unit 123 It can be done. The artificial intelligence motion analysis unit 122 or the rule-based motion analysis unit 123 may be named an “artificial intelligence motion analysis model”.

키포인트 추출부(121)는, 운동 영상으로부터, x축, y축 좌표 정보가 쌍을 이룬 형태로 이루어지는 키포인트(P1, P2)를 추출할 수 있다. 이 경우, 키포인트 추출부(121)는, 인공지능 모델을 이용하여, 영상으로부터 키포인트를 추출할 수 있다. The keypoint extractor 121 may extract keypoints P1 and P2 in the form of pairs of x-axis and y-axis coordinate information from the motion image. In this case, the keypoint extractor 121 may extract keypoints from the image using an artificial intelligence model.

본 발명에서, 인공지능 모델을 이용한 키포인트 추출은, 키포인트 추출부(121)에 포함된 인공지능 자세 추정부(121a)에 의해 이루어지는 것으로 설명할 수 있다. In the present invention, keypoint extraction using an artificial intelligence model can be described as being performed by the artificial intelligence posture estimation unit 121a included in the keypoint extraction unit 121.

인공지능 자세 추정부(121a)는, “인공 지능 자세 추정 모델”으로 명명될 수 있으며, 영상으로부터 객체 탐지(Object Detection)를 위하여 학습된 인공지능 모델을 이용하여, 운동 영상으로부터 환자의 관절 포인트에 대응되는 키포인트를 추출할 수 있다. 인공 지능 자세 추정 모델은, 객체 탐지를 기반으로하는 모델일 수 있다. 예를 들어, 인공지능 자세 추정부(121a)는 복수의 바운딩 박스(Bounding Box)를 앙상블(ensemble)하는 객체 탐지 인공지능 모델을 이용하여 운동 영상으로부터 키포인트를 추출할 수 있다. 한편, 인공지능 자세 추정부(121a)는, 다양한 객체 탐지 인공지능 모델을 이용할 수 있으며, 상술한 객체 탐지 인공지능 모델은 일 예시에 해당한다. The artificial intelligence posture estimator 121a may be referred to as an "artificial intelligence posture estimation model", and uses an artificial intelligence model learned for object detection from images to determine the patient's joint points from motion images. Corresponding keypoints can be extracted. The artificial intelligence posture estimation model may be a model based on object detection. For example, the artificial intelligence posture estimator 121a may extract a key point from a motion image using an object detection artificial intelligence model that ensemble a plurality of bounding boxes. Meanwhile, the artificial intelligence posture estimator 121a may use various object detection artificial intelligence models, and the above-described object detection artificial intelligence model corresponds to an example.

나아가, 본 발명에서, 인공지능 동작분석부(122) 및 규칙기반 동작 분석부(123)는, 환자 단말기로부터 수신된 운동 영상 및 키포인트 추출부(120)에서 추출된 키포인트 중 적어도 하나를 이용하여, 환자의 운동 동작(또는 운동 자세)에 대한 분석을 수행할 수 있다. Furthermore, in the present invention, the artificial intelligence motion analysis unit 122 and the rule-based motion analysis unit 123 use at least one of the motion image received from the patient terminal and the keypoint extracted by the keypoint extraction unit 120, An analysis of the patient's athletic motion (or athletic posture) may be performed.

보다 구체적으로, 인공지능 동작분석부(122) 및 규칙기반 동작분석부(123)는, i) 운동 영상에 기반하여 환자의 운동 동작에 대한 분석을 수행하거나, ii) 키포인트에 기반하여 환자의 운동 동작에 대한 분석을 수행하거나, iii) 운동 영상 및 키포인트를 모두 이용하여 환자의 운동 동작에 대한 분석을 수행할 수 있다. More specifically, the artificial intelligence motion analysis unit 122 and the rule-based motion analysis unit 123 i) analyze the motion motion of the patient based on the motion image, or ii) analyze the motion motion of the patient based on key points Motion analysis may be performed, or iii) analysis of the motion motion of the patient may be performed using both the motion image and key points.

이하에서는, 설명의 편의를 위하여, 키포인트에 기반하여 환자의 운동 동작 분석을 수행하는 방법을 중점적으로 설명하도록 한다. 다만, 인공지능 동작분석부(122) 및 규칙기반 동작분석부(123)는, 키포인트가 아닌 운동 영상을 입력 데이터(Input data)로 입력 받아, 운동 영상으로부터 바로 환자의 운동 동작 분석을 수행할 수 있음은 당연하다. 한편, 인공지능 동작 분석부(122) 또는 규칙기반 동작 분석부(123)는 앞서 언급된 “인공 지능 동작 분석 모델”로도 표현될 수 있다.Hereinafter, for convenience of description, a method of performing motion analysis of a patient based on a key point will be mainly described. However, the artificial intelligence motion analysis unit 122 and the rule-based motion analysis unit 123 may receive an exercise image, not a key point, as input data, and perform motion analysis of the patient directly from the motion image. It is natural that there is Meanwhile, the artificial intelligence motion analysis unit 122 or the rule-based motion analysis unit 123 may also be expressed as the aforementioned “artificial intelligence motion analysis model”.

한편, 인공지능 동작분석부(122)는, 키포인트로부터 환자의 운동 동작(또는 운동 자세) 분석을 위해 학습된 인공 지능 모델(또는 자세 추정 모델, 도7에서 도면부호 “52” 참조)에 기반하여, 환자가 수행하는 운동의 운동 종류 분류(또는 운동 종류 특정), 운동 동작의 정확도 판단을 수행할 수 있다. On the other hand, the artificial intelligence motion analysis unit 122, based on the artificial intelligence model (or posture estimation model, see reference numeral 52 in FIG. 7) learned to analyze the motion motion (or motion posture) of the patient from key points , exercise type classification of exercise performed by the patient (or exercise type specification), and accuracy determination of exercise motion can be performed.

그리고, 규칙 기반 동작분석부(123)는, 환자의 운동 동작 분석을 위하여 정의된 규칙 정보에 기반하여, 환자가 수행하는 운동의 운동 종류 분류(또는 운동 종류 특정), 운동 동작의 정확도 판단을 수행할 수 있다. Further, the rule-based motion analysis unit 123 classifies the exercise type of the exercise performed by the patient (or identifies the exercise type) and determines the accuracy of the exercise motion based on the rule information defined for analyzing the motion motion of the patient. can do.

여기에서, “규칙 정보”는, 운동 동작 분석에 이용되는 다양한 규칙을 포함하는 정보로, 예를 들어, 운동 동작(또는 운동 종류)별 기준 관절 가동 범위 정보를 포함할 수 있다. 이러한 규칙 정보는, “참조(Reference) 정보”, “기준 정보” 등의 용어와 혼용되어 사용될 수 있다. Here, “rule information” is information including various rules used for motion analysis, and may include, for example, reference joint motion range information for each motion motion (or motion type). Such rule information may be used interchangeably with terms such as “reference information” and “standard information”.

나아가, 규칙 정보는, 관절의 가동 범위 외에도, 관절의 가동 거리, 관절의 움직임 속도(또는 가속도), 분석 대상 운동 영상에 포함된 피사체(환자에 대응)의 신체 밸런스, 신체 균형, 신체 정렬 상태(EX: 다리의 축 정렬 상태, 척추 정렬상태 등) 중 적어도 하나에 대한 분석을 수행하기 위한 다양한 규칙 정보를 포함할 수 있다. 규칙 기반 동작분석부(123)는 이러한 규칙 정보에 기반하여, 환자의 분석 대상 운동 영상으로부터 다양한 분석 결과를 도출할 수 있다.Furthermore, the rule information includes, in addition to the movable range of the joint, the movable distance of the joint, the movement speed (or acceleration) of the joint, the body balance, body balance, and body alignment state of the subject (corresponding to the patient) included in the motion image to be analyzed ( EX: leg alignment state, spine alignment state, etc.) may include various rule information for analyzing at least one. The rule-based motion analyzer 123 may derive various analysis results from the patient's motion image to be analyzed based on the rule information.

본 발명에서는, 인공지능 동작분석부(122) 및 규칙 기반 동작분석부(123) 중 적어도 하나에 의해, 운동 영상으로부터 환자의 운동 동작에 대한 분석을 수행할 수 있다. In the present invention, at least one of the artificial intelligence motion analysis unit 122 and the rule-based motion analysis unit 123 may perform analysis of the motion motion of the patient from motion images.

구체적으로, 본 발명에서는, i) 인공지능 동작분석부(122)에 의해 환자의 운동 동작에 대한 분석 수행이 이루어지거나(“제1 분석 수행 방식”), ii) 규칙 기반 동작분석부(123)에 의해 환자의 운동 동작에 대한 분석 수행이 이루어지거나(“제2 분석 수행 방식”), iii) 인공지능 동작분석부(122) 및 규칙 기반 동작분석부(123) 모두에 의해 환자의 운동 동작에 대한 분석이 이루어질 수 있다(“제3 분석 수행 방식”). Specifically, in the present invention, i) analysis of the patient's exercise motion is performed by the artificial intelligence motion analysis unit 122 (“first analysis method”), or ii) rule-based motion analysis unit 123 Analysis of the patient's motion is performed by ("second analysis method"), or iii) the motion motion of the patient by both the artificial intelligence motion analysis unit 122 and the rule-based motion analysis unit 123 analysis may be made ("Third Analysis Method").

여기에서, 제3 분석 수행 방식은, 인공지능 동작분석부(122) 및 규칙 기반 동작분석부(123) 각각에서, 데이터 처리가 순차적으로 이루어지거나 동시에 이루어질 수 있다.Here, in the third analysis method, data processing may be performed sequentially or concurrently in each of the artificial intelligence motion analysis unit 122 and the rule-based motion analysis unit 123 .

한편, 운동 치료 애플리케이션(100)의 영상 처리부(130)는, 운동 영상(300)에 포함된 환자의 피사체(U)에, 추출된 키포인트(P1, P2)에 해당하는 그래픽 객체를 오버랩(overlap) 또는 렌더링(rendering)하도록 이루어질 수 있다. 이를 통해, 환자는, 자신의 운동 동작에 대해 분석이 이루어지는 관절 포인트를 직관적으로 인지할 수 있다. Meanwhile, the image processing unit 130 of the exercise treatment application 100 overlaps a graphic object corresponding to the extracted keypoints P1 and P2 to the subject U of the patient included in the exercise image 300. Or it can be made to render (rendering). Through this, the patient can intuitively recognize the joint point at which the analysis of the exercise motion of the patient is made.

운동 치료 애플리케이션(100)의 제어부(140)는, 운동 치료 애플리케이션(100)에 포함된 구성들에 대한 전반적인 제어를 수행하도록 이루어질 수 있다. 운동 치료 애플리케이션(100)의 제어부(140)는, 환자 단말기(10)의 CPU(Central Processing Unit)를 이용하여 운동 치료 애플리케이션(100)의 구성들을 제어할 수 있으며, 나아가, 환자 단말기(10)에 구비된 구성(ex: 통신 모듈, 카메라 모듈, 센싱 모듈, 출력 모듈(ex: 디스플레이, 스피커), 입력 모듈(ex: 터치 스크린, 마이크)에 대한 제어를 수행할 수 있다. The control unit 140 of the exercise therapy application 100 may be configured to perform overall control of components included in the exercise therapy application 100 . The control unit 140 of the exercise therapy application 100 may control components of the exercise therapy application 100 by using a central processing unit (CPU) of the patient terminal 10, and furthermore, the patient terminal 10 It is possible to control the provided components (ex: communication module, camera module, sensing module, output module (ex: display, speaker), input module (ex: touch screen, microphone)).

한편, 도 1에 도시된 것과 같이, 인공지능 서버(200)는, 인공 지능 자세 추정 모델을 이용하여 환자의 운동 자세를 수행하도록 이루어진 클라우드 서버로, 동작 분석부(210) 및 제어부(220) 중 적어도 하나의 구성을 포함하여 이루어질 수 있다. On the other hand, as shown in FIG. 1, the artificial intelligence server 200 is a cloud server configured to perform an exercise posture of a patient using an artificial intelligence posture estimation model, and among the motion analysis unit 210 and the control unit 220 It may include at least one component.

인공지능 서버(200)의 동작 분석부(210)는, 환자 단말기(10)로부터 수신된 운동 영상에 근거하여, 환자의 운동 동작(또는 운동 자세) 분석을 수행할 수 있다. The motion analyzer 210 of the artificial intelligence server 200 may analyze the motion motion (or motion posture) of the patient based on the motion image received from the patient terminal 10 .

인공지능 서버(200)의 동작 분석부(210)는, 운동 치료 애플리케이션(100)으로부터 환자의 운동 영상을 수신할 수 있으며, 운동 영상 수신은 인공지능 서버(200)의 통신부(또는 통신 모듈)에 의해 이루어 질 수 있다. The motion analysis unit 210 of the artificial intelligence server 200 may receive motion images of the patient from the motion therapy application 100, and motion image reception is performed by the communication unit (or communication module) of the artificial intelligence server 200. can be done by

인공지능 서버(200)의 동작 분석부(210)는, 키포인트 추출부(211), 인공지능 동작분석부(212) 및 규칙기반 동작분석부(213) 중 적어도 하나의 구성을 포함하여 이루어질 수 있다. 인공지능 동작분석부(212) 또는 규칙기반 동작분석부(213)는 “인공 지능 동작 분석 모델”로 명명될 수 있다.The motion analyzer 210 of the artificial intelligence server 200 may include at least one of a keypoint extractor 211, an artificial intelligence motion analyzer 212, and a rule-based motion analyzer 213. . The artificial intelligence motion analysis unit 212 or the rule-based motion analysis unit 213 may be named an “artificial intelligence motion analysis model”.

인공지능 서버(200)에 포함된 키포인트 추출부(211), 인공지능 동작분석부(212) 및 규칙기반 동작분석부(213) 각각은, 앞서 설명된 운동 치료 애플리케이션(100)의 키포인트 추출부(121), 인공지능 동작분석부(122) 및 규칙기반 동작분석부(123)와 동일한 기능을 수행할 수 있다. 이에, 구체적인 설명은 생략하도록 한다. Each of the keypoint extraction unit 211, the artificial intelligence motion analysis unit 212, and the rule-based motion analysis unit 213 included in the artificial intelligence server 200 is the keypoint extraction unit of the exercise therapy application 100 described above ( 121), the artificial intelligence motion analysis unit 122 and the rule-based motion analysis unit 123 may perform the same function. Accordingly, a detailed description thereof will be omitted.

인공지능 서버(200)의 제어부(220)는, 인공지능 서버(200)에 포함된 구성들에 대한 전반적인 제어를 수행하도록 이루어질 수 있다. The control unit 220 of the artificial intelligence server 200 may be configured to perform overall control of components included in the artificial intelligence server 200.

이하에서는, 본 발명에 따른 운동 치료 제공 시스템(1000)의 상기 구성을 이용하여, 운동 영상으로부터 환자(U)의 운동 동작을 분석하여 운동 동작 분석 결과를 제공하는 운동 동작 분석 프로세스에 대해 설명하도록 한다. Hereinafter, a motor motion analysis process of analyzing a motion motion of a patient U from a motion image and providing a motion motion analysis result will be described using the above configuration of the motion therapy providing system 1000 according to the present invention. .

도 2에 도시된 것과 같이, 의사 단말기(20)에서는 환자(U)에 대한 운동 처방이 이루어질 수 있다(S210), 운동 치료 제공 시스템(1000)은, 의사 단말기(20)에서 환자에 대한 운동 처방이 이루어진 것에 근거하여, 의사 단말기(20)로부터 상기 운동 처방에 대한 처방 정보를 수신할 수 있다.As shown in FIG. 2 , an exercise prescription for the patient U may be made in the doctor terminal 20 (S210). In the exercise treatment providing system 1000, the doctor terminal 20 provides an exercise prescription for the patient. Based on this, prescription information on the exercise prescription may be received from the doctor terminal 20 .

운동 치료 제공 시스템(1000)은, 의사 단말기(20)로부터 처방 정보가 수신되는 것에 근거하여, 환자 계정에, 처방 정보에 따른 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당할 수 있다. 할당된 운동 플랜은 환자 단말기(10)로 전송할 수 있다(S220).Based on the prescription information being received from the doctor terminal 20 , the exercise treatment providing system 1000 may allocate an exercise plan including at least one prescription exercise according to the prescription information to the patient's account. The assigned exercise plan may be transmitted to the patient terminal 10 (S220).

운동 치료 제공 시스템(1000)은, 환자 단말기(10), 의사 단말기(20), 사용자 DB(30), 데이터베이스(40) 중 적어도 하나와 통신을 수행하는 통신부를 포함할 수 있다. 예를 들어, 통신부는 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 통신을 수행할 수 있다. The exercise therapy providing system 1000 may include a communication unit that communicates with at least one of the patient terminal 10 , the doctor terminal 20 , the user DB 30 , and the database 40 . For example, the communication unit includes Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), Wireless Fidelity (Wi-Fi) Direct, Digital Living Network Alliance (DLNA), Wireless Broadband (WiBro), and World Interoperability for Microwave (WiMAX). Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), 5G (5th Generation Mobile Telecommunication), Bluetooth (Bluetooth ™), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, Near Field Communication (NFC), Wi-Fi Direct, Wireless Universal Serial Bus (USB) technologies Communication may be performed using at least one of the above.

한편, 환자 단말기(10)에서는, 운동 플랜에 포함된 처방 운동을 수행하는 환자의 운동 영상을 촬영할 수 있다(S230). 운동 치료 애플리케이션(100)은, 환자 단말기(10)에 구비된 카메라를 활성화시켜, 운동 영상이 촬영되도록 제어할 수 있다. Meanwhile, the patient terminal 10 may capture an exercise image of a patient performing a prescription exercise included in an exercise plan (S230). The exercise therapy application 100 may activate a camera provided in the patient terminal 10 to control a motion image to be captured.

환자 단말기(10)에서 촬영된 운동 영상은, 운동 치료 제공 시스템(1000)에 의해, 환자의 운동 동작 분석의 분석 대상 데이터(또는 분석 대상 운동 영상)으로 이용될 수 있다. A motion image captured by the patient terminal 10 may be used as data to be analyzed (or a motion image to be analyzed) for motion analysis of a patient by the motion therapy providing system 1000 .

앞서 설명한 것과 같이, 운동 동작 분석 프로세스는, 환자 단말기(10)에 설치된 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 중 적어도 일부에서 이루어질 수 있으며, 본 발명에서는 운동 동작 분석 프로세스가 이루어지는 물리적인 공간 및 주체를 별도로 구분하지 않고, 운동 치료 제공 시스템(1000)에서 이루어지는 것으로 설명할 수 있다. As described above, the motion motion analysis process may be performed in at least a part of the motion therapy application 100 and the artificial intelligence server 200 installed in the patient terminal 10, and in the present invention, the motion motion analysis process is performed in the physical It can be described as being made in the exercise therapy providing system 1000 without separately distinguishing the space and the subject.

한편, 운동 치료 제공 시스템(1000)은, 운동 영상에서, 복수의 관절 포인트에 대응하는 키포인트(P1, P2)를 추출할 수 있다. 키포인트(P1, P2) 추출은, 운동 치료 애플리케이션(100)에 포함된 키포인트 추출부(121) 및 인공지능 서버(200)에 포함된 키포인트 추출부(221) 중 적어도 일부에 의해 수행될 수 있다. Meanwhile, the motion therapy providing system 1000 may extract key points P1 and P2 corresponding to a plurality of joint points from the motion image. Extraction of the keypoints P1 and P2 may be performed by at least some of the keypoint extractor 121 included in the exercise therapy application 100 and the keypoint extractor 221 included in the artificial intelligence server 200.

운동 치료 제공 시스템(1000)은, 추출된 키포인트(P1, P2)들 간의 상대적인 위치 관계에 대한 분석을 수할 수 있다(S250). 그리고, 운동 치료 제공 시스템(1000)은, 키포인트(P1, P2)간의 위치 관계에 대한 분석에 기초하여, 환자(U)의 운동 동작을 분석할 수 있다(S260). 이러한 운동 동작 분석은, 애플리케이션(100)의 동작 분석부(120) 및 인공지능 서버(200)의 동작 분석부(210) 중 적어도 일부에 의해 이루어질 수 있다. The exercise treatment providing system 1000 may analyze the relative positional relationship between the extracted keypoints P1 and P2 (S250). Further, the exercise treatment providing system 1000 may analyze the exercise motion of the patient U based on the analysis of the positional relationship between the key points P1 and P2 (S260). Such exercise motion analysis may be performed by at least a part of the motion analyzer 120 of the application 100 and the motion analyzer 210 of the artificial intelligence server 200 .

나아가, 운동 치료 제공 시스템(1000)은, 환자(U)의 운동 동작 분석 결과를, 환자 단말기(10)에는 피드백(Feedback) 정보로서 제공하고, 의사 단말기(20)에는 모니터링 정보로서 제공할 수 있다(S270). Furthermore, the exercise treatment providing system 1000 may provide the motion analysis result of the patient U to the patient terminal 10 as feedback information and to the doctor terminal 20 as monitoring information. (S270).

이와 같이, 운동 치료 제공 시스템(1000)은, 운동 동작 분석 프로세스에 대한 전반적인 제어를 수행할 수 있으며, 이를, 본 발명에서는 운동 치료 제공 시스템(1000)의 제어부에 의해 이루어지는 것으로 이해할 수 있다. 즉, 운동 치료 제공 시스템(1000)의 제어부는, 운동 치료 애플리케이션(100)의 제어부(140) 및 인공지능 서버(200)의 제어부(220)를 포함하는 개념으로, 운동 치료 제공 시스템(1000)에 대한 전반적인 제어를 수행할 수 있다. As such, the exercise treatment providing system 1000 may perform overall control over the exercise motion analysis process, which may be understood to be performed by the control unit of the exercise treatment providing system 1000 in the present invention. That is, the control unit of the exercise therapy providing system 1000 has a concept including the control unit 140 of the exercise therapy application 100 and the control unit 220 of the artificial intelligence server 200, and You can exercise overall control over

이하에서는, 운동 치료 제공 시스템(1000)에 의해 이루어지는 운동 동작 분석 프로세스에 대해 보다 구체적으로 설명하도록 한다. Hereinafter, an exercise motion analysis process performed by the exercise treatment providing system 1000 will be described in more detail.

본 발명에서는, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 과정이 진행될 수 있다(S310, 도3 참조). In the present invention, a process of receiving prescription information related to exercise for a patient from a doctor terminal may proceed (S310, see FIG. 3).

도 4a 및 도 4b에 도시된 것과 같이, 운동 치료 제공 시스템(1000)은, 의사 계정으로 로그인된 의사 단말기(20) 상에, 환자의 운동과 관련된 처방 기능을 포함하는 운동 처방 페이지(또는 운동 배정 페이지)를 제공할 수 있다. 본 발명에서, “운동 처방”은, “운동 배정”과 혼용하여 사용될 수 있다. As shown in FIGS. 4A and 4B , the exercise treatment providing system 1000 displays an exercise prescription page (or exercise assignment) including a prescription function related to a patient's exercise on the doctor terminal 20 logged in with a doctor account. page) can be provided. In the present invention, “exercise prescription” may be used interchangeably with “exercise allocation”.

운동 치료 제공 시스템(1000)은, 의사 계정에 매칭된 환자 계정 중 특정 환자(U) 계정에 대한 처방이 이루어질 수 있도록, 환자 계정 각각의 운동 처방 페이지를, 의사 단말기(20) 상에 제공할 수 있다. The exercise treatment providing system 1000 may provide an exercise prescription page for each patient account on the doctor terminal 20 so that a prescription may be made for a specific patient U account among patient accounts matched to the doctor account. there is.

예를 들어, 본 발명에서, 특정 의사(D) 계정에 제1 환자 계정(ex: “김우영” 환자 계정) 및 제2 환자 계정(ex: “김소희” 환자 계정)이 매칭되어 있다고 가정하자. 운동 치료 제공 시스템(1000)은, 의사 단말기(20)로부터 제1 환자 계정(ex: “김우영” 환자 계정)의 운동 처방 요청을 수신하는 것에 근거하여, 의사 단말기(20) 상에, 제1 환자 계정에 대응하는 운동 처방 페이지를 제공할 수 있다. For example, in the present invention, it is assumed that a first patient account (ex: “Kim Woo-young” patient account) and a second patient account (ex: “Kim So-hee” patient account) are matched to a specific doctor (D) account. The exercise treatment providing system 1000, based on receiving an exercise prescription request for a first patient account (ex: “Kim Woo-young” patient account) from the doctor terminal 20, displays the first patient on the doctor terminal 20. An exercise prescription page corresponding to the account may be provided.

운동 치료 제공 시스템(1000)은, 특정 환자에 대응하는 운동 처방 페이지에서 이루어지는 사용자 선택(또는 사용자 입력)에 기반하여, 의사 단말기(20)로부터, 특정 환자에 대한 처방 정보를 수신할 수 있다. 처방 정보에는, 환자에게 운동을 처방하기 위한 다양한 정보가 포함될 수 있다. 예를 들어, 처방 정보에는, i) 운동 플랜에 포함되어야 하는 적어도 하나의 운동 동작(ex: “벽집고 종아리 스트레칭”, “앉아서 공굴려 발바닥 마사지”)에 대한 정보, ii) 운동 동작의 난이도 정보, iii) 운동 동작 유지 시간 정보, iv) 운동 동작 수행 횟수 정보, v) 운동 동작 수행 일정 정보, vi) 운동 동작에 매칭된 신체 정보(ex: “발목”, “무릎”), vii) 주의 사항 정보(ex: “운동이 끝나면 얼음찜질을 해주세요”) 중 적어도 하나를 포함할 수 있다(도 4a 및 도 4b의 (a) 참조). The exercise treatment providing system 1000 may receive prescription information for a specific patient from the doctor terminal 20 based on user selection (or user input) made on an exercise prescription page corresponding to the specific patient. Prescription information may include various types of information for prescribing exercise to a patient. For example, in the prescription information, i) information on at least one exercise action to be included in the exercise plan (ex: “Calf stretch with a wall”, “Sit down and roll a ball and massage the soles of the feet”), ii) Difficulty information of the exercise action , iii) information on maintenance time of exercise motion, iv) information on the number of times of exercise motion, v) information on schedule for performing motion motion, vi) body information matched to exercise motion (ex: “ankle”, “knee”), vii) precautions It may include at least one of information (ex: “Please apply ice when the exercise is over”) (see (a) of FIGS. 4A and 4B).

운동 치료 제공 시스템(1000)은, 특정 환자에 대응하는 운동 처방 페이지에서, 특정 환자에 대한 처방 정보가 입력(또는 선택)되는 것에 근거하여, 의사 단말기(20)로부터 특정 환자(U)에 대한 처방 정보를 수신할 수 있다. 이 경우, 의사 단말기(20) 상에는, 특정 환자에 대한 처방이 이루어졌음을 안내하는 안내 정보가 출력될 수 있다(도 4의 (b) 참조).The exercise treatment providing system 1000 prescribes a prescription for a specific patient U from the doctor terminal 20 based on input (or selection) of prescription information for the specific patient in an exercise prescription page corresponding to the specific patient. information can be received. In this case, guidance information notifying that a prescription for a specific patient has been made may be output on the doctor terminal 20 (see (b) of FIG. 4 ).

한편, 본 발명에서는 상기 처방 정보에 근거하여, 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 과정이 진행될 수 있다(S320, 도 3 참조).Meanwhile, in the present invention, based on the prescription information, a process of allocating an exercise plan including at least one prescription exercise to the patient's account may proceed (S320, see FIG. 3).

도 5의 (a)에 도시된 것과 같이, 운동 치료 제공 시스템(1000)은, 특정 환자(U)에 대한 처방 정보에 근거하여, 특정 환자 계정에 적어도 하나의 처방 운동을 포함하는 운동 플랜(E)을 할당하고, 할당된 운동 플랜(ex:”대퇴 슬개골 관절염 디지털 치료제”, E)을 특정 환자 계정으로 로그인된 환자 단말기(10) 상에 제공할 수 있다. As shown in (a) of FIG. 5 , the exercise treatment providing system 1000 includes an exercise plan (E) including at least one prescription exercise in a specific patient account based on prescription information for a specific patient U. ), and the allocated exercise plan (ex: “digital treatment for femoral patella arthritis”, E) can be provided on the patient terminal 10 logged in with a specific patient account.

여기에서, “처방 운동”은, 운동 치료 제공 시스템(1000)에 포함된 복수의 운동 동작(또는 운동 종류) 중 처방 정보에 근거하여 특정되어 환자 계정에 할당되는 운동 동작으로 이해될 수 있다. 이에, 본 발명에서, “처방 운동”은, “운동 동작”과 혼용하여 사용될 수 있다. 그리고, 본 발명에서, “운동 플랜”은, “디지털 치료제”와 혼용되어 사용될 수 있다. Here, “prescription exercise” may be understood as an exercise action specified based on prescription information among a plurality of exercise actions (or exercise types) included in the exercise treatment providing system 1000 and assigned to a patient account. Accordingly, in the present invention, “prescribed exercise” may be used interchangeably with “exercise action”. And, in the present invention, “exercise plan” may be used interchangeably with “digital therapy”.

운동 치료 제공 시스템(1000)은, 특정 환자 계정으로 로그인된 환자 단말기(10)로부터, 특정 환자 계정에 할당된 운동 플랜 제공 요청을 수신하는 것에 근거하여, 환자가 운동 플랜에 포함된 처방 운동을 수행할 수 있도록, 운동 가이드 영상 제공 기능에 연계된 운동 페이지를, 환자 단말기(10) 상에 제공할 수 있다. The exercise treatment providing system 1000 performs a prescription exercise included in the exercise plan for the patient based on receiving a request for providing an exercise plan assigned to a specific patient account from the patient terminal 10 logged in with a specific patient account. An exercise page linked to the exercise guide image providing function may be provided on the patient terminal 10 so as to be able to do so.

도 5의 (b)에 도시된 것과 같이, 운동 페이지는 운동 리스트(L)를 포함할 수 있으며, 운동 리스트(L)는, 특정 계정에 할당된 운동 플랜에 포함된 복수의 처방 운동(ex “하지 직거상”, “서서 무릎 굽힙”) 각각의 운동 가이드 영상에 대응하는 항목(V1 내지 V6)을 포함할 수 있다. As shown in (b) of FIG. 5, the exercise page may include an exercise list (L), and the exercise list (L) includes a plurality of prescription exercises included in an exercise plan assigned to a specific account (ex “ Items (V1 to V6) corresponding to each exercise guide image may be included.

운동 치료 제공 시스템(1000)은, 운동 플랜에, 운동 세트(Set)가 복수인 특정 처방 운동(ex: “하지 직거상”)이 포함되어 있는 경우, 상기 세트수(ex: “3”) 만큼, 특정 처방 운동의 운동 가이드 영상에 대응하는 항목(V1 내지 V3)이, 운동 리스트(L)에 포함되도록 제어할 수 있다. The exercise treatment providing system 1000, when the exercise plan includes a specific prescription exercise (ex: “straight lower extremity lift”) with a plurality of exercise sets, as many as the number of sets (ex: “3”) , Items (V1 to V3) corresponding to the exercise guide image of a specific prescription exercise can be controlled to be included in the exercise list (L).

한편, 운동 치료 제공 시스템(1000)은, 환자 단말기(10)로부터, 운동 시작 요청을 수신하는 것에 근거하여, 운동 리스트(L)에 포함된 항목(V1 내지 V6)의 순서에 근거하여, 복수의 운동 가이드 영상이, 환자 단말기(10) 상에서 순차적으로 재생되도록 제어할 수 있다. On the other hand, the exercise treatment providing system 1000, based on receiving an exercise start request from the patient terminal 10, based on the order of the items V1 to V6 included in the exercise list L, a plurality of Exercise guide images may be controlled to be sequentially reproduced on the patient terminal 10 .

한편, 본 발명에서는 환자 단말기로부터, 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 과정이 진행될 수 있다(S330, 도 3 참조). Meanwhile, in the present invention, a process of receiving an exercise image obtained by photographing an exercise according to a prescription exercise from a patient terminal may proceed (S330, see FIG. 3).

도 6에 도시된 것과 같이, 운동 치료 제공 운동 치료 제공 시스템(1000)은, 환자 단말기(10)상에서, 운동 가이드 영상이 재생되는 것에 근거하여, 환자 단말기(10)에 구비된 카메라가 환자(U)의 운동 영상을 촬영하도록 제어할 수 있다. As shown in FIG. 6 , in the exercise therapy providing exercise therapy providing system 1000, based on the motion guide image being reproduced on the patient terminal 10, the camera provided in the patient terminal 10 controls the patient U ) can be controlled to capture a motion image.

환자 단말기(10)에 설치된 운동 치료 애플리케이션(100)은, 환자 단말기(10)에 구비된 카메라의 활성화 상태를, 비활성화 상태에서 활성화 상태로 제어하여, 카메라가 운동 가이드 영상에 따른 운동 동작을 수행하는 환자(U)의 운동 영상을 촬영하도록 제어할 수 있다. The exercise therapy application 100 installed on the patient terminal 10 controls the activation state of the camera provided in the patient terminal 10 from a deactivated state to an active state so that the camera performs an exercise operation according to the exercise guide image. It may be controlled to capture a movement image of the patient U.

도 6의 (a)에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 카메라를 통해 촬영되는 운동 영상으로부터 환자에 대응하는 피사체(U)를 탐지하기 위하여, 환자의 신체 전체가 운동 영상(또는 환자 단말기의 디스플레이)의 특정 영역에 내에 모두 포함되도록, 안내 멘트(ex: “화면 안에 서주세요”)를 환자 단말기(10)상에 출력할 수 있다. As shown in (a) of FIG. 6, the motion therapy application 100 is a movement image (or A guidance comment (ex: “Please stand within the screen”) may be output on the patient terminal 10 so that all of the contents are contained within a specific area of the display of the patient terminal.

운동 치료 애플리케이션(100)은, 특정 영역 내에 환자 신체 전체에 대응하는 피사체(U)가 포함되는 것에 근거하여, 객체 탐지(Object Detection) 알고리즘을 이용하여 영상(300)으로부터 피사체(U)를 탐지할 수 있다. Exercise therapy application 100, on the basis that the subject (U) corresponding to the entire patient's body is included in a specific area, to detect the subject (U) from the image 300 using an object detection (Object Detection) algorithm can

운동 치료 애플리케이션(100)은, 다양한 객체 탐지 알고리즘을 이용할 수 있다. 예를 들어, 운동 치료 애플리케이션(100)은, 복수의 바운딩 박스(Bounding Box)를 앙상블(ensemble)하는 알고리즘(Weighted Box Fusion, WBF)을 이용할 수 있다. 다만, 운동 치료 애플리케이션(100)은 상술한 객체 탐지 알고리즘에 한정되지 않고, 학습 대상 운동 영상(300)으로부터 피사체(U)에 대응하는 객체를 탐지할 수 있는 다양한 객체 탐지 알고리즘을 이용할 수 있음은 당연하다. The motion therapy application 100 may use various object detection algorithms. For example, the exercise therapy application 100 may use an algorithm (Weighted Box Fusion, WBF) that ensemble a plurality of bounding boxes. However, it is natural that the exercise therapy application 100 is not limited to the above-described object detection algorithm, and can use various object detection algorithms capable of detecting an object corresponding to the subject U from the exercise image 300 to be learned. do.

나아가, 운동 치료 애플리케이션(100)은, 특정 영역 내에서, 환자 신체 전체에 대응하는 피사체(U)가 탐지되는 것에 근거하여, 카메라를 통해, 처방 운동에 따라 운동 동작을 취하는 환자의 운동 영상을 촬영할 수 있다. Furthermore, the exercise therapy application 100 may capture an exercise image of a patient taking an exercise motion according to a prescribed exercise through a camera based on the detection of a subject U corresponding to the entire patient's body within a specific area. can

이 경우, 운동 치료 애플리케이션(100)은, 환자에게 할당된 처방 운동에 대응되는 운동 가이드 영상이 재생되는 상태에서, 처방 운동을 수행하는 환자를 촬영할 수 있다. In this case, the exercise therapy application 100 may photograph the patient performing the prescribed exercise while the exercise guide image corresponding to the prescribed exercise assigned to the patient is reproduced.

그리고, 운동 치료 애플리케이션(100)은, 환자 단말기(10)의 카메라에 의해 촬영된 운동 영상을, 운동 플랜(또는 운동 플랜에 포함된 복수의 처방 운동 각각)에 매칭하여, 환자 단말기(10)의 메모리에 기록되도록 제어할 수 있다. In addition, the exercise treatment application 100 matches the exercise image captured by the camera of the patient terminal 10 to an exercise plan (or each of a plurality of prescription exercises included in the exercise plan), It can be controlled to be written to memory.

한편, 본 발명에서는 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 과정이 진행될 수 있다(S340, 도 3 참조).Meanwhile, in the present invention, a process of extracting key points respectively corresponding to a plurality of preset joint points from a motion image may be performed (S340, see FIG. 3).

본 발명에서는, 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 중 적어도 일부에 의해, 운동 영상으로부터 기 설정된 관절 포인트(P1, P2)에 대응하는 키포인트(P1, P2)를 추출할 수 있다. 앞서 설명한 것과 같이, 키포인트(P1, P2) 추출은, i) 운동 치료 애플리케이션(100)에 의해 이루어지거나, ii) 인공지능 서버(200)에 의해 이루어 지거나, iii) 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 모두에 의해 이루어질 수 있다. 이하에서는 키포인트(P1, P2) 추출을 수행하는 주체를 별도로 구분하지 않고, 운동 치료 제공 시스템(1000)에 의해 이루어지는 것으로 설명하도록 한다. In the present invention, key points P1 and P2 corresponding to preset joint points P1 and P2 may be extracted from an exercise image by at least a part of the exercise treatment application 100 and the artificial intelligence server 200. As described above, the keypoints (P1, P2) extraction is i) by the motion therapy application 100, ii) by the artificial intelligence server 200, or iii) by the motion therapy application 100 and artificial All of the intelligence server 200 can be done. Hereinafter, it will be described that the extracting of the keypoints P1 and P2 is performed by the exercise therapy providing system 1000 without separately distinguishing a subject.

운동 치료 제공 시스템(1000)은, 운동 영상(300)에서, 환자의 복수의 관절 포인트 중, 기 정의(또는 기 설정된) 관절 포인트에 대응하는 영역을, 키포인트(P1, P2)로 추출할 수 있다. The motion therapy providing system 1000 may extract, from the motion image 300, a region corresponding to a predefined (or preset) joint point among a plurality of joint points of the patient as key points P1 and P2. .

여기에서, “관절 포인트”는, 환자(U)의 복수의 관절(또는 관절을 포함하는 환자(U) 신체의 일부)를 의미할 수 있다.Here, “joint points” may mean a plurality of joints of the patient U (or parts of the body of the patient U including the joints).

그리고, “키포인트”는, 운동 영상(300)에서 피사체(U)의 복수의 관절 포인트 각각에 대응되는 영역을 의미할 수 있다.Also, “key points” may refer to regions corresponding to each of a plurality of joint points of the subject U in the exercise image 300 .

본 발명에서는, “관절 포인트”와 “키포인트”를 혼용하여 사용할 수 있으며, 관절 포인트와 키포인트 각각에, 동일한 도면부호 “P1, P2”를 부여하여 설명할 수 있다. In the present invention, "joint point" and "key point" can be used interchangeably, and the same reference numerals "P1 and P2" can be given to each of the joint point and key point for description.

한편, 인체는 200여개의 뼈로 이루어져 있으며, 관절은, 뼈와 뼈가 연결되는 부분으로, 인체는 복수의 관절로 구성될 수 있다.On the other hand, the human body is composed of about 200 bones, joints are parts where bones are connected, and the human body may be composed of a plurality of joints.

본 발명에서는, 인체를 이루는 복수의 관절 포인트 중 키포인트 대상이 되는 관절 포인트가 미리 지정되어, 관절 포인트 정의 정보(500)로서 존재할 수 있다. 예를 들어, 관절 포인트 정의 정보(500)에는, 머리 중심(510)에 대응되는 제1 관절 포인트(P1), 목 중심(520)에 대응되는 제2 관절 포인트(P2)가 미리 정의되어 존재할 수 있다(도 8d 참조).In the present invention, among a plurality of joint points constituting the human body, joint points that are target key points may be designated in advance and exist as the joint point definition information 500 . For example, in the joint point definition information 500, a first joint point P1 corresponding to the center of the head 510 and a second joint point P2 corresponding to the center of the neck 520 may be predefined and present. Yes (see Fig. 8d).

운동 치료 제공 시스템(1000)은, 기 설정된 관절 포인트의 위치 정보를 포함하는 학습 데이터 세트(Set)를 이용하여 학습된 자세 추정 모델(52)에 기반하여, 운동 영상(300)으로부터, 관절 포인트에 대응하는 키포인트(P1, P2)를 추출할 수 있다. The exercise treatment providing system 1000 determines the joint points from the motion image 300 based on the posture estimation model 52 learned using a learning data set including position information of preset joint points. Corresponding keypoints (P1, P2) can be extracted.

이 경우, 운동 치료 제공 시스템(1000)은, 자세 추정 모델에 의해 기 설정된 관절 포인트 각각의 위치 정보가, x축, y축 좌표 정보가 쌍을 이룬 형태로 추출되는 것에 근거하여, 운동 영상(300)에서 키포인트(P1, P2)의 위치를 특정할 수 있다. In this case, the exercise treatment providing system 1000 provides motion images 300 based on the fact that the positional information of each joint point previously set by the posture estimation model is extracted in the form of a pair of x-axis and y-axis coordinate information. ), the positions of the keypoints P1 and P2 can be specified.

한편, 운동 치료 제공 시스템(1000)은, 운동 영상(300)에서의 관절 포인트의 가시(visible) 여부에 근거하여, 관절 포인트에 대응하는 키포인트(P1, P2)를 제1 키포인트 추출 프로세스 및 제2 키포인트 추출 프로세스 중 어느 하나의 프로세스에 따라 추출(또는 특정)할 수 있다. Meanwhile, the system for providing exercise therapy 1000 selects keypoints P1 and P2 corresponding to the joint points based on whether the joint points are visible in the motion image 300 through a first keypoint extraction process and a second keypoint extraction process. It can be extracted (or specified) according to any one of the keypoint extraction processes.

본 발명에서, 관절 포인트의 가시 여부는, 운동 영상(300)에서 관절 포인트가 보이는지 여부를 의미하는 것으로 이해될 수 있다. In the present invention, whether a joint point is visible may be understood to mean whether the joint point is visible in the motion image 300 .

운동 치료 제공 시스템(1000)은, 운동 영상(300)에, 관절 포인트에 대응하는 피사체(U)의 신체 일부가 포함되어 있으면, 운동 영상(300) 관절 포인트가 보이는 것으로 판단할 수 있다. The system for providing exercise treatment 1000 may determine that the joint points of the motion image 300 are visible when a body part of the subject U corresponding to the joint points is included in the motion image 300 .

운동 치료 제공 시스템(1000)은, 운동 영상(300)에서 특정 관절 포인트가 보이는 경우, 제1 키포인트 추출 프로세스에 따라, 특정 관절 포인트에 대응하는 키포인트를 추출할 수 있다. When a specific joint point is visible in the motion image 300, the exercise therapy providing system 1000 may extract a keypoint corresponding to the specific joint point according to a first keypoint extraction process.

구체적으로, 운동 치료 제공 시스템(1000)은, 기 설정된 복수의 관절 포인트 중, 운동 영상(300)에서 가시(visible) 가능한 피사체(U)의 가시 관절 포인트를 특정할 수 있다. 예를 들어, 운동 치료 제공 시스템(1000)은, 기 설정된 복수의 관절 포인트 중, 제1 관절 포인트 및 제2 관절 포인트가 운동 영상에서 가시 가능한 경우, 운동 치료 제공 시스템(1000)은, 제1 관절 포인트 및 제2 관절 포인트를, 가시 관절 포인트로 특정할 수 있다. Specifically, the exercise treatment providing system 1000 may specify a visible joint point of the subject U that is visible in the motion image 300 from among a plurality of preset joint points. For example, when a first joint point and a second joint point among a plurality of preset joint points are visible in a motion image, the system for providing exercise therapy 1000 performs the first joint point and the second joint point. The point and the second joint point may be specified as visible joint points.

그리고, 운동 치료 제공 시스템(1000)은, 특정된 가시 관절 포인트를 키포인트로서 추출할 수 있다. In addition, the exercise treatment providing system 1000 may extract the specified visible joint point as a key point.

이 경우, 운동 치료 제공 시스템(1000)은, 운동 영상 내에서 가시 관절 포인트에 대응하는 영역(또는 픽셀, pixel)의 위치 정보를 추출하여, 가시 관절 포인트에 대응하는 키포인트를 추출할 수 있다. 예를 들어, 운동 치료 제공 시스템(1000)은, 객체 탐지 알고리즘을 이용하여, 가시 관절 포인트의 위치 정보를 추출하여, 가시 관절 포인트에 대응하는 키포인트를 추출할 수 있다. In this case, the exercise treatment providing system 1000 may extract the keypoint corresponding to the visible joint point by extracting location information of a region (or pixel, pixel) corresponding to the visible joint point in the exercise image. For example, the exercise therapy providing system 1000 may extract keypoints corresponding to the visible joint points by extracting location information of visible joint points using an object detection algorithm.

본 발명에서는 제1 키포인트 추출 프로세스에 따라 추출된 가시 관절 포인트의 위치 정보를, “제1 타입의 정보(제1 타입의 위치 정보)” 또는 “실체 위치 정보”로 명명하여 설명할 수 있다. In the present invention, location information of visible joint points extracted according to the first keypoint extraction process may be described by naming “first type information (first type location information)” or “entity location information”.

반면에, 운동 치료 제공 시스템(1000)은 운동 영상(300)에 관절 포인트에 대응하는 피사체(U)의 신체 일부가 포함되어 있지 않으면, 운동 영상(300)에서 관절 포인트가 보이지 않는 것으로 판단할 수 있다. On the other hand, the exercise treatment providing system 1000 may determine that the joint points are not visible in the motion image 300 if the body part of the subject U corresponding to the joint point is not included in the motion image 300. there is.

운동 치료 제공 시스템(1000)은, 운동 영상(300)에서 특정 관절 포인트가 보이지 않는 경우, 제2 키포인트 추출 프로세스에 따라, 자세 추정 모델(52)을 이용하여 상기 특정 관절 포인트에 대응하는 키포인트를 예측하여 추출할 수 있다. When a specific joint point is not visible in the motion image 300, the exercise treatment providing system 1000 predicts a keypoint corresponding to the specific joint point using the posture estimation model 52 according to the second keypoint extraction process. can be extracted by

운동 치료 제공 시스템(1000)은, 자세 추정 모델(52)에 기반하여, 기 설정된 복수의 관절 포인트 중, 운동 영상(300)에서 가시(visible) 불가능한 피사체(U)의 비가시(invisible) 관절 포인트의 위치 정보를, 예측할 수 있다. 이 경우, 자세 추정 모델(52)은, 가시 관절 포인트의 위치 정보에 근거하여, 비가시 관절 포인트의 위치 정보를 예측할 수 있다. The motion treatment providing system 1000, based on the posture estimation model 52, among a plurality of preset joint points, the invisible joint points of the subject U that are not visible in the motion image 300. The location information of can be predicted. In this case, the posture estimation model 52 may predict the positional information of the invisible joint point based on the positional information of the visible joint point.

본 발명에서는 제2 키포인트 특정 프로세스에 따라 추출된 관절 포인트의 위치 정보를, “제2 타입의 정보(제2 타입의 위치 정보)” 또는 “예측 위치 정보”로 명명하여 설명할 수 있다. In the present invention, location information of joint points extracted according to the second keypoint specification process can be described by naming “second type information (second type location information)” or “predicted location information”.

운동 치료 제공 시스템(1000)은, 비가시 관절 포인트의 예측 위치 정보를, 비가시 관절 포인트에 대응하는 키포인트에 매칭함으로써, 비가시 관절 포인트에 대응하는 키포인트를 추출(또는 특정)할 수 있다. The exercise treatment providing system 1000 may extract (or specify) a keypoint corresponding to an invisible joint point by matching predicted position information of an invisible joint point with a keypoint corresponding to the invisible joint point.

이와 같이, 본 발명에서는, 운동 영상(300)에서, 기 정의된 관절 포인트의 가시(visible) 여부에 따라, 관절 포인트의 위치 정보에 대한 학습을 수행한 자세 추정 모델에 기반하여, 서로 다른 프로세스에 따라 관절 포인트에 대응하는 키포인트(P1, P2)를 추출(또는 특정)할 수 있다. 따라서, 본 발명에서는, 운동 영상에서 보이지 않는 비가시 관절 포인트에 대한 분석도 가능하다. As such, in the present invention, based on the posture estimation model that has performed learning on the location information of joint points according to whether predefined joint points are visible in the motion image 300, different processes are performed. Accordingly, keypoints P1 and P2 corresponding to the joint points may be extracted (or specified). Therefore, in the present invention, it is possible to analyze non-visible joint points that are not visible in motion images.

한편, 운동 치료 제공 시스템(1000)은, 환자 단말기(10)에서 운동 영상이 촬영되는 것에 연동하여, 실시간으로 운동 영상으로부터 키포인트(P1, P2)를 추출할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은, 환자가, 운동 동작에 대해 분석이 이루어지는 관절 포인트를 직관적으로 인지할 수 있도록, 추출된 키포인트(P1, P2)를 실시간으로 환자 단말기(10) 상에 제공할 수 있다. Meanwhile, the exercise treatment providing system 1000 may extract key points P1 and P2 from the exercise image in real time in association with the motion image being captured by the patient terminal 10 . In addition, the exercise treatment providing system 1000 provides the extracted key points P1 and P2 to the patient terminal 10 in real time so that the patient can intuitively recognize the joint points where the motion motion is analyzed. can do.

구체적으로, 도 6의 (b) 및 (c)에 도시된 것과 같이, 운동 치료 제공 시스템(1000)은, 환자 단말기(10)에서 운동 영상(300)이 촬영되는 것에 연동하여, 환자 단말기(10) 상에 운동 영상(300)을 실시간으로 출력할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은, 기 설정된 관절 포인트에 대응하는 피사체(U)의 일 영역에, 추출된 키포인트(P1, P2)에 해당하는 그래픽 객체를 오버랩(overlap)하여 제공할 수 있다. Specifically, as shown in (b) and (c) of FIG. 6 , the exercise therapy providing system 1000 interlocks with the motion image 300 being captured by the patient terminal 10, and the patient terminal 10 ), the motion image 300 can be output in real time. In addition, the exercise therapy providing system 1000 may overlap and provide graphic objects corresponding to the extracted keypoints P1 and P2 to an area of the subject U corresponding to the preset joint points. .

운동 영상(300)에 키포인트 그래픽 객체를 오버랩하여 제공하는 데이터 처리는, 운동 치료 애플리케이션(100)의 영상 처리부(130)에 의해 이루어질 수 있다. 영상 처리부(130)는, 추출된 키포인트(P1, P2)에 해당하는 그래픽 객체 각각을, 키포인트(P1, P2)에 매칭된 관절 포인트(P1, P2)에 대응하는 피사체(U)의 영역 상에 렌더링(rendering)할 수 있다. Data processing for overlapping and providing keypoint graphic objects to the exercise image 300 may be performed by the image processing unit 130 of the exercise treatment application 100 . The image processing unit 130 places each of the graphic objects corresponding to the extracted keypoints P1 and P2 on the area of the subject U corresponding to the joint points P1 and P2 matched to the keypoints P1 and P2. You can render.

나아가, 영상 처리부(130)는, 환자가 운동 동작을 수행함에 따라 기 설정된 관절 포인트의 위치가 변경되는 경우, 변경된 관절 포인트에 대응하는 피사체(U)의 영역 상에, 키포인트 그래픽 객체를 오버랩하여 제공할 수 있다. 즉, 영상 처리부(130)는, 실시간으로 변경되는 관절 포인트의 위치가 반영되도록, 운동 영상에서, 관절 포인트에 대응하는 영역 상에, 키포인트 그래픽 객체를 오버랩할 수 있다. Furthermore, when the position of a preset joint point is changed as the patient performs an exercise operation, the image processing unit 130 overlaps and provides a keypoint graphic object on the area of the subject U corresponding to the changed joint point. can do. That is, the image processing unit 130 may overlap a keypoint graphic object on an area corresponding to a joint point in a motion image so that the location of a joint point that is changed in real time is reflected.

한편, 본 발명에서는, 관절 포인트와 관련된 학습 데이터를 이용하여 학습된 자세 추정 모델을 통해 추출된 키포인트로부터, 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 처방 운동에 대한 환자의 운동 동작을 분석하는 과정이 진행될 수 있다(S350, 도 3 참조). 키포인트 간의 상대적인 위치 분석은, 동작 분석부(120, 210)에 의하여 이루어질 수 있다. 특히, 동작 분석부의 인공지능 동작 분석부(122, 212) 및 규칙기반 동작분석부(123, 213) 중 하나에 의하여, 운동 동작 분석이 이루어질 수 있다.Meanwhile, in the present invention, the relative positional relationship between the keypoints is analyzed from the keypoints extracted through the posture estimation model learned using the learning data related to the joint points, and based on the analysis of the positional relationship, the prescription exercise A process of analyzing the motion of the patient may proceed (S350, see FIG. 3). Relative location analysis between keypoints may be performed by the motion analyzers 120 and 210 . In particular, exercise motion analysis may be performed by one of the artificial intelligence motion analysis units 122 and 212 and the rule-based motion analysis units 123 and 213 of the motion analysis unit.

도 6의 (d)에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 환자 단말기(10) 상에, 분석 진행을 안내하는 안내 정보(ex: “결과값을 계산중입니다” 또는 “김철수님 운동 동작 분석 결과를 제공하겠습니다”)를 제공하여, 환자에게 운동 동작 분석을 안내할 수 있다. 이하에서는 환자 운동 동작 분석 방법에 대해 자세하게 설명하도록 한다. As shown in (d) of FIG. 6, the exercise therapy application 100 provides, on the patient terminal 10, guidance information for guiding the progress of the analysis (ex: “The result is being calculated” or “Kim Cheol-soo's exercise I will provide the results of motion analysis”) to guide the patient in motion analysis. Hereinafter, a method for analyzing a motion of a patient will be described in detail.

운동 치료 제공 시스템(1000)은, 학습 데이터를 이용하여 학습된 자세 추정 모델로부터 추출된 키포인트를 이용하여, 기 설정된 복수의 관절 포인트 각각에 대응하는 키포인트(P1, P2) 간의 상대 위치 관계를 분석할 수 있다. The system for providing exercise therapy 1000 analyzes the relative positional relationship between keypoints P1 and P2 corresponding to a plurality of preset joint points, using keypoints extracted from a posture estimation model learned using learning data. can

운동 치료 제공 시스템(1000)은, 가시 관절 포인트에 대응하는 키포인트 및 비가시 관절 포인트에 대응하는 키포인트를 모두 이용하여, 기 설정된 복수의 관절 포인트 각각에 대응하는 키포인트(P1, P2) 간의 상대적 위치를 분석할 수 있다. The system for providing exercise treatment 1000 determines the relative position between keypoints P1 and P2 corresponding to a plurality of preset joint points by using both keypoints corresponding to visible joint points and keypoints corresponding to non-visible joint points. can be analyzed.

여기에서, “키포인트 간의 상대적 위치”는, 적어도 두개의 키포인트(P1, P2) 사이에서, 특정 키포인트(예를 들어, 제1 키포인트, “P1”)를 기준으로 다른 키포인트(예를 들어, 제2 키포인트, “P2”)의 위치로 이해될 수 있다. Here, the “relative position between keypoints” refers to another keypoint (eg, second keypoint) based on a specific keypoint (eg, the first keypoint, “P1”) between at least two keypoints (P1 and P2). It can be understood as the location of the keypoint, “P2”).

이하에서는 설명의 편의를 위하여, 가시 관절 포인트에 대응하는 키포인트를, “제1 타입의 키포인트”으로 명명하고, 비가시 관절 포인트에 대응하는 키포인트를 “제2 타입의 키포인트”로 명명하여 설명하도록 한다. Hereinafter, for convenience of description, keypoints corresponding to visible joint points will be named “first type keypoints” and keypoints corresponding to non-visible joint points will be named “second type keypoints”. .

운동 치료 제공 시스템(1000)은, i) 복수의 제1 타입의 키포인트들 간의 상대적 위치 관계, ii) 제1 타입의 키포인트와 제2 타입의 키포인트 간의 상대적 위치 관계 및 iii) 복수의 제2 타입의 키포인트들 간의 상대적 위치 관계 중 적어도 하나에 대한 분석을 수행할 수 있다. The motion therapy providing system 1000 includes i) a relative positional relationship between a plurality of first-type keypoints, ii) a relative positional relationship between a first-type keypoint and a second-type keypoint, and iii) a plurality of second-type keypoints. At least one of the relative positional relationships between keypoints may be analyzed.

이 경우, 운동 치료 제공 시스템(1000)은, 환자가 수행한 처방 운동 종류에 근거하여, 복수의 관절 포인트 중 일부 연관 키포인트 간의 상대적 위치 관계를 분석할 수 있다. In this case, the exercise treatment providing system 1000 may analyze a relative positional relationship between some associated key points among a plurality of joint points based on the type of prescribed exercise performed by the patient.

예를 들어, 운동 치료 제공 시스템(1000)은, 환자가 제1 운동 종류에 따른 처방 운동을 수행한 경우, 복수의 관절 포인트 중 제1 관절 포인트 및 제2 관절 포인트 각각에 대응하는 키포인트 간의 상대적 위치 관계를 분석할 수 있다. For example, the exercise treatment providing system 1000 determines the relative position between keypoints corresponding to each of a first joint point and a second joint point among a plurality of joint points when a patient performs a prescription exercise according to a first exercise type. relationships can be analyzed.

다른 예를 들어, 운동 치료 제공 시스템(1000)은, 환자가 상기 제1 운동 종류와는 다른 제2 운동 종류에 따른 처방 운동을 수행한 경우, 복수의 관절 포인트 중 제1 관절 포인트 및 제3 관절 포인트 각각에 대응하는 키포인트 간의 상대적 위치 관계를 분석할 수 있다. 이러한 상대적인 위치 관계는 결과적으로, 동작 분석에 활용될 수 있다.For another example, the exercise treatment providing system 1000 may, when the patient performs a prescription exercise according to a second exercise type different from the first exercise type, a first joint point and a third joint point among a plurality of joint points. A relative positional relationship between keypoints corresponding to each point may be analyzed. As a result, this relative positional relationship can be utilized for motion analysis.

본 발명에 따른 운동 치료 제공 시스템(1000)에서 수행되는 동작 분석의 결과는 매우 다양할 수 있다. 예를 들어, 운동 치료 제공 시스템(1000)은 추출된 키 포인트 또는 영상으로부터, 관절의 가동 범위, 가동 거리, 관절의 움직임 속도(또는 가속도), 분석 대상 운동 영상에 포함된 피사체(환자에 대응)의 신체 밸런스, 신체 균형, 신체 정렬 상태(EX: 다리의 축 정렬 상태, 척추 정렬상태 등) 중 적어도 하나에 대한 분석을 수행할 수 있다.한편, 본 발명에 따른 운동 치료 제공 시스템(1000)에서는, 처방 운동과 관련된 규칙 정보를 기준으로, 키포인트 간의 상대 위치 관계를 분석할 수 있다. Results of motion analysis performed in the exercise therapy providing system 1000 according to the present invention may vary greatly. For example, the motion therapy providing system 1000 determines, from the extracted key points or images, the movable range of the joint, the movable distance, the speed (or acceleration) of the joint, and the subject included in the motion image to be analyzed (corresponding to the patient). At least one of body balance, body balance, and body alignment (EX: leg alignment, spine alignment, etc.) may be analyzed. Meanwhile, in the exercise therapy providing system 1000 according to the present invention, , it is possible to analyze the relative positional relationship between keypoints based on the rule information related to the prescribed exercise.

여기에서, 규칙 정보는, 키포인트 간의 상대 위치 관계를 분석하기 위하여 미리 규칙이 정의되어진 정보로 이해될 수 있다. Here, rule information may be understood as information in which rules are defined in advance in order to analyze relative positional relationships between keypoints.

운동 치료 제공 시스템(1000)은, 키 포인트 간의 상대 위치 관계가 규칙 정보를 만족하는지 판단하는 것을 통해, 환자의 운동 동작을 분석할 수 있다. 이하에서는 일 예로, 키포인트의 상대 위치 관계 및 규칙 정보를 기반으로 관절 가동 범위를 분석하는 방법에 대해 설명하도록 한다. 다만, 이하에서 설명되는 내용은 키 포인트의 상대 위치 관계 및 규칙 정보 기반으로 환자의 동작을 분석하는 일 실시에에 불과하고, 본 발명에서는 키포인트의 상대 위치 관계 및 규칙 정보 기반으로, 환자의 다양한 동작을 분석할 수 있다. The exercise treatment providing system 1000 may analyze the exercise motion of the patient by determining whether the relative positional relationship between key points satisfies rule information. Hereinafter, as an example, a method of analyzing a joint movable range based on the relative positional relationship of keypoints and rule information will be described. However, the content described below is only one embodiment of analyzing the patient's motion based on the relative positional relationship of key points and rule information, and in the present invention, various motions of the patient based on the relative positional relationship of keypoints and rule information. can be analyzed.

본 발명에 따른 운동 치료 제공 시스템(1000)에서 분석되는 관절 가동 범위에 대하여 보다 구체적으로 살펴본다. 운동 치료 제공 시스템(1000)은, 처방 운동과 관련된 기준 관절 가동 범위에 대한 규칙 정보를 기준으로, 키포인트 간의 상대 위치 관계에 따른 환자의 관절 가동 범위에 대한 분석을 수행할 수 있다. A range of joint motion analyzed in the exercise therapy providing system 1000 according to the present invention will be described in more detail. The exercise treatment providing system 1000 may analyze a patient's range of motion of a joint according to a relative positional relationship between key points based on rule information on a range of motion of a reference joint associated with a prescribed exercise.

나아가, 운동 치료 제공 시스템(1000)은 처방 운동과 관련된 규칙 정보를 기준으로, 상기 키포인트 간의 상대 위치 관계를 분석할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은 상기 키 포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 판단하는 것을 통해 상기 환자의 운동 동작을 분석할 수 있다.Furthermore, the exercise treatment providing system 1000 may analyze the relative positional relationship between the key points based on rule information related to the prescribed exercise. In addition, the exercise treatment providing system 1000 may analyze the exercise motion of the patient by determining whether the relative positional relationship between the key points satisfies the rule information.

운동 치료 제공 시스템(1000)은, 특정 처방 운동과 관련된 복수의 연속 프레임으로부터, 특정 처방 운동에 매칭된 연관 키포인트들 간의 상대 위치 관계를 추출하고, 추출된 상대 위치 관계를 이용하여 특정 처방 운동에 대한 환자의 관절 가동 범위를 획득(또는 계산)할 수 있다. The exercise treatment providing system 1000 extracts a relative positional relationship between related keypoints matched to a specific prescribed exercise from a plurality of continuous frames related to a specific prescribed exercise, and uses the extracted relative positional relationship for a specific prescribed exercise. The patient's joint range of motion may be obtained (or calculated).

구체적으로, 운동 영상이, 제1 처방 운동에 대응하는 제1 타입을 갖는 복수의 프레임 및 제2 처방 운동에 대응하는 제2 타입을 갖는 복수의 프레임으로 이루어졌다고 가정하자. Specifically, it is assumed that a motion image is composed of a plurality of frames having a first type corresponding to a first prescription exercise and a plurality of frames having a second type corresponding to a second prescription exercise.

운동 치료 제공 시스템(1000)은, 제1 처방 운동 및 제2 처방 운동 중 제1 처방 운동에 대한 환자의 운동 동작 분석이 이루어지는 경우, 제1 타입을 갖는 복수의 프레임으로부터 추출된 키포인트들을 이용하여, 환자의 운동 동작을 분석할 수 있다. The exercise treatment providing system 1000 uses keypoints extracted from a plurality of frames having a first type when analyzing a patient's exercise motion for a first prescription exercise among a first prescription exercise and a second prescription exercise, The patient's motion can be analyzed.

반면에, 운동 치료 제공 시스템(1000)은, 제2 처방 운동에 대한 환자의 운동 동작 분석이 이루어지는 경우, 제2 타입을 갖는 복수의 프레임으로부터 추출된 키포인트들을 이용하여, 환자의 운동 동작을 분석할 수 있다.On the other hand, the exercise treatment providing system 1000, when analyzing the patient's motion for the second prescription exercise, analyzes the patient's motion using key points extracted from a plurality of frames having the second type. can

즉, 운동 치료 제공 시스템(1000)은 연속된 동작(또는 자세)에 대한 키포인트 위치 관계를 분석하여, 특정 처방 운동에 대한 환자의 운동 가동 범위를 획득(또는 계산)할 수 있다. That is, the exercise therapy providing system 1000 may obtain (or calculate) a patient's motion range for a specific prescription exercise by analyzing keypoint positional relationships for consecutive motions (or postures).

이하에서는 설명의 편의를 위하여, 특정 처방 운동(ex: 제1 처방 운동)에 대응하는 연속된 복수의 프레임(즉, 제1 타입을 갖는 복수의 프레임)을, 프레임이 형성되는 시간적 전후에 따라, “제1 분석 대상 프레임” 및 “제2 분석 대상 프레임”으로 명명하도록 한다. Hereinafter, for convenience of explanation, a plurality of consecutive frames (ie, a plurality of frames having the first type) corresponding to a specific prescription exercise (ex: first prescription exercise) are selected according to the time before and after the frame is formed. They are named “first analysis target frame” and “second analysis target frame”.

여기에서, 제1 분석 대상 프레임은 시간적으로 전(before)에 형성되고, 제2 분석 대상 프레임은 시간적으로 후(after)에 형성되는 프레임으로 이해될 수 있다. Here, the first analysis object frame may be understood as a frame formed temporally before, and the second analysis object frame formed temporally after.

운동 치료 제공 시스템(1000)은, 제1 분석 대상 프레임 및 제2 분석 대상 프레임 각각에서, 키포인트를 추출할 수 있다. The exercise treatment providing system 1000 may extract key points from each of the first analysis target frame and the second analysis target frame.

제1 분석 대상 프레임에서. 복수의 관절 포인트 각각에 대응되는 제1 분석 대상 키포인트 그룹을 추출하고, 제2 분석 대상 프레임에서, 복수의 관절 포인트 각각에 대응되는 제2 분석 대상 키포인트 그룹을 추출할 수 있다. In the first analyte frame. A first analysis target keypoint group corresponding to each of a plurality of joint points may be extracted, and a second analysis target keypoint group corresponding to each of a plurality of joint points may be extracted in a second analysis target frame.

운동 치료 제공 시스템(1000)은, 제1 분석 대상 키포인트 그룹에 포함된 키포인트 간의 “제1 위치 관계”를 분석하여, 제1 분석 대상 프레임에 포함된 피사체(U)의 제1 동작 분석을 수행할 수 있다. 또한, 운동 치료 제공 시스템(1000)은, 제2 분석 대상 키포인트 그룹에 포함된 키포인트 간의 “제2 위치 관계”를 분석하여, 제2 분석 대상 프레임에 포함된 피사체(U)의 제2 동작 분석을 수행할 수 있다. The exercise treatment providing system 1000 analyzes the “first positional relationship” between the keypoints included in the first analysis target keypoint group, and performs a first motion analysis of the subject U included in the first analysis target frame. can In addition, the exercise treatment providing system 1000 analyzes the “second positional relationship” between the keypoints included in the second analysis target keypoint group, and analyzes the second motion of the subject U included in the second analysis target frame. can be done

운동 치료 제공 시스템(1000)은, 제1 키포인트 위치 관계 및 제2 키포인트 위치 관계에 기초하여, 특정 처방 운동에 대한 환자의 관절 가동 범위를 획득(추출 또는 계산)할 수 있다. The exercise treatment providing system 1000 may acquire (extract or calculate) a patient's joint motion range for a specific prescription exercise based on the first keypoint positional relationship and the second keypoint positional relationship.

이 경우, 운동 치료 제공 시스템(1000)은, 사용자 DB(30)를 참조하여, 환자의 나이 정보, 성별 정보, 신장 정보, 체중 정보, 수술 이력 정보, 근골격계 질환 정보 중 적어도 하나를 고려하여, 환자의 관절 가동 범위를 획득할 수 있다. In this case, the exercise treatment providing system 1000 refers to the user DB 30 and considers at least one of age information, gender information, height information, weight information, surgery history information, and musculoskeletal disease information of the patient. range of joint motion can be obtained.

한편, 운동 치료 제공 시스템(1000)은, 획득된 환자의 운동 가동 범위가, 특정 처방 운동과 관련된 규칙 정보에 대응하는 기준 관절 가동 범위를 만족하는지를 판단할 수 있다. 본 발명에서, 규칙 기반의 환자의 운동 가동 범위에 대한 분석은, 인공지능 서버(200)의 규칙 기반 동작 분석부(213)에 의해 이루어질 수 있다(도 1 참조), 다만, 규칙 기반 동작 분석부(213)에 의해 분석이 이루어지는 것으로 한정하는 것은 아니다. Meanwhile, the exercise treatment providing system 1000 may determine whether the acquired exercise range of motion of the patient satisfies a reference joint motion range corresponding to rule information related to a specific prescription exercise. In the present invention, the rule-based analysis of the motion range of motion of the patient may be performed by the rule-based motion analysis unit 213 of the artificial intelligence server 200 (see FIG. 1), but the rule-based motion analysis unit (213) is not limited to what is analyzed.

본 발명에는, 복수의 운동 종류 각각에 대해 기준 관절 가동 범위에 대한 규칙 정보가 존재할 수 있다. 이러한 규칙 정보는, 나이별, 성별, 신장별, 몸무게별, 근골격계 질환별로, 서로 다른 기준 관절 가동 범위에 대한 정보를 포함할 수 있다. In the present invention, rule information on reference joint movable ranges may exist for each of a plurality of exercise types. Such rule information may include information on different reference joint movable ranges according to age, gender, height, weight, and musculoskeletal disease.

운동 치료 제공 시스템(1000)은, 특정 처방 운동에 대한 환자의 관절 가동 범위와, 규칙 정보에 포함된 특정 처방 운동에 대한 기준 관절 가동 범위를 비교하여, 환자의 관절 가동 범위가 기준 관절 가동 범위를 만족하는지 여부를 판단할 수 있다. The exercise treatment providing system 1000 compares the patient's joint range of motion for a specific prescription exercise with the reference joint range of motion for the specific prescription exercise included in rule information, so that the patient's joint range of motion is the reference range of motion for the joint. You can judge whether you are satisfied or not.

운동 치료 제공 시스템(1000)은, 판단 결과에 근거하여, 처방 운동에 대한 피드백으로서, 환자의 운동 동작에 대한 분석 결과를 환자 단말기(10) 상에 제공할 수 Based on the determination result, the exercise treatment providing system 1000 may provide an analysis result of the patient's exercise motion on the patient terminal 10 as feedback on the prescribed exercise.

한편, 본 발명에서는 환자의 운동 동작에 대한 분석 결과를, 환자 단말기에 전송하는 과정이 진행될 수 있다(S360, 도 3 참조). Meanwhile, in the present invention, a process of transmitting the analysis result of the patient's exercise motion to the patient terminal may proceed (S360, see FIG. 3).

운동 치료 제공 시스템(1000)은, 환자가 운동 동작에 대한 분석 결과를 직관적으로 인식하고, 운동에 대한 환자의 순응도를 높이기 위하여, 다양한 방법으로 동작 분석 결과를 제공할 수 있다. The exercise treatment providing system 1000 may provide motion analysis results in various ways so that the patient can intuitively recognize the analysis result of the exercise motion and increase the patient's compliance with the exercise.

운동 치료 제공 시스템(1000)은, 운동 영상(300)이 환자 단말기(10)에서 촬영되고 있는 상태에서, 키포인트(P1, P2)에 해당하는 그래픽 객체를 상기 운동 영상에 실시간으로 오버랩하여 제공할 수 있다(도 6 참조). The exercise treatment providing system 1000 may provide graphic objects corresponding to the key points P1 and P2 by overlapping the exercise images 300 in real time while being captured by the patient terminal 10. Yes (see FIG. 6).

이 경우, 운동 치료 제공 시스템(1000)은, 환자의 관절 가동 범위 정보를, 관절 가동 범위와 관련된 키포인트(P1, P2) 주변에, 위치시킬 수 있다. In this case, the system for providing exercise therapy 1000 may place joint movable range information of the patient around the key points P1 and P2 related to the joint movable range.

나아가, 운동 치료 제공 시스템(1000)은, 환자가, 환자의 관절 가동 범위가, 기준 관절 가동 범위를 만족하는지 여부를 인지 가능하도록, 서로 다른 시각적 외관을 갖는 키포인트 그래픽 객체(또는 키포인트 간의 위치 관계에 해당하는 그래픽 객체)를 운동 영상에 오버랩하여 제공할 수 있다.Furthermore, the exercise therapy providing system 1000 is a keypoint graphic object having different visual appearances (or a positional relationship between keypoints) so that the patient can recognize whether the patient's joint movable range satisfies the reference joint movable range. A corresponding graphic object) may be overlapped with an exercise image and provided.

나아가, 운동 영상에 오버랩되는 그래픽 객체의 시각적 외관은, 추출된 상기 키포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 여부에 따라 서로 다르게 구성될 수 있다.Furthermore, the visual appearance of the graphic object overlapping the motion image may be configured differently depending on whether the relative positional relationship between the extracted keypoints satisfies the rule information.

예를 들어, 환자의 관절 가동 범위가 기준 관절 가동 범위를 만족하는 경우, 제1 시각적 외관을 갖는 그래픽 객체(A)가 운동 영상(300)에 오버랩될 수 있다. 반면에, 환자의 관절 가동 범위가 기준 관절 가동 범위를 만족하지 않는 경우, 상기 제1 시각적 외관과는 다른 제2 시각적 외관을 갖는 그래픽 객체(B)가 운동 영상(300)에 오버랩될 수 있다. For example, when the patient's joint movable range satisfies the reference joint movable range, the graphic object A having the first visual appearance may overlap the exercise image 300 . On the other hand, when the patient's joint movable range does not satisfy the reference joint movable range, a graphic object B having a second visual appearance different from the first visual appearance may overlap the exercise image 300 .

나아가, 운동 치료 제공 시스템(1000)은, 운동 영상(300)을 구성하는 복수의 프레임들 각각으로부터 추출된 키포인트에 기초하여 처방 운동에 대한 환자의 평가 점수(ex: “김우영님의 스쿼트 자세는 70점입니다”)를 동작 분석 결과로서 제공할 수 있다. Furthermore, the exercise treatment providing system 1000 provides the patient's evaluation score for the prescription exercise based on the key points extracted from each of a plurality of frames constituting the exercise image 300 (ex: “Kim Woo-young's squat posture is 70 point”) may be provided as a motion analysis result.

한편, 본 발명에서는, 환자 단말기(10)에 설치된 운동 치료 애플리케이션(100) 및 인공지능 서버(200)는, 각각 운동 동작에 대한 분석을 수행하고, 운동 동작 분석 결과를 생성할 수 있다. Meanwhile, in the present invention, the exercise therapy application 100 and the artificial intelligence server 200 installed in the patient terminal 10 may respectively analyze the exercise motion and generate a motion motion analysis result.

예를 들어, 운동 치료 애플리케이션(100)은, 운동 영상에 실시간으로 키포인트(P1, P2)에 해당하는 그래픽 객체를 오버랩하여 제1 결과 분석으로서 생성할 수 있다. For example, the exercise therapy application 100 may create a first analysis result by overlapping graphic objects corresponding to the keypoints P1 and P2 on the exercise image in real time.

다른 예를 들어, 클라우드 서버로 이루어진 인공지능 서버(200)는, 운동 영상을 구성하는 복수의 프레임들 각각으로부터 추출된 키포인트에 기초하여 처방 운동에 대한 환자의 평가 점수를, 제2 분석 결과로서 생성할 수 있다. As another example, the artificial intelligence server 200 composed of a cloud server generates, as a second analysis result, an evaluation score of a patient for a prescription exercise based on a key point extracted from each of a plurality of frames constituting an exercise image. can do.

운동 치료 제공 시스템(1000)은, 운동 치료 애플리케이션(100)에서 생성한 제1 분석 결과 및 인공지능 서버(200)에서 생성한 제2 분석 결과를 포함하는 환자의 운동 동작에 대한 분석 결과를, 환자 단말기(10) 상에 제공할 수 있다. The exercise treatment providing system 1000 provides analysis results for the patient's exercise motion, including the first analysis result generated by the exercise therapy application 100 and the second analysis result generated by the artificial intelligence server 200, It can be provided on the terminal 10.

한편, 운동 치료 제공 시스템(1000)은, 환자의 운동 동작 분석 결과를 의사 단말기(20)로 전송할 수 있다. 의사 단말기(20)에는 상기 제1 분석 결과 및 제2 분석 결과가 모두 제공될 수 있다. Meanwhile, the exercise treatment providing system 1000 may transmit the analysis result of the patient's exercise motion to the doctor terminal 20 . Both the first analysis result and the second analysis result may be provided to the doctor terminal 20 .

이와 같이, 본 발명에서는 환자가 운동 동작에 대한 분석 결과를 직관적으로 인식할 수 있도록, 분석 결과 제공과 관련된 다양한 사용자 환경을 제공하고 있다. 분석 결과 제공과 관련된 다른 실시예에 대한 설명은 후술하도록 한다. As described above, in the present invention, various user environments related to providing analysis results are provided so that the patient can intuitively recognize the analysis result of the exercise motion. A description of another embodiment related to providing analysis results will be described later.

한편, 도 7에 도시된 것과 같이, 본 발명은 환자 단말기(10)로부터 수신되는 운동 영상(300)에 기반하여, 운동 영상(300)에 포함된 환자(U)의 운동 동작을 분석하고, 분석 결과를 제공하기 위한 것이다. 특히, 본 발명은, 인공지능에 기반하여 환자의 운동 동작을 분석하기 위해, 중요 관절 포인트를 중심으로 학습 데이터 세트(Data set)를 가공하고, 이를 학습하는 방법에 대한 것이다. On the other hand, as shown in FIG. 7 , the present invention analyzes the exercise motion of the patient U included in the exercise image 300 based on the exercise image 300 received from the patient terminal 10 and analyzes it. to provide results. In particular, the present invention relates to a method for processing and learning a learning data set centered on important joint points in order to analyze a patient's motor motion based on artificial intelligence.

이하에서는, 본 발명에서 자세 추정 모델이 학습하는 학습 데이터에 대해 구체적으로 설명하도록 한다. Hereinafter, learning data learned by the posture estimation model in the present invention will be described in detail.

도 7에 도시된 것과 같이, 데이터베이스(40)는 학습 데이터 세트(Data set)가 저장된 저장소로, 본 발명에 따른 운동 치료 제공 시스템(1000) 자체에 구비되거나 외부 저장소(또는 외부 DB)로 이루어질 수 있다. 본 발명에 따른 데이터베이스(40)는, 학습 데이터 세트가 저장되어 있는 공간이면 충분하며, 물리적인 공간에 대한 제약은 없는 것으로 이해될 수 있다.As shown in FIG. 7, the database 40 is a storage in which a learning data set is stored, and may be provided in the exercise therapy providing system 1000 itself according to the present invention or may be configured as an external storage (or external DB). there is. It can be understood that the database 40 according to the present invention suffices as long as the space in which the learning data set is stored, and there is no restriction on physical space.

데이터베이스(Data Base, 40), 자세 추정 서버(50) 및 운동 치료 제공 시스템(1000) 중 적어도 하나의 구성을 포함하여 이루어질 수 있다. At least one of a database (Data Base, 40), a posture estimation server 50, and an exercise treatment providing system 1000 may be included.

데이터베이스(40)에는, 자세 추정 모델(52)을 학습을 학습시키기 위한 한 학습 데이터가, 학습 데이터 세트로서 저장되어 존재할 수 있다. In the database 40, one learning data for learning the posture estimation model 52 may be stored as a learning data set.

도 8b에 도시된 것과 같이, 본 발명에서의 학습 데이터 세트(400)는, 서로 다른 정보 속성(410a 내지 450a) 각각에 대응되는 복수의 데이터 그룹(410 내지 450)으로 구성될 수 있다. 복수의 데이터 그룹(410 내지 450) 각각에 포함된 정보는, 운동 동작을 수행하는 피사체(U)를 포함하는 운동 영상(300)으로부터 추출되어 구성될 수 있다. As shown in FIG. 8B, the learning data set 400 in the present invention may be composed of a plurality of data groups 410 to 450 corresponding to different information properties 410a to 450a, respectively. Information included in each of the plurality of data groups 410 to 450 may be extracted and configured from the exercise image 300 including the subject U performing an exercise motion.

여기에서, “운동 영상(300)”은, 도 8a에 도시된 것과 같이, 사용자가 운동 동작을 수행하는 과정이 촬영(포함)된 영상(이미지 또는 동영상)으로, 사용자(U)의 신체 중 적어도 일부가 포함될 수 있다. Here, “exercise image 300”, as shown in FIG. 8A, is a video (image or video) in which a process of a user performing an exercise motion is captured (included), and at least one of the user U's body some may be included.

본 발명에서는, 운동 영상(300)에 포함된 사용자 객체를, “피사체(U)”로 명명하여 설명할 수 있다. 본 발명에서 “피사체(U)”는 운동 영상에서 운동하는 사용자 또는 사용자의 신체 일부를 의미할 수 있다. 이에, 본 발명에서는, “피사체”와 “사용자”를 혼용하여 사용할 수 있으며, 동일한 도면부호 “U”를 부여하여 설명할 수 있다. In the present invention, a user object included in the exercise image 300 may be named and described as “subject U”. In the present invention, “subject U” may mean a user or a part of the user's body exercising in an exercise image. Accordingly, in the present invention, “subject” and “user” may be used interchangeably, and the same reference numeral “U” may be given for explanation.

한편, 본 발명에서 설명되는 “운동 영상(300)”은, “분석 대상 운동 영상” 및 “학습 대상 운동 영상”을 포함할 수 있다. Meanwhile, the “exercise image 300” described in the present invention may include “exercise image to be analyzed” and “exercise image to be learned”.

“분석 대상 운동 영상”은, 피사체(U)의 자세 추정 분석 대상이 되는 운동 영상이고, “학습 대상 운동 영상”은, 자세 추정 모델을 위한 기계 학습의 대상이 되는 운동 영상으로 이해될 수 있다. 여기에서, 자세 추정 분석은, 영상으로부터 키포인트를 추출하는 것을 의미할 수 있다.The “movement image to be analyzed” may be a motion image subject to analysis of the posture estimation of the subject U, and the “movement image to be learned” may be understood as a motion image subject to machine learning for the posture estimation model. Here, posture estimation analysis may refer to extracting a key point from an image.

학습부(51)는 학습 대상 운동 영상(300)에 기반하여 자세 추정 모델을 위한 학습을 수행하도록 이루어질 수 있다. 학습부(51)는 학습 데이터를 이용하여, 자세 추정 모델을 학습시킬 수 있다.The learning unit 51 may be configured to perform learning for a posture estimation model based on the training target exercise image 300 . The learning unit 51 may learn a posture estimation model using the learning data.

도 8b의 (a)에 도시된 것과 같이, 학습부(51)는 학습 대상 운동 영상(300)에서 피사체(U)를 탐지하고, 탐지된 피사체(U)로부터 운동 자세 추정에 이용되는 다양한 학습 데이터를 추출할 수 있다. 이러한 학습 데이터는, “정보” 또는 “데이터” 또는 “데이터 값” 또는 “데이터 밸류(value)”와 혼용되어 사용될 수 있다. 한편, 학습 데이터의 추출은, 학습부(51)가 아닌 다른 수단에 의해서도 이루어질 수 있다. As shown in (a) of FIG. 8B, the learning unit 51 detects a subject U in the training target exercise image 300, and various learning data used for estimating the exercise posture from the detected subject U. can be extracted. Such learning data may be used interchangeably with “information” or “data” or “data value” or “data value”. On the other hand, extraction of learning data may also be performed by means other than the learning unit 51 .

학습부(51)는, 학습 대상 운동 영상(300)으로부터 피사체(U)를 탐지하기 위하여, 다양한 객체 탐지(Object Detection)를 위한 알고리즘을 이용할 수 있다. 예를 들어, 학습부(51)는 예를 들어, 복수의 바운딩 박스(Bounding Box)를 앙상블(ensemble)하는 알고리즘(Weighted Box Fusion, WBF)을 이용할 수 있다. 다만, 학습부(51)는 상술한 객체 탐지 알고리즘에 한정되지 않고, 학습 대상 운동 영상(300)으로부터 피사체(U)에 대응하는 객체를 탐지할 수 있는 다양한 객체 탐지 알고리즘을 이용할 수 있음은 당연하다. The learning unit 51 may use various algorithms for object detection in order to detect the subject U from the training object exercise image 300 . For example, the learning unit 51 may use, for example, an algorithm (Weighted Box Fusion, WBF) that ensemble a plurality of bounding boxes. However, it goes without saying that the learning unit 51 is not limited to the above-described object detection algorithm, and can use various object detection algorithms capable of detecting an object corresponding to the subject U from the training target exercise image 300. .

학습부(51)는 추출된 학습 데이터를, 서로 다른 복수의 정보 속성(410a 내지 450a) 각각에 대응하는 복수의 데이터 그룹(Group, 410 내지 450) 중 어느 하나로 분류할 수 있다. The learning unit 51 may classify the extracted learning data into one of a plurality of data groups 410 to 450 corresponding to each of a plurality of different information attributes 410a to 450a.

본 발명에서 설명되는 서로 다른 복수의 정보 속성(410a 내지 450a)은, 도 8b의 (b)에 도시된 것과 같이, 기 정의되어 존재할 수 있다. 그리고, 복수의 정보 속성(410a 내지 450a) 각각에 대응되는 복수의 데이터 그룹(410 내지 450)은, 기 정의된 정보 속성에 대응하는 학습 데이터가 포함할 수 있다. A plurality of different information attributes 410a to 450a described in the present invention may be predefined and exist, as shown in (b) of FIG. 8B. Also, the plurality of data groups 410 to 450 corresponding to each of the plurality of information properties 410a to 450a may include learning data corresponding to predefined information properties.

예를 들어, i) 제1 정보 속성(410a)에 대응하는 데이터 그룹(410)은 피사체(U)의 관절 포인트 위치 정보를 포함하고, ii) 제2 정보 속성(420a)에 대응하는 데이터 그룹(420)은 피사체(U)의 관절 포인트 가시(visible) 여부를 나타내는 정보를 포함할 수 있다. 그리고, iii) 제3 정보 속성(430a)에 대응하는 데이터 그룹(430)은 피사체(U)의 촬영 방향에 대한 정보를 포함하고, iv) 제4 정보 속성(440a)에 대응하는 데이터 그룹(440)은 피사체(U)가 수행하는 운동 동작(또는 운동 종류)을 구분하는 운동 코드(code) 정보를 포함하고, v) 제5 정보 속성(450a)에 대응하는 데이터 그룹(450)은, 피사체(U)에 대한 바운딩 박스(Bounding box)의 사이즈(Size) 및 중심 위치 정보를 포함할 수 있다. For example, i) the data group 410 corresponding to the first information attribute 410a includes joint point location information of the subject U, and ii) the data group corresponding to the second information attribute 420a ( 420) may include information indicating whether the subject U's joint points are visible. And, iii) the data group 430 corresponding to the third information attribute 430a includes information on the photographing direction of the subject U, and iv) the data group 440 corresponding to the fourth information attribute 440a ) includes exercise code information for classifying the exercise action (or exercise type) performed by the subject U, and v) the data group 450 corresponding to the fifth information property 450a, the subject ( U) may include size and center location information of a bounding box.

여기에서, “관절 포인트(P1, P2)”는, 사용자의 관절 또는 운동 영상(300)에서 피사체(U)의 관절에 대응되는 일 영역을 의미할 수 있다.Here, “joint points P1 and P2” may refer to a user's joint or a region corresponding to a joint of the subject U in the motion image 300 .

학습부(51)는, 학습 대상 운동 영상(300)으로부터 추출된 복수의 데이터 그룹(410 내지 450)을 서로 연계하여, 학습 대상 운동 영상(300)에 대한 데이터 세트를 생성(구성)할 수 있다. 그리고, 학습부(51)는 생성된 학습 데이터 세트(400)를 데이터베이스(40)에 저장할 수 있다. 데이터베이스(40)는 학습부(51)에서 생성된 학습 데이터 세트(400)가 저장되는 것에 근거하여, 자세 추정 모델(52)을 위한 데이터베이스(40)로 구축되어질 수 있다. The learning unit 51 may create (construct) a data set for the exercise image 300 to be studied by linking the plurality of data groups 410 to 450 extracted from the exercise image 300 to be studied with each other. . Also, the learning unit 51 may store the generated learning data set 400 in the database 40 . The database 40 may be constructed as the database 40 for the posture estimation model 52 based on the storage of the learning data set 400 generated by the learning unit 51 .

나아가, 학습부(51)는 데이터베이스(40)에 존재하는 학습 데이터 세트(400)에 기반하여, 자세 추정 모델(52)을 위한 학습을 수행할 수 있다. 앞서 설명한 것과 같이, 학습 데이터 세트(400)는, 관절 포인트의 위치 정보를 포함할 수 있다. Furthermore, the learning unit 51 may perform learning for the posture estimation model 52 based on the learning data set 400 existing in the database 40 . As described above, the training data set 400 may include location information of joint points.

자세 추정 모델(52)은, 관절 포인트에 대한 위치 정보를 포함하는 학습 데이터 세트(Data set)를 이용하여 학습된 자세 추정 모델로서, 분석 대상 운동 영상으로부터 피사체(U)의 운동 자세를 추정할 수 있다. The posture estimation model 52 is a posture estimation model learned using a learning data set including position information about joint points, and can estimate the motion posture of the subject U from the motion image to be analyzed. there is.

한편, 자세 추정 모델(52)은 학습부(51)에서 생성된 학습 데이터 세트(400)를 이용하여, 운동 영상(300)으로부터 피사체의 관절 포인트에 해당하는 키포인트를 추출하고, 인공 지능 동작 분석부(122, 212) 및 규칙기반 동작분석부(123, 213) 중 적어도 하나는, 추출된 키포인트를 이용하여, 운동 영상(300)에서의 피사체의 운동 동작을 분석할 수 있다.Meanwhile, the posture estimation model 52 uses the learning data set 400 generated by the learning unit 51 to extract key points corresponding to the joint points of the subject from the motion image 300, and the artificial intelligence motion analysis unit At least one of 122 and 212 and the rule-based motion analyzer 123 and 213 may analyze the motion motion of a subject in the motion image 300 using the extracted keypoint.

자세 추정 모델(52)로부터 추정된 키포인트를 이용하여, 분석 대상 운동 영상(300)으로부터 추정 가능한 피사체(U)의 운동 자세는 다양할 수 있다. 예를 들어, 인공 지능 동작 분석부(122, 212) 및 규칙기반 동작분석부(123, 213) 중 적어도 하나는, 피사체(U)에 대한 i) 관절 포인트의 위치, ii) 관절 포인트의 관절 가동 범위, iii) 관절 포인트의 이동 경로, iv) 관절 포인트 간의 연결 관계, v) 관절 포인트의 대칭 관계 중 적어도 하나에 대한 정보를 추정 및 분석할 수 있다. The motion posture of the subject U that can be estimated from the motion image 300 to be analyzed using the key points estimated from the posture estimation model 52 may vary. For example, at least one of the artificial intelligence motion analysis units 122 and 212 and the rule-based motion analysis units 123 and 213 determines i) the position of the joint point with respect to the subject U, ii) the joint movement of the joint point Information on at least one of a range, iii) a movement path of joint points, iv) a connection relationship between joint points, and v) a symmetric relationship between joint points may be estimated and analyzed.

이외에도, 동작 분석부(122, 212)는, 분석 대상 운동 영상(300)으로부터 추출된 키 포인트 또는 영상(300)으로부터, 관절의 가동 거리, 관절의 움직임 속도(또는 가속도), 분석 대상 운동 영상에 포함된 피사체(환자에 대응)의 신체 밸런스, 신체 균형, 신체 정렬 상태(EX: 다리의 축 정렬 상태, 척추 정렬상태 등) 중 적어도 하나에 대한 분석을 수행할 수 있다.In addition, the motion analysis units 122 and 212 determine the motion distance of the joint, the movement speed (or acceleration) of the joint, and the motion image to be analyzed from the key point or image 300 extracted from the motion image 300 to be analyzed. At least one of body balance, body balance, and body alignment (EX: axis alignment of legs, spine alignment, etc.) of the included subject (corresponding to the patient) may be analyzed.

본 발명에서, 자세 추정 모델(52)은, 학습부(51)를 포함하여 구성되는 것 또한 가능하다. 나아가, 이와 반대로 학습부(51)는 자세 추정 모델(52)을 포함할 수 있으며, 이 경우, 학습부(51)에서 자세 추정 모델(52)을 학습시켜, 자세 추정 기능을 수행할 수 있다. 이에, 본 발명에서는, 자세 추정 모델(52)에서 수행되는 기능을, 학습부(51)가 수행하는 것으로 혼용하여 설명할 수 있다. In the present invention, it is also possible that the posture estimation model 52 includes a learning unit 51. Furthermore, contrary to this, the learning unit 51 may include the posture estimation model 52, and in this case, the learning unit 51 may learn the posture estimation model 52 to perform the posture estimation function. Accordingly, in the present invention, functions performed by the posture estimation model 52 may be described as being performed by the learning unit 51 .

한편, 사용자 단말기(10, 20)는, 자세 추정 모델(52)에서 추출 및 추정된 키포인트에 기반하여 분석되는, 사용자의 운동 동작 분석 결과(또는 운동 동작 분석 리포트,)를 사용자 단말(10, 20)에 제공하는 자세 분석 결과 서비스 제공을 수행하도록 이루어질 수 있다(도 1 참조). On the other hand, the user terminals 10 and 20 send the user's motion motion analysis result (or motion motion analysis report), which is analyzed based on the keypoints extracted and estimated from the posture estimation model 52, to the user terminals 10 and 20. ) It may be made to perform the service provision as a result of the posture analysis provided to (see FIG. 1).

여기에서, 사용자 단말(10, 20)은 환자 단말기(10), 의사 단말기(20) 및 제3자의 단말기 중 적어도 하나일 수 있다. Here, the user terminals 10 and 20 may be at least one of the patient terminal 10 , the doctor terminal 20 , and a third party terminal.

이러한 운동 치료 제공 시스템(1000)은, 사용자 단말(10, 20)과의 통신을 수행하도록 이루어질 수 있다. 본 발명에서, 운동 치료 제공 시스템(1000)가 통신을 수행하는 것은, 운동 치료 제공 시스템(1000)의 통신부에 의해 이루어지는 것으로도 이해될 수 있다. The exercise therapy providing system 1000 may be configured to perform communication with the user terminals 10 and 20 . In the present invention, it may be understood that the exercise therapy providing system 1000 performing communication is performed by a communication unit of the exercise treatment providing system 1000 .

예를 들어, 운동 치료 제공 시스템(1000)의 통신부는, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 사용자 단말(10, 20)과 통신하도록 이루어질 수 있다. For example, the communication unit of the exercise treatment providing system 1000 may include Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), Wireless Fidelity (Wi-Fi) Direct, Digital Living Network Alliance (DLNA), Wireless (WiBro) Broadband), World Interoperability for Microwave Access (WiMAX), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), 5G ( 5th Generation Mobile Telecommunication ), Bluetooth™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, Near Field Communication (NFC), Wi-Fi Direct, It may be made to communicate with the user terminals 10 and 20 using at least one of wireless USB (Wireless Universal Serial Bus) technologies.

한편, 본 발명에서 설명되는 사용자 단말(10, 20)은, 전자기기를 의미하는 것으로서, 스마트폰(smart phone), 휴대폰, 태블릿 PC, 키오스크(KIOSK), 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), 및 PMP(Portable Multimedia Player) 중 적어도 하나를 포함할 수 있다. 나아가, 사용자 단말기(10, 20)는, 사용자 계정(account)이 로그인된, 접속된 또는 등록된 전자기기 일 수 있다.On the other hand, the user terminals 10 and 20 described in the present invention refer to electronic devices, such as smart phones, mobile phones, tablet PCs, kiosks, computers, laptops, digital broadcasting terminals, and PDAs ( Personal Digital Assistants), and PMP (Portable Multimedia Player). Furthermore, the user terminals 10 and 20 may be electronic devices to which a user account is logged in, connected to, or registered.

여기에서, 사용자 계정은, 본 발명에 따른 운동 치료 제공 시스템(1000)에 기 등록된 계정을 의미할 수 있다. 이러한 사용자 계정은, 사용자 ID(identification, identification number)로 이해되어질 수 있다.Here, the user account may mean an account previously registered in the exercise therapy providing system 1000 according to the present invention. This user account can be understood as a user ID (identification, identification number).

한편, 본 발명에서는 사용자 단말(10, 20)로부터, 운동 영상을 수신하는 과정이 진행될 수 있다. 운동 치료 제공 시스템(1000)은 사용자 단말(10, 20)과의 통신을 통해, 사용자가 운동 동작을 수행하는 모습이 촬영된 운동 영상(300)을 수신할 수 있다. Meanwhile, in the present invention, a process of receiving an exercise image from the user terminals 10 and 20 may proceed. The exercise therapy providing system 1000 may receive an exercise image 300 in which a user performs an exercise operation is photographed through communication with the user terminals 10 and 20 .

이 경우, 운동 치료 제공 시스템(1000)가 사용자 단말(10, 20)로부터 수신하는 운동 영상(300)은, 사용자에 대한 운동 동작 분석의 대상이 되는 분석 대상 운동 영상으로 이해될 수 있다. In this case, the exercise image 300 received by the exercise treatment providing system 1000 from the user terminals 10 and 20 may be understood as a motion image to be analyzed, which is a subject of exercise motion analysis for the user.

운동 치료 제공 시스템(1000)은 다양한 시점 및 경로에 따라 사용자 단말(10, 20)로부터 분석 대상 운동 영상을 수신할 수 있다. The exercise treatment providing system 1000 may receive motion images to be analyzed from the user terminals 10 and 20 according to various viewpoints and paths.

예를 들어, 도 1에 도시된 것과 같이, 운동 치료 제공 시스템(1000)은 사용자 단말(10, 20)로부터 “운동 시작”에 대응되는 그래픽 객체가 선택되는 것에 근거하여, 사용자 단말(10, 20)에 구비된 카메라(201)가 분석 대상 운동 영상을 촬영하도록, 카메라 상태를 활성화 상태로 제어할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은 카메라(201)로부터 촬영된 분석 대상 운동 영상을 실시간 또는 사용자의 운동이 완료되는 것에 근거하여, 사용자 단말(10, 20)로부터 수신할 수 있다. For example, as shown in FIG. 1 , the exercise therapy providing system 1000 provides user terminals 10 and 20 based on a graphic object corresponding to “exercise start” being selected from the user terminals 10 and 20 . The camera state may be controlled to be active so that the camera 201 provided in ) captures a motion image to be analyzed. In addition, the exercise treatment providing system 1000 may receive an analysis target exercise image captured by the camera 201 from the user terminal 10 or 20 in real time or based on the user's exercise being completed.

다음으로, 본 발명에서는 관절 포인트에 대한 위치 정보를 포함하는 학습 데이터 세트(Data set)를 이용하여 학습된 자세 추정 모델로부터 추출된 키포인트에 기반하여, 운동 영상에 포함된 사용자의 특정 운동 동작과 관련된 운동 동작을 분석하는 과정이 진행될 수 있다. Next, in the present invention, based on key points extracted from a posture estimation model learned using a learning data set including position information on joint points, related to a user's specific exercise motion included in an exercise image. A process of analyzing the exercise motion may proceed.

학습부(51)는, 사용자 단말(10, 20)로부터 분석 대상 운동 영상을 수신하는 경우, 학습 대상 운동 영상(300)을 이용하여 학습된 자세 추정 모델(52)에 기반하여, 분석 대상 운동 영상에 포함된 사용자(U)의 관절 포인트에 해당하는 키포인트를 추출할 수 있다. 그리고, 인공 지능 동작 분석부(122, 212) 및 규칙기반 동작분석부(123, 213) 중 적어도 하나는, 추출된 키포인트를 이용하여, 운동 영상(300)에서의 피사체의 운동 동작을 분석할 수 있다.When the learning unit 51 receives the motion image to be analyzed from the user terminals 10 and 20, based on the posture estimation model 52 learned using the motion image to be studied 300, the motion image to be analyzed A keypoint corresponding to the joint point of the user U included in may be extracted. In addition, at least one of the artificial intelligence motion analysis units 122 and 212 and the rule-based motion analysis units 123 and 213 may analyze the motion motion of the subject in the motion image 300 using the extracted key points. there is.

학습부(51)가 추정하는 사용자(U)의 자세 추정 정보는 다양한 정보를 포함할 수 있다. 예를 들어, 학습부(51)는 피사체(U)의 관절 포인트(P1, P2)의 위치 정보, ii) 피사체(U)의 관절 가동 범위 정보(각도 정보)를 추정할 수 있다. The posture estimation information of the user U estimated by the learner 51 may include various types of information. For example, the learning unit 51 may estimate positional information of the joint points P1 and P2 of the subject U, and ii) joint movable range information (angle information) of the subject U.

다음으로, 본 발명에서는 상기 분석이 완료되는 것에 근거하여, 특정 운동 동작과 관련된 사용자(U)의 운동 동작 분석 결과를 사용자 단말(10, 20)로 제공하는 과정이 진행될 수 있다. Next, in the present invention, based on the completion of the analysis, a process of providing the user U's exercise motion analysis result related to a specific exercise motion to the user terminals 10 and 20 may proceed.

운동 치료 제공 시스템(1000)은, 사용자 운동 동작에 대한 분석 결과를 가공하여, 운동 동작 분석 리포트를 생성할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은 사용자 단말(10, 20) 상에 운동 동작 분석 리포트를 제공할 수 있다. The exercise treatment providing system 1000 may generate an exercise motion analysis report by processing an analysis result of the user's motion motion. In addition, the exercise treatment providing system 1000 may provide an exercise motion analysis report to the user terminals 10 and 20 .

예를 들어, 도 1에 도시된 것과 같이, 운동 치료 제공 시스템(1000)은, 사용자의 운동 영상에, 사용자(U)의 관절 포인트(P1, P2)에 대응하는 위치에, 관절 포인트(P1, P2) 각각에 대응하는 관절 포인트 그래픽 객체를 렌더링(rendering)하여 제공할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은, 특정 관절 포인트(P1) 주변에, 특정 관절 포인트(P1)의 관절 가동 범위 정보(221)를 표시할 수 있다. For example, as shown in FIG. 1 , the motion therapy providing system 1000, in the motion image of the user, at positions corresponding to the joint points P1 and P2 of the user U, the joint points P1, P2) A joint point graphic object corresponding to each may be rendered and provided. Also, the exercise treatment providing system 1000 may display the joint movable range information 221 of the specific joint point P1 around the specific joint point P1.

이와 같이, 본 발명에 따른 운동 치료 제공 시스템(1000)은, 학습 대상 운동 영상(300)에 기반하여 구축된 데이터베이스(40)를 이용하여, 자세 추정 모델(52)을 위한 학습을 수행할 수 있다. 그리고, 자세 추정 모델(52)을 이용하여, 사용자의 운동 자세를 추정하고, 추정된 자세에 기반하여 운동 동작 분석 결과 제공 서비스를 수행할 수 있다. As such, the exercise treatment providing system 1000 according to the present invention can perform learning for the posture estimation model 52 using the database 40 built based on the exercise image 300 to be learned. . In addition, the user's exercise posture may be estimated using the posture estimation model 52, and a motion analysis result providing service may be performed based on the estimated posture.

분석 결과에 포함되는 정보는 다양할 수 있다. 예를 들어, 분석 결과에는, 추출된 키 포인트 또는 영상으로부터 분석된, 관절의 가동 범위, 가동 거리, 관절의 움직임 속도(또는 가속도), 분석 대상 운동 영상에 포함된 피사체(환자에 대응)의 신체 밸런스, 신체 균형, 신체 정렬 상태(EX: 다리의 축 정렬 상태, 척추 정렬상태 등) 중 적어도 하나에 대한 분석 정보가 포함될 수 있다.The information included in the analysis result may vary. For example, in the analysis result, the range of motion of the joint, the motion distance, the motion speed (or acceleration) of the joint, analyzed from the extracted key point or image, and the body of the subject (corresponding to the patient) included in the motion image to be analyzed. Analysis information on at least one of balance, body balance, and body alignment (EX: leg alignment, spine alignment, etc.) may be included.

나아가, 이러한 분석 정보는, 점수(SCORE)를 더 포함할 수 있으며, 이러한 점수는, 사용자의 운동 동작(또는 자세)에 대한 분석 점수일 수 있다. 이러한 분석 점수는, 다양한 방법(EX: 기 설정된 기준을 근거로한 규칙 기반 분석 또는 인공 지능 알고리즘에 의한 분석)에 근거하여 산출되는 것이 가능하다.Furthermore, this analysis information may further include a score (SCORE), and this score may be an analysis score for the user's exercise motion (or posture). These analysis scores can be calculated based on various methods (EX: analysis based on rules based on predetermined criteria or analysis by artificial intelligence algorithms).

데이터베이스(40)에는, 학습부(51)에 의해 학습 대상 운동 영상(300)으로부터 추출 및 생성된 학습 데이터 세트(400)가 저장되어 존재할 수 있다. In the database 40 , the learning data set 400 extracted and generated from the training object exercise image 300 by the learning unit 51 may be stored and present.

이하에서는, 사용자의 운동 자세 추정에 이용되는 학습 데이터 세트(400)에 대해 보다 자세하게 설명하도록 한다. Hereinafter, the learning data set 400 used for estimating the user's exercise posture will be described in detail.

도 8a에 도시된 것과 같이, 학습 데이터 세트(400)는, 학습 대상 운동 영상 (300)으로부터 추출된 피사체(U)와 관련된 데이터를 포함하여 구성될 수 있다. As shown in FIG. 8A , the learning data set 400 may include data related to the subject U extracted from the training target exercise image 300 .

학습부(51)는 학습 대상 운동 영상(300)으로부터, 피사체(U)에 대한 데이터를 추출하여 학습 데이터 세트(400)를 구성할 수 있다. The learning unit 51 may compose the learning data set 400 by extracting data on the subject U from the training target exercise image 300 .

이러한 학습 데이터 세트(400)는, 복수의 서브 데이터 세트(401 내지 403)으로 이루어질 수 있다. 본 발명에서, 학습 데이터 세트(400)(300a)는, 상위 개념에 해당하고, 서브 데이터 세트(401 내지 403)는 하위 개념에 해당하는 데이터 세트로 이해될 수 있다. The learning data set 400 may include a plurality of sub data sets 401 to 403 . In the present invention, the learning data sets 400 and 300a may correspond to higher concepts, and the sub data sets 401 to 403 may be understood as data sets corresponding to lower concepts.

학습부(51)는, 학습 대상 운동 영상(300)을 구성하는 복수의 프레임들 중 기 설정된 기준에 근거하여 선별된 기준 프레임(301 내지 306) 각각으로부터, 피사체(U)에 대한 데이터를 추출하여, 서브 데이터 세트(401 내지 403)를 구성될 수 있다. The learning unit 51 extracts data on the subject U from each of the reference frames 301 to 306 selected based on a predetermined criterion among a plurality of frames constituting the training target exercise image 300, , sub data sets 401 to 403 may be configured.

학습부(51)는 다양한 기준에 근거하여 기준 프레임(301 내지 306)을 선별할 수 있다. 학습 대상 운동 영상(300)은 동영상일 수 있고, 복수의 정적인 이미지일 수 있다.The learning unit 51 may select the reference frames 301 to 306 based on various criteria. The learning target exercise image 300 may be a video or a plurality of static images.

학습 대상 운동 영상(300)이 동영상인 경우, 학습부(51)는 학습 대상 운동 영상(300)을 구성하는 복수의 프레임 중 일정 시간 간격(T)을 기준으로 기준 프레임(301 내지 306)을 선별할 수 있다. 다른 예를 들어, 학습부(51)는, 전후 프레임에 포함된 피사체의 동작 변화량이 일정 변화량 이상에 대응되는 경우, 전후 프레임을 기준 프레임(301 내지 306)으로 선별할 수 있다. When the learning target exercise image 300 is a video, the learning unit 51 selects reference frames 301 to 306 based on a predetermined time interval (T) among a plurality of frames constituting the learning target exercise image 300 can do. For another example, the learning unit 51 may select the front and back frames as the reference frames 301 to 306 when the change in motion of the subject included in the front and back frames corresponds to a predetermined change amount or more.

본 발명에 따른 학습 데이터 세트에 포함된 학습 데이터는, 학습 대상 운동 영상을 구성하는 복수의 프레임들 중 기 설정된 기준에 근거하여 선별된 기준 프레임들 각각으로부터, 상기 학습 대상 운동 영상에 포함된 상기 피사체를 중심으로 추출된 학습 데이터로 구성될 수 있다.The learning data included in the learning data set according to the present invention is obtained from each of the reference frames selected based on a predetermined criterion among a plurality of frames constituting the training object exercise image, and the subject included in the learning object exercise image. It can be composed of the extracted learning data centered on.

이하에서는 설명의 편의를 위하여, “학습 데이터 세트(400)”와 “서브 데이터 세트(401 내지 403)”를 별도로 구분하지 않고, “학습 데이터 세트(400)”를 기준으로 설명하도록 한다. 이하에서 설명되는 학습 데이터 세트(400)에 포함된 정보는, 서브 데이터 세트(401 내지 403)에 포함된 정보일 있다. 이 경우, 본 발명에 따른 학습 데이터 세트(400)는, 이하에서 설명되는 정보를 포함하는 복수의 서브 데이터 세트(401 내지 403)를 포함하는 것으로 이해될 수 있다. Hereinafter, for convenience of description, the “learning data set 400” and the “sub data sets 401 to 403” will not be separately distinguished, and will be described based on the “learning data set 400”. Information included in the learning data set 400 described below may be information included in the sub data sets 401 to 403 . In this case, it may be understood that the learning data set 400 according to the present invention includes a plurality of sub data sets 401 to 403 including information described below.

한편, 도 8b의 (a)에 도시된 것과 같이, 학습 데이터 세트(400)는 서로 다른 복수의 정보 속성 각각에 대응되는 복수의 데이터 그룹(410 내지 460)으로 구성될 수 있다. Meanwhile, as shown in (a) of FIG. 8B, the learning data set 400 may be composed of a plurality of data groups 410 to 460 corresponding to a plurality of different information properties.

학습부(51)는, 학습 대상 운동 영상으로부터 복수의 정보 속성 각각에 대응되는 데이터를 추출하고, 추출된 데이터의 정보 속성이 동일한 데이터들을, 동일한 데이터 그룹으로 분류(또는 매칭)하여, 학습 데이터 세트(400)룰 생성할 수 있다. The learning unit 51 extracts data corresponding to each of a plurality of information properties from the training target exercise image, classifies (or matches) data having the same information property of the extracted data into the same data group, and sets the learning data. (400) rules can be created.

여기에서, 복수의 정보 속성(410a 내지 450a)은, 학습 대상 운동 영상(300)으로부터 피사체(U)의 운동 자세 추정을 위하여 필요한 정보의 타입을 구분하는 기준으로 이해될 수 있다. 도 8b의 (b)에 도시된 것과 같이, 본 발명에서는 서로 다른 복수의 정보 속성(제1 정보 속성 내지 제5 정보 속성, 410a 내지 450a)이 미리 정의되어 존재할 수 있다. Here, the plurality of information attributes 410a to 450a may be understood as criteria for distinguishing the type of information necessary for estimating the exercise posture of the subject U from the exercise image 300 to be studied. As shown in (b) of FIG. 8B, in the present invention, a plurality of different information properties (first to fifth information properties, 410a to 450a) may be predefined and present.

학습부(51)는, 학습 대상 운동 영상으로부터, 상기 복수의 정보 속성(410a 내지 450a)에 각각에 대응되는 학습 데이터를 추출하고, 동일한 정보 속성에 대응되는 학습 데이터를 동일한 데이터 그룹으로 분류하여 학습 데이터 세트(400)룰 생성할 수 있다. The learning unit 51 extracts learning data corresponding to each of the plurality of information properties 410a to 450a from the exercise image to be learned, and classifies the learning data corresponding to the same information property into the same data group for learning. A data set 400 may be created.

나아가, 학습부(51)는. 상기 복수의 정보 속성(410a 내지 450a) 사이의 연관성에 근거하여, 복수의 데이터 그룹(410 내지 460) 사이의 그룹별 연관성을 특정하고, 학습 데이터 세트(400) 및 그룹별 연관성에 대한 학습을 수행할 수 있다. Further, the learning unit 51. Based on the association between the plurality of information attributes 410a to 450a, group-specific association between the plurality of data groups 410 to 460 is specified, and learning is performed on the learning data set 400 and the association by group. can do.

이하에서는, 복수의 데이터 그룹 및 그룹별 연관성에 대해서 구체적으로 설명하도록 한다. Hereinafter, a plurality of data groups and associations for each group will be described in detail.

도 8c에 도시된 것과 같이, 복수의 데이터 그룹(410 내지 450) 중 제1 데이터 그룹(410)은, 운동 영상(300)에 포함된 피사체(U)의 관절 포인트(P1, P2)에 대한 위치 정보(411, 412)를 포함할 수 있다.As shown in FIG. 8C , the first data group 410 among the plurality of data groups 410 to 450 has a position relative to the joint points P1 and P2 of the subject U included in the motion image 300. Information 411 and 412 may be included.

도 8c의 (a)에 도시된 것과 같이, 본 발명에서 관절 포인트(P1, P2)는, 학습 대상 운동 영상(300)에서 사용자의 관절에 대응되는 피사체(U)의 일 영역을 의미할 수 있다. 그리고, 도 5의 (b)에 도시된 것과 같이, 관절 포인트에 대한 위치 정보(411, 412)는, 학습 대상 운동 영상(300) 내 관절 포인트(P1, P2)가 위치하는 영역의 위치 로 이해될 수 있다.As shown in (a) of FIG. 8C, in the present invention, the joint points P1 and P2 may mean a region of the subject U corresponding to the user's joints in the exercise image 300 to be learned. . And, as shown in (b) of FIG. 5, the location information (411, 412) for the joint points is understood as the location of the region where the joint points (P1, P2) are located in the exercise image 300 to be learned. It can be.

한편, 인체는 200여개의 뼈로 이루어져 있으며, 관절은, 뼈와 뼈가 연결되는 부분으로, 인체는 복수의 관절로 구성될 수 있다.On the other hand, the human body is composed of about 200 bones, joints are parts where bones are connected, and the human body may be composed of a plurality of joints.

학습부(51)는, 피사체(U)의 복수의 관절 포인트 중, 학습 대상이 되는 관절 포인트가, 기 정의되어 존재할 수 있다. 즉, 본 발명에서 설명되는 “학습 대상 관절 포인트”는, 사용자의 복수의 관절 포인트 중 본 발명에서 학습을 위해 기 정의된 관절 포인트로 이해될 수 있다. In the learning unit 51 , among a plurality of joint points of the subject U, joint points to be learned may be predefined and exist. That is, the “learning target joint point” described in the present invention may be understood as a joint point predefined for learning in the present invention among a plurality of joint points of a user.

도 8d에 도시된 것과 같이, 데이터베이스(40)에는, 복수의 관절 포인트 중 자세 추정 모델의 학습 대상이 되는 학습 대상 관절 포인트가 미리 지정되어, 참조 정보(500)로서 존재할 수 있다. 그리고, 참조 정보(500)에는, 복수의 학습 대상 관절 포인트에 대한 순서가 미리 정의되어 존재할 수 있다. As shown in FIG. 8D , in the database 40 , among a plurality of joint points, a joint point to be learned, which is a learning target of a posture estimation model, may be designated in advance and exist as reference information 500 . Also, in the reference information 500, an order for a plurality of joint points to be learned may be predefined.

제1 학습 대상 관절 포인트는, 머리중심(Center Of Head)으로 정의될 수 있다. 보다 구체적으로, 제1 학습 대상 관절 포인트는, 경추 1번 레벨로 유추(예측 또는 대응)되는 지점으로 이해될 수 있다. The first joint point to be learned may be defined as a center of head. More specifically, the first joint point to be studied may be understood as a point that is inferred (predicted or corresponding) to the first cervical vertebrae level.

제2 학습 대상 관절 포인트는, 목 중심(Center Of Neck)으로 정의될 수 있다. 보다 구체적으로, 제2 학습 대상 관절 포인트는, Neck Lordotic Curve의 중심인 C3-C4 레벨로, 정면에서 1번과 3번의 가운데 레벨에서 중앙 지점으로 이해될 수 있다. The second target joint point for learning may be defined as a center of neck. More specifically, the second learning target joint point is the C3-C4 level, which is the center of the Neck Lordotic Curve, and can be understood as the center point at the middle level of No. 1 and No. 3 from the front.

제3 학습 대상 관절 포인트는, 목 아래 끝(Lower End Of Neck)으로 정의될 수 있다. 보다 구체적으로, 제3 학습 대상 관절 포인트는, C7-T1 level이며, 양쪽 쇄골 level을 연결하는 선의 중앙 지점으로 이해될 수 있다. The third target joint point for learning may be defined as a lower end of the neck. More specifically, the third target joint point for learning is the C7-T1 level and can be understood as the center point of a line connecting both clavicle levels.

제4 학습 대상 관절 포인트는, 어깨중심으로 정의될 수 있다. 보다 구체적으로, 제4 학습 대상 관절 포인트는, 위팔뼈 머리 중심(Humerus Head)이며, 어깨 관절 회전 운동의 중심 축인 위치로 팔을 외전(abduction)하는 회전 동작 상에서 연속 동작의 회전 중심에 해당하는 위치로 이해될 수 있다. 회전 운동 연속 동작이 아닌 이미지에서는, 어깨 중심의 예측 위치 정보에 대응하는 지점을, 제4 학습 대상 관절 포인트에 해당할 수 있다. 그리고, 제4 학습 대상 관절 포인트는, 좌측 어깨 중심 및 우측 어깨 중심 각각에 존재할 수 있다. The fourth joint point to be learned may be defined as the center of the shoulder. More specifically, the fourth learning target joint point is the humerus head, and is a position corresponding to the center of rotation of the continuous motion in the rotational motion of abducting the arm to a position that is the central axis of the rotational motion of the shoulder joint. can be understood as In an image that is not a continuous rotational motion, a point corresponding to information about the predicted position of the center of the shoulder may correspond to the fourth target joint point for learning. And, the fourth joint point to be learned may exist at the center of the left shoulder and the center of the right shoulder, respectively.

제5 학습 대상 관절 포인트는, 팔꿈치 중심으로 정의될 수 있다. 보다 구체적으로, 제5 학습 대상 관절 포인트는, 안쪽-바깥쪽 위관절융기 중심(Humerus Medial-Lateral Epicodyle)에 해당하는 부위이며, 팔꿈치 레벨에서 중앙점으로 이해될 수 있다. 제5 학습 대상 관절 포인트는 좌측 팔꿈치 중심 및 우측 팔꿈치 중심 각각에 존재할 수 있다. The fifth learning target joint point may be defined as the center of the elbow. More specifically, the fifth learning target joint point is a region corresponding to the medial-lateral epicodyle center (Humerus Medial-Lateral Epicodyle) and can be understood as a center point at the level of the elbow. The fifth joint point to be learned may exist at the center of the left elbow and the center of the right elbow, respectively.

제6 학습 대상 관절 포인트는, 손목 중심으로 정의될 수 있다. 보다 구체적으로, 제6 학습 대상 관절 포인트는, 노뼈-자뼈 붓돌기 중심(radius-ulnar styloid process)이며, 손목 레벨에서 중앙점으로 이해될 수 있다. 제6 학습 대상 관절 포인트는, 좌측 손목 중심 및 우측 손목 중심 각각에 존재할 수 있다. The sixth joint point to be learned may be defined as the center of the wrist. More specifically, the sixth joint point to be learned is the radius-ulnar styloid process, which can be understood as a central point at the level of the wrist. The sixth joint point to be learned may exist at the center of the left wrist and the center of the right wrist, respectively.

제7 학습 대상 관절 포인트는, 손 중심으로 정의될 수 있다. 보다 구체적으로, 제7 학습 대상 관절 포인트는, 3번째 손허리뼈 머리(3rd Metacarpal Head)에 해당하는 곳으로 이해될 수 있으며, 좌측 손 중심 및 우측 손 중심 각각에 존재할 수 있다. The seventh joint point to be learned may be defined around the hand. More specifically, the seventh joint point to be studied may be understood as a place corresponding to the 3rd metacarpal head, and may exist in the center of the left hand and the center of the right hand, respectively.

제8 학습 대상 관절 포인트는, 고관절 중심(Femoral Head 중심)으로 정의될 수 있다. 보다 구체적으로 제8 학습 대상 관절 포인트는, 고관절 회전 운동의 중심 축인 위치이며, 다리를 외전(abduction)하는 회전 동작에서 연속 동작의 회전 중심에 해당하는 위치로 이해될 수 있다. 회전 운동 연속 동작이 아닌 이미지에서는, 고관절 중심의 예측 위치 정보에 대응하는 지점을, 제8 학습 대상 관절 포인트로 이해할 수 있다. 제8 학습 대상 관절 포인트는, 좌측 고관절 중심 및 우측 고관절 중심 각각에 존재할 수 있다. The eighth joint point to be learned may be defined as the center of the hip joint (the center of the Femoral Head). More specifically, the eighth joint point to be studied is a position that is the central axis of hip joint rotation motion and can be understood as a position corresponding to the rotation center of continuous motion in a rotation motion that abducts the leg. In an image that is not a continuous rotational motion, a point corresponding to the predicted location information of the center of the hip joint may be understood as an eighth joint point to be learned. The eighth joint point to be learned may exist at the center of the left hip joint and the center of the right hip joint, respectively.

제9 학습 대상 관절 포인트는, 무릎 중심으로 이해될 수 있다. 보다 구체적으로, 제9 학습 대상 관절 포인트는, Femur Medial-Lateral Epicondyle 중심으로, 무릎 레벨에서 중앙점으로 이해될 수 있다. 제9 학습 대상 관절 포인트는, 좌측 무릎 중심 및 우측 무릎 중심 각각에 존재할 수 있다. The ninth learning target joint point can be understood as the center of the knee. More specifically, the ninth joint point to be studied is centered on the Femur Medial-Lateral Epicondyle and can be understood as a central point at the knee level. The ninth learning target joint point may exist at the center of the left knee and the center of the right knee, respectively.

제10 학습 대상 관절 포인트는, 발목 중심으로 정의될 수 있다. 보다 구체적으로, 제10 학습 대상 관절 포인트는, Medial-Lateral Malleolus 중심으로 발목 레벨에서 중앙점으로 이해될 수 있다. 제10 학습 대상 관절 포인트는, 좌측 발목 중심 및 우측 발목 중심에 각각 존재할 수 있다.The tenth joint point to be learned may be defined as the center of the ankle. More specifically, the 10th joint point to be studied may be understood as a central point at the ankle level centered on the Medial-Lateral Malleolus. The tenth joint point to be learned may be present at the center of the left ankle and the center of the right ankle, respectively.

제11 학습 대상 관절 포인트는, 발 중심으로 정의될 수 있다. 보다 구체적으로, 제11 학습 대상 관절 포인트는, 두번째 발허리뼈(2nd Metatarsal Head)에 해당하는 곳으로, 좌측 발중심 및 우측 발중심 각각에 존재할 수 있다. The eleventh joint point to be learned may be defined as the center of the foot. More specifically, the 11th joint point to be studied corresponds to the 2nd metatarsal head, and may exist in the center of the left foot and the center of the right foot, respectively.

제12 학습 대상 관절 포인트는, 발뒤꿈치로 정의될 수 있다. 보다 구체적으로, 제12 학습 대상 관절 포인트는, 발뒤꿈치가 바닥에 닿는 레벨로, 좌측 발뒤꿈치 및 우측 발뒤꿈치 각각에 존재할 수 있다. 제12 학습 대상 관절 포인트는, 이미지에서 피사체(U)가 완전 정면으로 서 있는 경우에는 안보일 수 있으나, 발이 약간이라도 틀어지는 경우 보일 수 있다. The twelfth joint point to be learned may be defined as the heel. More specifically, the twelfth joint point to be learned may be present at a level at which the heel touches the floor, respectively, on the left heel and the right heel. The twelfth joint point to be learned may not be visible when the subject U is standing completely frontally in the image, but may be visible when the foot is slightly twisted.

제13 학습 대상 관절 포인트는, 요추커브시작(SUP. END OF LORDOSIS)으로 정의될 수 있다. 보다 구체적으로, 제13 학습 대상 관절 포인트는 Zypoid Of Sternum 레벨로 8-10T Spine정도 레벨이며, 양쪽 4번의 평균 레벨과 양쪽 8번의 평균 레벨의 Mid 레벨에서 중앙점으로 이해될 수 있다. The thirteenth joint point to be studied may be defined as a lumbar curve start (SUP. END OF LORDOSIS). More specifically, the 13th joint point to be studied is a level of 8-10T Spine at the Zypoid Of Sternum level, and can be understood as the center point at the mid level of the average level of 4 times on both sides and the average level of 8 times on both sides.

제14 학습 대상 관절 포인트는, 요추커브중심(Center Of Lordosis)으로 정의될 수 있다. 보다 구체적으로, 제14 학습 대상 관절 포인트는, 대략 L2-4 Spine정도 레벨이며, 13번 레벨과 양쪽 8번의 평균 레벨의 Mid 레벨에서 중앙점으로 이해될 수 있다. The fourteenth joint point to be studied may be defined as the center of lordosis. More specifically, the 14th joint point to be studied is approximately at the L2-4 Spine level, and can be understood as a center point at the mid level of the 13th level and the average level of the 8th on both sides.

제15 학습 대상 관절 포인트는, 요추커브끝(INF. END OF LORDOSIS)으로 정의될 수 있다. 보다 구체적으로, 제15 학습 대상 관절 포인트는, 대략 S1-2 spine정도 레벨이며, 14번 레벨과 양쪽 8번의 평균레벨의 Mid레벨에서 중앙점을 이해될 수 있다. The fifteenth joint point to be studied may be defined as the end of the lumbar curve (INF. END OF LORDOSIS). More specifically, the 15th learning target joint point is approximately at the S1-2 spine level, and the center point can be understood at the mid level of the 14th level and the average level of the 8th on both sides.

한편, 제1 학습 대상 관절 포인트(P1)는 머리 중심(510)으로 정의되고, 제2 학습 대상 관절 포인트(P2)는 목 중심(520)으로 미리 정의되어 존재할 수 있다. 그리고, 제1 학습 대상 관절 포인트(P1)에는 가장 우선 순서인 제1 순서가 정의되고, 제2 학습 대상 관절 포인트(P2)에는, 상기 제2 순서보다 후순위인 제2 순서가 정의되어 존재할 수 있다. Meanwhile, the first joint point to be studied (P1) may be defined as the center of the head (510), and the second joint point (P2) to be studied may be predefined as the center of the neck (520). In addition, a first order, which is the highest priority order, may be defined in the first joint point to be studied (P1), and a second order, which is subordinate to the second order, may be defined and present in the second target joint point (P2) to be studied. .

이 경우, 피사체(U)의 좌우 각각에 대응되어 존재하는 학습 대상 관절 포인트에 대한 순서는, 신체 제1 측(ex: 좌측)에 대응되는 학습 대상 관절 포인트가, 신체 제2 측(x: 우측)에 대응되는 학습 대상 관절 포인트보다 우선할 수 있다. 예를 들어, 왼쪽 손목 중심(530)에 대응되는 학습 대상 관절 포인트(P3)에는, 오른쪽 어깨 중심(540)에 대응되는 학습 대상 관절 포인트(P4)보다 우선하는 순서가 정의되어 매칭될 수 있다. In this case, in the order of the joint points to be learned corresponding to the left and right sides of the subject U, the joint points to be learned corresponding to the first side (ex: left side) of the body are the second side (x: right side) of the body. ) may be prioritized over the learning target joint point corresponding to ). For example, the target joint point to be learned (P3) corresponding to the center of the left wrist 530 may be matched by defining a priority order over the joint point to be studied (P4) corresponding to the center of the right shoulder (540).

학습부(51)는 학습 대상 운동 영상(300)으로부터 기 지정된 복수의 학습 대상 관절 포인트(P1, P2) 각각의 위치 정보(411, 412) 로서 좌표 정보를 추출할 수 있다.The learning unit 51 may extract coordinate information as positional information 411 and 412 of each of a plurality of previously designated joint points P1 and P2 to be studied from the motion image 300 to be studied.

좌표 정보는, 2차원 또는 3차원 좌표 중 적어도 하나를 포함할 수 있다. 2차원 좌표 정보가 추출되는 경우, 학습부(120)는 학습 대상 운동 영상(300)으로부터, 복수의 학습 대상 관절 포인트(P1, P2) 각각의 x, y축 좌표 정보를 추출할 수 있다. 이와 달리, 2차원 좌표 정보가 추출되는 경우, 학습부(120)는 학습 대상 운동 영상(300)으로부터, 복수의 학습 대상 관절 포인트(P1, P2) 각각의 x, y, z축 좌표 정보를 추출할 수 있다.Coordinate information may include at least one of 2D and 3D coordinates. When the 2D coordinate information is extracted, the learning unit 120 may extract x-axis and y-axis coordinate information of each of the plurality of target joint points P1 and P2 from the target exercise image 300 . In contrast, when 2-dimensional coordinate information is extracted, the learning unit 120 extracts the x, y, and z-axis coordinate information of each of the plurality of learning-target joint points P1 and P2 from the learning-target exercise image 300 can do.

좌표 정보는 다양한 방법을 통하여 추출될 수 있다. 특히, z축의 좌표 정보는 카메라(ex: RGB카메라 등) 또는 다양한 방식의 센서(EX: 거리 측정 센서 등)로부터 추출될 수 있다. 나아가, z축의 좌표 정보는 다양한 방식의 인공지능 알고리즘을 통해, 학습 대상 영상(300)으로부터 추출될 수 있다. 인공지능 알고리즘을 통해, z축의 좌표 정보가 추출는 경우, z축의 좌표 정보가 “추정” 또는 “예측”되었다고 표현될 수 있다. Coordinate information may be extracted through various methods. In particular, the z-axis coordinate information may be extracted from a camera (ex: RGB camera, etc.) or various types of sensors (EX: distance measurement sensor, etc.). Furthermore, the z-axis coordinate information may be extracted from the learning target image 300 through artificial intelligence algorithms of various methods. When z-axis coordinate information is extracted through an artificial intelligence algorithm, the z-axis coordinate information may be expressed as “estimated” or “predicted”.

한편, 학습부(51)는 복수의 학습 대상 관절 포인트(P1, P2) 각각의 위치 정보(411, 412)가, 제1 정보 속성(410a)에 대응되는 것에 근거하여, 제1 데이터 그룹(410)으로 분류하여 제1 데이터 그룹(410)을 생성하고, 제1 데이터 그룹(410)을 포함하는 학습 데이터 세트(400)를 생성할 수 있다. On the other hand, the learning unit 51 determines the first data group 410 based on the fact that the positional information 411 and 412 of each of the plurality of target joint points P1 and P2 corresponds to the first information attribute 410a. ) to generate a first data group 410, and to generate a learning data set 400 including the first data group 410.

2차원 좌표 정보(x, y좌표 정보)가 추출됨을 예를 들어 살펴보면, 학습부(121)는 복수의 학습 대상 관절 포인트(P1, P2) 각각의 위치 정보(411, 412)를, x축, y축 좌표 정보가 쌍을 이룬 형태로 추출할 수 있다. 학습부(51)는 제1 학습 대상 관절 포인트(P1)의 위치 정보 “[599, 436]”을 추출하고, 제2 학습 대상 관절 포인트(P2)의 위치 정보 “[599, 436]”를 추출할 수 있다. 그리고, 학습부(51)는 상기 “[599, 436]” 및 “[599, 436]”를 포함하는 제1 데이터 그룹(410)으로 구성되는 학습 데이터 세트(400)를 생성할 수 있다. Looking at the fact that two-dimensional coordinate information (x, y coordinate information) is extracted as an example, the learning unit 121 converts the positional information 411 and 412 of each of the plurality of joint points to be learned (P1 and P2) to the x-axis, The y-axis coordinate information can be extracted in a paired form. The learning unit 51 extracts the positional information “[599, 436]” of the first joint point to be studied (P1), and extracts the positional information “[599, 436]” of the second target joint point (P2) to be learned can do. Also, the learning unit 51 may generate a learning data set 400 composed of the first data group 410 including “[599, 436]” and “[599, 436]”.

학습부(51)는, 제1 데이터 그룹(410)을 구성하는 학습 대상 관절 포인트(P1, P2)의 위치 정보(411, 412)를 기반으로, 학습 대상 운동 영상(300)에 포함된 피사체(U)의 관절 포인트(P1, P2)의 위치를 추정하는 학습을 수행할 수 있다. The learning unit 51 is based on the positional information 411 and 412 of the joint points P1 and P2 to be studied constituting the first data group 410, the subject included in the exercise image 300 to be studied ( Learning to estimate the positions of the joint points P1 and P2 of U) may be performed.

한편, 도 8c의 (b)에 도시된 것과 같이, 학습부(51)는, 복수의 학습 대상 관절 포인트(P1, P2) 각각의 위치 정보(411, 412)를, 상기 복수의 학습 대상 관절 포인트(P1, P2)들 간에 기 정의된 순서에 기반하여, 제1 데이터 그룹(410) 내에서 순차적으로 배열하여, 학습 데이터 세트(400)를 구성(생성)할 수 있다. On the other hand, as shown in (b) of FIG. 8C, the learning unit 51 transfers the positional information 411 and 412 of each of the plurality of subject joint points P1 and P2 to the plurality of subject joint points to be learned. Based on a predefined order between (P1 and P2), the learning data set 400 may be configured (created) by sequentially arranging them within the first data group 410.

앞서 설명한 것과 같이, 데이터베이스(40)에는 복수의 학습 대상 관절 포인트(P1, P2)에 대한 순서가 미리 정의되어 존재할 수 있다. As described above, the database 40 may have a predefined order for the plurality of joint points to be learned (P1, P2).

학습부(51)는 데이터베이스(40)를 참조하여, 복수의 학습 대상 관절 포인트(P1, P2)의 위치 정보(411, 412)를, 학습 대상 관절 포인트(P1, P2)에 대응하는 순서에 따라 제1 데이터 그룹(410) 내에서 순차적으로 배치하여, 학습 데이터 세트(400)를 생성할 수 있다. 그리고, 이러한 학습 데이터 세트(400)는 데이터베이스(40)에 저장되어, 자세 추정을 위한 데이터베이스(40)를 구축할 수 있다. The learning unit 51 refers to the database 40 and provides positional information 411 and 412 of a plurality of joint points to be studied (P1 and P2) in the order corresponding to the joint points to be studied (P1 and P2). The training data set 400 may be created by sequentially arranging the first data group 410 . In addition, the learning data set 400 may be stored in the database 40 to construct the database 40 for posture estimation.

구체적으로, 도 8c의 (b)에 도시된 것과 같이, 학습부(51)는 제1 데이터 그룹(410) 내에서, 제1 순서에 대응되는 제1 학습 대상 관절 포인트(P1)의 제1 위치 정보(411)를 우선하여 배열하고, 상기 제1 위치 정보(411)에 이어서, 제2 순서에 대응되는 제1 학습 대상 관절 포인트(P2)의 제2 위치 정보(412)를 배열할 수 있다. Specifically, as shown in (b) of FIG. 8C, the learning unit 51 performs the first position of the first target joint point P1 corresponding to the first order in the first data group 410. The information 411 may be arranged first, and the second location information 412 of the first joint point to be studied (P2) corresponding to the second order may be arranged following the first location information 411.

한편, 학습부(51)는, 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)의 가시(visible) 여부에 근거하여, 학습 대상 관절 포인트(P1, P2)의 위치 정보(411, 412)를 제1 프로세스 및 제2 프로세스 중 어느 하나의 프로세스에 따라 추출(또는 특정)할 수 있다. On the other hand, the learning unit 51 provides location information 411 and 412 of the joint points to be studied (P1 and P2) based on whether the joint points to be learned (P1 and P2) are visible in the motion image 300. ) may be extracted (or specified) according to any one of the first process and the second process.

본 발명에서, 학습 대상 관절 포인트의 가시 여부는, 학습 대상 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이는지 여부를 의미하는 것으로 이해될 수 있다. In the present invention, whether or not the subject joint points to be studied may be understood to mean whether or not the subject joint points P1 and P2 are visible in the motion image 300 to be studied.

본 발명에서는, 학습 대상 운동 영상에서의 가시 가능한 관절 포인트를, “학습 대상 가시 관절 포인트”로 명명하고, 학습 대상 운동 영상에서의 비가시(invisible) 관절 포인트를 “학습 대상 비가시 관절 포인트”로 명명할 수 있다. In the present invention, visible joint points in a motion image to be learned are named “visible joint points to be learned”, and invisible joint points in a motion image to be learned are designated as “invisible joint points to be learned”. can be named

학습부(51)는, 학습 대상 운동 영상(300)에, 학습 대상 관절 포인트(P1, P2)에 대응하는 피사체(U)의 신체 일부가 포함되어 있으면, 학습 대상 운동 영상(300)에서 학습 대상 관절 포인트가 보이는 것으로 판단할 수 있다. The learning unit 51, if the learning target motion image 300 includes body parts of the subject U corresponding to the learning target joint points P1 and P2, the learning target movement image 300 It can be determined that the joint points are visible.

학습부(51)는, 학습 대상 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2) 가 보이는 것에 근거하여, 제1 프로세스에 따라, 학습 대상 운동 영상(300)으로부터, 학습 대상 관절 포인트(P1, P2)가 위치하는 실제 위치의 위치 정보를 추출할 수 있다. Based on the fact that the learning-target joint points P1 and P2 are visible in the learning-target motion image 300, the learning unit 51, according to the first process, from the learning-target motion image 300, the learning-target joint points ( Location information of the actual location where P1 and P2) are located can be extracted.

본 발명에서는 제1 프로세스에 따라 추출된 학습 대상 관절 포인트(P1, P2)의 위치 정보를, “제1 타입의 정보(제1 타입의 위치 정보)” 또는 “실체 위치 정보”로 명명하여 설명할 수 있다. In the present invention, the location information of the joint points to be studied (P1, P2) extracted according to the first process will be described by naming “first type information (first type location information)” or “entity location information”. can

반면에, 학습부(51)는 운동 영상(300)에 학습 대상 관절 포인트(P1, P2)에 대응하는 피사체(U)의 신체 일부가 포함되어 있지 않으면, 학습 대상 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이지 않는 것으로 판단할 수 있다. On the other hand, if the learning unit 51 does not include the body part of the subject U corresponding to the learning-target joint points P1 and P2 in the motion image 300, the learning object in the learning-target motion image 300 It may be determined that the joint points P1 and P2 are not visible.

학습부(51)는, 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이지 않는 것에 근거하여, 제2 프로세스에 따라, 학습 대상 관절 포인트(P1, P2)의 예상 위치를 예측하여, 예측 위치 정보를 추출(또는 특정)할 수 있다. Based on the fact that the learning target joint points P1 and P2 are not visible in the motion image 300, the learning unit 51 predicts the expected position of the learning target joint points P1 and P2 according to the second process, , it is possible to extract (or specify) predicted location information.

본 발명에서는 제2 프로세스에 따라 추출된 학습 대상 관절 포인트(P1, P2)의 위치 정보를, “제2 타입의 정보(제2 타입의 위치 정보)” 또는 “예측 위치 정보”로 명명하여 설명할 수 있다. In the present invention, the location information of the joint points to be studied (P1, P2) extracted according to the second process will be described by naming “second type information (second type location information)” or “predicted location information”. can

이와 같이, 본 발명에서, 제1 데이터 그룹(410)에 포함된 복수의 위치 정보(411, 412)는, 학습 대상 운동 영상(300)에서 복수의 학습 대상 관절 포인트(P1, P2)의 가시(visible) 여부에 따라, 추출 프로세스 및 타입 정보가 서로 다르게 정의될 수 있다. As such, in the present invention, the plurality of positional information 411 and 412 included in the first data group 410 are visible ( visible), the extraction process and type information may be defined differently.

한편, 제2 프로세스는, 운동 영상(300)에서 보이지 않는 학습 대상 관절 포인트(P1, P2)의 예상 위치 정보를 추출(특정)하는 다양한 데이터 처리를 포함할 수 있다. Meanwhile, the second process may include various data processing to extract (specify) expected position information of joint points to be learned (P1, P2) that are not visible in the motion image 300.

예를 들어, 제2 프로세스에 따라 예상 위치 정보를 추출하는 학습부(51)는, 운동 영상(300)에서 보이는 학습 대상 관절 포인트의 실제 위치 정보에 근거하여, 운동 영상(300)에서 보이지 않는 학습 대상 관절 포인트(P1, P2)의 예측 위치 정보를 예측할 수 있다.For example, the learning unit 51 that extracts expected position information according to the second process learns invisible from the exercise image 300 based on the actual position information of joint points to be learned seen from the exercise image 300. Predicted position information of the target joint points P1 and P2 may be predicted.

이 경우, 학습부(51)는 운동 영상(300)에서 보이는 복수의 학습 대상 관절 포인트(P1, P2)에 대해, 운동 영상(300)에서 보이지 않는 학습 대상 관절 포인트(P1, P2)와의 연관성에 근거한 가중치를 부여하여, 예측 위치 정보를 특정할 수 있다. In this case, the learning unit 51 determines the relationship between the plurality of learning target joint points P1 and P2 visible in the motion image 300 and the learning target joint points P1 and P2 invisible in the motion image 300. Predicted location information may be specified by assigning a weight based thereon.

예를 들어, 학습 대상 관절 포인트 사이의 연관성은, 학습 대상 관절 포인트(P1, P2)에 대응되는 순서가 가까울수록 높게 설정될 수 있다. 제3 순서에 대응되는 학습 대상 관절 포인트와의 연관성은, 제2 순서에 대응되는 학습 대상 관절 포인트가, 제1 순서에 대응되는 학습 대상 관절 포인트 보다 높게 설정될 수 있다. For example, the correlation between the subject joint points to be learned may be set higher as the order corresponding to the subject joint points P1 and P2 is closer. As for the correlation with the subject joint points to be learned corresponding to the third order, the subject joint points to be learned corresponding to the second order may be set higher than the subject joint points to be learned corresponding to the first order.

다른 예를 들어, 학습 대상 관절 포인트(P1, P2) 사이의 연관성은, 피사체(U)의 좌우 각각에 대응되어 존재하는 학습 대상 관절 포인트(P1, P2) 사이에서 가장 높게 설정될 수 있다. 예를 들어, 왼쪽 손목 중심에 대응하는 학습 대상 관절 포인트(P3)와의 연관성은, 오른쪽 손목 중심에 대응하는 학습 대상 관절 포인트(P3)가 가장 높게 설정될 수 있다(도 8c의 (a) 참조). For another example, the correlation between the subject joint points P1 and P2 to be studied may be set to be the highest between the subject joint points P1 and P2 corresponding to the left and right sides of the subject U. For example, the correlation with the subject joint point P3 corresponding to the center of the left wrist may be set to the highest for the joint point P3 to be studied corresponding to the center of the right wrist (see (a) of FIG. 8C). .

나아가, 학습부(51)는 운동 영상(300)에서 피사체(U)가 수행하는 운동 동작의 모션(motion) 정보에 근거하여, 운동 영상(300)에서 보이지 않는 학습 대상 관절 포인트(P1, P2)의 예측 위치 정보를 추출할 수 있다. Furthermore, the learning unit 51 determines joint points to be learned (P1, P2) that are not visible in the motion image 300 based on motion information of an exercise action performed by the subject U in the motion image 300. It is possible to extract the predicted position information of .

데이터베이스(40)에는, 운동 동작에 따른 신체(또는 관절 포인트)의 이동 경로(ex: 이동 위치, 이동 방향)를 포함하는 모션 정보가 저장되어 존재할 수 있다. In the database 40, motion information including a movement path (eg, movement position, movement direction) of a body (or joint point) according to an exercise operation may be stored and present.

학습부(51)는, 운동 영상(300)에서 보이는 학습 대상 관절 포인트(P1, P2)의 위치 정보 및 데이터베이스(40)의 모션 정보를 참조하여, 운동 영상(300)에서 보이지 않는 학습 대상 관절의 예상 위치 정보를 특정할 수 있다. The learning unit 51 refers to the motion information of the database 40 and the location information of the joint points to be learned (P1, P2) visible in the motion image 300, and the joint to be learned that is not visible in the motion image 300. Estimated location information may be specified.

한편, 도 8c에 도시된 것과 같이, 복수의 데이터 그룹(410 내지 450) 중 제2 데이터 그룹(420)은, 운동 영상(300)에 포함된 피사체(U)의 학습 대상 관절 포인트(P1, P2)의 가시(visible) 여부를 나타내는 데이터 값(value, 421, 422)으로 이루어질 수 있다. On the other hand, as shown in FIG. 8C , the second data group 420 among the plurality of data groups 410 to 450 is the learning target joint points P1 and P2 of the subject U included in the exercise image 300. ) may be made of data values (value, 421, 422) indicating whether or not to be visible.

도 5의 (b)에 도시된 것과 같이, 제2 데이터 그룹(420)에 포함된 데이터(421, 422)의 데이터 값은, 학습 대상 관절 포인트(P1, P2)의 가시 여부에 대응하여, 제1 데이터 값(ex: “1”) 및 제2 데이터 값(ex: “2”) 중 어느 하나로 이루어질 수 있다. As shown in (b) of FIG. 5, the data values of the data 421 and 422 included in the second data group 420 correspond to whether or not the joint points to be learned P1 and P2 are visible. It may consist of one of a first data value (ex: “1”) and a second data value (ex: “2”).

제1 데이터 값(ex: “1”)을 갖는 데이터는, 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이는 것을 나태나는 데이터로, 제1 데이터 그룹(410)에 포함된 위치 정보가 제1 타입(실제 위치 정보)임을 나타내는 정보로 이해될 수 있다. Data having a first data value (ex: “1”) is data indicating that the joint points to be learned (P1, P2) are visible in the exercise image 300, and is a position included in the first data group 410. It can be understood as information indicating that the information is of the first type (actual location information).

학습부(51)는, 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이는 경우, 학습 대상 관절 포인트의 제1 타입의 위치 정보(실제 위치 정보)를 추출할 수 있다. 학습부(51)는 운동 영상(300)으로부터 제1 타입의 위치 정보(실제 위치 정보)를 추출한 것에 근거하여, 제2 데이터 그룹(420)에 제1 데이터 값(ex: “1”)을 갖는 데이터를 포함시켜 학습 데이터 세트(400)를 생성(구성)할 수 있다. The learning unit 51 may extract the first type of location information (actual location information) of the joint points to be studied when the joint points to be studied are visible in the motion image 300 . The learning unit 51 has a first data value (ex: “1”) in the second data group 420 based on the extraction of the first type of location information (actual location information) from the exercise image 300. The training data set 400 can be created (constructed) by including data.

반면에, 제2 데이터 값(ex: “2”)은, 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이지 않는 것을 나타내는 데이터로, 제1 데이터 그룹(410)에 포함된 위치 정보가 제2 타입(예측 위치 정보)임을 나타내는 정보로 이해될 수 있다. On the other hand, the second data value (ex: “2”) is data indicating that the joint points to be learned (P1, P2) are not visible in the exercise image 300, and is a position included in the first data group 410. It can be understood as information indicating that the information is of the second type (predicted location information).

학습부(51)는, 운동 영상(300)에서 학습 대상 관절 포인트가 보이지 않는 경우, 학습 대상 관절 포인트의 제2 타입의 위치 정보(실제 위치 정보)를 추출(또는 특정)할 수 있다. 학습부(51)는 운동 영상(300)으로부터 제2 타입의 위치 정보(예측 위치 정보)를 추출(또는 특정)한 것에 근거하여, 제2 데이터 값(ex: “2”)을 갖는 데이터를, 제2 데이터 그룹(420)에 포함시켜습 데이터 세트(400)를 생성(구성)할 수 있다.The learning unit 51 may extract (or specify) the second type of location information (actual location information) of the joint point to be studied when the joint point to be studied is not visible in the motion image 300 . The learning unit 51 extracts (or specifies) the second type of location information (predicted location information) from the exercise image 300, and extracts data having a second data value (ex: “2”), The data set 400 may be created (configured) by being included in the second data group 420 .

한편, 도 8c의 (b)에 도시된 것과 같이, 학습부(51)는, 제2 데이터 그룹(420)에 포함된 데이터(또는 데이터 값, 421, 422)는, 복수의 학습 대상 관절 포인트(P1, P2) 각각의 가시 여부를 나타내도록, 복수의 학습 대상 관절 포인트 각각의 위치 정보(411, 412)가 배열된 기 정의된 순서와 동일한 순서로, 제2 데이터 그룹(420) 내에서 배열하여, 학습 데이터 세트(400)를 생성(구성)할 수 있다.On the other hand, as shown in (b) of FIG. 8C, the learning unit 51, the data (or data values, 421, 422) included in the second data group 420, a plurality of joint points to be learned ( P1, P2) are arranged in the second data group 420 in the same order as the predefined order in which the position information 411, 412 of each of the plurality of joint points to be learned is arranged to indicate whether each is visible. , it is possible to create (construct) a learning data set 400.

학습부(51)는, 복수의 학습 대상 관절 포인트 각각의 가시 여부를 나태내는 데이터(421, 422)를, 복수의 학습 대상 관절 포인트(P1, P2)들 간에 기 정의된 순서에 기반하여, 제2 데이터 그룹(420) 내에서 순차적으로 배열할 수 있다. The learning unit 51 controls the data 421 and 422 indicating whether each of the plurality of joint points to be learned is visible, based on a predefined order among the plurality of joint points to be learned (P1 and P2). 2 can be arranged sequentially within the data group 420.

예를 들어, 도 8c의 (b)에 도시된 것과 같이, 학습부(51)는, 제1 학습 대상 관절 포인트(P1)가 운동 영상(300)에서 보이는 것에 근거하여, 제2 데이터 그룹(420) 내에서, 제1 학습 대상 관절 포인트(P1)에 대응되는 제1 순서상에, 제1 데이터 값(ex: “1”)을 갖는 데이터(421)를 배열할 수 있다. For example, as shown in (b) of FIG. 8C, the learning unit 51 determines the second data group 420 based on the fact that the first joint point P1 to be learned is visible in the motion image 300. ), the data 421 having the first data value (ex: “1”) may be arranged in the first order corresponding to the first joint point to be learned (P1).

그리고, 비록 도 8c의 (a) 도면에서는, 제2 학습 대상 관절 포인트(P2)가 운동 영상(300)에서 보이는 것으로 도시되어 있으나, 제2 학습 대상 관절 포인트(P2)가 운동 영상(300)에서 보이지 않는다고 가정하자. 학습부(51)는, 제2 학습 대상 관절 포인트(P2)가 운동 영상(300)에서 보이는 것에 근거하여, 제2 학습 대상 관절 포인트(P2)에 대응되는 제2 순서상에, 제2 데이터 값(ex: “2”)을 갖는 데이터(422)를 배열할 수 있다. In addition, although in (a) of FIG. 8C, the second learning target joint point P2 is shown as visible in the motion image 300, the second learning target joint point P2 is shown in the motion image 300. Let's assume you can't see it. The learning unit 51 determines the second data value in the second order corresponding to the second target joint point P2 based on the fact that the second target joint point P2 is visible in the motion image 300. Data 422 having (ex: “2”) can be arranged.

한편, 본 발명에서, 제1 데이터 그룹(410)에 포함된 위치 정보에 대한 타입의 정의는, 제2 데이터 그룹(420)에 포함된 데이터가 갖는 데이터 값에 의해 이루어지는 것으로 이해될 수 있다. Meanwhile, in the present invention, it may be understood that the type of location information included in the first data group 410 is defined by a data value of data included in the second data group 420 .

도 5의 (b)에 도시된 것과 같이, 제2 데이터 그룹(420) 내에, 제1 순서에 배열된 데이터(421)는 제1 데이터 값(ex: “1”)을 갖고, 제2 순서에 배열된 데이터(422)는 제2 데이터 값(ex: “2”)을 갖는 경우를 가정하자. As shown in (b) of FIG. 5, in the second data group 420, the data 421 arranged in the first order has a first data value (ex: “1”) and is in the second order. Assume that the arrayed data 422 has a second data value (ex: “2”).

본 발명에서는, 제2 데이터 그룹(420) 내에, 제1 순서에 배열된 데이터(421)가 제1 데이터 값(ex: “1”)을 갖는 것에 근거하여, 제1 데이터 그룹(410) 내에서 제1 순서에 배열된 위치 정보(411)의 타입을, 제1 타입의 위치 정보(실제 위치 정보)로 정의될 수 있다.In the present invention, based on the fact that the data 421 arranged in the first order in the second data group 420 has the first data value (ex: “1”), the first data group 410 The type of location information 411 arranged in the first order may be defined as the first type of location information (actual location information).

반면에, 제2 데이터 그룹(420) 내에, 제2 순서에 배열된 데이터(422)가 제2 데이터 값(ex: “2”)을 갖는 것에 근거하여, 제1 데이터 그룹(410) 내에서 제2 순서에 배열된 위치 정보(411)의 타입을, 제2 타입의 위치 정보(예측 위치 정보)로 정의될 수 있다.On the other hand, based on the fact that the data 422 arranged in the second order in the second data group 420 has the second data value (ex: “2”), the first data group 410 The type of location information 411 arranged in the order of 2 may be defined as the second type of location information (predicted location information).

한편, 본 발명에 따른 자세 추정 모델(52)은, 제2 데이터 그룹(420)에 포함된 데이터 값에 근거하여, 제1 데이터 그룹(410)에 포함된 복수의 학습 대상 관절 포인트 각각의 위치 정보(411, 412)에 대한 학습 가중치를 다르게 설정하여, 학습을 수행할 수 있다. On the other hand, the posture estimation model 52 according to the present invention, based on the data values included in the second data group 420, the position information of each of the plurality of joint points to be learned included in the first data group 410 Learning can be performed by setting different learning weights for (411, 412).

구체적으로, 제2 데이터 그룹(420) 내에, 제1 순서에 배열된 데이터(421)가, 제1 데이터 값(ex: “1”)을 갖는 경우, 자세 추정 모델(52)은, 제1 데이터 그룹(410) 내에서 제1 순서에 배열된 위치 정보(411)에 대해 제1 학습 가중치를 설정하여 학습을 수행할 수 있다. Specifically, when the data 421 arranged in the first order in the second data group 420 has a first data value (ex: “1”), the posture estimation model 52 calculates the first data value. Learning may be performed by setting a first learning weight for the location information 411 arranged in the first order within the group 410 .

반면에, 제2 데이터 그룹(420) 내에, 제2 순서에 배열된 데이터(422)가, 제2 데이터 값(ex: “2”)을 갖는 경우, 자세 추정 모델(52)은, 제1 데이터 그룹(410) 내에서 제2 순서에 배열된 위치 정보(412)에 대해 제2 학습 가중치를 설정하여 학습을 수행할 수 있다. On the other hand, when the data 422 arranged in the second order in the second data group 420 has a second data value (ex: “2”), the posture estimation model 52 performs the first data Learning may be performed by setting a second learning weight for the location information 412 arranged in the second order within the group 410 .

즉, 자세 추정 모델(52)은, 제2 데이터 그룹(420)의 데이터 값에 근거하여, 제1 타입의 위치 정보(실제 위치 정보)와, 제2 타입의 위치 정보(예측 위치 정보) 각각에 서로 다른 학습 가중치를 설정하여 학습을 수행할 수 있다. That is, the posture estimation model 52, based on the data values of the second data group 420, respectively, the first type of location information (actual location information) and the second type of location information (predicted location information) Learning can be performed by setting different learning weights.

이 경우, 자세 추정 모델(52)은, 제1 학습 가중치를 제2 학습 가중치보다 높게 설정할 수 있다. In this case, the posture estimation model 52 may set the first learning weight higher than the second learning weight.

한편, 도 8b에 도시된 것과 같이, 복수의 데이터 그룹(410 내지 450)은 운동 영상(300)에 포함된 피사체에 대한 촬영 방향과 관련된 정보를 포함하는 제3 데이터 그룹(430)을 더 포함할 수 있다. 제3 데이터 그룹(430)에는, 운동 영상(300)에 포함된 피사체(U)가 촬영된 촬영 방향을 나타내는 데이터 값(value)으로 이루어질 수 있다. Meanwhile, as shown in FIG. 8B, the plurality of data groups 410 to 450 may further include a third data group 430 including information related to a photographing direction of a subject included in the motion image 300. can The third data group 430 may include data values indicating a photographing direction in which the subject U included in the exercise image 300 is photographed.

도 8e의 (a)에 도시된 것과 같이, 피사체(U)는, 서로 다른 촬영 방향(ex: “정면” 또는 “측면”)에서 촬영될 수 있다. As shown in (a) of FIG. 8E, the subject U may be photographed in different photographing directions (eg, “front” or “side”).

여기에서 “촬영 방향”은, 피사체(U)에 대한 카메라(도 1에서 도면부호 “201” 참조) 축의 방향으로 이해될 수 있다. 여기에서, 카메라(201)는, 피사체(U)가 포함된 운동 영상(300)을 촬영한 카메라(201)로 이해될 수 있다. 이러한 카메라(201)는 사용자 단말(10, 20)에 구비된 카메라(201)를 포함할 수 있다. Here, “capturing direction” may be understood as a direction of an axis of a camera (refer to reference numeral 201 in FIG. 1 ) with respect to the subject U. Here, the camera 201 may be understood as a camera 201 that captures a motion image 300 including the subject U. This camera 201 may include the camera 201 provided in the user terminals 10 and 20 .

도 8e (b)에 도시된 제3 데이터 그룹(430)에 포함된 데이터 값은, 피사체(U)에 대한 촬영 방향에 대응하여, 서로 다른 데이터 값(ex: “0” 또는 “1”)을 가질 수 있다. 제3 데이터 그룹에 포함된 데이터 값은, 상기 피사체를 촬영한 카메라를 기준으로 하는, 상기 피사체의 촬영 방향에 따라 서로 다른 데이터 값을 갖도록 이루어질 수 있다. 이하에서는 제2 데이터 그룹(420)에 포함된 데이터 값과의 용어 혼동을 피하기 위하여, 촬영 방향에 대응하는 데이터 값을, “데이터 객체 값”으로 명명하여 설명하도록 한다. The data values included in the third data group 430 shown in FIG. 8E (b) have different data values (ex: “0” or “1”) corresponding to the photographing direction of the subject U. can have Data values included in the third data group may have different data values according to a photographing direction of the subject based on a camera that captures the subject. Hereinafter, in order to avoid term confusion with data values included in the second data group 420, data values corresponding to photographing directions will be named and described as “data object values”.

제1 데이터 객체 값(ex: “0”)을 갖는 데이터는, 학습 대상 운동 영상(300)에 대한 촬영 방향이 제1 방향(ex: 정면 방향)을 나타내는 데이터로 이해될 수 있다(도 8e의 (b) 참조). Data having a first data object value (ex: “0”) may be understood as data representing a first direction (ex: front direction) in which the shooting direction of the exercise image 300 to be studied is (FIG. 8E). see (b)).

학습부(51)는, 학습 대상 운동 영상(300)에 포함된 피사체(U)에 대한 촬영 방향이, 제1 방향(ex: 정면 방향)에 해당하는 것에 근거하여, 제3 데이터 그룹(430)에 제1 데이터 객체 값(ex: “0”)을 갖는 데이터를 포함시켜 학습 데이터 세트(400)를 생성할 수 있다. The learning unit 51 determines the third data group 430 based on the fact that the photographing direction of the subject U included in the learning target exercise image 300 corresponds to the first direction (ex: front direction). The training data set 400 may be created by including data having a first data object value (ex: “0”) in .

반면에, 제2 데이터 객체 값(ex: “1”)은, 운동 영상(300)에 대한 촬영 방향이 제1 방향과는 다른 제2 방향(ex: 측면 방향)을 나타내는 데이터로 이해될 수 있다(도 8e의 (b) 참조).On the other hand, the second data object value (ex: “1”) may be understood as data indicating a second direction (ex: lateral direction) in which the direction of capturing the motion image 300 is different from the first direction. (See Fig. 8e (b)).

학습부(51)는, 운동 영상(300)에 포함된 피사체(U)에 대한 촬영 방향이, 제2 방향(ex: 측면 방향)에 해당하는 것에 근거하여, 제3 데이터 그룹(430)에 제2 데이터 객체 값(ex: “1”)을 갖는 데이터를 포함시켜 학습 데이터 세트(400)를 생성할 수 있다. The learning unit 51 assigns a third data group 430 to the third data group 430 based on the fact that the photographing direction of the subject U included in the motion image 300 corresponds to the second direction (ex: lateral direction). The training data set 400 can be created by including data having 2 data object values (ex: “1”).

나아가, 비록 도시되지는 않았지만, 제3 데이터 객체 값(ex: “2”)은, 운동 영상(300)에 대한 촬영 방향이 제1 방향 및 제2 방향과는 다른 제3 방향(ex: 사선 방향)을 나태나는 데이터로 이해될 수 있다. Furthermore, although not shown, a third data object value (ex: “2”) indicates that the shooting direction of the motion image 300 is in a third direction different from the first and second directions (ex: oblique direction). ) can be understood as data representing

학습부(51)는 학습 대상 운동 영상(300)에 포함된 피사체(U)에 대한 촬영 방향이, 제3 방향(ex: 사선 방향)에 해당하는 것에 근거하여, 제3 데이터 그룹(430)에 제3 데이터 객체 값(ex: “2”)을 갖는 데이터를 포함시켜 데이터베이스(40)에 저장할 수 있다.The learning unit 51 assigns the third data group 430 based on the fact that the shooting direction of the subject U included in the training target exercise image 300 corresponds to the third direction (ex: oblique direction). Data having a third data object value (ex: “2”) may be included and stored in the database 40 .

한편, 본 발명에서 설명되는 제1 방향 내지 제3 방향은, 피사체(U)와 카메라(201) 축이, 기 설정된 방향(ex: 시계 방향)을 기준으로 이루는 각도가, 제1 범위 내지 제3 범위 각각에 대응되는 경우로 이해될 수 있다. Meanwhile, in the first to third directions described in the present invention, the angle between the subject U and the axis of the camera 201 relative to a preset direction (ex: clockwise direction) is within a first range to a third range. It can be understood as a case corresponding to each of the ranges.

예를 들어, 제1 방향은, 피사체(U)와 카메라(201) 축이 이루는 각도가, 제1 각도에서 상기 제1 각도 보다 큰 제2 각도 범위 사이에 대응하는 것으로 이해될 수 있다. 제2 방향은, 피사체(U)와 카메라(201) 축이 이루는 각도가 제2 각도에서 제2 각도 보다 큰 제3 각도 범위 사이에 대응하는 것으로 이해될 수 있다. 그리고, 제3 방향은, 피사체(U)와 카메라(201) 축이 이루는 각도가 제2 각도에서 제2 각도 보다 큰 제3 각도 범위 사이에 대응하는 것으로 이해될 수 있다.For example, the first direction may be understood as corresponding to a second angle range in which an angle between the subject U and the axis of the camera 201 is greater than the first angle in the first angle. The second direction may be understood as corresponding to a third angle range in which an angle between the subject U and the axis of the camera 201 is greater than the second angle. Also, the third direction may be understood as corresponding to a third angle range in which an angle between the subject U and the axis of the camera 201 is greater than the second angle from the second angle.

한편, 학습부(51)는, 피사체(U)와 카메라(201) 축이, 기 설정된 방향(ex: 시계 방향)을 기준으로 이루는 각도(또는 각도 값)를, 제3 데이터 그룹(430)에 포함된 데이터의 데이터 값으로 구성할 수 있다. 예를 들어, 피사체(U)와 카메라(201) 축이 시계 방향을 기준을 직각을 이루는 경우, 학습부(51)는 “90”의 데이터 값을 제3 데이터 그룹(430)의 데이터로 구성할 수 있다. 한편, 학습부(51)는, 제3 데이터 그룹(430)에 포함된 촬영 방향 정보가 서로 다른 학습 데이터 세트(400)를 연계하여, 피사체(U)의 자세 추정을 위한 학습을 수행할 수 있다. Meanwhile, the learner 51 converts the angle (or angle value) between the subject U and the axis of the camera 201 based on a preset direction (ex: clockwise direction) to the third data group 430. It can be composed of data values of included data. For example, when the axes of the subject U and the camera 201 form a right angle with respect to the clockwise direction, the learning unit 51 configures the data value of “90” as the data of the third data group 430. can Meanwhile, the learning unit 51 may perform learning for estimating the posture of the subject U by linking the learning data sets 400 with different photographing direction information included in the third data group 430. .

예를 들어, 제3 데이터 그룹(430)에 포함된 데이터가, 제1 데이터 객체 값(ex: “0”)을 갖는 제1 학습 데이터 세트와, 제2 데이터 객체 값(ex: “1”)을 갖는 제2 학습 데이터 세트가 존재한다고 가정하자. 학습부(51)는 제1 데이터 세트에 포함된 제1 데이터 그룹(410)의 위치 정보와, 제2 데이터 세트에 포함된 제1 데이터 그룹의 위치 정보를 서로 연계하여, 피사체(U)의 자세 추정에 대한 학습을 수행할 수 있다. For example, the data included in the third data group 430 includes a first training data set having a first data object value (ex: “0”) and a second data object value (ex: “1”). Assume that there exists a second training data set with . The learning unit 51 links the positional information of the first data group 410 included in the first data set and the positional information of the first data group included in the second data set to each other so as to determine the posture of the subject U. You can learn about estimation.

한편, 학습부(51)는, 제1 방향에서 촬영된 분석 대상 운동 영상으로부터 피사체(U)의 운동 자세를 추정하는 경우, 제1 방향에서 촬영된 학습 대상 운동 영상(300)에서 촬영된 학습 대상 운동 영상(300)에 대해 학습을 수행한 자세 추정 모델에 기반하여, 피사체(U)의 운동 자세를 추정할 수 있다. On the other hand, the learning unit 51, when estimating the exercise posture of the subject U from the motion image to be analyzed captured in the first direction, the learning target captured in the target learning exercise image 300 photographed in the first direction The motion posture of the subject U may be estimated based on the posture estimation model that has been trained on the motion image 300 .

본 발명에 따른 운동 치료 제공 시스템(1000)은 분석 대상 운동 영상의 촬영 방향에 대응하는 촬영 방향 정보(데이터 객체 값 또는 데이터 값)을 포함하는 학습 데이터 세트(400)를 이용하여 학습된 자세 추정 모델로부터 추출되는 키포인트에 기반하여, 피사체(U)의 운동 동작을 분석할 수 있다. The exercise therapy providing system 1000 according to the present invention is a posture estimation model learned using a learning data set 400 including photographing direction information (data object value or data value) corresponding to the photographing direction of an exercise image to be analyzed. Based on the key points extracted from the key points, it is possible to analyze the movement motion of the subject (U).

한편, 동작 분석부(120, 210)는 제1 방향에서 촬영된 분석 대상 운동 영상(300)으로부터 피사체(U)의 운동 자세를 추정하는 경우, 제1 방향 및 제2 방향 각각에서 촬영된 학습 대상 운동 영상(300)에 대해 학습을 수행한 자세 추정 모델로부터 추정되는 자세 추정 정보를 이용하여, 피사체(U)의 운동 동작을 분석할 수 있다. Meanwhile, when the motion analyzers 120 and 210 estimate the exercise posture of the subject U from the analysis target motion image 300 photographed in the first direction, the learning target photographed in the first and second directions, respectively. The motion motion of the subject U may be analyzed using posture estimation information estimated from a posture estimation model that has been trained on the motion image 300 .

즉, 동작 분석부(120, 210)는, 제1 촬영 방향으로 촬영된 분석 대상 운동 영상(300)으로부터 피사체(U)의 운동 동작이 촬영되는 경우, 제1 촬영 방향에 대응하는 데이터 객체 값을 포함하는 제1 학습 데이터 세트 및, 상기 제1 촬영 방향과는 다른 제2 촬영 방향에 대응하는 데이터 객체 값을 포함하는 제2 학습 데이터 세트에 대해 학습을 수행한 자세 추정 모델로부터 추정되는 자세 추정 정보를 이용하여, 피사체(U)의 운동 동작을 분석할 수 있다. 이 경우, 자세 추정 모델(122)은, 제1 학습 데이터 세트에 대해 가중치를 설정하여 학습을 수행한 자세 추정 모델에 해당할 수 있다. That is, when the movement motion of the subject U is captured from the analysis target motion image 300 captured in the first capturing direction, the motion analyzer 120 or 210 sets a data object value corresponding to the first capturing direction. Posture estimation information estimated from a posture estimation model that has been trained on a first training data set including a first training data set and a second training data set including a data object value corresponding to a second photographing direction different from the first photographing direction. Using , it is possible to analyze the movement motion of the subject (U). In this case, the posture estimation model 122 may correspond to a posture estimation model in which learning is performed by setting weights for the first training data set.

이와 같이, 자세 추정 모델(52)은, 학습 대상 영상에 포함된 피사체의 촬영 방향에 따라 서로 다른 데이터 값을 갖는 상기 학습 데이터 세트를 통해, 상기 피사체의 촬영 방향이 고려되어 학습되도록 이루어질 수 있다. 나아가, 사용자의 운동 동작 분석 결과는, 자세 추정 모델에서 상기 운동 영상에 포함된 상기 사용자의 촬영 방향이 고려되어 추출된 자세 추정 정보에 기반하여, 상기 사용자의 특정 운동 동작이 분석된 결과일 수 있다.In this way, the posture estimation model 52 may be learned by considering the photographing direction of the subject through the learning data set having different data values according to the photographing direction of the subject included in the learning target image. Furthermore, the user's motion motion analysis result may be a result of analyzing a specific motion motion of the user based on posture estimation information extracted by considering a photographing direction of the user included in the motion image in a posture estimation model. .

한편, 도 8b에 도시된 것과 같이, 복수의 데이터 그룹 중 제4 데이터 그룹(440)은, 학습 대상 운동 영상(300)에 포함된 피사체(U)가 수행하는 운동 동작에 매칭된 운동 코드(Code)를 포함할 수 있다. Meanwhile, as shown in FIG. 8B, the fourth data group 440 among the plurality of data groups is an exercise code (Code Code) matched to the exercise motion performed by the subject U included in the exercise image 300 to be learned. ) may be included.

도 8f에 도시된 것과 같이, 데이터베이스(40)에는, 서로 다른 복수의 운동 동작(710, 720, 730) 각각에는, 서로 다른 운동 코드(ex: “502”, “503”, “504”)가 매칭되어 존재할 수 있다. As shown in FIG. 8F, in the database 40, different exercise codes (ex: “502”, “503”, “504”) are included in each of the plurality of different exercise motions 710, 720, and 730. Matching may exist.

본 발명에서 설명되는 “운동 코드”는, 서로 다른 운동 동작을 구분하는 데이터 값으로, “운동 키(Key)”, “동작 코드”, “동작 키” 와 혼용되어 사용될 수 있다. The “exercise code” described in the present invention is a data value for distinguishing different exercise motions, and may be used interchangeably with “exercise key”, “action code”, and “action key”.

학습부(51)는, 제4 데이터 그룹(440)에, 학습 대상 운동 영상(300)에 포함된 피사체(U)가 수행하는 특정 운동 동작(ex: “한발 서서 앞으로 발 뻗기”, 710)에 매칭된 특정 운동 코드(“502”)를 포함시켜 학습 데이터 세트(400)를 생성할 수 있다. In the fourth data group 440, the learning unit 51 performs a specific exercise motion (ex: “Standing on one foot and stretching one foot forward”, 710) performed by the subject U included in the exercise image 300 to be studied. The learning data set 400 can be created by including the matched specific exercise code (“502”).

학습부(51)는, 동일한 운동 코드를 포함하는 복수의 학습 데이터 세트(400)를 서로 연계하여, 자세 추정을 위한 학습을 수행할 수 있다. The learning unit 51 may perform learning for posture estimation by linking a plurality of learning data sets 400 including the same exercise code with each other.

예를 들어, 제1 학습 대상 운동 영상에 기반한 제1 학습 데이터 세트와, 제2 학습 대상 운동 영상(300)에 기반한 제2 학습 데이터 세트가, 존재한다고 가정하자. 학습부(51)는 제1 학습 데이터 세트와 제2 학습 데이터 세트에 포함된 운동 코드(ex: “502)”가 동일한 것에 근거하여, 제1 학습 데이터 세트와 제2 학습 데이터 세트를 서로 연계하여, 자세 추정을 위한 학습을 수행할 수 있다. For example, suppose that a first learning data set based on a first training object exercise image and a second learning data set based on a second learning object exercise image 300 exist. The learning unit 51 links the first training data set and the second training data set based on the fact that the exercise codes (ex: “502)” included in the first training data set and the second training data set are the same. , learning for posture estimation can be performed.

이러한 운동 코드는, 사용자 단말(10, 20)로부터 수신된 정보, 시스템 관리자 또는 학습부(51) 중 적어도 하나에 의해 피사체(U)가 수행하는 운동 동작이 특정되는 것에 근거하여, 제4 데이터 그룹(440)에 포함될 수 있다. This exercise code is a fourth data group based on the information received from the user terminals 10 and 20, the exercise action performed by the subject U by at least one of the system manager or the learning unit 51 being specified. (440).

학습부(51)는, 사용자 단말(10, 20)로부터 수신되는 정보에 근거하여, 피사체(U)가 수행하는 운동 동작을 특정할 수 있다. 예를 들어, 학습부(51)는 사용자 단말(10, 20)로부터 “운동 시작”에 대응되는 그래픽 객체가 선택되는 것에 근거하여, 사용자 단말(10, 20)에 구비된 카메라(201)가 운동 영상을 촬영하도록, 카메라(201) 상태를 활성화 상태로 제어할 수 있다. The learning unit 51 may specify an exercise operation performed by the subject U based on information received from the user terminals 10 and 20 . For example, the learning unit 51 moves the camera 201 provided in the user terminals 10 and 20 based on the selection of a graphic object corresponding to “exercise start” from the user terminals 10 and 20 . The state of the camera 201 may be controlled to an active state so as to capture an image.

이 경우, 그래픽 객체는, 특정 운동 동작에 대응될 수 있으며, 학습부(51)는 사용자 단말(10, 20)로부터 수신되는 운동 영상(300)에 포함된 피사체(U)가, 특정 운동 동작을 수행한 것으로 판단할 수 있다. In this case, the graphic object may correspond to a specific exercise motion, and the learning unit 51 determines that the subject U included in the exercise image 300 received from the user terminals 10 and 20 performs a specific exercise motion. can be judged to have been performed.

나아가, 학습부(51)는, 시스템 관리자가 입력하는 정보에 근거하여, 피사체(U)가 수행하는 운동 동작을 특정할 수 있다.Furthermore, the learning unit 51 may specify an exercise operation performed by the subject U based on information input by the system manager.

나아가, 학습부(51)는, 운동 영상(300)에 포함된 피사체(U)의 학습 대상 관절의 위치 정보에 근거하여, 피사체(U)가 수행하는 운동 동작을 특정할 수 있다. 이 경우, 데이터베이스(40)에 저장된 운동 동작에 대한 모션 정보를 참조하여, 피사체(U)가 수행하는 운동 동작을 특정할 수 있다. Furthermore, the learning unit 51 may specify an exercise operation performed by the subject U based on positional information of the target joint of the subject U included in the motion image 300 . In this case, the exercise motion performed by the subject U may be specified by referring to the motion information on the exercise motion stored in the database 40 .

한편, 학습부(51)는 제4 데이터 그룹(440)에 포함된 운동 코드를 기준으로, 동일한 운동 코드를 포함하는 복수의 학습 데이터 세트(400)를 서로 매칭하여, 데이터베이스(40) 상에 저장할 수 있다. On the other hand, the learning unit 51 matches a plurality of training data sets 400 including the same exercise code based on the exercise codes included in the fourth data group 440 and stores them in the database 40. can

이 경우, 학습부(51)는 학습 코드를 기준으로, 데이터베이스(40)의 메모리(또는 메모리 공간)을 구분하여 할당할 수 있다. 본 발명에서, 데이터베이스(40)의 메모리(또는 메모리 공간)을 구분한다는 것은, 운동 코드를 기준으로 데이터베이스(40) 상에 폴더(folder)를 생성하는 것으로 이해할 수 있다. 그리고, 학습부(51)는 특정 운동 코드에 대응하는 폴더 내에, 특정 운동 코드를 포함하는 학습 데이터 세트(400)를 저장할 수 있다. In this case, the learning unit 51 may divide and allocate the memory (or memory space) of the database 40 based on the learning code. In the present invention, dividing the memory (or memory space) of the database 40 can be understood as creating a folder on the database 40 based on exercise codes. Also, the learning unit 51 may store the learning data set 400 including a specific exercise code in a folder corresponding to the specific exercise code.

한편, 동작 분석부(120, 210)는, 분석 대상 운동 영상에서, 피사체(U)가 수행하는 특정 운동 동작에 대응하는 운동 코드를 포함하는 학습 데이터 세트를 이용하여 학습된 자세 추정 모델로부터 추정되는 자세 추정 정보를 이용하여, 운동 동작을 분석할 수 있다. Meanwhile, the motion analysis units 120 and 210 are estimated from a posture estimation model learned using a learning data set including a motion code corresponding to a specific motion motion performed by the subject U in the motion image to be analyzed. An exercise motion may be analyzed using posture estimation information.

나아가, 동작 분석부(120, 210)는, 분석 운동 대상에 포함된 피사체(U)와 동일한 특정 운동 동작과 관련된 학습 대상 운동 영상(300)에 기반하여 학습된 자세 추정 모델로부터 추정된 자세 추정 정보를 이용하여, 이용하여, 특정 운동 동작에 대한 피사체(U)의 운동 동작을 추정할 수 있다. Furthermore, the motion analysis units 120 and 210 provide posture estimation information estimated from a posture estimation model learned based on the training target motion image 300 related to the same specific motion motion as the subject U included in the analysis motion target. It is possible to estimate the motion motion of the subject U for a specific motion motion by using.

한편, 도 8c에 도시된 것과 같이, 복수의 데이터 그룹(410 내지 450) 중 제5 데이터 그룹(450)은, 학습 대상 운동 영상(300)에 포함된 피사체(U)에 대한 바운딩 박스(bounding box, 301)의 사이즈(Size) 정보(451) 및 상기 바운딩 박스(301) 중심의 위치 정보(452)를 포함할 수 있다. Meanwhile, as shown in FIG. 8C, the fifth data group 450 among the plurality of data groups 410 to 450 is a bounding box for the subject U included in the exercise image 300 to be learned. , 301) and location information 452 of the center of the bounding box 301.

본 발명에서, 바운딩 박스(301)의 “사이즈 정보”는, “스케일(scale)”과 혼용될 수 있다. In the present invention, “size information” of the bounding box 301 may be used interchangeably with “scale”.

학습부(51)는, 학습 대상 운동 영상(300)에서 탐지된 피사체(U)에 대응되는 바운딩 박스(301)의 사이즈 정보(451)을 추출하고, 바운딩 박스(301)의 중심 위치 정보(452)를 추출하고, 이를 제5 데이터 그룹(450)에 포함시켜 학습 데이터 세트(400)를 생성할 수 있다. The learning unit 51 extracts size information 451 of the bounding box 301 corresponding to the subject U detected in the training target exercise image 300, and center position information 452 of the bounding box 301. ) is extracted and included in the fifth data group 450 to generate the training data set 400 .

앞서 설명한 것과 같이, 학습부(51)는, 학습 대상 운동 영상(300)으로부터 피사체(U)를 탐지하기 위하여, 다양한 객체 탐지(Object Detection)를 위한 알고리즘을 이용할 수 있다. 예를 들어, 학습부(51)는 예를 들어, 복수의 바운딩 박스(Bounding Box)를 앙상블(ensemble)하는 알고리즘(Weighted Box Fusion, WBF)을 이용할 수 있다. 다만, 학습부(51)는 상술한 객체 탐지 알고리즘에 한정되지 않고, 학습 대상 운동 영상(300)으로부터 피사체(U)에 대응하는 객체를 탐지할 수 있는 다양한 객체 탐지 알고리즘을 이용할 수 있음은 당연하다. As described above, the learning unit 51 may use various algorithms for object detection in order to detect the subject U from the training object exercise image 300 . For example, the learning unit 51 may use, for example, an algorithm (Weighted Box Fusion, WBF) that ensemble a plurality of bounding boxes. However, it goes without saying that the learning unit 51 is not limited to the above-described object detection algorithm, and can use various object detection algorithms capable of detecting an object corresponding to the subject U from the training target exercise image 300. .

학습부(51)는, 객체 탐지 알고리즘에 기반하여, 학습 대상 영상(300)으로부터 피사체(U)에 대응하는 바운딩 박스의 사이즈 정보(451) 및 중심 위치 정보(452)를 추출하고, 상기 사이즈 정보(451) 및 중심 위치 정보(452)를 제5 데이터 그룹(450)에 포함시켜, 학습 데이터 세트(400)를 생성할 수 있다. Based on the object detection algorithm, the learning unit 51 extracts size information 451 and center location information 452 of the bounding box corresponding to the subject U from the learning target image 300, and the size information 451 and center location information 452 may be included in the fifth data group 450 to generate the learning data set 400 .

이 경우, 학습부(51)는 바운딩 박스(301)의 중심 위치 정보(452)를, x축, y축 좌표 정보가 쌍을 이룬 형태로 추출할 수 있다.In this case, the learning unit 51 may extract the center position information 452 of the bounding box 301 in the form of a pair of x-axis and y-axis coordinate information.

한편, 학습부(51)는, 학습 대상 운동 영상(300)의 영상 식별 정보를 포함시켜 학습 데이터 세트(400)를 구성할 수 있다. Meanwhile, the learning unit 51 may configure the learning data set 400 by including image identification information of the training target exercise image 300 .

여기에서, “영상 식별 정보”는, 학습 데이터 세트에 포함된 정보가 추출된 영상(300)을 식별하기 위한 정보로, 예를 들어, 학습 대상 운동 영상(300)의 파일명 정보, 파일 포맷 타입 정보(또는 확장자 정보, ex: “JPG”, “TIF”)를 포함할 수 있다. Here, “image identification information” is information for identifying the image 300 from which the information included in the training data set is extracted, for example, file name information and file format type information of the training target exercise image 300 (or extension information, ex: “JPG”, “TIF”).

본 발명에서는, 영상 식별 정보를, 제6 정보 속성에 대응하는 제6 데이터 그룹으로 ?명할 수 있다. In the present invention, the video identification information may be identified as a sixth data group corresponding to the sixth information attribute.

학습부(51)는, 영상 식별 정보로 구성된 제6 데이터 그룹을 포함시켜, 학습 데이터 세트(400)를 생성할 수 있다. The learning unit 51 may generate the learning data set 400 by including a sixth data group composed of image identification information.

한편, 본 발명에서는, 동작 분석부(120, 210)에 기반하여, 환자의 운동 동작에 대한 분석이 완료되는 것에 근거하여, 운동 동작 분석 결과를 환자 단말기(10)에 제공할 수 있다. 도 9a, 도 9b 및 도 9c에 도시된 것과 같이, 운동 동작 분석 결과는, 환자 단말기(10)에 설치된 운동 치료 애플리케이션(100)을 통해, 제공될 수 있다. Meanwhile, in the present invention, based on the analysis of the patient's exercise motion being completed based on the motion analyzer 120 or 210, the exercise motion analysis result may be provided to the patient terminal 10. As shown in FIGS. 9A , 9B and 9C , the exercise motion analysis result may be provided through the exercise therapy application 100 installed on the patient terminal 10 .

도 9a의 (a)에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 본 발명에서 제공하는 복수의 서비스 각각에 접근 가능하도록 이루어진 서비스 페이지를, 환자 단말기(10) 상에 제공할 수 있다. 예를 들어, 상기 서비스 페이지는, i) 환자 계정에 할당된 운동 플랜에 대한 운동 가이드 정보 제공 기능에 연계된 운동 가이드 페이지, ii) 환자 계정에 할당된 운동 플랜 수행과 관련된 운동 페이지(도 9a의 (b) 참조), iii) 기능 평가에 연계된 기능 평가 페이지(도 9a의 (c) 참조) 및 iv) 운동 플랜 평가 기능에 연계된 플랜 평가 페이지 중 적어도 하나에 접근 가능하도록 이루어질 수 있다. As shown in (a) of FIG. 9A , the exercise therapy application 100 may provide a service page configured to enable access to each of a plurality of services provided by the present invention on the patient terminal 10 . For example, the service page includes i) an exercise guide page associated with a function of providing exercise guide information on an exercise plan assigned to a patient account, ii) an exercise page related to performing an exercise plan assigned to a patient account (FIG. 9A). (b)), iii) function evaluation page linked to function evaluation (see (c) of FIG. 9a), and iv) plan evaluation page linked to exercise plan evaluation function.

나아가, 도 9b에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 운동 동작 분석 결과 및 운동 수행 결과에 기초한 운동 리포트를 제공하는 운동 리포트 페이지를, 환자 단말기(10) 상에 제공할 수 있다. 예를 들어, 운동 리포트 페이지에는, 운동 수행률 정보(도 9b의 (a) 및 (b) 참조) 및 운동 플랜 난이도 정보(도 9b의 (c) 참고) 중 적어도 하나를 포함할 수 있다. Furthermore, as shown in FIG. 9B , the exercise treatment application 100 may provide an exercise report page on the patient terminal 10 that provides an exercise report based on the exercise motion analysis result and the exercise performance result. For example, the exercise report page may include at least one of exercise performance rate information (see (a) and (b) of FIG. 9b) and exercise plan difficulty information (see (c) of FIG. 9b).

나아가, 도 9c에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 환자의 운동 동작 분석 결과를 환자 단말기(10) 상에 제공할 수 있다.Furthermore, as shown in FIG. 9C , the motion therapy application 100 may provide the patient terminal 10 with a motion analysis result of the patient.

도9c의 (a)에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 특정 처방 운동(ex: “옆으로 팔 벌리기”)을 수행하는 피사체(U)의, 복수의 관절 포인트 별 운동 동작 분석 정보를 환자 단말기(10)상에 제공할 수 있다. 예를 들어, 운동 치료 애플리케이션(100)은, 환자의 제1 측(ex: 왼쪽)에 위치하는 관절 포인트의 관절 가동 범위 및 제2 측(ex: 오른쪽)에 위치하는 관절 포인트의 관절 가동 범위를 그래프로, 환자 단말기(10)상에 제공할 수 있다. As shown in (a) of FIG. 9C, the exercise therapy application 100 analyzes the movement motion of a plurality of joint points of the subject U performing a specific prescription exercise (ex: “spread arms to the side”). Information can be provided on the patient terminal 10 . For example, exercise therapy application 100, the joint range of motion of the joint point located on the first side (ex: left) of the patient and the joint range of motion of the joint point located on the second side (ex: right) As a graph, it can be presented on the patient terminal 10 .

도 9c의 (b)에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 일정 기간에 운동 플랜에 따라 처방 운동을 수행한 환자의, 운동 동작 분석 결과를, 일별로 제공할 수 있다. 예를 들어, 운동 치료 애플리케이션(100)은 제1 운동일에 대응하는 관절 가동 범위 정보 및 제2 운동일에 대응하는 관절 가동 범위 정보를 제공할 수 있다. 그리고, 운동 치료 애플리케이션(100)은 제1 운동일 및 제2 운동일의 평균 관절 가동 범위를 제공할 수 있다. As shown in (b) of FIG. 9C , the exercise treatment application 100 may provide daily exercise motion analysis results of a patient who has performed a prescribed exercise according to an exercise plan for a certain period of time. For example, the exercise therapy application 100 may provide joint motion range information corresponding to the first exercise day and joint motion range information corresponding to the second exercise day. In addition, the exercise therapy application 100 may provide average ranges of joint motion on the first exercise day and the second exercise day.

도 9c의 (c)에 도시된 것과 같이, 운동 치료 애플리케이션(100)는, 운동 영상(300)에 키포인트(P1, P2)에 대응하는 그래픽 객체를 렌더링(rendering)하여 환자 단말기(10)상에 제공할 수 있다. 이 경우, 운동 치료 애플리케이션(100)은, 환자의 관절 가동 범위 정보(각도 정보)를 함께 제공할 수 있다. As shown in (c) of FIG. 9C, the motion therapy application 100 renders graphic objects corresponding to the keypoints P1 and P2 to the motion image 300 and displays the results on the patient terminal 10. can provide In this case, the motion therapy application 100 may also provide joint motion range information (angle information) of the patient.

한편, 본 발명에 따른 운동 치료 제공 시스템(1000)은, 의사가, 환자의 운동 플랜 수행에 대한 모니터링을 수행할 수 있도록, 환자 단말기(10)에 제공하는 운동 동작 분석 결과를 의사 단말기(20)에도 제공할 수 있다. On the other hand, in the exercise treatment providing system 1000 according to the present invention, the exercise motion analysis result provided to the patient terminal 10 is provided to the doctor terminal 20 so that the doctor can monitor the execution of the patient's exercise plan. can also be provided.

위에서 살펴본 것과 같이, 본 발명에 따른 인공 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 시스템 및 방법은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하고, 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당할 수 있다. 이를 통해, 근골격계 질환에 대한 운동 치료를 위해 의사와 환자의 대면이 없더라도, 의사는 환자에게 처방이 가능하고, 환자는 의사의 처방에 따른 운동 플랜을 제공받음으로써, 운동 치료에 대한 장소적, 시간적, 경제적 제약을 해결하고, 운동 치료에 대한 접근성을 높일 수 있다. As described above, the system and method for providing exercise treatment using an artificial intelligence posture estimation model and motion analysis model according to the present invention receive prescription information related to exercise for a patient from a doctor terminal, Based on the prescription information, an exercise plan including at least one prescription exercise may be assigned to the patient's account. Through this, even if there is no face-to-face meeting between a doctor and a patient for exercise treatment for musculoskeletal disorders, the doctor can prescribe to the patient and the patient is provided with an exercise plan according to the doctor's prescription, thereby providing a spatial and temporal improvement in exercise treatment. , can address economic constraints and increase access to exercise therapy.

나아가, 본 발명에 따른 인공, 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 시스템 및 방법은, 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출함으로써, 근골격계 질환의 운동 치료에 필요한 관절에 포커스(Focus)를 맞추어 사용자의 운동 동작을 분석할 수 있다. Furthermore, a system and method for providing exercise therapy using an artificial, intelligent posture estimation model and a motion analysis model according to the present invention extracts key points corresponding to a plurality of preset joint points from the motion image, thereby providing exercise for musculoskeletal disorders. The user's motion may be analyzed by focusing on the joint required for treatment.

나아가, 본 발명에 따른 인공, 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 시스템 및 방법은, 관절 포인트에 대한 위치 정보를 포함하는 학습 데이터 세트(data set)를 이용하여 학습된 자세 추정 모델에 기반하여, 운동 영상에 포함된 사용자의 특정 운동 동작과 관련된 운동 동작을 분석할 수 있다. 이를 통해, 본 발명에서는 운동 영상으로부터 환자의 자세에 대한 정확한 분석이 가능하며, 특히, 환자의 관절 가동 범위, 정렬 상태 및 이탈 상태 등에 대한 정보를 획득하여 의료 서비스의 퀄리티(quality)를 향상시킬 수 있다.Furthermore, a system and method for providing exercise therapy using an artificial, intelligent posture estimation model and a motion analysis model according to the present invention is a posture estimation model learned using a learning data set including position information on joint points. Based on , an exercise motion related to a user's specific exercise motion included in the exercise image may be analyzed. Through this, in the present invention, it is possible to accurately analyze the patient's posture from the motion image, and in particular, it is possible to improve the quality of medical service by obtaining information on the patient's joint range of motion, alignment state, and deviation state. there is.

나아가, 본 발명에 따른 인공, 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 시스템 및 방법은, 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송함으로써, 환자는 먼 거리에 위치하는 병원에 직접 방문하지 않더라도 운동 영상에 대한 피드백(feedback)을 제공받아 운동 치료 효과를 제고할 수 있다.Furthermore, a system and method for providing exercise therapy using an artificial, intelligent posture estimation model and a motion analysis model according to the present invention transmits analysis results of a patient's exercise motion to the patient terminal, so that the patient is located at a long distance. Even if you do not visit the hospital directly, it is possible to improve the effect of exercise treatment by receiving feedback on the exercise image.

한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체(또는 기록 매체)에 저장 가능한 프로그램으로서 구현될 수 있다.Meanwhile, the present invention described above may be implemented as a program that is executed by one or more processes in a computer and can be stored in a computer-readable medium (or a recording medium).

나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명은 프로그램의 형태로 제공될 수 있다. Furthermore, the present invention described above can be implemented as computer readable codes or instructions in a medium on which a program is recorded. That is, the present invention may be provided in the form of a program.

한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. On the other hand, the computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. there is

나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or cloud storage that includes storage and can be accessed by electronic devices through communication. In this case, the computer may download the program according to the present invention from a server or cloud storage through wired or wireless communication.

나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the above-described computer is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit), and there is no particular limitation on its type.

한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.On the other hand, the above detailed description should not be construed as limiting in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (10)

의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 단계;
상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 단계;
환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 단계;
학습 데이터 세트(data set)에 기반하여 학습된 인공 지능 자세 추정 모델을 이용하여, 상기 환자의 피사체를 포함하는 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 단계;
인공 지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하는 단계; 및
상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 단계를 포함하고,
상기 학습 데이터 세트로 학습된 상기 자세 추정 모델은,
상기 동작 분석 모델이, 상기 운동 영상에서 가시(visible) 가능한 상기 피사체의 가시 관절 포인트 및 가시 불가능한 비가시(invisible) 관절 포인트 모두에 근거하여 상기 환자의 운동 동작을 분석하도록, 상기 운동 영상으로부터 상기 피사체의 가시 관절 포인트 및 상기 비가시 관절 포인트 각각을 상기 키포인트로서 추출하고,
상기 자세 추정 모델이 학습하는 상기 학습 데이터 세트는,
서로 다른 정보 속성에 각각 대응되는 복수의 데이터 그룹으로 구성되고,
상기 복수의 데이터 그룹 중 제1 데이터 그룹에는, 학습 대상 운동 영상에 포함된 피사체의 관절 포인트들 중 기 지정된 복수의 학습 대상 관절 포인트 각각의 위치 정보가, 상기 학습 대상 관절 포인트 각각에 대응되는 기 정의된 순서에 기반하여 순차적으로 배열되어 있고,
상기 복수의 데이터 그룹 중 제2 데이터 그룹에는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트 각각의 가시 여부를 나타내는 데이터 값(value)이, 상기 제1 데이터 그룹에 포함된 위치 정보와 동일 순서로 배열되어 있으며,
상기 제1 데이터 그룹에서 특정 순서에 배열된 위치 정보는, 상기 제2 데이터 그룹에서 상기 특정 순서에 배열된 데이터 값에 근거하여 제1 타입 및 상기 제1 타입과는 다른 제2 타입 중 어느 하나의 위치 정보로 정의되고,
상기 제1 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트가 실제 위치하는 영역의 실제 위치 정보이고,
상기 제2 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 예측된 상기 학습 대상 관절 포인트의 예측 위치 정보이며,
상기 자세 추정 모델은, 상기 제2 데이터 그룹의 상기 특정 순서에 배열된 상기 데이터 값에 근거하여, 상기 제1 데이터 그룹의 상기 특정 순서에 배열된 상기 위치 정보에 대한 학습 가중치를 다르게 설정하는 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.
Receiving prescription information related to exercise for a patient from a doctor terminal;
allocating an exercise plan including at least one prescription exercise to the patient's account based on the prescription information;
receiving, from a patient terminal, an exercise image obtained by photographing an exercise according to the prescribed exercise;
extracting keypoints respectively corresponding to a plurality of preset joint points from the exercise image including the subject of the patient using an artificial intelligence posture estimation model learned based on a learning data set;
Analyzing a relative positional relationship between the key points through an artificial intelligence motion analysis model, and analyzing the motion motion of the patient for the prescribed exercise based on the analysis of the positional relationship; and
Transmitting an analysis result of the exercise motion of the patient to the patient terminal;
The posture estimation model learned with the learning data set,
The motion analysis model analyzes the motion motion of the patient based on both visible joint points and invisible joint points of the subject that are visible in the motion image, and the subject from the motion image. Each of the visible joint point and the non-visible joint point of is extracted as the key point,
The learning data set for which the posture estimation model learns,
It consists of a plurality of data groups each corresponding to different information properties,
In a first data group among the plurality of data groups, location information of each of a plurality of pre-designated joint points to be learned among joint points of a subject included in a target exercise image to be learned is defined as a predetermined value corresponding to each of the joint points to be learned. are arranged sequentially based on the order in which
In the second data group among the plurality of data groups, data values indicating whether each joint point to be learned is visible in the exercise image to be learned are displayed in the same order as the location information included in the first data group. are arranged,
The location information arranged in a specific order in the first data group is one of a first type and a second type different from the first type based on data values arranged in the specific order in the second data group. defined as location information,
The location information of the first type is actual location information of an area where the joint point to be studied is actually located in the exercise image to be studied,
The position information of the second type is predicted position information of the joint point to be learned predicted in the exercise image to be learned,
The posture estimation model sets different learning weights for the location information arranged in the specific order of the first data group based on the data values arranged in the specific order of the second data group. A method for providing exercise treatment using an artificial intelligence motion analysis model.
제1항에 있어서,
상기 환자 단말기에서 상기 운동 영상이 촬영되는 것에 연동하여, 상기 환자 단말기에 상기 운동 영상을 실시간으로 출력하는 단계; 및
상기 환자가, 상기 환자의 운동 자세에 대해 분석이 이루어지는 관절 포인트를 인지가능 하도록, 상기 운동 영상 중 상기 환자에 대응되는 피사체가 위치한 영역에, 추출된 상기 키포인트에 해당하는 그래픽 객체를 오버랩하여 제공하는 단계를 더 포함하는 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.
According to claim 1,
outputting the exercise image to the patient terminal in real time in association with the motion image being captured by the patient terminal; and
A graphic object corresponding to the extracted key point is overlapped and provided in an area where a subject corresponding to the patient is located in the exercise image so that the patient can recognize the joint point at which the motion posture of the patient is analyzed. A method for providing exercise therapy using an artificial intelligence motion analysis model, further comprising the step of:
제2항에 있어서,
상기 키포인트를 추출하는 단계에서는,
상기 기 설정된 복수의 관절 포인트 중, 상기 운동 영상에서 가시 가능한 상기 가시 관절 포인트를 특정하고,
상기 기 설정된 복수의 관절 포인트 중 상기 운동 영상에서 가시 불가능한 상기 비가시 관절 포인트를 예측하는 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.
According to claim 2,
In the step of extracting the keypoint,
Among the plurality of preset joint points, specifying visible joint points visible in the exercise image;
Method for providing exercise treatment using an artificial intelligence motion analysis model, characterized in that for predicting the non-visible joint points that are not visible in the motion image among the plurality of preset joint points.
삭제delete 삭제delete 제2항에 있어서,
상기 환자의 운동 동작을 분석하는 단계에서는,
상기 처방 운동과 관련된 규칙 정보를 기준으로, 상기 키포인트 간의 상대 위치 관계를 분석하고,
상기 키 포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 판단하는 것을 통해 상기 환자의 운동 동작을 분석하는 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.
According to claim 2,
In the step of analyzing the patient's motor motion,
Based on the rule information related to the prescription exercise, analyzing the relative positional relationship between the key points,
A method for providing exercise treatment using an artificial intelligence motion analysis model, characterized in that for analyzing the motion motion of the patient by determining whether the relative positional relationship between the key points satisfies the rule information.
제6항에 있어서,
상기 운동 영상에 오버랩되는 그래픽 객체의 시각적 외관은, 추출된 상기 키포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 여부에 따라 서로 다른 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.
According to claim 6,
The visual appearance of the graphic object overlapping the motion image is different depending on whether the relative positional relationship between the extracted keypoints satisfies the rule information.
제7항에 있어서,
상기 환자의 운동 동작에 대한 분석 결과는,
상기 운동 영상이 상기 환자 단말기에서 촬영되고 있는 상태에서, 상기 키포인트에 해당하는 상기 그래픽 객체를 상기 규칙 정보에 근거한 서로 다른 시각적 외관으로, 상기 운동 영상에 실시간으로 오버랩하여 제공하는 제1 분석 결과 및
상기 운동 영상을 구성하는 복수의 프레임들 각각으로부터 추출된 키포인트에 기초하여 상기 처방 운동에 대한 상기 환자의 평가 점수를 포함하는 제2 분석 결과를 포함하고,
상기 제1 분석 결과는 상기 환자 단말기에 설치된 애플리케이션의 동작 분석 모델에 의해서 생성되고,
상기 제2 분석 결과는, 상기 애플리케이션과 연동하는 클라우드 서버에서 이루어지며,
상기 제1 분석 결과 및 상기 제2 분석 결과 모두는, 상기 의사 단말기로 전송되는 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.
According to claim 7,
The analysis result of the patient's exercise behavior is,
A first analysis result of overlapping and providing the graphic object corresponding to the key point to the exercise image in real time with different visual appearances based on the rule information while the exercise image is being captured by the patient terminal; and
A second analysis result including an evaluation score of the patient for the prescription exercise based on a key point extracted from each of a plurality of frames constituting the exercise image;
The first analysis result is generated by a motion analysis model of an application installed in the patient terminal,
The second analysis result is made in a cloud server that works with the application,
Both the first analysis result and the second analysis result are transmitted to the doctor terminal.
의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 통신부; 및
상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 제어부를 포함하고,
상기 제어부는,
환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하고,
학습 데이터 세트(data set)에 기반하여 학습된 인공 지능 자세 추정 모델을 이용하여, 상기 환자의 피사체를 포함하는 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하고,
인공 지능 동작 분석 모델을 이용하여, 상기 운동 영상으로부터, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하고
상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하며,
상기 학습 데이터 세트로 학습된 상기 자세 추정 모델은,
상기 동작 분석 모델이, 상기 운동 영상에서 가시(visible) 가능한 상기 피사체의 가시 관절 포인트 및 가시 불가능한 비가시(invisible) 관절 포인트 모두에 근거하여 상기 환자의 운동 동작을 분석하도록, 상기 운동 영상으로부터 상기 피사체의 가시 관절 포인트 및 상기 비가시 관절 포인트 각각을 상기 키포인트로서 추출하고,
상기 자세 추정 모델이 학습하는 상기 학습 데이터 세트는,
서로 다른 정보 속성에 각각 대응되는 복수의 데이터 그룹으로 구성되고,
상기 복수의 데이터 그룹 중 제1 데이터 그룹에는, 학습 대상 운동 영상에 포함된 피사체의 관절 포인트들 중 기 지정된 복수의 학습 대상 관절 포인트 각각의 위치 정보가, 상기 학습 대상 관절 포인트 각각에 대응되는 기 정의된 순서에 기반하여 순차적으로 배열되어 있고,
상기 복수의 데이터 그룹 중 제2 데이터 그룹에는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트 각각의 가시(visible) 여부를 나타내는 데이터 값(value)이, 상기 제1 데이터 그룹에 포함된 위치 정보와 동일 순서로 배열되어 있으며,
상기 제1 데이터 그룹에서 특정 순서에 배열된 위치 정보는, 상기 제2 데이터 그룹에서 상기 특정 순서에 배열된 데이터 값에 근거하여 제1 타입 및 상기 제1 타입과는 다른 제2 타입 중 어느 하나의 위치 정보로 정의되고,
상기 제1 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트가 실제 위치하는 영역의 실제 위치 정보이고,
상기 제2 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 예측된 상기 학습 대상 관절 포인트의 예측 위치 정보이며,
상기 자세 추정 모델은, 상기 제2 데이터 그룹의 상기 특정 순서에 배열된 상기 데이터 값에 근거하여, 상기 제1 데이터 그룹의 상기 특정 순서에 배열된 상기 위치 정보에 대한 학습 가중치를 다르게 설정하는 것을 특징으로 하는 운동 치료 제공 시스템.
A communication unit for receiving prescription information related to exercise for a patient from a doctor terminal; and
A control unit allocating an exercise plan including at least one prescription exercise to the patient's account based on the prescription information;
The control unit,
Receiving an exercise image obtained by photographing an exercise according to the prescribed exercise from the patient terminal;
Using an artificial intelligence posture estimation model learned based on a learning data set, extracting key points respectively corresponding to a plurality of preset joint points from the motion image including the subject of the patient,
Analyzing the motion motion of the patient for the prescribed motion from the motion image using an artificial intelligence motion analysis model,
Transmitting an analysis result of the patient's motion to the patient terminal;
The posture estimation model learned with the learning data set,
The motion analysis model analyzes the motion motion of the patient based on both visible joint points and invisible joint points of the subject that are visible in the motion image, and the subject from the motion image. Each of the visible joint point and the non-visible joint point of is extracted as the key point,
The learning data set for which the posture estimation model learns,
It consists of a plurality of data groups each corresponding to different information properties,
In a first data group among the plurality of data groups, location information of each of a plurality of pre-designated joint points to be learned among joint points of a subject included in a target exercise image to be learned is defined as a predetermined value corresponding to each of the joint points to be learned. are arranged sequentially based on the order in which
In the second data group among the plurality of data groups, a data value representing whether each joint point to be learned is visible in the exercise image to be learned is included in the first data group, and are arranged in the same order,
The location information arranged in a specific order in the first data group is one of a first type and a second type different from the first type based on data values arranged in the specific order in the second data group. defined as location information,
The location information of the first type is actual location information of an area where the joint point to be studied is actually located in the exercise image to be studied,
The position information of the second type is predicted position information of the joint point to be learned predicted in the exercise image to be learned,
The posture estimation model sets different learning weights for the location information arranged in the specific order of the first data group based on the data values arranged in the specific order of the second data group. Exercise therapy providing system to be.
전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램으로서,
상기 프로그램은,
의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 단계;
상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 단계;
환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 단계;
학습 데이터 세트(data set)에 기반하여 학습된 인공 지능 자세 추정 모델을 이용하여, 상기 환자의 피사체를 포함하는 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 단계;
인공 지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하는 단계; 및
상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 단계를 포함하고,
상기 학습 데이터 세트로 학습된 상기 자세 추정 모델은,
상기 동작 분석 모델이, 상기 운동 영상에서 가시(visible) 가능한 상기 피사체의 가시 관절 포인트 및 가시 불가능한 비가시(invisible) 관절 포인트 모두에 근거하여 상기 환자의 운동 동작을 분석하도록, 상기 운동 영상으로부터 상기 피사체의 가시 관절 포인트 및 상기 비가시 관절 포인트 각각을 상기 키포인트로서 추출하고,
상기 자세 추정 모델이 학습하는 상기 학습 데이터 세트는,
서로 다른 정보 속성에 각각 대응되는 복수의 데이터 그룹으로 구성되고,
상기 복수의 데이터 그룹 중 제1 데이터 그룹에는, 학습 대상 운동 영상에 포함된 피사체의 관절 포인트들 중 기 지정된 복수의 학습 대상 관절 포인트 각각의 위치 정보가, 상기 학습 대상 관절 포인트 각각에 대응되는 기 정의된 순서에 기반하여 순차적으로 배열되어 있고,
상기 복수의 데이터 그룹 중 제2 데이터 그룹에는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트 각각의 가시 여부를 나타내는 데이터 값(value)이, 상기 제1 데이터 그룹에 포함된 위치 정보와 동일 순서로 배열되어 있으며,
상기 제1 데이터 그룹에서 특정 순서에 배열된 위치 정보는, 상기 제2 데이터 그룹에서 상기 특정 순서에 배열된 데이터 값에 근거하여 제1 타입 및 상기 제1 타입과는 다른 제2 타입 중 어느 하나의 위치 정보로 정의되고,
상기 제1 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트가 실제 위치하는 영역의 실제 위치 정보이고,
상기 제2 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 예측된 상기 학습 대상 관절 포인트의 예측 위치 정보이며,
상기 자세 추정 모델은, 상기 제2 데이터 그룹의 상기 특정 순서에 배열된 상기 데이터 값에 근거하여, 상기 제1 데이터 그룹의 상기 특정 순서에 배열된 상기 위치 정보에 대한 학습 가중치를 다르게 설정하는 것을 특징으로 하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램.


A program that is executed by one or more processes in an electronic device and stored in a computer-readable recording medium,
said program,
Receiving prescription information related to exercise for a patient from a doctor terminal;
allocating an exercise plan including at least one prescription exercise to the patient's account based on the prescription information;
receiving, from a patient terminal, an exercise image obtained by photographing an exercise according to the prescribed exercise;
extracting keypoints respectively corresponding to a plurality of preset joint points from the exercise image including the subject of the patient using an artificial intelligence posture estimation model learned based on a learning data set;
Analyzing a relative positional relationship between the key points through an artificial intelligence motion analysis model, and analyzing the motion motion of the patient for the prescribed exercise based on the analysis of the positional relationship; and
Transmitting an analysis result of the exercise motion of the patient to the patient terminal;
The posture estimation model learned with the learning data set,
The motion analysis model analyzes the motion motion of the patient based on both visible joint points and invisible joint points of the subject that are visible in the motion image, and the subject from the motion image. Each of the visible joint point and the non-visible joint point of is extracted as the key point,
The learning data set for which the posture estimation model learns,
It consists of a plurality of data groups each corresponding to different information properties,
In a first data group among the plurality of data groups, location information of each of a plurality of pre-designated joint points to be learned among joint points of a subject included in a target exercise image to be learned is defined as a predetermined value corresponding to each of the joint points to be learned. are arranged sequentially based on the order in which
In the second data group among the plurality of data groups, data values indicating whether each joint point to be learned is visible in the exercise image to be learned are displayed in the same order as the location information included in the first data group. are arranged,
The location information arranged in a specific order in the first data group is one of a first type and a second type different from the first type based on data values arranged in the specific order in the second data group. defined as location information,
The location information of the first type is actual location information of an area where the joint point to be studied is actually located in the exercise image to be studied,
The position information of the second type is predicted position information of the joint point to be learned predicted in the exercise image to be learned,
The posture estimation model sets different learning weights for the location information arranged in the specific order of the first data group based on the data values arranged in the specific order of the second data group. A program stored on a computer-readable recording medium, characterized in that to.


KR1020220176241A 2022-12-15 2022-12-15 Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model KR102566211B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220176241A KR102566211B1 (en) 2022-12-15 2022-12-15 Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220176241A KR102566211B1 (en) 2022-12-15 2022-12-15 Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model

Publications (1)

Publication Number Publication Date
KR102566211B1 true KR102566211B1 (en) 2023-08-11

Family

ID=87565800

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220176241A KR102566211B1 (en) 2022-12-15 2022-12-15 Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model

Country Status (1)

Country Link
KR (1) KR102566211B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150096550A (en) * 2014-02-14 2015-08-25 부경대학교 산학협력단 Apparatus and Method for Supporting Rehabilitation Exercise
JP2021514512A (en) * 2018-02-20 2021-06-10 アップリフト ラブズ インコーポレイテッド Motion identification and generation of normative analysis using motion information
KR102355008B1 (en) * 2021-10-26 2022-01-25 아이픽셀 주식회사 Method of providing personal training service and recording medium thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150096550A (en) * 2014-02-14 2015-08-25 부경대학교 산학협력단 Apparatus and Method for Supporting Rehabilitation Exercise
JP2021514512A (en) * 2018-02-20 2021-06-10 アップリフト ラブズ インコーポレイテッド Motion identification and generation of normative analysis using motion information
KR102355008B1 (en) * 2021-10-26 2022-01-25 아이픽셀 주식회사 Method of providing personal training service and recording medium thereof

Similar Documents

Publication Publication Date Title
US11557215B2 (en) Classification of musculoskeletal form using machine learning model
CN103127691B (en) Video-generating device and method
KR102341985B1 (en) Exercise assistant device and exercise assistant method
Semblantes et al. Visual feedback framework for rehabilitation of stroke patients
Yi et al. Home interactive elderly care two-way video healthcare system design
JP6884306B1 (en) System, method, information processing device
Patil et al. Body posture detection and motion tracking using ai for medical exercises and recommendation system
JP2023168557A (en) Program, method, and information processing device
KR102566211B1 (en) Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model
EP3122253A1 (en) Activity and exercise monitoring system
JP7419616B2 (en) Measurement systems, methods and programs
KR102593277B1 (en) Method and system for creating a customized treatment program
JP6774582B1 (en) Measurement system, program
KR102593279B1 (en) Method and system for posture estimation and motion analysis
JP6811349B1 (en) Information processing equipment, methods, programs
KR20230018239A (en) Remote rehabilitation system and method using real-time pose estimation
KR102566213B1 (en) Method and system for digital based musculoskeletal rehabilitation treatment
US20240149115A1 (en) Method and system for providing digitally-based musculoskeletal rehabilitation therapy
KR102609706B1 (en) System for providing internet of things based home training service
Celesti et al. Adopting Machine Learning-Based Pose Estimation as Digital Biomarker in Motor Tele-Rehabilitation
US20240112367A1 (en) Real-time pose estimation through bipartite matching of heatmaps of joints and persons and display of visualizations based on the same
KR20240063751A (en) Method and system for digital based musculoskeletal rehabilitation treatment
US20220157427A1 (en) Remote physical therapy and assessment of patients
KR102457571B1 (en) Augmented reality-based lumbar core twist exercise treatment system and lumbar core twist exercise treatment method
Bhatambarekar et al. A Study on Physiotherapy Exercise Corrector

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant