KR102566211B1 - Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model - Google Patents
Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model Download PDFInfo
- Publication number
- KR102566211B1 KR102566211B1 KR1020220176241A KR20220176241A KR102566211B1 KR 102566211 B1 KR102566211 B1 KR 102566211B1 KR 1020220176241 A KR1020220176241 A KR 1020220176241A KR 20220176241 A KR20220176241 A KR 20220176241A KR 102566211 B1 KR102566211 B1 KR 102566211B1
- Authority
- KR
- South Korea
- Prior art keywords
- exercise
- motion
- patient
- image
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H80/00—ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20044—Skeletonization; Medial axis transform
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Physical Education & Sports Medicine (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
본 발명은 환자의 운동 동작을 분석하는 방법 및 시스템에 관한 것이다. 본 발명에 따른 운동 치료 제공 방법은, 본 발명에 따른 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 추정 방법은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 단계, 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 단계, 환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 단계, 인공 지능 자세 추정 모델을 이용하여, 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 단계, 상기 관절 포인트와 관련된 학습 데이터를 이용하여 학습된 인공지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하는 단계 및 상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 단계를 포함할 수 있다The present invention relates to a method and system for analyzing a patient's motor motion. The method for providing exercise therapy according to the present invention includes the steps of receiving prescription information related to exercise for a patient from a doctor terminal. Allocating an exercise plan including at least one prescription exercise to the patient's account based on the prescription information, receiving an exercise image of the exercise according to the prescription exercise from a patient terminal, extracting key points respectively corresponding to a plurality of preset joint points from the motion image using an intelligent posture estimation model; through an artificial intelligence motion analysis model learned using learning data related to the joint points; Analyzing a relative positional relationship between keypoints, and based on the analysis of the positional relationship, analyzing the exercise motion of the patient for the prescription exercise, and transmitting the analysis result of the motion motion of the patient to the patient terminal. may include steps to
Description
본 발명은 근골격계 질환에 특화된 인공 지능 자세 추정 모델 및 인공 지능 동작 분석 모델을 이용하여, 환자에게 운동 치료를 제공할 수 있는 방법 및 시스템에 관한 것이다. The present invention relates to a method and system capable of providing exercise therapy to a patient using an artificial intelligence posture estimation model and an artificial intelligence motion analysis model specialized for musculoskeletal disorders.
근골격계 질환이란, 근육, 신경, 건, 인대, 뼈와 주변조직 등 근골격계에 발생하는 통증 또는 손상을 말한다. 근골격계 질환은 목과 허리, 팔과 다리 등 우리 몸의 다양한 곳에 나타난다. Musculoskeletal disorders refer to pain or damage occurring in the musculoskeletal system, such as muscles, nerves, tendons, ligaments, bones and surrounding tissues. Musculoskeletal disorders appear in various parts of our body, such as the neck, waist, arms and legs.
세계보건기구 (WHO-World Health Organization)의 보고에 따르면, 근골격계 질환으로 인한 경제적 손실은 전체 질환 중 네번째로 높은 것으로 나타났으며, 근골격계 질환은 일상 생활 뿐만 아니라 경제 활동에도 영향을 미치는 만성적인 통증이다. According to the report of the World Health Organization (WHO-World Health Organization), economic loss due to musculoskeletal disorders is the fourth highest among all diseases, and musculoskeletal disorders are chronic pains that affect not only daily life but also economic activities. .
한편, 근골격계 질환의 치료는, 침습적인 정도가 적은 치료부터 시행되는 것이 원칙으로, 비약물 보존적 치료(ex: 운동 치료 및 교육, 인지 치료 또는 이완 요법 등)가 먼저 시행되고, 이후 약물치료, 수술적 치료가 순차적으로 고려되어야 한다. On the other hand, treatment of musculoskeletal disorders, in principle, is performed starting with less invasive treatment, and non-drug conservative treatment (ex: exercise treatment and education, cognitive therapy or relaxation therapy, etc.) is performed first, followed by drug treatment, Surgical treatment should be considered sequentially.
치료 지침에서는, 근골격계 질환의 비약물 보존적 치료를 적극적으로 권장하고 있으며, 미국 및 유럽을 중심으로, 근골격계 질환의 비약물 보존적 치료를 수행하는 방법에 대한 연구가 활발하게 진행되고 있다. In the treatment guidelines, non-drug conservative treatment of musculoskeletal disorders is actively recommended, and research on methods for performing non-drug conservative treatment of musculoskeletal disorders is being actively conducted, mainly in the United States and Europe.
한편, 기술이 발전함에 따라, 전자기기(예를 들어, 스마트폰, 태블릿 PC 등)의 보급이 대중화되었으며, 이에 따라 일상생활의 많은 부분에서 인터넷에 대한 의존도가 점차적으로 높아지고 있다. On the other hand, as technology develops, the spread of electronic devices (eg, smart phones, tablet PCs, etc.) has become popular, and accordingly, dependence on the Internet is gradually increasing in many parts of daily life.
이와 같이, 인터넷을 비롯한 다양한 기술의 발전에 힘입어, 종래 오프라인에 대한 의존도가 높았던 소비패턴은, 점차적으로 온라인(on-line)으로 옮겨갔으며, 현재에는, 온라인을 중심으로 한 소비가 기하급수적으로 늘어가고 있다. In this way, thanks to the development of various technologies including the Internet, consumption patterns that were previously highly dependent on offline have gradually moved to online, and now, consumption centered on online is exponentially increasing. is increasing
이러한 트렌드의 변화에 맞추어, 의료 산업과 같은 서비스의 특성상 오프라인(off-line)에 기반을 둔 산업 분야 역시, 온라인을 통하여 의료 서비스를 제공하는 것이 보편화 되고 있다. In line with these trend changes, providing medical services online is also becoming common in industries that are based off-line due to the characteristics of services, such as the medical industry.
이에, 최근에는, 온라인을 통한 다양한 의료 서비스가 제공되고 있으며, 환자, 즉 사용자는 인터넷이 연결된 전자기기를 통해, 몇번의 클릭 만으로, 의료진과 질병에 대한 의료 상담을 할 수 있게 되었다. Accordingly, in recent years, various medical services have been provided online, and patients, that is, users, can have medical consultations about diseases with a medical staff with just a few clicks through an electronic device connected to the Internet.
이러한 기술로서, 대한민국 등록특허 제10-2195512호는 온라인 의료 플랫폼을 제공하는 서버 및 시스템과 관련된 기술을 개시하고 있으며, 온라인을 통한 의료 서비스 제공 지점에 대한 정보를 환자에게 제공하고 있다. As such technology, Korean Patent Registration No. 10-2195512 discloses a technology related to a server and system providing an online medical platform, and provides information about a medical service point through online to a patient.
이러한 트렌드에 맞추어, 근골격계 질환의 비약물 보존적 치료를 온라인으로 제공하는 방법에 니즈가 존재한다. In line with this trend, there is a need for a method of providing online non-drug conservative treatment of musculoskeletal disorders.
본 발명은, 온라인을 기반으로 근골격계 질환에 대한 운동 치료를 제공할 수 있는 운동 치료 제공 방법 및 시스템에 관한 것이다. The present invention relates to an exercise therapy providing method and system capable of providing exercise therapy for musculoskeletal disorders on an online basis.
특히, 본 발명은, 운동 영상을 기반으로, 처방된 운동을 수행하는 환자의 운동 동작을 분석할 수 있는 운동 치료 제공 방법 및 시스템에 관한 것이다. In particular, the present invention relates to a method and system for providing exercise therapy capable of analyzing a motion motion of a patient performing a prescribed exercise based on motion images.
특히, 본 발명은 근골격계 질환에 특화된 인공 지능 모델에 기반하여, 운동 영상으로부터 환자의 운동 동작을 분석할 수 있는 운동 치료 제공 방법 및 시스템에 관한 것이다. In particular, the present invention relates to a method and system for providing exercise therapy capable of analyzing a patient's exercise motion from a motion image based on an artificial intelligence model specialized for musculoskeletal disorders.
나아가, 본 발명은, 환자가 근골격계 질환의 치료에 용이하게 접근 가능한 사용자 환경을 제공할 수 있는 운동 치료 제공 방법 및 시스템에 관한 것이다. Furthermore, the present invention relates to a method and system for providing exercise therapy capable of providing a user environment in which patients can easily access treatment of musculoskeletal disorders.
위에서 살펴본 과제를 해결하기 위하여, 본 발명에 따른 운동 치료 제공 방법은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 단계, 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 단계, 환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 단계, 인공 지능 자세 추정 모델을 이용하여, 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 단계, 인공 지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하는 단계 및 상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 단계를 포함할 수 있다.In order to solve the problems described above, the exercise treatment providing method according to the present invention includes the steps of receiving prescription information related to exercise for a patient from a doctor terminal, based on the prescription information, the patient Allocating an exercise plan including at least one prescription exercise to an account of the patient, receiving an exercise image of a motion according to the prescription exercise from a patient terminal, using an artificial intelligence posture estimation model, the exercise extracting keypoints corresponding to a plurality of preset joint points from the image; analyzing the relative positional relationship between the keypoints through an artificial intelligence motion analysis model; and based on the analysis of the positional relationship, the prescription motion Analyzing the exercise motion of the patient and transmitting an analysis result of the exercise motion of the patient to the patient terminal.
나아가, 본 발명에 따른 운동 치료 제공 추정 방법은, 상기 환자 단말기에서 상기 운동 영상이 촬영되는 것에 연동하여, 상기 환자 단말기에 상기 운동 영상을 실시간으로 출력하는 단계 및 상기 환자가, 상기 환자의 운동 동작에 대해 분석이 이루어지는 관절 포인트를 인지가능 하도록, 상기 운동 영상 중 상기 환자에 대응되는 피사체가 위치한 영역에, 추출된 상기 키포인트에 해당하는 그래픽 객체를 오버랩하여 제공하는 단계를 더 포함할 수 있다. Furthermore, the method for estimating the provision of exercise therapy according to the present invention includes the steps of outputting the exercise image to the patient terminal in real time in association with the motion image being captured by the patient terminal, and the patient performing the exercise motion of the patient. The method may further include overlapping and providing a graphic object corresponding to the extracted keypoint in an area where a subject corresponding to the patient is located in the motion image so as to be able to recognize a joint point for which analysis is performed for .
일 예에 있어서, 상기 키포인트를 추출하는 단계에서는, 상기 기 설정된 복수의 관절 포인트 중, 상기 운동 영상에서 가시(visible) 가능한 상기 피사체의 가시 관절 포인트를 특정하고, 특정된 상기 가시 관절 포인트를 상기 키포인트로서 추출할 수 있다. In an example, in the step of extracting the keypoint, visible joint points of the subject that are visible in the motion image are specified among the plurality of preset joint points, and the specified visible joint points are selected as the keypoints. can be extracted as
일 예에 있어서, 상기 동작 분석 모델은, 상기 학습 데이터에 기반하여, 상기 기 설정된 복수의 관절 포인트 중 상기 운동 영상에서 가시(visible) 불가능한 상기 피사체의 비가시(invisible) 관절 포인트를 예측하고, 상기 가시 관절 포인트와 상기 비가시 관절 포인트에 기반하여, 상기 환자의 운동 동작을 분석할 수 있다. In one example, the motion analysis model predicts an invisible joint point of the subject that is not visible in the motion image among the plurality of preset joint points based on the learning data, and the An exercise motion of the patient may be analyzed based on the visible joint points and the non-visible joint points.
이 경우, 상기 키포인트는, 상기 가시 관절 포인트 및 상기 비가시 관절 포인트에 해당하는 키포인트를 포함할 수 있다. In this case, the keypoints may include keypoints corresponding to the visible joint points and the invisible joint points.
일 예에 있어서, 상기 학습 데이터는, 학습 대상 영상에 포함된 피사체의 학습 대상 가시 관절 포인트 및 상기 가시 관절 포인트에 기반하여 추정되는 학습 대상 비가시 관절 포인트에 대한 위치 정보가 순차적으로 나열된 제1 데이터 그룹 및 상기 학습 대상 가시 관절 포인트 및 상기 학습 대상 비가시 관절 포인트 각각의 가시 여부를 나타내는 데이터 값을 포함하는 제2 데이터 그룹을 포함할 수 있다. In one example, the learning data is first data in which positional information about visible joint points to be learned and non-visible joint points to be studied that are estimated based on the visible joint points of a subject included in the target image to be learned are sequentially listed. and a second data group including a data value indicating whether each of the visible joint points to be learned and the non-visible joint points to be learned are visible.
이 경우, 상기 제2 데이터 그룹에 포함된 데이터 값의 나열 순서는, 상기 학습 대상 가시 관절 포인트 및 상기 학습 대상 비가시 관절 포인트가 나열된 순서와 동일한 순서를 갖을 수 있다. In this case, the order in which data values included in the second data group are listed may have the same order as the order in which the visible joint points to be learned and the non-visible joint points to be learned are listed.
일 예에 있어서, 기 환자의 운동 동작을 분석하는 단계에서는, 상기 처방 운동과 관련된 규칙 정보를 기준으로, 상기 키포인트 간의 상대 위치 관계를 분석하고, 상기 키 포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 판단하는 것을 통해 상기 환자의 운동 동작을 분석할 수 있다.In one example, in the step of analyzing the exercise motion of the patient, the relative positional relationship between the key points is analyzed based on the rule information related to the prescribed exercise, and the relative positional relationship between the key points satisfies the rule information. It is possible to analyze the exercise motion of the patient by determining whether or not.
일 예에 있어서, 상기 운동 영상에 오버랩되는 그래픽 객체의 시각적 외관은, 추출된 상기 키포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 여부에 따라 서로 다르게 이루어질 수 있다. In one example, the visual appearance of the graphic object overlapping the motion image may be different depending on whether the relative positional relationship between the extracted keypoints satisfies the rule information.
일 예에 있어서, 상기 환자의 운동 동작에 대한 분석 결과는, 상기 운동 영상이 상기 환자 단말기에서 촬영되고 있는 상태에서, 상기 키포인트에 해당하는 상기 그래픽 객체를 상기 규칙 정보에 근거한 서로 다른 시각적 외관으로, 상기 운동 영상에 실시간으로 오버랩하여 제공하는 제1 분석 결과 및 상기 운동 영상을 구성하는 복수의 프레임들 각각으로부터 추출된 키포인트에 기초하여 상기 처방 운동에 대한 상기 환자의 평가 점수를 포함하는 제2 분석 결과를 포함할 수 있다. In one example, the analysis result of the exercise motion of the patient, in a state in which the motion image is being captured by the patient terminal, the graphic object corresponding to the key point to a different visual appearance based on the rule information, A second analysis result including the patient's evaluation score for the prescribed exercise based on a first analysis result overlapping the exercise image and provided in real time and a key point extracted from each of a plurality of frames constituting the exercise image can include
이 경우, 상기 제1 분석 결과는 상기 환자 단말기에 설치된 애플리케이션의 동작 분석 모델에 의해서 생성되고, 상기 제2 분석 결과는, 상기 애플리케이션과 연동하는 클라우드 서버에서 이루어지며, 상기 제1 분석 결과 및 상기 제2 분석 결과 모두는, 상기 의사 단말기로 전송될 수 있다. In this case, the first analysis result is generated by a motion analysis model of an application installed in the patient terminal, and the second analysis result is made in a cloud server that interworks with the application, and the first analysis result and the first analysis result are generated. 2, all of the analysis results may be transmitted to the doctor terminal.
나아가, 본 발명에 따른 운동 치료 운동 치료 제공 시스템은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 통신부 및 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 제어부를 포함하고, 상기 제어부는, 환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하고, 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하고, 인공 지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하고, 상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송할 수 있다. Furthermore, the exercise therapy exercise therapy providing system according to the present invention, based on the communication unit and the prescription information for receiving exercise-related prescription information for a patient from a doctor terminal, the patient's account, A control unit for allocating an exercise plan including at least one prescription exercise, wherein the control unit receives, from a patient terminal, an exercise image obtained by photographing an exercise according to the prescription exercise, and from the exercise image, sets a plurality of preset exercises. Keypoints corresponding to each joint point are extracted, and the relative positional relationship between the keypoints is analyzed through an artificial intelligence motion analysis model, and based on the analysis of the positional relationship, the motion motion of the patient for the prescribed motion is determined. analysis, and an analysis result of the exercise motion of the patient may be transmitted to the patient terminal.
나아가, 본 발명에 따른 운동 치료 제공 시스템은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 통신부 및 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 제어부를 포함하고, 상기 제어부는, 환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하고, 인공 지능 동작 분석 모델을 이용하여, 상기 운동 영상으로부터, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하고, 상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 것을 특징으로 한다.Furthermore, the exercise treatment providing system according to the present invention includes a communication unit that receives prescription information related to exercise for a patient from a doctor terminal and, based on the prescription information, at least one in the patient's account. A control unit for allocating an exercise plan including a prescription exercise of the exercise, wherein the control unit receives an exercise image obtained by photographing an exercise according to the prescription exercise from a patient terminal, and uses an artificial intelligence motion analysis model to perform the exercise. It is characterized in that the exercise motion of the patient for the prescription exercise is analyzed from the video, and the analysis result of the exercise motion of the patient is transmitted to the patient terminal.
나아가, 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 단계, 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 단계, 환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 단계, 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 단계, 인공 지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하는 단계 및 상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 단계를 수행하는 명령어들을 포함할 수 있다. Furthermore, a program executed by one or more processes in an electronic device and stored in a computer-readable recording medium receives prescription information related to exercise for a patient from a doctor terminal; Allocating an exercise plan including at least one prescription exercise to the patient's account based on prescription information, receiving an exercise image obtained by photographing an exercise according to the prescription exercise from a patient terminal, the exercise image extracting keypoints corresponding to a plurality of preset joint points, analyzing the relative positional relationship between the keypoints through an artificial intelligence motion analysis model, and based on the analysis of the positional relationship, the prescription exercise It may include instructions for performing the step of analyzing the exercise motion of the patient for the patient and the step of transmitting the analysis result of the motion motion of the patient to the patient terminal.
위에서 살펴본 것과 같이, 본 발명에 따른 운동 치료 제공 시스템 및 방법은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하고, 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당할 수 있다. 이를 통해, 근골격계 질환에 대한 운동 치료를 위해 의사와 환자의 대면이 없더라도, 의사는 환자에게 처방이 가능하고, 환자는 의사의 처방에 따른 운동 플랜을 제공받음으로써, 운동 치료에 대한 장소적, 시간적, 경제적 제약을 해결하고, 운동 치료에 대한 접근성을 높일 수 있다. As described above, the exercise therapy providing system and method according to the present invention receives prescription information related to exercise for a patient from a doctor terminal, and based on the prescription information, the patient's account For example, an exercise plan including at least one prescription exercise may be assigned. Through this, even if there is no face-to-face meeting between a doctor and a patient for exercise treatment for musculoskeletal disorders, the doctor can prescribe to the patient and the patient is provided with an exercise plan according to the doctor's prescription, thereby providing a spatial and temporal improvement in exercise treatment. , can address economic constraints and increase access to exercise therapy.
나아가, 본 발명에 따른 운동 치료 제공 시스템 및 방법은, 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출함으로써, 근골격계 질환의 운동 치료에 필요한 관절에 포커스(Focus)를 맞추어 사용자의 운동 동작을 분석할 수 있다. Furthermore, the system and method for providing exercise therapy according to the present invention extract key points corresponding to a plurality of preset joint points from a motion image, thereby focusing on the joints required for exercise treatment of musculoskeletal disorders, thereby helping the user's health. movement can be analyzed.
나아가, 본 발명에 따른 운동 치료 제공 시스템 및 방법은, 관절 포인트에 대한 위치 정보를 포함하는 학습 데이터 세트(data set)를 이용하여 학습된 자세 추정 모델에 기반하여, 운동 영상에 포함된 사용자의 특정 운동 동작과 관련된 운동 동작을 분석할 수 있다. 이를 통해, 본 발명에서는 운동 영상으로부터 환자의 자세에 대한 정확한 분석이 가능하며, 특히, 환자의 관절 가동 범위, 정렬 상태 및 이탈 상태 등에 대한 정보를 획득하여 의료 서비스의 퀄리티(quality)를 향상시킬 수 있다.Furthermore, the exercise therapy providing system and method according to the present invention is based on a posture estimation model learned using a learning data set including location information on joint points, and specifies a user included in an exercise image. An exercise motion related to the exercise motion may be analyzed. Through this, in the present invention, it is possible to accurately analyze the patient's posture from the motion image, and in particular, it is possible to improve the quality of medical service by obtaining information on the patient's joint range of motion, alignment state, and deviation state. there is.
나아가, 본 발명에 따른 운동 치료 제공 시스템 및 방법은, 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송함으로써, 환자는 먼 거리에 위치하는 병원에 직접 방문하지 않더라도 운동 영상에 대한 피드백(feedback)을 제공받아 운동 치료 효과를 제고할 수 있으며, 운동에 대한 환자의 순응도를 향상시킬 수 있다. Furthermore, the exercise therapy providing system and method according to the present invention transmits the analysis result of the patient's exercise motion to the patient terminal, so that the patient receives feedback on the exercise image even if he or she does not directly visit a hospital located at a distance ( feedback) can be provided to improve the exercise treatment effect, and the patient's compliance with exercise can be improved.
도 1은 본 발명에 따른 운동 치료 제공 시스템을 설명하기 위한 개념도이다.
도 2 및 도 3은 본 따른 운동 치료 제공 방법을 설명하기 위한 흐름도들이다.
도 4a 및 도 4b는 의사의 처방을 설명하기 위한 개념도들이다.
도 5 및 도 6은 운동 영상으로부터 환자의 운동 동작을 분석하는 방법을 설명하기 위한 개념도들이다.
도7, 도 8a 도 8b, 도 8c, 도 8d, 도 8e 및 도 8f은 인공 지능 자세 추정 모델을 설명하기 위한 개념도들이다.
도 9a, 도 9b 및 도9c는 환자의 운동 동작 분석 결과가 제공되는 사용자 환경을 설명하기 위한 개념도들이다. 1 is a conceptual diagram illustrating an exercise therapy providing system according to the present invention.
2 and 3 are flow charts for explaining a method for providing exercise therapy according to the present invention.
4A and 4B are conceptual diagrams for explaining a doctor's prescription.
5 and 6 are conceptual diagrams for explaining a method of analyzing a patient's exercise motion from a motion image.
7, 8a, 8b, 8c, 8d, 8e, and 8f are conceptual diagrams for explaining an artificial intelligence posture estimation model.
9A, 9B, and 9C are conceptual diagrams for explaining a user environment in which an analysis result of a patient's exercise motion is provided.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same reference numerals will be assigned to the same or similar components regardless of reference numerals, and overlapping descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
본 발명은 환자(Patient)의 단말기로부터 수신되는 운동 영상에 기반하여, 운동 영상에 포함된 환자의 운동 동작을 분석하고, 분석 결과를 제공하기 위한 것이다. 특히, 본 발명은, 근골격계 질환에 특화된 인공 지능 모델을 이용하여, 환자의 관절 포인트를 기반으로 운동 동작을 분석하는 방법에 대한 것이다. An object of the present invention is to analyze a patient's exercise motion included in an exercise image based on an exercise image received from a patient's terminal, and to provide an analysis result. Particularly, the present invention relates to a method of analyzing a movement motion based on a joint point of a patient using an artificial intelligence model specialized for musculoskeletal disorders.
본 발명에서는, 근골격계 질환에 대한 재활 운동의 운동 동작 분석을 중심으로 설명하나, 반드시 이에 한정되는 것은 아니다. 즉, 본 발명에서 동작 분석은, 운동 동작 뿐만 아니라, 일상 생활에서의 동작, 스트레칭(Stretch)시 동작 등 다양한 동작에 대한 분석을 모두 포함할 수 있다. In the present invention, the description is centered on the motion analysis of rehabilitation exercises for musculoskeletal disorders, but is not necessarily limited thereto. That is, motion analysis in the present invention may include analysis of various motions, such as motions in daily life and motions during stretching, as well as motions during exercise.
한편, 본 발명에서 설명되는 “운동 동작”은 운동을 수행하는 과정에서 이루어지는 몸짓(동작)으로, 몸의 “움직임”, “액션(action)”, “무브먼트(movement)”, “제스처(gesture)”등의 용어와 혼용하여 사용될 수 있다. On the other hand, the “exercise action” described in the present invention is a gesture (action) made in the process of performing an exercise, and includes “movement”, “action”, “movement”, and “gesture” of the body. It can be used interchangeably with terms such as “.
그리고, “운동 영상”은, 도 6에 도시된 것과 같이, 환자가 운동 동작을 수행하는 과정이 촬영(포함)된 영상(이미지 또는 동영상)으로, 환자(U)의 신체 중 적어도 일부가 포함될 수 있다. And, as shown in FIG. 6, the “exercise image” is an image (image or video) in which a process of the patient performing an exercise motion is recorded (including), and at least a part of the body of the patient U may be included. there is.
본 발명에서는, 운동 영상에 포함된 환자 객체를, “피사체(U)”로 명명하여 설명할 수 있다. 본 발명에서 “피사체(U)”는 운동 영상에서 운동하는 환자 또는 환자의 신체 일부를 의미할 수 있다. 본 발명에서는, “피사체”와 “환자”를 혼용하여 사용할 수 있으며, 동일한 도면부호 “U”를 부여하여 설명할 수 있다. In the present invention, the patient object included in the motion image may be named and described as “subject U”. In the present invention, “subject (U)” may mean a patient or a body part of a patient exercising in an exercise image. In the present invention, “subject” and “patient” can be used interchangeably, and the same reference numeral “U” can be given for explanation.
이하에서는 첨부된 도면과 함께, 본 발명에 따른 인공 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 방법 및 시스템에 대해 구체적으로 설명하도록 한다. 도 1은 본 발명에 따른 운동 치료 제공 시스템을 설명하기 위한 개념도이다. 도 2 및 도 3은 본 따른 운동 치료 제공 방법을 설명하기 위한 흐름도들이고, 도 4a 및 도 4b는 의사의 처방을 설명하기 위한 개념도들이고, 도 5 및 도 6은 운동 영상으로부터 환자의 운동 동작을 분석하는 방법을 설명하기 위한 개념도들이고, 도7, 도 8a 도 8b, 도 8c, 도 8d, 도 8e 및 도 8f은 인공 지능 자세 추정 모델을 설명하기 위한 개념도들이며, 도 9a, 도 9b 및 도9c는 환자의 운동 동작 분석 결과가 제공되는 사용자 환경을 설명하기 위한 개념도들이다. Hereinafter, a motion therapy providing method and system using an artificial intelligence posture estimation model and a motion analysis model according to the present invention will be described in detail along with accompanying drawings. 1 is a conceptual diagram illustrating an exercise therapy providing system according to the present invention. 2 and 3 are flow charts for explaining the exercise treatment providing method according to the present invention, FIGS. 4a and 4b are conceptual diagrams for explaining a doctor's prescription, and FIGS. 5 and 6 analyze a patient's exercise motion from a motion image. 7, 8a, 8b, 8c, 8d, 8e, and 8f are conceptual diagrams for explaining an artificial intelligence posture estimation model, and FIGS. 9a, 9b, and 9c are conceptual diagrams for explaining a method for These are conceptual diagrams for explaining a user environment in which a patient's movement motion analysis result is provided.
도 1에 도시된 것과 같이, 본 발명에 따른 운동 치료 제공 시스템(1000)은, 인공 지능 자세 추정 및 동작 분석 모델을 이용하여, 환자 단말기(10)로부터 수신된 운동 영상에서 환자의 운동 동작을 분석하는 것으로, 환자 단말기(10)에 설치되는 애플리케이션(Application, 100) 및 인공지능 서버(또는 클라우드 서버, 200) 중 적어도 하나를 포함하여 구성될 수 있다. 그리고, 본 발명에 따른 운동 치료 제공 시스템(1000)은, 학습 데이터를 이용하여 학습된 자세 추정 모델 및 동작 분석 모델을 포함할 수 있다. As shown in FIG. 1 , the motion
본 발명에서의 애플리케이션(100)은, 환자 단말기(10)에 설치되어 근골격계 질환을 갖고 있는 환자(U)의 운동 동작을 분석하고, 분석 결과에 기반한 피드백(Feedback) 정보를 제공하는 기능을 수행할 수 있다. 이에 본 발명에 따른 애플리케이션(100)은, “디지털 운동 치료 솔루션”, “디지털 재활 치료 솔루션”, “디지털 운동 평가 솔루션”, “비대면 운동 치료 솔루션”, “비대면 재활 치료 솔루션”, “비대면 운동 평가 솔루션”, “모바일 운동 치료 프로그램”, “모바일 재활 치료 프로그램”, “모바일 운동 평가 프로그램” 및 “모바일 정형외과 재활 보조원(Mobile Orthopedic Rehabilitation Assistant, MORA) 등으로 명명될 수 있다. The
본 발명에 따른 애플리케이션(100)은, 환자 단말기(10)에 설치되어, 근골격계 질환의 환자(U)와 정형외과 의사(D)를 연결하여, 환자(U)의 재활을 도와주는 역할을 수행할 수 있다. 이하에서는 설명의 편의를 위하여 환자 단말기(10)에 설치되는 애플리케이션(100)을, “운동 치료 애플리케이션”으로 명명하여 설명하도록 한다. The
한편, 본 발명에 따른 운동 치료 애플리케이션(100)은, 환자 단말기(10)에 설치될 수 있다. 본 발명에서 설명되는 환자 단말기(10)는, 환자(U)의 사용자 계정으로 로그인된 전자기기를 의미하는 것으로서, 예를 들어, 전자기기는 스마트폰(smart phone), 휴대폰, 태블릿 PC, 키오스크(KIOSK), 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), 및 PMP(Portable Multimedia Player) 중 적어도 하나를 포함할 수 있다. Meanwhile, the
여기에서, 환자(U)의 사용자 계정은, 본 발명에 따른 운동 치료 제공 시스템(1000)에 기 등록된 환자(U)의 계정을 의미할 수 있다. 이러한 환자(U)의 사용자 계정은, “환자 계정” 또는 “환자 ID(identification, identification number)”로 이해되어질 수 있다. 본 발명에서, “환자”, “환자 계정(또는 환자의 사용자 계정)”, “환자 단말기”를 혼용하여 사용할 수 있다. Here, the user account of the patient U may mean an account of the patient U previously registered in the exercise
한편, 의사(Doctor)는, 의사 단말기(20)를 통해 환자(U)에게 운동과 관련된 처방을 내릴 수 있다. 본 발명에서 의사 단말기(20)는, 의사(D)의 사용자 계정으로 로그인된 전자기기를 의미할 수 있다. 의사(D)의 사용자 계정은, 본 발명에 따른 운동 치료 제공 시스템(1000)에 기 등록된 의사(D)의 계정으로, “의사 계정” 또는 “의사 ID(identification, identification number)”로 이해되어질 수 있다. 본 발명에서, “의사”, “의사 계정(또는 의사의 사용자 계정)”, “의사 단말기”를 혼용하여 사용할 수 있다.Meanwhile, the doctor may give a prescription related to exercise to the patient U through the
의사(D)는, 환자(U)의 사용자 정보가 포함된 사용자 DB(30)를 참조하여, 환자(U)에 대한 처방을 내릴 수 있다. The doctor D may make a prescription for the patient U by referring to the
사용자 DB(30)에는, 환자 계정 각각에 매칭된 환자(U)의 사용자 정보(또는 환자 정보)가 존재할 수 있다. 환자(U)의 사용자 정보는, 운동 치료 제공에 필요한 다양한 정보를 포함할 수 있다. 예를 들어, 환자(U)의 사용자 정보는, 환자(U)의 질병 정보, 나이 정보, 성별 정보, 수술 이력 정보, 운동 플랜 정보, 운동 수행 정보, 신장 정보, 체중 정보 중 적어도 하나를 포함할 수 있다. 다만, 상술한 환자의 사용자 정보는 일 예시에 불과하며, 환자의 사용자 정보에는, 환자의 운동 치료 제공을 위하여 필요한 다양한 정보가 포함될 수 있음은 당연하다. User information (or patient information) of the patient U matched to each patient account may exist in the
한편, 본 발명에서 설명되는 운동 치료 애플리케이션(100)은, 환자 단말기(10)에 설치되며, 의사(D) 처방에 따라 운동을 수행한 환자의 운동 동작을, 인공 지능 자세 추정 모델 및 인공지능 동작 분석 모델을 통해 분석하여 환자 단말기(10) 상에 제공할 수 있다. On the other hand, the
그리고, 운동 치료 애플리케이션(100)은, 인공지능 서버(200)와 통신을 수행하도록 이루어질 수 있으며, 인공지능 서버(200)에 의해 분석된 환자의 운동 동작 분석 결과를, 환자 단말기(10) 상에 제공할 수 있다. 인공지능 서버(200)에 의해 분석된 환자의 운동 동작 분석 결과는, 동작 분석부(210)에 포함된 인공 지능 동작 분석부(212) 및 규칙기반 동작 분석부(213) 중 적어도 하나에 의하여 생성될 수 있다. Then, the
운동 치료 애플리케이션(100)은, 인공지능 서버(200)와 무선 통신을 통하여, 상호 데이터를 송수신하도록 이루어지며, 무선 통신방식에는 제한이 없다. 본 발명에 따른 운동 치료 애플리케이션(100)은 환자 단말기(10)에 구비된 통신 모듈을 이용하여, 인공지능 서버(200)와의 통신을 수행할 수 있다. 환자 단말기(10)에 구비된 통신 모듈을 다양할 수 있다. The
예를 들어, 환자 단말기(10)에 구비된 통신 모듈은, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 인공지능 서버(200)와 통신을 수행하도록 이루어질 수 있다. For example, the communication module provided in the
한편, 본 발명에서 설명되는 인공지능 서버(200)는, 운동 영상으로부터 환자(U)의 운동 동작 분석을 수행하는 클라우드 서버(Cloud Server)일 수 있다. 이러한 인공지능 서버(200)는 운동 치료 애플리케이션(100)으로부터 수신된 운동 영상을 이용하여, 환자(U)의 운동 동작에 대한 분석을 수행할 수 있다. 본 발명에서 설명되는 “인공지능 서버”는, “인공지능 운동 치료 서버”, “인공지능 재활 치료 서버”, “디지털 치료 서버” 등으로 명명될 수 있다. 이하에서는 설명의 편의를 위하여, “인공지능 서버”로 명명하여 설명하도록 한다. Meanwhile, the
한편, 본 발명에 따른 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 중 적어도 하나는, 도 7에 도시된 것과 같이, 관절 포인트와 관련된 학습 데이터를 이용하여 학습된 자세 추정 모델(52, 도 1의 인공 지능 자세 추정부(121a)에 대응)을 통해 운동 영상(300)으로부터, 추출된 환자(U)의 복수의 관절 포인트에 대응되는 키포인트(P1, P2) 간의 상대적인 위치 관계를 분석할 수 있다. 키포인트 간의 상대적인 위치 분석은, 동작 분석부(120, 210)에 의하여 이루어질 수 있다. 특히, 동작 분석부의 인공지능 동작 분석부(122, 212) 및 규칙기반 동작 분석부(123, 213) 중 하나에 의하여, 운동 동작 분석이 이루어질 수 있다. 인공지능 동작 분석부(122, 212) 또는 규칙기반 동작분석부(123, 213) 중 하나는 인공 지능 동작 분석 모델이라고 명명될 수 있다.On the other hand, at least one of the
여기에서, “관절 포인트”는, 환자(U)의 복수의 관절(또는 관절을 포함하는 환자(U) 신체의 일부)를 의미할 수 있다.Here, “joint points” may mean a plurality of joints of the patient U (or parts of the body of the patient U including the joints).
그리고, “키포인트”는, 운동 영상(300)에서 피사체(U)의 복수의 관절 포인트 각각에 대응되는 영역을 의미할 수 있다.Also, “key points” may refer to regions corresponding to each of a plurality of joint points of the subject U in the
이에, 본 발명에서는, “관절 포인트”와 “키포인트”를 혼용하여 사용할 수 있으며, 관절 포인트와 키포인트 각각에, 동일한 도면부호 “P1, P2”를 부여하여 설명할 수 있다. Accordingly, in the present invention, “joint points” and “key points” may be used interchangeably, and the same reference numerals “P1 and P2” may be given to each of the joint points and key points for description.
운동 치료 제공 시스템(1000)은, 상기 자세 추정 모델(52)을 이용하여, 환자의 운동 영상으로부터 관절 포인트에 대응하는 키포인트(P1, P2)를 추출하고, 추출된 키포인트(P1, P2) 간의 위치 관계에 대한 분석에 기반하여, 환자(U)의 운동 동작을 분석할 수 있다. 본 발명에서는, 인공 지능 자세 추정 모델(52)을 통해 추출된 키포인트를 이용하여, 운동 영상으로부터 환자의 운동 동작을 분석하는 일련의 프로세스를, “운동 동작 분석 프로세스”로 명명할 수 있다.The exercise
이러한 운동 동작 분석 프로세스는, 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 중 적어도 하나에 의해 수행될 수 있다. 구체적으로, 운동 동작 분석 프로세스는, i) 운동 치료 애플리케이션(100)에 의해 이루어지는 제1 데이터 처리 방법, ii) 인공지능 서버(200)에 의해 이루어지는 제2 데이터 처리 방법, iii) 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 모두에 의해 이루어지는 제3 데이터 처리 방법 중 적어도 하나를 포함할 수 있다. This exercise motion analysis process may be performed by at least one of the
여기에서, 제3 데이터 처리 방법은, 운동 치료 애플리케이션(100)과 인공지능 서버(200) 각각에서, 데이터 처리가 순차적으로 이루어지거나 동시에 이루어질 수 있다. Here, in the third data processing method, data processing may be performed sequentially or concurrently in the
이에, 본 발명에서는, 운동 동작 분석 프로세스가 이루어지는 물리적인 공간 및 주체를 별도로 구분하지 않고, 운동 치료 제공 시스템(1000)에서 이루어지는 것으로 설명할 수 있다. Therefore, in the present invention, it can be explained that the exercise motion analysis process is performed in the exercise
한편, 도 7에 도시된 것과 같이, 운동 동작 분석 프로세스는, 인공 지능 자세 추정 모델(52)에서 추출된 키포인트를 이용하여 이루어질 수 있다. 인공 지능 자세 추정 모델(52)은, 관절 포인트에 특화된 학습 데이터에 대한 학습을 통해 운동 영상으로부터 환자의 관절 포인트를 특정 또는 추정하고, 이에 대응되는 키포인트를 추출할 수 있다. Meanwhile, as shown in FIG. 7 , the exercise motion analysis process may be performed using key points extracted from the artificial intelligence
본 발명에서, 인공 지능 자세 추정 모델(52)이 학습을 수행하는 학습 데이터는, 데이터베이스(40)에 저장되어 존재할 수 있으며, 이러한 데이터베이스(40)는, “학습 데이터 DB”로도 명명될 수 있다. 학습 데이터에 대한 자세한 내용은 후술하도록 한다. In the present invention, learning data for which the artificial intelligence
도 7에 도시된 것과 같이, 자세 추정 서버(50)는, 학습부(51) 및 자세 추정 모델(52) 중 적어도 하나를 포함할 수 있다. 자세 추정 서버(50)는, 본 발명에 따른 운동 치료 제공 시스템(1000) 내부에 구비되거나, 외부 서버로 이루어질 수 있다. 즉, 본 발명에 따른 자세 추정 서버(50)는, 자세 추정에 대한 학습을 수행하는 기능을 수행하는 것으로, 물리적인 공간에 대한 제약은 없는 것으로 이해될 수 있다. 자세 추정 서버(50)에 대한 자세한 내용은, 학습 데이터와 함께 후술하도록 한다. As shown in FIG. 7 , the
한편, 도 1에 도시된 것과 같이, 본 발명에 따른 운동 치료 애플리케이션(100)은, 영상 수신부(110), 동작 분석부(120), 영상 처리부(130) 및 제어부(140) 중 적어도 하나의 구성을 포함할 수 있다. On the other hand, as shown in Figure 1, exercise
운동 치료 애플리케이션(100)의 영상 수신부(110)는, 애플리케이션(100)이 설치된 환자 단말기(10)로부터 환자의 운동 모습이 포함된 운동 영상을 수신하도록 이루어질 수 있다. 이러한 운동 영상은 환자 단말기(10)에 설치된 카메라에 의해 촬영될 수 있다. 본 발명에서, “환자 단말기(10)로부터 운동 영상을 수신한다”는 것은, 운동 치료 애플리케이션(100)의 영상 수신부(110)가 환자 단말기(10)의 메모리(Memory)에 기록되는 운동 영상에 접근(access)하는 것으로 이해될 수 있다. The
운동 치료 애플리케이션(100)의 동작 분석부(120)는, 환자 단말기(10)로부터 수신된 운동 영상에 근거하여, 환자의 운동 동작(또는 운동 자세) 분석을 수행할 수 있다. 이를 위해, 운동 치료 애플리케이션(100)의 동작 분석부(120)는, 키포인트 추출부(121), 인공지능 동작분석부(122) 및 규칙기반 동작분석부(123) 중 적어도 하나의 구성을 포함하여 이루어질 수 있다. 인공지능 동작분석부(122) 또는 규칙기반 동작분석부(123)는 “인공 지능 동작 분석 모델”로 명명될 수 있다.The
키포인트 추출부(121)는, 운동 영상으로부터, x축, y축 좌표 정보가 쌍을 이룬 형태로 이루어지는 키포인트(P1, P2)를 추출할 수 있다. 이 경우, 키포인트 추출부(121)는, 인공지능 모델을 이용하여, 영상으로부터 키포인트를 추출할 수 있다. The
본 발명에서, 인공지능 모델을 이용한 키포인트 추출은, 키포인트 추출부(121)에 포함된 인공지능 자세 추정부(121a)에 의해 이루어지는 것으로 설명할 수 있다. In the present invention, keypoint extraction using an artificial intelligence model can be described as being performed by the artificial intelligence
인공지능 자세 추정부(121a)는, “인공 지능 자세 추정 모델”으로 명명될 수 있으며, 영상으로부터 객체 탐지(Object Detection)를 위하여 학습된 인공지능 모델을 이용하여, 운동 영상으로부터 환자의 관절 포인트에 대응되는 키포인트를 추출할 수 있다. 인공 지능 자세 추정 모델은, 객체 탐지를 기반으로하는 모델일 수 있다. 예를 들어, 인공지능 자세 추정부(121a)는 복수의 바운딩 박스(Bounding Box)를 앙상블(ensemble)하는 객체 탐지 인공지능 모델을 이용하여 운동 영상으로부터 키포인트를 추출할 수 있다. 한편, 인공지능 자세 추정부(121a)는, 다양한 객체 탐지 인공지능 모델을 이용할 수 있으며, 상술한 객체 탐지 인공지능 모델은 일 예시에 해당한다. The artificial
나아가, 본 발명에서, 인공지능 동작분석부(122) 및 규칙기반 동작 분석부(123)는, 환자 단말기로부터 수신된 운동 영상 및 키포인트 추출부(120)에서 추출된 키포인트 중 적어도 하나를 이용하여, 환자의 운동 동작(또는 운동 자세)에 대한 분석을 수행할 수 있다. Furthermore, in the present invention, the artificial intelligence
보다 구체적으로, 인공지능 동작분석부(122) 및 규칙기반 동작분석부(123)는, i) 운동 영상에 기반하여 환자의 운동 동작에 대한 분석을 수행하거나, ii) 키포인트에 기반하여 환자의 운동 동작에 대한 분석을 수행하거나, iii) 운동 영상 및 키포인트를 모두 이용하여 환자의 운동 동작에 대한 분석을 수행할 수 있다. More specifically, the artificial intelligence
이하에서는, 설명의 편의를 위하여, 키포인트에 기반하여 환자의 운동 동작 분석을 수행하는 방법을 중점적으로 설명하도록 한다. 다만, 인공지능 동작분석부(122) 및 규칙기반 동작분석부(123)는, 키포인트가 아닌 운동 영상을 입력 데이터(Input data)로 입력 받아, 운동 영상으로부터 바로 환자의 운동 동작 분석을 수행할 수 있음은 당연하다. 한편, 인공지능 동작 분석부(122) 또는 규칙기반 동작 분석부(123)는 앞서 언급된 “인공 지능 동작 분석 모델”로도 표현될 수 있다.Hereinafter, for convenience of description, a method of performing motion analysis of a patient based on a key point will be mainly described. However, the artificial intelligence
한편, 인공지능 동작분석부(122)는, 키포인트로부터 환자의 운동 동작(또는 운동 자세) 분석을 위해 학습된 인공 지능 모델(또는 자세 추정 모델, 도7에서 도면부호 “52” 참조)에 기반하여, 환자가 수행하는 운동의 운동 종류 분류(또는 운동 종류 특정), 운동 동작의 정확도 판단을 수행할 수 있다. On the other hand, the artificial intelligence
그리고, 규칙 기반 동작분석부(123)는, 환자의 운동 동작 분석을 위하여 정의된 규칙 정보에 기반하여, 환자가 수행하는 운동의 운동 종류 분류(또는 운동 종류 특정), 운동 동작의 정확도 판단을 수행할 수 있다. Further, the rule-based
여기에서, “규칙 정보”는, 운동 동작 분석에 이용되는 다양한 규칙을 포함하는 정보로, 예를 들어, 운동 동작(또는 운동 종류)별 기준 관절 가동 범위 정보를 포함할 수 있다. 이러한 규칙 정보는, “참조(Reference) 정보”, “기준 정보” 등의 용어와 혼용되어 사용될 수 있다. Here, “rule information” is information including various rules used for motion analysis, and may include, for example, reference joint motion range information for each motion motion (or motion type). Such rule information may be used interchangeably with terms such as “reference information” and “standard information”.
나아가, 규칙 정보는, 관절의 가동 범위 외에도, 관절의 가동 거리, 관절의 움직임 속도(또는 가속도), 분석 대상 운동 영상에 포함된 피사체(환자에 대응)의 신체 밸런스, 신체 균형, 신체 정렬 상태(EX: 다리의 축 정렬 상태, 척추 정렬상태 등) 중 적어도 하나에 대한 분석을 수행하기 위한 다양한 규칙 정보를 포함할 수 있다. 규칙 기반 동작분석부(123)는 이러한 규칙 정보에 기반하여, 환자의 분석 대상 운동 영상으로부터 다양한 분석 결과를 도출할 수 있다.Furthermore, the rule information includes, in addition to the movable range of the joint, the movable distance of the joint, the movement speed (or acceleration) of the joint, the body balance, body balance, and body alignment state of the subject (corresponding to the patient) included in the motion image to be analyzed ( EX: leg alignment state, spine alignment state, etc.) may include various rule information for analyzing at least one. The rule-based
본 발명에서는, 인공지능 동작분석부(122) 및 규칙 기반 동작분석부(123) 중 적어도 하나에 의해, 운동 영상으로부터 환자의 운동 동작에 대한 분석을 수행할 수 있다. In the present invention, at least one of the artificial intelligence
구체적으로, 본 발명에서는, i) 인공지능 동작분석부(122)에 의해 환자의 운동 동작에 대한 분석 수행이 이루어지거나(“제1 분석 수행 방식”), ii) 규칙 기반 동작분석부(123)에 의해 환자의 운동 동작에 대한 분석 수행이 이루어지거나(“제2 분석 수행 방식”), iii) 인공지능 동작분석부(122) 및 규칙 기반 동작분석부(123) 모두에 의해 환자의 운동 동작에 대한 분석이 이루어질 수 있다(“제3 분석 수행 방식”). Specifically, in the present invention, i) analysis of the patient's exercise motion is performed by the artificial intelligence motion analysis unit 122 (“first analysis method”), or ii) rule-based
여기에서, 제3 분석 수행 방식은, 인공지능 동작분석부(122) 및 규칙 기반 동작분석부(123) 각각에서, 데이터 처리가 순차적으로 이루어지거나 동시에 이루어질 수 있다.Here, in the third analysis method, data processing may be performed sequentially or concurrently in each of the artificial intelligence
한편, 운동 치료 애플리케이션(100)의 영상 처리부(130)는, 운동 영상(300)에 포함된 환자의 피사체(U)에, 추출된 키포인트(P1, P2)에 해당하는 그래픽 객체를 오버랩(overlap) 또는 렌더링(rendering)하도록 이루어질 수 있다. 이를 통해, 환자는, 자신의 운동 동작에 대해 분석이 이루어지는 관절 포인트를 직관적으로 인지할 수 있다. Meanwhile, the
운동 치료 애플리케이션(100)의 제어부(140)는, 운동 치료 애플리케이션(100)에 포함된 구성들에 대한 전반적인 제어를 수행하도록 이루어질 수 있다. 운동 치료 애플리케이션(100)의 제어부(140)는, 환자 단말기(10)의 CPU(Central Processing Unit)를 이용하여 운동 치료 애플리케이션(100)의 구성들을 제어할 수 있으며, 나아가, 환자 단말기(10)에 구비된 구성(ex: 통신 모듈, 카메라 모듈, 센싱 모듈, 출력 모듈(ex: 디스플레이, 스피커), 입력 모듈(ex: 터치 스크린, 마이크)에 대한 제어를 수행할 수 있다. The
한편, 도 1에 도시된 것과 같이, 인공지능 서버(200)는, 인공 지능 자세 추정 모델을 이용하여 환자의 운동 자세를 수행하도록 이루어진 클라우드 서버로, 동작 분석부(210) 및 제어부(220) 중 적어도 하나의 구성을 포함하여 이루어질 수 있다. On the other hand, as shown in FIG. 1, the
인공지능 서버(200)의 동작 분석부(210)는, 환자 단말기(10)로부터 수신된 운동 영상에 근거하여, 환자의 운동 동작(또는 운동 자세) 분석을 수행할 수 있다. The
인공지능 서버(200)의 동작 분석부(210)는, 운동 치료 애플리케이션(100)으로부터 환자의 운동 영상을 수신할 수 있으며, 운동 영상 수신은 인공지능 서버(200)의 통신부(또는 통신 모듈)에 의해 이루어 질 수 있다. The
인공지능 서버(200)의 동작 분석부(210)는, 키포인트 추출부(211), 인공지능 동작분석부(212) 및 규칙기반 동작분석부(213) 중 적어도 하나의 구성을 포함하여 이루어질 수 있다. 인공지능 동작분석부(212) 또는 규칙기반 동작분석부(213)는 “인공 지능 동작 분석 모델”로 명명될 수 있다.The
인공지능 서버(200)에 포함된 키포인트 추출부(211), 인공지능 동작분석부(212) 및 규칙기반 동작분석부(213) 각각은, 앞서 설명된 운동 치료 애플리케이션(100)의 키포인트 추출부(121), 인공지능 동작분석부(122) 및 규칙기반 동작분석부(123)와 동일한 기능을 수행할 수 있다. 이에, 구체적인 설명은 생략하도록 한다. Each of the
인공지능 서버(200)의 제어부(220)는, 인공지능 서버(200)에 포함된 구성들에 대한 전반적인 제어를 수행하도록 이루어질 수 있다. The
이하에서는, 본 발명에 따른 운동 치료 제공 시스템(1000)의 상기 구성을 이용하여, 운동 영상으로부터 환자(U)의 운동 동작을 분석하여 운동 동작 분석 결과를 제공하는 운동 동작 분석 프로세스에 대해 설명하도록 한다. Hereinafter, a motor motion analysis process of analyzing a motion motion of a patient U from a motion image and providing a motion motion analysis result will be described using the above configuration of the motion
도 2에 도시된 것과 같이, 의사 단말기(20)에서는 환자(U)에 대한 운동 처방이 이루어질 수 있다(S210), 운동 치료 제공 시스템(1000)은, 의사 단말기(20)에서 환자에 대한 운동 처방이 이루어진 것에 근거하여, 의사 단말기(20)로부터 상기 운동 처방에 대한 처방 정보를 수신할 수 있다.As shown in FIG. 2 , an exercise prescription for the patient U may be made in the doctor terminal 20 (S210). In the exercise
운동 치료 제공 시스템(1000)은, 의사 단말기(20)로부터 처방 정보가 수신되는 것에 근거하여, 환자 계정에, 처방 정보에 따른 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당할 수 있다. 할당된 운동 플랜은 환자 단말기(10)로 전송할 수 있다(S220).Based on the prescription information being received from the
운동 치료 제공 시스템(1000)은, 환자 단말기(10), 의사 단말기(20), 사용자 DB(30), 데이터베이스(40) 중 적어도 하나와 통신을 수행하는 통신부를 포함할 수 있다. 예를 들어, 통신부는 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 통신을 수행할 수 있다. The exercise
한편, 환자 단말기(10)에서는, 운동 플랜에 포함된 처방 운동을 수행하는 환자의 운동 영상을 촬영할 수 있다(S230). 운동 치료 애플리케이션(100)은, 환자 단말기(10)에 구비된 카메라를 활성화시켜, 운동 영상이 촬영되도록 제어할 수 있다. Meanwhile, the
환자 단말기(10)에서 촬영된 운동 영상은, 운동 치료 제공 시스템(1000)에 의해, 환자의 운동 동작 분석의 분석 대상 데이터(또는 분석 대상 운동 영상)으로 이용될 수 있다. A motion image captured by the
앞서 설명한 것과 같이, 운동 동작 분석 프로세스는, 환자 단말기(10)에 설치된 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 중 적어도 일부에서 이루어질 수 있으며, 본 발명에서는 운동 동작 분석 프로세스가 이루어지는 물리적인 공간 및 주체를 별도로 구분하지 않고, 운동 치료 제공 시스템(1000)에서 이루어지는 것으로 설명할 수 있다. As described above, the motion motion analysis process may be performed in at least a part of the
한편, 운동 치료 제공 시스템(1000)은, 운동 영상에서, 복수의 관절 포인트에 대응하는 키포인트(P1, P2)를 추출할 수 있다. 키포인트(P1, P2) 추출은, 운동 치료 애플리케이션(100)에 포함된 키포인트 추출부(121) 및 인공지능 서버(200)에 포함된 키포인트 추출부(221) 중 적어도 일부에 의해 수행될 수 있다. Meanwhile, the motion
운동 치료 제공 시스템(1000)은, 추출된 키포인트(P1, P2)들 간의 상대적인 위치 관계에 대한 분석을 수할 수 있다(S250). 그리고, 운동 치료 제공 시스템(1000)은, 키포인트(P1, P2)간의 위치 관계에 대한 분석에 기초하여, 환자(U)의 운동 동작을 분석할 수 있다(S260). 이러한 운동 동작 분석은, 애플리케이션(100)의 동작 분석부(120) 및 인공지능 서버(200)의 동작 분석부(210) 중 적어도 일부에 의해 이루어질 수 있다. The exercise
나아가, 운동 치료 제공 시스템(1000)은, 환자(U)의 운동 동작 분석 결과를, 환자 단말기(10)에는 피드백(Feedback) 정보로서 제공하고, 의사 단말기(20)에는 모니터링 정보로서 제공할 수 있다(S270). Furthermore, the exercise
이와 같이, 운동 치료 제공 시스템(1000)은, 운동 동작 분석 프로세스에 대한 전반적인 제어를 수행할 수 있으며, 이를, 본 발명에서는 운동 치료 제공 시스템(1000)의 제어부에 의해 이루어지는 것으로 이해할 수 있다. 즉, 운동 치료 제공 시스템(1000)의 제어부는, 운동 치료 애플리케이션(100)의 제어부(140) 및 인공지능 서버(200)의 제어부(220)를 포함하는 개념으로, 운동 치료 제공 시스템(1000)에 대한 전반적인 제어를 수행할 수 있다. As such, the exercise
이하에서는, 운동 치료 제공 시스템(1000)에 의해 이루어지는 운동 동작 분석 프로세스에 대해 보다 구체적으로 설명하도록 한다. Hereinafter, an exercise motion analysis process performed by the exercise
본 발명에서는, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 과정이 진행될 수 있다(S310, 도3 참조). In the present invention, a process of receiving prescription information related to exercise for a patient from a doctor terminal may proceed (S310, see FIG. 3).
도 4a 및 도 4b에 도시된 것과 같이, 운동 치료 제공 시스템(1000)은, 의사 계정으로 로그인된 의사 단말기(20) 상에, 환자의 운동과 관련된 처방 기능을 포함하는 운동 처방 페이지(또는 운동 배정 페이지)를 제공할 수 있다. 본 발명에서, “운동 처방”은, “운동 배정”과 혼용하여 사용될 수 있다. As shown in FIGS. 4A and 4B , the exercise
운동 치료 제공 시스템(1000)은, 의사 계정에 매칭된 환자 계정 중 특정 환자(U) 계정에 대한 처방이 이루어질 수 있도록, 환자 계정 각각의 운동 처방 페이지를, 의사 단말기(20) 상에 제공할 수 있다. The exercise
예를 들어, 본 발명에서, 특정 의사(D) 계정에 제1 환자 계정(ex: “김우영” 환자 계정) 및 제2 환자 계정(ex: “김소희” 환자 계정)이 매칭되어 있다고 가정하자. 운동 치료 제공 시스템(1000)은, 의사 단말기(20)로부터 제1 환자 계정(ex: “김우영” 환자 계정)의 운동 처방 요청을 수신하는 것에 근거하여, 의사 단말기(20) 상에, 제1 환자 계정에 대응하는 운동 처방 페이지를 제공할 수 있다. For example, in the present invention, it is assumed that a first patient account (ex: “Kim Woo-young” patient account) and a second patient account (ex: “Kim So-hee” patient account) are matched to a specific doctor (D) account. The exercise
운동 치료 제공 시스템(1000)은, 특정 환자에 대응하는 운동 처방 페이지에서 이루어지는 사용자 선택(또는 사용자 입력)에 기반하여, 의사 단말기(20)로부터, 특정 환자에 대한 처방 정보를 수신할 수 있다. 처방 정보에는, 환자에게 운동을 처방하기 위한 다양한 정보가 포함될 수 있다. 예를 들어, 처방 정보에는, i) 운동 플랜에 포함되어야 하는 적어도 하나의 운동 동작(ex: “벽집고 종아리 스트레칭”, “앉아서 공굴려 발바닥 마사지”)에 대한 정보, ii) 운동 동작의 난이도 정보, iii) 운동 동작 유지 시간 정보, iv) 운동 동작 수행 횟수 정보, v) 운동 동작 수행 일정 정보, vi) 운동 동작에 매칭된 신체 정보(ex: “발목”, “무릎”), vii) 주의 사항 정보(ex: “운동이 끝나면 얼음찜질을 해주세요”) 중 적어도 하나를 포함할 수 있다(도 4a 및 도 4b의 (a) 참조). The exercise
운동 치료 제공 시스템(1000)은, 특정 환자에 대응하는 운동 처방 페이지에서, 특정 환자에 대한 처방 정보가 입력(또는 선택)되는 것에 근거하여, 의사 단말기(20)로부터 특정 환자(U)에 대한 처방 정보를 수신할 수 있다. 이 경우, 의사 단말기(20) 상에는, 특정 환자에 대한 처방이 이루어졌음을 안내하는 안내 정보가 출력될 수 있다(도 4의 (b) 참조).The exercise
한편, 본 발명에서는 상기 처방 정보에 근거하여, 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 과정이 진행될 수 있다(S320, 도 3 참조).Meanwhile, in the present invention, based on the prescription information, a process of allocating an exercise plan including at least one prescription exercise to the patient's account may proceed (S320, see FIG. 3).
도 5의 (a)에 도시된 것과 같이, 운동 치료 제공 시스템(1000)은, 특정 환자(U)에 대한 처방 정보에 근거하여, 특정 환자 계정에 적어도 하나의 처방 운동을 포함하는 운동 플랜(E)을 할당하고, 할당된 운동 플랜(ex:”대퇴 슬개골 관절염 디지털 치료제”, E)을 특정 환자 계정으로 로그인된 환자 단말기(10) 상에 제공할 수 있다. As shown in (a) of FIG. 5 , the exercise
여기에서, “처방 운동”은, 운동 치료 제공 시스템(1000)에 포함된 복수의 운동 동작(또는 운동 종류) 중 처방 정보에 근거하여 특정되어 환자 계정에 할당되는 운동 동작으로 이해될 수 있다. 이에, 본 발명에서, “처방 운동”은, “운동 동작”과 혼용하여 사용될 수 있다. 그리고, 본 발명에서, “운동 플랜”은, “디지털 치료제”와 혼용되어 사용될 수 있다. Here, “prescription exercise” may be understood as an exercise action specified based on prescription information among a plurality of exercise actions (or exercise types) included in the exercise
운동 치료 제공 시스템(1000)은, 특정 환자 계정으로 로그인된 환자 단말기(10)로부터, 특정 환자 계정에 할당된 운동 플랜 제공 요청을 수신하는 것에 근거하여, 환자가 운동 플랜에 포함된 처방 운동을 수행할 수 있도록, 운동 가이드 영상 제공 기능에 연계된 운동 페이지를, 환자 단말기(10) 상에 제공할 수 있다. The exercise
도 5의 (b)에 도시된 것과 같이, 운동 페이지는 운동 리스트(L)를 포함할 수 있으며, 운동 리스트(L)는, 특정 계정에 할당된 운동 플랜에 포함된 복수의 처방 운동(ex “하지 직거상”, “서서 무릎 굽힙”) 각각의 운동 가이드 영상에 대응하는 항목(V1 내지 V6)을 포함할 수 있다. As shown in (b) of FIG. 5, the exercise page may include an exercise list (L), and the exercise list (L) includes a plurality of prescription exercises included in an exercise plan assigned to a specific account (ex “ Items (V1 to V6) corresponding to each exercise guide image may be included.
운동 치료 제공 시스템(1000)은, 운동 플랜에, 운동 세트(Set)가 복수인 특정 처방 운동(ex: “하지 직거상”)이 포함되어 있는 경우, 상기 세트수(ex: “3”) 만큼, 특정 처방 운동의 운동 가이드 영상에 대응하는 항목(V1 내지 V3)이, 운동 리스트(L)에 포함되도록 제어할 수 있다. The exercise
한편, 운동 치료 제공 시스템(1000)은, 환자 단말기(10)로부터, 운동 시작 요청을 수신하는 것에 근거하여, 운동 리스트(L)에 포함된 항목(V1 내지 V6)의 순서에 근거하여, 복수의 운동 가이드 영상이, 환자 단말기(10) 상에서 순차적으로 재생되도록 제어할 수 있다. On the other hand, the exercise
한편, 본 발명에서는 환자 단말기로부터, 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 과정이 진행될 수 있다(S330, 도 3 참조). Meanwhile, in the present invention, a process of receiving an exercise image obtained by photographing an exercise according to a prescription exercise from a patient terminal may proceed (S330, see FIG. 3).
도 6에 도시된 것과 같이, 운동 치료 제공 운동 치료 제공 시스템(1000)은, 환자 단말기(10)상에서, 운동 가이드 영상이 재생되는 것에 근거하여, 환자 단말기(10)에 구비된 카메라가 환자(U)의 운동 영상을 촬영하도록 제어할 수 있다. As shown in FIG. 6 , in the exercise therapy providing exercise
환자 단말기(10)에 설치된 운동 치료 애플리케이션(100)은, 환자 단말기(10)에 구비된 카메라의 활성화 상태를, 비활성화 상태에서 활성화 상태로 제어하여, 카메라가 운동 가이드 영상에 따른 운동 동작을 수행하는 환자(U)의 운동 영상을 촬영하도록 제어할 수 있다. The
도 6의 (a)에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 카메라를 통해 촬영되는 운동 영상으로부터 환자에 대응하는 피사체(U)를 탐지하기 위하여, 환자의 신체 전체가 운동 영상(또는 환자 단말기의 디스플레이)의 특정 영역에 내에 모두 포함되도록, 안내 멘트(ex: “화면 안에 서주세요”)를 환자 단말기(10)상에 출력할 수 있다. As shown in (a) of FIG. 6, the
운동 치료 애플리케이션(100)은, 특정 영역 내에 환자 신체 전체에 대응하는 피사체(U)가 포함되는 것에 근거하여, 객체 탐지(Object Detection) 알고리즘을 이용하여 영상(300)으로부터 피사체(U)를 탐지할 수 있다.
운동 치료 애플리케이션(100)은, 다양한 객체 탐지 알고리즘을 이용할 수 있다. 예를 들어, 운동 치료 애플리케이션(100)은, 복수의 바운딩 박스(Bounding Box)를 앙상블(ensemble)하는 알고리즘(Weighted Box Fusion, WBF)을 이용할 수 있다. 다만, 운동 치료 애플리케이션(100)은 상술한 객체 탐지 알고리즘에 한정되지 않고, 학습 대상 운동 영상(300)으로부터 피사체(U)에 대응하는 객체를 탐지할 수 있는 다양한 객체 탐지 알고리즘을 이용할 수 있음은 당연하다. The
나아가, 운동 치료 애플리케이션(100)은, 특정 영역 내에서, 환자 신체 전체에 대응하는 피사체(U)가 탐지되는 것에 근거하여, 카메라를 통해, 처방 운동에 따라 운동 동작을 취하는 환자의 운동 영상을 촬영할 수 있다. Furthermore, the
이 경우, 운동 치료 애플리케이션(100)은, 환자에게 할당된 처방 운동에 대응되는 운동 가이드 영상이 재생되는 상태에서, 처방 운동을 수행하는 환자를 촬영할 수 있다. In this case, the
그리고, 운동 치료 애플리케이션(100)은, 환자 단말기(10)의 카메라에 의해 촬영된 운동 영상을, 운동 플랜(또는 운동 플랜에 포함된 복수의 처방 운동 각각)에 매칭하여, 환자 단말기(10)의 메모리에 기록되도록 제어할 수 있다. In addition, the
한편, 본 발명에서는 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 과정이 진행될 수 있다(S340, 도 3 참조).Meanwhile, in the present invention, a process of extracting key points respectively corresponding to a plurality of preset joint points from a motion image may be performed (S340, see FIG. 3).
본 발명에서는, 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 중 적어도 일부에 의해, 운동 영상으로부터 기 설정된 관절 포인트(P1, P2)에 대응하는 키포인트(P1, P2)를 추출할 수 있다. 앞서 설명한 것과 같이, 키포인트(P1, P2) 추출은, i) 운동 치료 애플리케이션(100)에 의해 이루어지거나, ii) 인공지능 서버(200)에 의해 이루어 지거나, iii) 운동 치료 애플리케이션(100) 및 인공지능 서버(200) 모두에 의해 이루어질 수 있다. 이하에서는 키포인트(P1, P2) 추출을 수행하는 주체를 별도로 구분하지 않고, 운동 치료 제공 시스템(1000)에 의해 이루어지는 것으로 설명하도록 한다. In the present invention, key points P1 and P2 corresponding to preset joint points P1 and P2 may be extracted from an exercise image by at least a part of the
운동 치료 제공 시스템(1000)은, 운동 영상(300)에서, 환자의 복수의 관절 포인트 중, 기 정의(또는 기 설정된) 관절 포인트에 대응하는 영역을, 키포인트(P1, P2)로 추출할 수 있다. The motion
여기에서, “관절 포인트”는, 환자(U)의 복수의 관절(또는 관절을 포함하는 환자(U) 신체의 일부)를 의미할 수 있다.Here, “joint points” may mean a plurality of joints of the patient U (or parts of the body of the patient U including the joints).
그리고, “키포인트”는, 운동 영상(300)에서 피사체(U)의 복수의 관절 포인트 각각에 대응되는 영역을 의미할 수 있다.Also, “key points” may refer to regions corresponding to each of a plurality of joint points of the subject U in the
본 발명에서는, “관절 포인트”와 “키포인트”를 혼용하여 사용할 수 있으며, 관절 포인트와 키포인트 각각에, 동일한 도면부호 “P1, P2”를 부여하여 설명할 수 있다. In the present invention, "joint point" and "key point" can be used interchangeably, and the same reference numerals "P1 and P2" can be given to each of the joint point and key point for description.
한편, 인체는 200여개의 뼈로 이루어져 있으며, 관절은, 뼈와 뼈가 연결되는 부분으로, 인체는 복수의 관절로 구성될 수 있다.On the other hand, the human body is composed of about 200 bones, joints are parts where bones are connected, and the human body may be composed of a plurality of joints.
본 발명에서는, 인체를 이루는 복수의 관절 포인트 중 키포인트 대상이 되는 관절 포인트가 미리 지정되어, 관절 포인트 정의 정보(500)로서 존재할 수 있다. 예를 들어, 관절 포인트 정의 정보(500)에는, 머리 중심(510)에 대응되는 제1 관절 포인트(P1), 목 중심(520)에 대응되는 제2 관절 포인트(P2)가 미리 정의되어 존재할 수 있다(도 8d 참조).In the present invention, among a plurality of joint points constituting the human body, joint points that are target key points may be designated in advance and exist as the joint point definition information 500 . For example, in the joint point definition information 500, a first joint point P1 corresponding to the center of the head 510 and a second joint point P2 corresponding to the center of the neck 520 may be predefined and present. Yes (see Fig. 8d).
운동 치료 제공 시스템(1000)은, 기 설정된 관절 포인트의 위치 정보를 포함하는 학습 데이터 세트(Set)를 이용하여 학습된 자세 추정 모델(52)에 기반하여, 운동 영상(300)으로부터, 관절 포인트에 대응하는 키포인트(P1, P2)를 추출할 수 있다. The exercise
이 경우, 운동 치료 제공 시스템(1000)은, 자세 추정 모델에 의해 기 설정된 관절 포인트 각각의 위치 정보가, x축, y축 좌표 정보가 쌍을 이룬 형태로 추출되는 것에 근거하여, 운동 영상(300)에서 키포인트(P1, P2)의 위치를 특정할 수 있다. In this case, the exercise
한편, 운동 치료 제공 시스템(1000)은, 운동 영상(300)에서의 관절 포인트의 가시(visible) 여부에 근거하여, 관절 포인트에 대응하는 키포인트(P1, P2)를 제1 키포인트 추출 프로세스 및 제2 키포인트 추출 프로세스 중 어느 하나의 프로세스에 따라 추출(또는 특정)할 수 있다. Meanwhile, the system for providing
본 발명에서, 관절 포인트의 가시 여부는, 운동 영상(300)에서 관절 포인트가 보이는지 여부를 의미하는 것으로 이해될 수 있다. In the present invention, whether a joint point is visible may be understood to mean whether the joint point is visible in the
운동 치료 제공 시스템(1000)은, 운동 영상(300)에, 관절 포인트에 대응하는 피사체(U)의 신체 일부가 포함되어 있으면, 운동 영상(300) 관절 포인트가 보이는 것으로 판단할 수 있다. The system for providing
운동 치료 제공 시스템(1000)은, 운동 영상(300)에서 특정 관절 포인트가 보이는 경우, 제1 키포인트 추출 프로세스에 따라, 특정 관절 포인트에 대응하는 키포인트를 추출할 수 있다. When a specific joint point is visible in the
구체적으로, 운동 치료 제공 시스템(1000)은, 기 설정된 복수의 관절 포인트 중, 운동 영상(300)에서 가시(visible) 가능한 피사체(U)의 가시 관절 포인트를 특정할 수 있다. 예를 들어, 운동 치료 제공 시스템(1000)은, 기 설정된 복수의 관절 포인트 중, 제1 관절 포인트 및 제2 관절 포인트가 운동 영상에서 가시 가능한 경우, 운동 치료 제공 시스템(1000)은, 제1 관절 포인트 및 제2 관절 포인트를, 가시 관절 포인트로 특정할 수 있다. Specifically, the exercise
그리고, 운동 치료 제공 시스템(1000)은, 특정된 가시 관절 포인트를 키포인트로서 추출할 수 있다. In addition, the exercise
이 경우, 운동 치료 제공 시스템(1000)은, 운동 영상 내에서 가시 관절 포인트에 대응하는 영역(또는 픽셀, pixel)의 위치 정보를 추출하여, 가시 관절 포인트에 대응하는 키포인트를 추출할 수 있다. 예를 들어, 운동 치료 제공 시스템(1000)은, 객체 탐지 알고리즘을 이용하여, 가시 관절 포인트의 위치 정보를 추출하여, 가시 관절 포인트에 대응하는 키포인트를 추출할 수 있다. In this case, the exercise
본 발명에서는 제1 키포인트 추출 프로세스에 따라 추출된 가시 관절 포인트의 위치 정보를, “제1 타입의 정보(제1 타입의 위치 정보)” 또는 “실체 위치 정보”로 명명하여 설명할 수 있다. In the present invention, location information of visible joint points extracted according to the first keypoint extraction process may be described by naming “first type information (first type location information)” or “entity location information”.
반면에, 운동 치료 제공 시스템(1000)은 운동 영상(300)에 관절 포인트에 대응하는 피사체(U)의 신체 일부가 포함되어 있지 않으면, 운동 영상(300)에서 관절 포인트가 보이지 않는 것으로 판단할 수 있다. On the other hand, the exercise
운동 치료 제공 시스템(1000)은, 운동 영상(300)에서 특정 관절 포인트가 보이지 않는 경우, 제2 키포인트 추출 프로세스에 따라, 자세 추정 모델(52)을 이용하여 상기 특정 관절 포인트에 대응하는 키포인트를 예측하여 추출할 수 있다. When a specific joint point is not visible in the
운동 치료 제공 시스템(1000)은, 자세 추정 모델(52)에 기반하여, 기 설정된 복수의 관절 포인트 중, 운동 영상(300)에서 가시(visible) 불가능한 피사체(U)의 비가시(invisible) 관절 포인트의 위치 정보를, 예측할 수 있다. 이 경우, 자세 추정 모델(52)은, 가시 관절 포인트의 위치 정보에 근거하여, 비가시 관절 포인트의 위치 정보를 예측할 수 있다. The motion
본 발명에서는 제2 키포인트 특정 프로세스에 따라 추출된 관절 포인트의 위치 정보를, “제2 타입의 정보(제2 타입의 위치 정보)” 또는 “예측 위치 정보”로 명명하여 설명할 수 있다. In the present invention, location information of joint points extracted according to the second keypoint specification process can be described by naming “second type information (second type location information)” or “predicted location information”.
운동 치료 제공 시스템(1000)은, 비가시 관절 포인트의 예측 위치 정보를, 비가시 관절 포인트에 대응하는 키포인트에 매칭함으로써, 비가시 관절 포인트에 대응하는 키포인트를 추출(또는 특정)할 수 있다. The exercise
이와 같이, 본 발명에서는, 운동 영상(300)에서, 기 정의된 관절 포인트의 가시(visible) 여부에 따라, 관절 포인트의 위치 정보에 대한 학습을 수행한 자세 추정 모델에 기반하여, 서로 다른 프로세스에 따라 관절 포인트에 대응하는 키포인트(P1, P2)를 추출(또는 특정)할 수 있다. 따라서, 본 발명에서는, 운동 영상에서 보이지 않는 비가시 관절 포인트에 대한 분석도 가능하다. As such, in the present invention, based on the posture estimation model that has performed learning on the location information of joint points according to whether predefined joint points are visible in the
한편, 운동 치료 제공 시스템(1000)은, 환자 단말기(10)에서 운동 영상이 촬영되는 것에 연동하여, 실시간으로 운동 영상으로부터 키포인트(P1, P2)를 추출할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은, 환자가, 운동 동작에 대해 분석이 이루어지는 관절 포인트를 직관적으로 인지할 수 있도록, 추출된 키포인트(P1, P2)를 실시간으로 환자 단말기(10) 상에 제공할 수 있다. Meanwhile, the exercise
구체적으로, 도 6의 (b) 및 (c)에 도시된 것과 같이, 운동 치료 제공 시스템(1000)은, 환자 단말기(10)에서 운동 영상(300)이 촬영되는 것에 연동하여, 환자 단말기(10) 상에 운동 영상(300)을 실시간으로 출력할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은, 기 설정된 관절 포인트에 대응하는 피사체(U)의 일 영역에, 추출된 키포인트(P1, P2)에 해당하는 그래픽 객체를 오버랩(overlap)하여 제공할 수 있다. Specifically, as shown in (b) and (c) of FIG. 6 , the exercise
운동 영상(300)에 키포인트 그래픽 객체를 오버랩하여 제공하는 데이터 처리는, 운동 치료 애플리케이션(100)의 영상 처리부(130)에 의해 이루어질 수 있다. 영상 처리부(130)는, 추출된 키포인트(P1, P2)에 해당하는 그래픽 객체 각각을, 키포인트(P1, P2)에 매칭된 관절 포인트(P1, P2)에 대응하는 피사체(U)의 영역 상에 렌더링(rendering)할 수 있다. Data processing for overlapping and providing keypoint graphic objects to the
나아가, 영상 처리부(130)는, 환자가 운동 동작을 수행함에 따라 기 설정된 관절 포인트의 위치가 변경되는 경우, 변경된 관절 포인트에 대응하는 피사체(U)의 영역 상에, 키포인트 그래픽 객체를 오버랩하여 제공할 수 있다. 즉, 영상 처리부(130)는, 실시간으로 변경되는 관절 포인트의 위치가 반영되도록, 운동 영상에서, 관절 포인트에 대응하는 영역 상에, 키포인트 그래픽 객체를 오버랩할 수 있다. Furthermore, when the position of a preset joint point is changed as the patient performs an exercise operation, the
한편, 본 발명에서는, 관절 포인트와 관련된 학습 데이터를 이용하여 학습된 자세 추정 모델을 통해 추출된 키포인트로부터, 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 처방 운동에 대한 환자의 운동 동작을 분석하는 과정이 진행될 수 있다(S350, 도 3 참조). 키포인트 간의 상대적인 위치 분석은, 동작 분석부(120, 210)에 의하여 이루어질 수 있다. 특히, 동작 분석부의 인공지능 동작 분석부(122, 212) 및 규칙기반 동작분석부(123, 213) 중 하나에 의하여, 운동 동작 분석이 이루어질 수 있다.Meanwhile, in the present invention, the relative positional relationship between the keypoints is analyzed from the keypoints extracted through the posture estimation model learned using the learning data related to the joint points, and based on the analysis of the positional relationship, the prescription exercise A process of analyzing the motion of the patient may proceed (S350, see FIG. 3). Relative location analysis between keypoints may be performed by the
도 6의 (d)에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 환자 단말기(10) 상에, 분석 진행을 안내하는 안내 정보(ex: “결과값을 계산중입니다” 또는 “김철수님 운동 동작 분석 결과를 제공하겠습니다”)를 제공하여, 환자에게 운동 동작 분석을 안내할 수 있다. 이하에서는 환자 운동 동작 분석 방법에 대해 자세하게 설명하도록 한다. As shown in (d) of FIG. 6, the
운동 치료 제공 시스템(1000)은, 학습 데이터를 이용하여 학습된 자세 추정 모델로부터 추출된 키포인트를 이용하여, 기 설정된 복수의 관절 포인트 각각에 대응하는 키포인트(P1, P2) 간의 상대 위치 관계를 분석할 수 있다. The system for providing
운동 치료 제공 시스템(1000)은, 가시 관절 포인트에 대응하는 키포인트 및 비가시 관절 포인트에 대응하는 키포인트를 모두 이용하여, 기 설정된 복수의 관절 포인트 각각에 대응하는 키포인트(P1, P2) 간의 상대적 위치를 분석할 수 있다. The system for providing
여기에서, “키포인트 간의 상대적 위치”는, 적어도 두개의 키포인트(P1, P2) 사이에서, 특정 키포인트(예를 들어, 제1 키포인트, “P1”)를 기준으로 다른 키포인트(예를 들어, 제2 키포인트, “P2”)의 위치로 이해될 수 있다. Here, the “relative position between keypoints” refers to another keypoint (eg, second keypoint) based on a specific keypoint (eg, the first keypoint, “P1”) between at least two keypoints (P1 and P2). It can be understood as the location of the keypoint, “P2”).
이하에서는 설명의 편의를 위하여, 가시 관절 포인트에 대응하는 키포인트를, “제1 타입의 키포인트”으로 명명하고, 비가시 관절 포인트에 대응하는 키포인트를 “제2 타입의 키포인트”로 명명하여 설명하도록 한다. Hereinafter, for convenience of description, keypoints corresponding to visible joint points will be named “first type keypoints” and keypoints corresponding to non-visible joint points will be named “second type keypoints”. .
운동 치료 제공 시스템(1000)은, i) 복수의 제1 타입의 키포인트들 간의 상대적 위치 관계, ii) 제1 타입의 키포인트와 제2 타입의 키포인트 간의 상대적 위치 관계 및 iii) 복수의 제2 타입의 키포인트들 간의 상대적 위치 관계 중 적어도 하나에 대한 분석을 수행할 수 있다. The motion
이 경우, 운동 치료 제공 시스템(1000)은, 환자가 수행한 처방 운동 종류에 근거하여, 복수의 관절 포인트 중 일부 연관 키포인트 간의 상대적 위치 관계를 분석할 수 있다. In this case, the exercise
예를 들어, 운동 치료 제공 시스템(1000)은, 환자가 제1 운동 종류에 따른 처방 운동을 수행한 경우, 복수의 관절 포인트 중 제1 관절 포인트 및 제2 관절 포인트 각각에 대응하는 키포인트 간의 상대적 위치 관계를 분석할 수 있다. For example, the exercise
다른 예를 들어, 운동 치료 제공 시스템(1000)은, 환자가 상기 제1 운동 종류와는 다른 제2 운동 종류에 따른 처방 운동을 수행한 경우, 복수의 관절 포인트 중 제1 관절 포인트 및 제3 관절 포인트 각각에 대응하는 키포인트 간의 상대적 위치 관계를 분석할 수 있다. 이러한 상대적인 위치 관계는 결과적으로, 동작 분석에 활용될 수 있다.For another example, the exercise
본 발명에 따른 운동 치료 제공 시스템(1000)에서 수행되는 동작 분석의 결과는 매우 다양할 수 있다. 예를 들어, 운동 치료 제공 시스템(1000)은 추출된 키 포인트 또는 영상으로부터, 관절의 가동 범위, 가동 거리, 관절의 움직임 속도(또는 가속도), 분석 대상 운동 영상에 포함된 피사체(환자에 대응)의 신체 밸런스, 신체 균형, 신체 정렬 상태(EX: 다리의 축 정렬 상태, 척추 정렬상태 등) 중 적어도 하나에 대한 분석을 수행할 수 있다.한편, 본 발명에 따른 운동 치료 제공 시스템(1000)에서는, 처방 운동과 관련된 규칙 정보를 기준으로, 키포인트 간의 상대 위치 관계를 분석할 수 있다. Results of motion analysis performed in the exercise
여기에서, 규칙 정보는, 키포인트 간의 상대 위치 관계를 분석하기 위하여 미리 규칙이 정의되어진 정보로 이해될 수 있다. Here, rule information may be understood as information in which rules are defined in advance in order to analyze relative positional relationships between keypoints.
운동 치료 제공 시스템(1000)은, 키 포인트 간의 상대 위치 관계가 규칙 정보를 만족하는지 판단하는 것을 통해, 환자의 운동 동작을 분석할 수 있다. 이하에서는 일 예로, 키포인트의 상대 위치 관계 및 규칙 정보를 기반으로 관절 가동 범위를 분석하는 방법에 대해 설명하도록 한다. 다만, 이하에서 설명되는 내용은 키 포인트의 상대 위치 관계 및 규칙 정보 기반으로 환자의 동작을 분석하는 일 실시에에 불과하고, 본 발명에서는 키포인트의 상대 위치 관계 및 규칙 정보 기반으로, 환자의 다양한 동작을 분석할 수 있다. The exercise
본 발명에 따른 운동 치료 제공 시스템(1000)에서 분석되는 관절 가동 범위에 대하여 보다 구체적으로 살펴본다. 운동 치료 제공 시스템(1000)은, 처방 운동과 관련된 기준 관절 가동 범위에 대한 규칙 정보를 기준으로, 키포인트 간의 상대 위치 관계에 따른 환자의 관절 가동 범위에 대한 분석을 수행할 수 있다. A range of joint motion analyzed in the exercise
나아가, 운동 치료 제공 시스템(1000)은 처방 운동과 관련된 규칙 정보를 기준으로, 상기 키포인트 간의 상대 위치 관계를 분석할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은 상기 키 포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 판단하는 것을 통해 상기 환자의 운동 동작을 분석할 수 있다.Furthermore, the exercise
운동 치료 제공 시스템(1000)은, 특정 처방 운동과 관련된 복수의 연속 프레임으로부터, 특정 처방 운동에 매칭된 연관 키포인트들 간의 상대 위치 관계를 추출하고, 추출된 상대 위치 관계를 이용하여 특정 처방 운동에 대한 환자의 관절 가동 범위를 획득(또는 계산)할 수 있다. The exercise
구체적으로, 운동 영상이, 제1 처방 운동에 대응하는 제1 타입을 갖는 복수의 프레임 및 제2 처방 운동에 대응하는 제2 타입을 갖는 복수의 프레임으로 이루어졌다고 가정하자. Specifically, it is assumed that a motion image is composed of a plurality of frames having a first type corresponding to a first prescription exercise and a plurality of frames having a second type corresponding to a second prescription exercise.
운동 치료 제공 시스템(1000)은, 제1 처방 운동 및 제2 처방 운동 중 제1 처방 운동에 대한 환자의 운동 동작 분석이 이루어지는 경우, 제1 타입을 갖는 복수의 프레임으로부터 추출된 키포인트들을 이용하여, 환자의 운동 동작을 분석할 수 있다. The exercise
반면에, 운동 치료 제공 시스템(1000)은, 제2 처방 운동에 대한 환자의 운동 동작 분석이 이루어지는 경우, 제2 타입을 갖는 복수의 프레임으로부터 추출된 키포인트들을 이용하여, 환자의 운동 동작을 분석할 수 있다.On the other hand, the exercise
즉, 운동 치료 제공 시스템(1000)은 연속된 동작(또는 자세)에 대한 키포인트 위치 관계를 분석하여, 특정 처방 운동에 대한 환자의 운동 가동 범위를 획득(또는 계산)할 수 있다. That is, the exercise
이하에서는 설명의 편의를 위하여, 특정 처방 운동(ex: 제1 처방 운동)에 대응하는 연속된 복수의 프레임(즉, 제1 타입을 갖는 복수의 프레임)을, 프레임이 형성되는 시간적 전후에 따라, “제1 분석 대상 프레임” 및 “제2 분석 대상 프레임”으로 명명하도록 한다. Hereinafter, for convenience of explanation, a plurality of consecutive frames (ie, a plurality of frames having the first type) corresponding to a specific prescription exercise (ex: first prescription exercise) are selected according to the time before and after the frame is formed. They are named “first analysis target frame” and “second analysis target frame”.
여기에서, 제1 분석 대상 프레임은 시간적으로 전(before)에 형성되고, 제2 분석 대상 프레임은 시간적으로 후(after)에 형성되는 프레임으로 이해될 수 있다. Here, the first analysis object frame may be understood as a frame formed temporally before, and the second analysis object frame formed temporally after.
운동 치료 제공 시스템(1000)은, 제1 분석 대상 프레임 및 제2 분석 대상 프레임 각각에서, 키포인트를 추출할 수 있다. The exercise
제1 분석 대상 프레임에서. 복수의 관절 포인트 각각에 대응되는 제1 분석 대상 키포인트 그룹을 추출하고, 제2 분석 대상 프레임에서, 복수의 관절 포인트 각각에 대응되는 제2 분석 대상 키포인트 그룹을 추출할 수 있다. In the first analyte frame. A first analysis target keypoint group corresponding to each of a plurality of joint points may be extracted, and a second analysis target keypoint group corresponding to each of a plurality of joint points may be extracted in a second analysis target frame.
운동 치료 제공 시스템(1000)은, 제1 분석 대상 키포인트 그룹에 포함된 키포인트 간의 “제1 위치 관계”를 분석하여, 제1 분석 대상 프레임에 포함된 피사체(U)의 제1 동작 분석을 수행할 수 있다. 또한, 운동 치료 제공 시스템(1000)은, 제2 분석 대상 키포인트 그룹에 포함된 키포인트 간의 “제2 위치 관계”를 분석하여, 제2 분석 대상 프레임에 포함된 피사체(U)의 제2 동작 분석을 수행할 수 있다. The exercise
운동 치료 제공 시스템(1000)은, 제1 키포인트 위치 관계 및 제2 키포인트 위치 관계에 기초하여, 특정 처방 운동에 대한 환자의 관절 가동 범위를 획득(추출 또는 계산)할 수 있다. The exercise
이 경우, 운동 치료 제공 시스템(1000)은, 사용자 DB(30)를 참조하여, 환자의 나이 정보, 성별 정보, 신장 정보, 체중 정보, 수술 이력 정보, 근골격계 질환 정보 중 적어도 하나를 고려하여, 환자의 관절 가동 범위를 획득할 수 있다. In this case, the exercise
한편, 운동 치료 제공 시스템(1000)은, 획득된 환자의 운동 가동 범위가, 특정 처방 운동과 관련된 규칙 정보에 대응하는 기준 관절 가동 범위를 만족하는지를 판단할 수 있다. 본 발명에서, 규칙 기반의 환자의 운동 가동 범위에 대한 분석은, 인공지능 서버(200)의 규칙 기반 동작 분석부(213)에 의해 이루어질 수 있다(도 1 참조), 다만, 규칙 기반 동작 분석부(213)에 의해 분석이 이루어지는 것으로 한정하는 것은 아니다. Meanwhile, the exercise
본 발명에는, 복수의 운동 종류 각각에 대해 기준 관절 가동 범위에 대한 규칙 정보가 존재할 수 있다. 이러한 규칙 정보는, 나이별, 성별, 신장별, 몸무게별, 근골격계 질환별로, 서로 다른 기준 관절 가동 범위에 대한 정보를 포함할 수 있다. In the present invention, rule information on reference joint movable ranges may exist for each of a plurality of exercise types. Such rule information may include information on different reference joint movable ranges according to age, gender, height, weight, and musculoskeletal disease.
운동 치료 제공 시스템(1000)은, 특정 처방 운동에 대한 환자의 관절 가동 범위와, 규칙 정보에 포함된 특정 처방 운동에 대한 기준 관절 가동 범위를 비교하여, 환자의 관절 가동 범위가 기준 관절 가동 범위를 만족하는지 여부를 판단할 수 있다. The exercise
운동 치료 제공 시스템(1000)은, 판단 결과에 근거하여, 처방 운동에 대한 피드백으로서, 환자의 운동 동작에 대한 분석 결과를 환자 단말기(10) 상에 제공할 수 Based on the determination result, the exercise
한편, 본 발명에서는 환자의 운동 동작에 대한 분석 결과를, 환자 단말기에 전송하는 과정이 진행될 수 있다(S360, 도 3 참조). Meanwhile, in the present invention, a process of transmitting the analysis result of the patient's exercise motion to the patient terminal may proceed (S360, see FIG. 3).
운동 치료 제공 시스템(1000)은, 환자가 운동 동작에 대한 분석 결과를 직관적으로 인식하고, 운동에 대한 환자의 순응도를 높이기 위하여, 다양한 방법으로 동작 분석 결과를 제공할 수 있다. The exercise
운동 치료 제공 시스템(1000)은, 운동 영상(300)이 환자 단말기(10)에서 촬영되고 있는 상태에서, 키포인트(P1, P2)에 해당하는 그래픽 객체를 상기 운동 영상에 실시간으로 오버랩하여 제공할 수 있다(도 6 참조). The exercise
이 경우, 운동 치료 제공 시스템(1000)은, 환자의 관절 가동 범위 정보를, 관절 가동 범위와 관련된 키포인트(P1, P2) 주변에, 위치시킬 수 있다. In this case, the system for providing
나아가, 운동 치료 제공 시스템(1000)은, 환자가, 환자의 관절 가동 범위가, 기준 관절 가동 범위를 만족하는지 여부를 인지 가능하도록, 서로 다른 시각적 외관을 갖는 키포인트 그래픽 객체(또는 키포인트 간의 위치 관계에 해당하는 그래픽 객체)를 운동 영상에 오버랩하여 제공할 수 있다.Furthermore, the exercise
나아가, 운동 영상에 오버랩되는 그래픽 객체의 시각적 외관은, 추출된 상기 키포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 여부에 따라 서로 다르게 구성될 수 있다.Furthermore, the visual appearance of the graphic object overlapping the motion image may be configured differently depending on whether the relative positional relationship between the extracted keypoints satisfies the rule information.
예를 들어, 환자의 관절 가동 범위가 기준 관절 가동 범위를 만족하는 경우, 제1 시각적 외관을 갖는 그래픽 객체(A)가 운동 영상(300)에 오버랩될 수 있다. 반면에, 환자의 관절 가동 범위가 기준 관절 가동 범위를 만족하지 않는 경우, 상기 제1 시각적 외관과는 다른 제2 시각적 외관을 갖는 그래픽 객체(B)가 운동 영상(300)에 오버랩될 수 있다. For example, when the patient's joint movable range satisfies the reference joint movable range, the graphic object A having the first visual appearance may overlap the
나아가, 운동 치료 제공 시스템(1000)은, 운동 영상(300)을 구성하는 복수의 프레임들 각각으로부터 추출된 키포인트에 기초하여 처방 운동에 대한 환자의 평가 점수(ex: “김우영님의 스쿼트 자세는 70점입니다”)를 동작 분석 결과로서 제공할 수 있다. Furthermore, the exercise
한편, 본 발명에서는, 환자 단말기(10)에 설치된 운동 치료 애플리케이션(100) 및 인공지능 서버(200)는, 각각 운동 동작에 대한 분석을 수행하고, 운동 동작 분석 결과를 생성할 수 있다. Meanwhile, in the present invention, the
예를 들어, 운동 치료 애플리케이션(100)은, 운동 영상에 실시간으로 키포인트(P1, P2)에 해당하는 그래픽 객체를 오버랩하여 제1 결과 분석으로서 생성할 수 있다. For example, the
다른 예를 들어, 클라우드 서버로 이루어진 인공지능 서버(200)는, 운동 영상을 구성하는 복수의 프레임들 각각으로부터 추출된 키포인트에 기초하여 처방 운동에 대한 환자의 평가 점수를, 제2 분석 결과로서 생성할 수 있다. As another example, the
운동 치료 제공 시스템(1000)은, 운동 치료 애플리케이션(100)에서 생성한 제1 분석 결과 및 인공지능 서버(200)에서 생성한 제2 분석 결과를 포함하는 환자의 운동 동작에 대한 분석 결과를, 환자 단말기(10) 상에 제공할 수 있다. The exercise
한편, 운동 치료 제공 시스템(1000)은, 환자의 운동 동작 분석 결과를 의사 단말기(20)로 전송할 수 있다. 의사 단말기(20)에는 상기 제1 분석 결과 및 제2 분석 결과가 모두 제공될 수 있다. Meanwhile, the exercise
이와 같이, 본 발명에서는 환자가 운동 동작에 대한 분석 결과를 직관적으로 인식할 수 있도록, 분석 결과 제공과 관련된 다양한 사용자 환경을 제공하고 있다. 분석 결과 제공과 관련된 다른 실시예에 대한 설명은 후술하도록 한다. As described above, in the present invention, various user environments related to providing analysis results are provided so that the patient can intuitively recognize the analysis result of the exercise motion. A description of another embodiment related to providing analysis results will be described later.
한편, 도 7에 도시된 것과 같이, 본 발명은 환자 단말기(10)로부터 수신되는 운동 영상(300)에 기반하여, 운동 영상(300)에 포함된 환자(U)의 운동 동작을 분석하고, 분석 결과를 제공하기 위한 것이다. 특히, 본 발명은, 인공지능에 기반하여 환자의 운동 동작을 분석하기 위해, 중요 관절 포인트를 중심으로 학습 데이터 세트(Data set)를 가공하고, 이를 학습하는 방법에 대한 것이다. On the other hand, as shown in FIG. 7 , the present invention analyzes the exercise motion of the patient U included in the
이하에서는, 본 발명에서 자세 추정 모델이 학습하는 학습 데이터에 대해 구체적으로 설명하도록 한다. Hereinafter, learning data learned by the posture estimation model in the present invention will be described in detail.
도 7에 도시된 것과 같이, 데이터베이스(40)는 학습 데이터 세트(Data set)가 저장된 저장소로, 본 발명에 따른 운동 치료 제공 시스템(1000) 자체에 구비되거나 외부 저장소(또는 외부 DB)로 이루어질 수 있다. 본 발명에 따른 데이터베이스(40)는, 학습 데이터 세트가 저장되어 있는 공간이면 충분하며, 물리적인 공간에 대한 제약은 없는 것으로 이해될 수 있다.As shown in FIG. 7, the
데이터베이스(Data Base, 40), 자세 추정 서버(50) 및 운동 치료 제공 시스템(1000) 중 적어도 하나의 구성을 포함하여 이루어질 수 있다. At least one of a database (Data Base, 40), a
데이터베이스(40)에는, 자세 추정 모델(52)을 학습을 학습시키기 위한 한 학습 데이터가, 학습 데이터 세트로서 저장되어 존재할 수 있다. In the
도 8b에 도시된 것과 같이, 본 발명에서의 학습 데이터 세트(400)는, 서로 다른 정보 속성(410a 내지 450a) 각각에 대응되는 복수의 데이터 그룹(410 내지 450)으로 구성될 수 있다. 복수의 데이터 그룹(410 내지 450) 각각에 포함된 정보는, 운동 동작을 수행하는 피사체(U)를 포함하는 운동 영상(300)으로부터 추출되어 구성될 수 있다. As shown in FIG. 8B, the learning data set 400 in the present invention may be composed of a plurality of data groups 410 to 450 corresponding to different information properties 410a to 450a, respectively. Information included in each of the plurality of data groups 410 to 450 may be extracted and configured from the
여기에서, “운동 영상(300)”은, 도 8a에 도시된 것과 같이, 사용자가 운동 동작을 수행하는 과정이 촬영(포함)된 영상(이미지 또는 동영상)으로, 사용자(U)의 신체 중 적어도 일부가 포함될 수 있다. Here, “
본 발명에서는, 운동 영상(300)에 포함된 사용자 객체를, “피사체(U)”로 명명하여 설명할 수 있다. 본 발명에서 “피사체(U)”는 운동 영상에서 운동하는 사용자 또는 사용자의 신체 일부를 의미할 수 있다. 이에, 본 발명에서는, “피사체”와 “사용자”를 혼용하여 사용할 수 있으며, 동일한 도면부호 “U”를 부여하여 설명할 수 있다. In the present invention, a user object included in the
한편, 본 발명에서 설명되는 “운동 영상(300)”은, “분석 대상 운동 영상” 및 “학습 대상 운동 영상”을 포함할 수 있다. Meanwhile, the “
“분석 대상 운동 영상”은, 피사체(U)의 자세 추정 분석 대상이 되는 운동 영상이고, “학습 대상 운동 영상”은, 자세 추정 모델을 위한 기계 학습의 대상이 되는 운동 영상으로 이해될 수 있다. 여기에서, 자세 추정 분석은, 영상으로부터 키포인트를 추출하는 것을 의미할 수 있다.The “movement image to be analyzed” may be a motion image subject to analysis of the posture estimation of the subject U, and the “movement image to be learned” may be understood as a motion image subject to machine learning for the posture estimation model. Here, posture estimation analysis may refer to extracting a key point from an image.
학습부(51)는 학습 대상 운동 영상(300)에 기반하여 자세 추정 모델을 위한 학습을 수행하도록 이루어질 수 있다. 학습부(51)는 학습 데이터를 이용하여, 자세 추정 모델을 학습시킬 수 있다.The
도 8b의 (a)에 도시된 것과 같이, 학습부(51)는 학습 대상 운동 영상(300)에서 피사체(U)를 탐지하고, 탐지된 피사체(U)로부터 운동 자세 추정에 이용되는 다양한 학습 데이터를 추출할 수 있다. 이러한 학습 데이터는, “정보” 또는 “데이터” 또는 “데이터 값” 또는 “데이터 밸류(value)”와 혼용되어 사용될 수 있다. 한편, 학습 데이터의 추출은, 학습부(51)가 아닌 다른 수단에 의해서도 이루어질 수 있다. As shown in (a) of FIG. 8B, the
학습부(51)는, 학습 대상 운동 영상(300)으로부터 피사체(U)를 탐지하기 위하여, 다양한 객체 탐지(Object Detection)를 위한 알고리즘을 이용할 수 있다. 예를 들어, 학습부(51)는 예를 들어, 복수의 바운딩 박스(Bounding Box)를 앙상블(ensemble)하는 알고리즘(Weighted Box Fusion, WBF)을 이용할 수 있다. 다만, 학습부(51)는 상술한 객체 탐지 알고리즘에 한정되지 않고, 학습 대상 운동 영상(300)으로부터 피사체(U)에 대응하는 객체를 탐지할 수 있는 다양한 객체 탐지 알고리즘을 이용할 수 있음은 당연하다. The
학습부(51)는 추출된 학습 데이터를, 서로 다른 복수의 정보 속성(410a 내지 450a) 각각에 대응하는 복수의 데이터 그룹(Group, 410 내지 450) 중 어느 하나로 분류할 수 있다. The
본 발명에서 설명되는 서로 다른 복수의 정보 속성(410a 내지 450a)은, 도 8b의 (b)에 도시된 것과 같이, 기 정의되어 존재할 수 있다. 그리고, 복수의 정보 속성(410a 내지 450a) 각각에 대응되는 복수의 데이터 그룹(410 내지 450)은, 기 정의된 정보 속성에 대응하는 학습 데이터가 포함할 수 있다. A plurality of different information attributes 410a to 450a described in the present invention may be predefined and exist, as shown in (b) of FIG. 8B. Also, the plurality of data groups 410 to 450 corresponding to each of the plurality of information properties 410a to 450a may include learning data corresponding to predefined information properties.
예를 들어, i) 제1 정보 속성(410a)에 대응하는 데이터 그룹(410)은 피사체(U)의 관절 포인트 위치 정보를 포함하고, ii) 제2 정보 속성(420a)에 대응하는 데이터 그룹(420)은 피사체(U)의 관절 포인트 가시(visible) 여부를 나타내는 정보를 포함할 수 있다. 그리고, iii) 제3 정보 속성(430a)에 대응하는 데이터 그룹(430)은 피사체(U)의 촬영 방향에 대한 정보를 포함하고, iv) 제4 정보 속성(440a)에 대응하는 데이터 그룹(440)은 피사체(U)가 수행하는 운동 동작(또는 운동 종류)을 구분하는 운동 코드(code) 정보를 포함하고, v) 제5 정보 속성(450a)에 대응하는 데이터 그룹(450)은, 피사체(U)에 대한 바운딩 박스(Bounding box)의 사이즈(Size) 및 중심 위치 정보를 포함할 수 있다. For example, i) the data group 410 corresponding to the first information attribute 410a includes joint point location information of the subject U, and ii) the data group corresponding to the second information attribute 420a ( 420) may include information indicating whether the subject U's joint points are visible. And, iii) the data group 430 corresponding to the third information attribute 430a includes information on the photographing direction of the subject U, and iv) the data group 440 corresponding to the fourth information attribute 440a ) includes exercise code information for classifying the exercise action (or exercise type) performed by the subject U, and v) the data group 450 corresponding to the fifth information property 450a, the subject ( U) may include size and center location information of a bounding box.
여기에서, “관절 포인트(P1, P2)”는, 사용자의 관절 또는 운동 영상(300)에서 피사체(U)의 관절에 대응되는 일 영역을 의미할 수 있다.Here, “joint points P1 and P2” may refer to a user's joint or a region corresponding to a joint of the subject U in the
학습부(51)는, 학습 대상 운동 영상(300)으로부터 추출된 복수의 데이터 그룹(410 내지 450)을 서로 연계하여, 학습 대상 운동 영상(300)에 대한 데이터 세트를 생성(구성)할 수 있다. 그리고, 학습부(51)는 생성된 학습 데이터 세트(400)를 데이터베이스(40)에 저장할 수 있다. 데이터베이스(40)는 학습부(51)에서 생성된 학습 데이터 세트(400)가 저장되는 것에 근거하여, 자세 추정 모델(52)을 위한 데이터베이스(40)로 구축되어질 수 있다. The
나아가, 학습부(51)는 데이터베이스(40)에 존재하는 학습 데이터 세트(400)에 기반하여, 자세 추정 모델(52)을 위한 학습을 수행할 수 있다. 앞서 설명한 것과 같이, 학습 데이터 세트(400)는, 관절 포인트의 위치 정보를 포함할 수 있다. Furthermore, the
자세 추정 모델(52)은, 관절 포인트에 대한 위치 정보를 포함하는 학습 데이터 세트(Data set)를 이용하여 학습된 자세 추정 모델로서, 분석 대상 운동 영상으로부터 피사체(U)의 운동 자세를 추정할 수 있다. The
한편, 자세 추정 모델(52)은 학습부(51)에서 생성된 학습 데이터 세트(400)를 이용하여, 운동 영상(300)으로부터 피사체의 관절 포인트에 해당하는 키포인트를 추출하고, 인공 지능 동작 분석부(122, 212) 및 규칙기반 동작분석부(123, 213) 중 적어도 하나는, 추출된 키포인트를 이용하여, 운동 영상(300)에서의 피사체의 운동 동작을 분석할 수 있다.Meanwhile, the
자세 추정 모델(52)로부터 추정된 키포인트를 이용하여, 분석 대상 운동 영상(300)으로부터 추정 가능한 피사체(U)의 운동 자세는 다양할 수 있다. 예를 들어, 인공 지능 동작 분석부(122, 212) 및 규칙기반 동작분석부(123, 213) 중 적어도 하나는, 피사체(U)에 대한 i) 관절 포인트의 위치, ii) 관절 포인트의 관절 가동 범위, iii) 관절 포인트의 이동 경로, iv) 관절 포인트 간의 연결 관계, v) 관절 포인트의 대칭 관계 중 적어도 하나에 대한 정보를 추정 및 분석할 수 있다. The motion posture of the subject U that can be estimated from the
이외에도, 동작 분석부(122, 212)는, 분석 대상 운동 영상(300)으로부터 추출된 키 포인트 또는 영상(300)으로부터, 관절의 가동 거리, 관절의 움직임 속도(또는 가속도), 분석 대상 운동 영상에 포함된 피사체(환자에 대응)의 신체 밸런스, 신체 균형, 신체 정렬 상태(EX: 다리의 축 정렬 상태, 척추 정렬상태 등) 중 적어도 하나에 대한 분석을 수행할 수 있다.In addition, the
본 발명에서, 자세 추정 모델(52)은, 학습부(51)를 포함하여 구성되는 것 또한 가능하다. 나아가, 이와 반대로 학습부(51)는 자세 추정 모델(52)을 포함할 수 있으며, 이 경우, 학습부(51)에서 자세 추정 모델(52)을 학습시켜, 자세 추정 기능을 수행할 수 있다. 이에, 본 발명에서는, 자세 추정 모델(52)에서 수행되는 기능을, 학습부(51)가 수행하는 것으로 혼용하여 설명할 수 있다. In the present invention, it is also possible that the
한편, 사용자 단말기(10, 20)는, 자세 추정 모델(52)에서 추출 및 추정된 키포인트에 기반하여 분석되는, 사용자의 운동 동작 분석 결과(또는 운동 동작 분석 리포트,)를 사용자 단말(10, 20)에 제공하는 자세 분석 결과 서비스 제공을 수행하도록 이루어질 수 있다(도 1 참조). On the other hand, the
여기에서, 사용자 단말(10, 20)은 환자 단말기(10), 의사 단말기(20) 및 제3자의 단말기 중 적어도 하나일 수 있다. Here, the
이러한 운동 치료 제공 시스템(1000)은, 사용자 단말(10, 20)과의 통신을 수행하도록 이루어질 수 있다. 본 발명에서, 운동 치료 제공 시스템(1000)가 통신을 수행하는 것은, 운동 치료 제공 시스템(1000)의 통신부에 의해 이루어지는 것으로도 이해될 수 있다. The exercise
예를 들어, 운동 치료 제공 시스템(1000)의 통신부는, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 사용자 단말(10, 20)과 통신하도록 이루어질 수 있다. For example, the communication unit of the exercise
한편, 본 발명에서 설명되는 사용자 단말(10, 20)은, 전자기기를 의미하는 것으로서, 스마트폰(smart phone), 휴대폰, 태블릿 PC, 키오스크(KIOSK), 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), 및 PMP(Portable Multimedia Player) 중 적어도 하나를 포함할 수 있다. 나아가, 사용자 단말기(10, 20)는, 사용자 계정(account)이 로그인된, 접속된 또는 등록된 전자기기 일 수 있다.On the other hand, the
여기에서, 사용자 계정은, 본 발명에 따른 운동 치료 제공 시스템(1000)에 기 등록된 계정을 의미할 수 있다. 이러한 사용자 계정은, 사용자 ID(identification, identification number)로 이해되어질 수 있다.Here, the user account may mean an account previously registered in the exercise
한편, 본 발명에서는 사용자 단말(10, 20)로부터, 운동 영상을 수신하는 과정이 진행될 수 있다. 운동 치료 제공 시스템(1000)은 사용자 단말(10, 20)과의 통신을 통해, 사용자가 운동 동작을 수행하는 모습이 촬영된 운동 영상(300)을 수신할 수 있다. Meanwhile, in the present invention, a process of receiving an exercise image from the
이 경우, 운동 치료 제공 시스템(1000)가 사용자 단말(10, 20)로부터 수신하는 운동 영상(300)은, 사용자에 대한 운동 동작 분석의 대상이 되는 분석 대상 운동 영상으로 이해될 수 있다. In this case, the
운동 치료 제공 시스템(1000)은 다양한 시점 및 경로에 따라 사용자 단말(10, 20)로부터 분석 대상 운동 영상을 수신할 수 있다. The exercise
예를 들어, 도 1에 도시된 것과 같이, 운동 치료 제공 시스템(1000)은 사용자 단말(10, 20)로부터 “운동 시작”에 대응되는 그래픽 객체가 선택되는 것에 근거하여, 사용자 단말(10, 20)에 구비된 카메라(201)가 분석 대상 운동 영상을 촬영하도록, 카메라 상태를 활성화 상태로 제어할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은 카메라(201)로부터 촬영된 분석 대상 운동 영상을 실시간 또는 사용자의 운동이 완료되는 것에 근거하여, 사용자 단말(10, 20)로부터 수신할 수 있다. For example, as shown in FIG. 1 , the exercise
다음으로, 본 발명에서는 관절 포인트에 대한 위치 정보를 포함하는 학습 데이터 세트(Data set)를 이용하여 학습된 자세 추정 모델로부터 추출된 키포인트에 기반하여, 운동 영상에 포함된 사용자의 특정 운동 동작과 관련된 운동 동작을 분석하는 과정이 진행될 수 있다. Next, in the present invention, based on key points extracted from a posture estimation model learned using a learning data set including position information on joint points, related to a user's specific exercise motion included in an exercise image. A process of analyzing the exercise motion may proceed.
학습부(51)는, 사용자 단말(10, 20)로부터 분석 대상 운동 영상을 수신하는 경우, 학습 대상 운동 영상(300)을 이용하여 학습된 자세 추정 모델(52)에 기반하여, 분석 대상 운동 영상에 포함된 사용자(U)의 관절 포인트에 해당하는 키포인트를 추출할 수 있다. 그리고, 인공 지능 동작 분석부(122, 212) 및 규칙기반 동작분석부(123, 213) 중 적어도 하나는, 추출된 키포인트를 이용하여, 운동 영상(300)에서의 피사체의 운동 동작을 분석할 수 있다.When the
학습부(51)가 추정하는 사용자(U)의 자세 추정 정보는 다양한 정보를 포함할 수 있다. 예를 들어, 학습부(51)는 피사체(U)의 관절 포인트(P1, P2)의 위치 정보, ii) 피사체(U)의 관절 가동 범위 정보(각도 정보)를 추정할 수 있다. The posture estimation information of the user U estimated by the
다음으로, 본 발명에서는 상기 분석이 완료되는 것에 근거하여, 특정 운동 동작과 관련된 사용자(U)의 운동 동작 분석 결과를 사용자 단말(10, 20)로 제공하는 과정이 진행될 수 있다. Next, in the present invention, based on the completion of the analysis, a process of providing the user U's exercise motion analysis result related to a specific exercise motion to the
운동 치료 제공 시스템(1000)은, 사용자 운동 동작에 대한 분석 결과를 가공하여, 운동 동작 분석 리포트를 생성할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은 사용자 단말(10, 20) 상에 운동 동작 분석 리포트를 제공할 수 있다. The exercise
예를 들어, 도 1에 도시된 것과 같이, 운동 치료 제공 시스템(1000)은, 사용자의 운동 영상에, 사용자(U)의 관절 포인트(P1, P2)에 대응하는 위치에, 관절 포인트(P1, P2) 각각에 대응하는 관절 포인트 그래픽 객체를 렌더링(rendering)하여 제공할 수 있다. 그리고, 운동 치료 제공 시스템(1000)은, 특정 관절 포인트(P1) 주변에, 특정 관절 포인트(P1)의 관절 가동 범위 정보(221)를 표시할 수 있다. For example, as shown in FIG. 1 , the motion
이와 같이, 본 발명에 따른 운동 치료 제공 시스템(1000)은, 학습 대상 운동 영상(300)에 기반하여 구축된 데이터베이스(40)를 이용하여, 자세 추정 모델(52)을 위한 학습을 수행할 수 있다. 그리고, 자세 추정 모델(52)을 이용하여, 사용자의 운동 자세를 추정하고, 추정된 자세에 기반하여 운동 동작 분석 결과 제공 서비스를 수행할 수 있다. As such, the exercise
분석 결과에 포함되는 정보는 다양할 수 있다. 예를 들어, 분석 결과에는, 추출된 키 포인트 또는 영상으로부터 분석된, 관절의 가동 범위, 가동 거리, 관절의 움직임 속도(또는 가속도), 분석 대상 운동 영상에 포함된 피사체(환자에 대응)의 신체 밸런스, 신체 균형, 신체 정렬 상태(EX: 다리의 축 정렬 상태, 척추 정렬상태 등) 중 적어도 하나에 대한 분석 정보가 포함될 수 있다.The information included in the analysis result may vary. For example, in the analysis result, the range of motion of the joint, the motion distance, the motion speed (or acceleration) of the joint, analyzed from the extracted key point or image, and the body of the subject (corresponding to the patient) included in the motion image to be analyzed. Analysis information on at least one of balance, body balance, and body alignment (EX: leg alignment, spine alignment, etc.) may be included.
나아가, 이러한 분석 정보는, 점수(SCORE)를 더 포함할 수 있으며, 이러한 점수는, 사용자의 운동 동작(또는 자세)에 대한 분석 점수일 수 있다. 이러한 분석 점수는, 다양한 방법(EX: 기 설정된 기준을 근거로한 규칙 기반 분석 또는 인공 지능 알고리즘에 의한 분석)에 근거하여 산출되는 것이 가능하다.Furthermore, this analysis information may further include a score (SCORE), and this score may be an analysis score for the user's exercise motion (or posture). These analysis scores can be calculated based on various methods (EX: analysis based on rules based on predetermined criteria or analysis by artificial intelligence algorithms).
데이터베이스(40)에는, 학습부(51)에 의해 학습 대상 운동 영상(300)으로부터 추출 및 생성된 학습 데이터 세트(400)가 저장되어 존재할 수 있다. In the
이하에서는, 사용자의 운동 자세 추정에 이용되는 학습 데이터 세트(400)에 대해 보다 자세하게 설명하도록 한다. Hereinafter, the learning data set 400 used for estimating the user's exercise posture will be described in detail.
도 8a에 도시된 것과 같이, 학습 데이터 세트(400)는, 학습 대상 운동 영상 (300)으로부터 추출된 피사체(U)와 관련된 데이터를 포함하여 구성될 수 있다. As shown in FIG. 8A , the learning data set 400 may include data related to the subject U extracted from the training
학습부(51)는 학습 대상 운동 영상(300)으로부터, 피사체(U)에 대한 데이터를 추출하여 학습 데이터 세트(400)를 구성할 수 있다. The
이러한 학습 데이터 세트(400)는, 복수의 서브 데이터 세트(401 내지 403)으로 이루어질 수 있다. 본 발명에서, 학습 데이터 세트(400)(300a)는, 상위 개념에 해당하고, 서브 데이터 세트(401 내지 403)는 하위 개념에 해당하는 데이터 세트로 이해될 수 있다. The learning data set 400 may include a plurality of sub data sets 401 to 403 . In the present invention, the learning data sets 400 and 300a may correspond to higher concepts, and the sub data sets 401 to 403 may be understood as data sets corresponding to lower concepts.
학습부(51)는, 학습 대상 운동 영상(300)을 구성하는 복수의 프레임들 중 기 설정된 기준에 근거하여 선별된 기준 프레임(301 내지 306) 각각으로부터, 피사체(U)에 대한 데이터를 추출하여, 서브 데이터 세트(401 내지 403)를 구성될 수 있다. The
학습부(51)는 다양한 기준에 근거하여 기준 프레임(301 내지 306)을 선별할 수 있다. 학습 대상 운동 영상(300)은 동영상일 수 있고, 복수의 정적인 이미지일 수 있다.The
학습 대상 운동 영상(300)이 동영상인 경우, 학습부(51)는 학습 대상 운동 영상(300)을 구성하는 복수의 프레임 중 일정 시간 간격(T)을 기준으로 기준 프레임(301 내지 306)을 선별할 수 있다. 다른 예를 들어, 학습부(51)는, 전후 프레임에 포함된 피사체의 동작 변화량이 일정 변화량 이상에 대응되는 경우, 전후 프레임을 기준 프레임(301 내지 306)으로 선별할 수 있다. When the learning
본 발명에 따른 학습 데이터 세트에 포함된 학습 데이터는, 학습 대상 운동 영상을 구성하는 복수의 프레임들 중 기 설정된 기준에 근거하여 선별된 기준 프레임들 각각으로부터, 상기 학습 대상 운동 영상에 포함된 상기 피사체를 중심으로 추출된 학습 데이터로 구성될 수 있다.The learning data included in the learning data set according to the present invention is obtained from each of the reference frames selected based on a predetermined criterion among a plurality of frames constituting the training object exercise image, and the subject included in the learning object exercise image. It can be composed of the extracted learning data centered on.
이하에서는 설명의 편의를 위하여, “학습 데이터 세트(400)”와 “서브 데이터 세트(401 내지 403)”를 별도로 구분하지 않고, “학습 데이터 세트(400)”를 기준으로 설명하도록 한다. 이하에서 설명되는 학습 데이터 세트(400)에 포함된 정보는, 서브 데이터 세트(401 내지 403)에 포함된 정보일 있다. 이 경우, 본 발명에 따른 학습 데이터 세트(400)는, 이하에서 설명되는 정보를 포함하는 복수의 서브 데이터 세트(401 내지 403)를 포함하는 것으로 이해될 수 있다. Hereinafter, for convenience of description, the “learning data set 400” and the “sub data sets 401 to 403” will not be separately distinguished, and will be described based on the “learning data set 400”. Information included in the learning data set 400 described below may be information included in the sub data sets 401 to 403 . In this case, it may be understood that the learning data set 400 according to the present invention includes a plurality of sub data sets 401 to 403 including information described below.
한편, 도 8b의 (a)에 도시된 것과 같이, 학습 데이터 세트(400)는 서로 다른 복수의 정보 속성 각각에 대응되는 복수의 데이터 그룹(410 내지 460)으로 구성될 수 있다. Meanwhile, as shown in (a) of FIG. 8B, the learning data set 400 may be composed of a plurality of data groups 410 to 460 corresponding to a plurality of different information properties.
학습부(51)는, 학습 대상 운동 영상으로부터 복수의 정보 속성 각각에 대응되는 데이터를 추출하고, 추출된 데이터의 정보 속성이 동일한 데이터들을, 동일한 데이터 그룹으로 분류(또는 매칭)하여, 학습 데이터 세트(400)룰 생성할 수 있다. The
여기에서, 복수의 정보 속성(410a 내지 450a)은, 학습 대상 운동 영상(300)으로부터 피사체(U)의 운동 자세 추정을 위하여 필요한 정보의 타입을 구분하는 기준으로 이해될 수 있다. 도 8b의 (b)에 도시된 것과 같이, 본 발명에서는 서로 다른 복수의 정보 속성(제1 정보 속성 내지 제5 정보 속성, 410a 내지 450a)이 미리 정의되어 존재할 수 있다. Here, the plurality of information attributes 410a to 450a may be understood as criteria for distinguishing the type of information necessary for estimating the exercise posture of the subject U from the
학습부(51)는, 학습 대상 운동 영상으로부터, 상기 복수의 정보 속성(410a 내지 450a)에 각각에 대응되는 학습 데이터를 추출하고, 동일한 정보 속성에 대응되는 학습 데이터를 동일한 데이터 그룹으로 분류하여 학습 데이터 세트(400)룰 생성할 수 있다. The
나아가, 학습부(51)는. 상기 복수의 정보 속성(410a 내지 450a) 사이의 연관성에 근거하여, 복수의 데이터 그룹(410 내지 460) 사이의 그룹별 연관성을 특정하고, 학습 데이터 세트(400) 및 그룹별 연관성에 대한 학습을 수행할 수 있다. Further, the
이하에서는, 복수의 데이터 그룹 및 그룹별 연관성에 대해서 구체적으로 설명하도록 한다. Hereinafter, a plurality of data groups and associations for each group will be described in detail.
도 8c에 도시된 것과 같이, 복수의 데이터 그룹(410 내지 450) 중 제1 데이터 그룹(410)은, 운동 영상(300)에 포함된 피사체(U)의 관절 포인트(P1, P2)에 대한 위치 정보(411, 412)를 포함할 수 있다.As shown in FIG. 8C , the first data group 410 among the plurality of data groups 410 to 450 has a position relative to the joint points P1 and P2 of the subject U included in the
도 8c의 (a)에 도시된 것과 같이, 본 발명에서 관절 포인트(P1, P2)는, 학습 대상 운동 영상(300)에서 사용자의 관절에 대응되는 피사체(U)의 일 영역을 의미할 수 있다. 그리고, 도 5의 (b)에 도시된 것과 같이, 관절 포인트에 대한 위치 정보(411, 412)는, 학습 대상 운동 영상(300) 내 관절 포인트(P1, P2)가 위치하는 영역의 위치 로 이해될 수 있다.As shown in (a) of FIG. 8C, in the present invention, the joint points P1 and P2 may mean a region of the subject U corresponding to the user's joints in the
한편, 인체는 200여개의 뼈로 이루어져 있으며, 관절은, 뼈와 뼈가 연결되는 부분으로, 인체는 복수의 관절로 구성될 수 있다.On the other hand, the human body is composed of about 200 bones, joints are parts where bones are connected, and the human body may be composed of a plurality of joints.
학습부(51)는, 피사체(U)의 복수의 관절 포인트 중, 학습 대상이 되는 관절 포인트가, 기 정의되어 존재할 수 있다. 즉, 본 발명에서 설명되는 “학습 대상 관절 포인트”는, 사용자의 복수의 관절 포인트 중 본 발명에서 학습을 위해 기 정의된 관절 포인트로 이해될 수 있다. In the
도 8d에 도시된 것과 같이, 데이터베이스(40)에는, 복수의 관절 포인트 중 자세 추정 모델의 학습 대상이 되는 학습 대상 관절 포인트가 미리 지정되어, 참조 정보(500)로서 존재할 수 있다. 그리고, 참조 정보(500)에는, 복수의 학습 대상 관절 포인트에 대한 순서가 미리 정의되어 존재할 수 있다. As shown in FIG. 8D , in the
제1 학습 대상 관절 포인트는, 머리중심(Center Of Head)으로 정의될 수 있다. 보다 구체적으로, 제1 학습 대상 관절 포인트는, 경추 1번 레벨로 유추(예측 또는 대응)되는 지점으로 이해될 수 있다. The first joint point to be learned may be defined as a center of head. More specifically, the first joint point to be studied may be understood as a point that is inferred (predicted or corresponding) to the first cervical vertebrae level.
제2 학습 대상 관절 포인트는, 목 중심(Center Of Neck)으로 정의될 수 있다. 보다 구체적으로, 제2 학습 대상 관절 포인트는, Neck Lordotic Curve의 중심인 C3-C4 레벨로, 정면에서 1번과 3번의 가운데 레벨에서 중앙 지점으로 이해될 수 있다. The second target joint point for learning may be defined as a center of neck. More specifically, the second learning target joint point is the C3-C4 level, which is the center of the Neck Lordotic Curve, and can be understood as the center point at the middle level of No. 1 and No. 3 from the front.
제3 학습 대상 관절 포인트는, 목 아래 끝(Lower End Of Neck)으로 정의될 수 있다. 보다 구체적으로, 제3 학습 대상 관절 포인트는, C7-T1 level이며, 양쪽 쇄골 level을 연결하는 선의 중앙 지점으로 이해될 수 있다. The third target joint point for learning may be defined as a lower end of the neck. More specifically, the third target joint point for learning is the C7-T1 level and can be understood as the center point of a line connecting both clavicle levels.
제4 학습 대상 관절 포인트는, 어깨중심으로 정의될 수 있다. 보다 구체적으로, 제4 학습 대상 관절 포인트는, 위팔뼈 머리 중심(Humerus Head)이며, 어깨 관절 회전 운동의 중심 축인 위치로 팔을 외전(abduction)하는 회전 동작 상에서 연속 동작의 회전 중심에 해당하는 위치로 이해될 수 있다. 회전 운동 연속 동작이 아닌 이미지에서는, 어깨 중심의 예측 위치 정보에 대응하는 지점을, 제4 학습 대상 관절 포인트에 해당할 수 있다. 그리고, 제4 학습 대상 관절 포인트는, 좌측 어깨 중심 및 우측 어깨 중심 각각에 존재할 수 있다. The fourth joint point to be learned may be defined as the center of the shoulder. More specifically, the fourth learning target joint point is the humerus head, and is a position corresponding to the center of rotation of the continuous motion in the rotational motion of abducting the arm to a position that is the central axis of the rotational motion of the shoulder joint. can be understood as In an image that is not a continuous rotational motion, a point corresponding to information about the predicted position of the center of the shoulder may correspond to the fourth target joint point for learning. And, the fourth joint point to be learned may exist at the center of the left shoulder and the center of the right shoulder, respectively.
제5 학습 대상 관절 포인트는, 팔꿈치 중심으로 정의될 수 있다. 보다 구체적으로, 제5 학습 대상 관절 포인트는, 안쪽-바깥쪽 위관절융기 중심(Humerus Medial-Lateral Epicodyle)에 해당하는 부위이며, 팔꿈치 레벨에서 중앙점으로 이해될 수 있다. 제5 학습 대상 관절 포인트는 좌측 팔꿈치 중심 및 우측 팔꿈치 중심 각각에 존재할 수 있다. The fifth learning target joint point may be defined as the center of the elbow. More specifically, the fifth learning target joint point is a region corresponding to the medial-lateral epicodyle center (Humerus Medial-Lateral Epicodyle) and can be understood as a center point at the level of the elbow. The fifth joint point to be learned may exist at the center of the left elbow and the center of the right elbow, respectively.
제6 학습 대상 관절 포인트는, 손목 중심으로 정의될 수 있다. 보다 구체적으로, 제6 학습 대상 관절 포인트는, 노뼈-자뼈 붓돌기 중심(radius-ulnar styloid process)이며, 손목 레벨에서 중앙점으로 이해될 수 있다. 제6 학습 대상 관절 포인트는, 좌측 손목 중심 및 우측 손목 중심 각각에 존재할 수 있다. The sixth joint point to be learned may be defined as the center of the wrist. More specifically, the sixth joint point to be learned is the radius-ulnar styloid process, which can be understood as a central point at the level of the wrist. The sixth joint point to be learned may exist at the center of the left wrist and the center of the right wrist, respectively.
제7 학습 대상 관절 포인트는, 손 중심으로 정의될 수 있다. 보다 구체적으로, 제7 학습 대상 관절 포인트는, 3번째 손허리뼈 머리(3rd Metacarpal Head)에 해당하는 곳으로 이해될 수 있으며, 좌측 손 중심 및 우측 손 중심 각각에 존재할 수 있다. The seventh joint point to be learned may be defined around the hand. More specifically, the seventh joint point to be studied may be understood as a place corresponding to the 3rd metacarpal head, and may exist in the center of the left hand and the center of the right hand, respectively.
제8 학습 대상 관절 포인트는, 고관절 중심(Femoral Head 중심)으로 정의될 수 있다. 보다 구체적으로 제8 학습 대상 관절 포인트는, 고관절 회전 운동의 중심 축인 위치이며, 다리를 외전(abduction)하는 회전 동작에서 연속 동작의 회전 중심에 해당하는 위치로 이해될 수 있다. 회전 운동 연속 동작이 아닌 이미지에서는, 고관절 중심의 예측 위치 정보에 대응하는 지점을, 제8 학습 대상 관절 포인트로 이해할 수 있다. 제8 학습 대상 관절 포인트는, 좌측 고관절 중심 및 우측 고관절 중심 각각에 존재할 수 있다. The eighth joint point to be learned may be defined as the center of the hip joint (the center of the Femoral Head). More specifically, the eighth joint point to be studied is a position that is the central axis of hip joint rotation motion and can be understood as a position corresponding to the rotation center of continuous motion in a rotation motion that abducts the leg. In an image that is not a continuous rotational motion, a point corresponding to the predicted location information of the center of the hip joint may be understood as an eighth joint point to be learned. The eighth joint point to be learned may exist at the center of the left hip joint and the center of the right hip joint, respectively.
제9 학습 대상 관절 포인트는, 무릎 중심으로 이해될 수 있다. 보다 구체적으로, 제9 학습 대상 관절 포인트는, Femur Medial-Lateral Epicondyle 중심으로, 무릎 레벨에서 중앙점으로 이해될 수 있다. 제9 학습 대상 관절 포인트는, 좌측 무릎 중심 및 우측 무릎 중심 각각에 존재할 수 있다. The ninth learning target joint point can be understood as the center of the knee. More specifically, the ninth joint point to be studied is centered on the Femur Medial-Lateral Epicondyle and can be understood as a central point at the knee level. The ninth learning target joint point may exist at the center of the left knee and the center of the right knee, respectively.
제10 학습 대상 관절 포인트는, 발목 중심으로 정의될 수 있다. 보다 구체적으로, 제10 학습 대상 관절 포인트는, Medial-Lateral Malleolus 중심으로 발목 레벨에서 중앙점으로 이해될 수 있다. 제10 학습 대상 관절 포인트는, 좌측 발목 중심 및 우측 발목 중심에 각각 존재할 수 있다.The tenth joint point to be learned may be defined as the center of the ankle. More specifically, the 10th joint point to be studied may be understood as a central point at the ankle level centered on the Medial-Lateral Malleolus. The tenth joint point to be learned may be present at the center of the left ankle and the center of the right ankle, respectively.
제11 학습 대상 관절 포인트는, 발 중심으로 정의될 수 있다. 보다 구체적으로, 제11 학습 대상 관절 포인트는, 두번째 발허리뼈(2nd Metatarsal Head)에 해당하는 곳으로, 좌측 발중심 및 우측 발중심 각각에 존재할 수 있다. The eleventh joint point to be learned may be defined as the center of the foot. More specifically, the 11th joint point to be studied corresponds to the 2nd metatarsal head, and may exist in the center of the left foot and the center of the right foot, respectively.
제12 학습 대상 관절 포인트는, 발뒤꿈치로 정의될 수 있다. 보다 구체적으로, 제12 학습 대상 관절 포인트는, 발뒤꿈치가 바닥에 닿는 레벨로, 좌측 발뒤꿈치 및 우측 발뒤꿈치 각각에 존재할 수 있다. 제12 학습 대상 관절 포인트는, 이미지에서 피사체(U)가 완전 정면으로 서 있는 경우에는 안보일 수 있으나, 발이 약간이라도 틀어지는 경우 보일 수 있다. The twelfth joint point to be learned may be defined as the heel. More specifically, the twelfth joint point to be learned may be present at a level at which the heel touches the floor, respectively, on the left heel and the right heel. The twelfth joint point to be learned may not be visible when the subject U is standing completely frontally in the image, but may be visible when the foot is slightly twisted.
제13 학습 대상 관절 포인트는, 요추커브시작(SUP. END OF LORDOSIS)으로 정의될 수 있다. 보다 구체적으로, 제13 학습 대상 관절 포인트는 Zypoid Of Sternum 레벨로 8-10T Spine정도 레벨이며, 양쪽 4번의 평균 레벨과 양쪽 8번의 평균 레벨의 Mid 레벨에서 중앙점으로 이해될 수 있다. The thirteenth joint point to be studied may be defined as a lumbar curve start (SUP. END OF LORDOSIS). More specifically, the 13th joint point to be studied is a level of 8-10T Spine at the Zypoid Of Sternum level, and can be understood as the center point at the mid level of the average level of 4 times on both sides and the average level of 8 times on both sides.
제14 학습 대상 관절 포인트는, 요추커브중심(Center Of Lordosis)으로 정의될 수 있다. 보다 구체적으로, 제14 학습 대상 관절 포인트는, 대략 L2-4 Spine정도 레벨이며, 13번 레벨과 양쪽 8번의 평균 레벨의 Mid 레벨에서 중앙점으로 이해될 수 있다. The fourteenth joint point to be studied may be defined as the center of lordosis. More specifically, the 14th joint point to be studied is approximately at the L2-4 Spine level, and can be understood as a center point at the mid level of the 13th level and the average level of the 8th on both sides.
제15 학습 대상 관절 포인트는, 요추커브끝(INF. END OF LORDOSIS)으로 정의될 수 있다. 보다 구체적으로, 제15 학습 대상 관절 포인트는, 대략 S1-2 spine정도 레벨이며, 14번 레벨과 양쪽 8번의 평균레벨의 Mid레벨에서 중앙점을 이해될 수 있다. The fifteenth joint point to be studied may be defined as the end of the lumbar curve (INF. END OF LORDOSIS). More specifically, the 15th learning target joint point is approximately at the S1-2 spine level, and the center point can be understood at the mid level of the 14th level and the average level of the 8th on both sides.
한편, 제1 학습 대상 관절 포인트(P1)는 머리 중심(510)으로 정의되고, 제2 학습 대상 관절 포인트(P2)는 목 중심(520)으로 미리 정의되어 존재할 수 있다. 그리고, 제1 학습 대상 관절 포인트(P1)에는 가장 우선 순서인 제1 순서가 정의되고, 제2 학습 대상 관절 포인트(P2)에는, 상기 제2 순서보다 후순위인 제2 순서가 정의되어 존재할 수 있다. Meanwhile, the first joint point to be studied (P1) may be defined as the center of the head (510), and the second joint point (P2) to be studied may be predefined as the center of the neck (520). In addition, a first order, which is the highest priority order, may be defined in the first joint point to be studied (P1), and a second order, which is subordinate to the second order, may be defined and present in the second target joint point (P2) to be studied. .
이 경우, 피사체(U)의 좌우 각각에 대응되어 존재하는 학습 대상 관절 포인트에 대한 순서는, 신체 제1 측(ex: 좌측)에 대응되는 학습 대상 관절 포인트가, 신체 제2 측(x: 우측)에 대응되는 학습 대상 관절 포인트보다 우선할 수 있다. 예를 들어, 왼쪽 손목 중심(530)에 대응되는 학습 대상 관절 포인트(P3)에는, 오른쪽 어깨 중심(540)에 대응되는 학습 대상 관절 포인트(P4)보다 우선하는 순서가 정의되어 매칭될 수 있다. In this case, in the order of the joint points to be learned corresponding to the left and right sides of the subject U, the joint points to be learned corresponding to the first side (ex: left side) of the body are the second side (x: right side) of the body. ) may be prioritized over the learning target joint point corresponding to ). For example, the target joint point to be learned (P3) corresponding to the center of the left wrist 530 may be matched by defining a priority order over the joint point to be studied (P4) corresponding to the center of the right shoulder (540).
학습부(51)는 학습 대상 운동 영상(300)으로부터 기 지정된 복수의 학습 대상 관절 포인트(P1, P2) 각각의 위치 정보(411, 412) 로서 좌표 정보를 추출할 수 있다.The
좌표 정보는, 2차원 또는 3차원 좌표 중 적어도 하나를 포함할 수 있다. 2차원 좌표 정보가 추출되는 경우, 학습부(120)는 학습 대상 운동 영상(300)으로부터, 복수의 학습 대상 관절 포인트(P1, P2) 각각의 x, y축 좌표 정보를 추출할 수 있다. 이와 달리, 2차원 좌표 정보가 추출되는 경우, 학습부(120)는 학습 대상 운동 영상(300)으로부터, 복수의 학습 대상 관절 포인트(P1, P2) 각각의 x, y, z축 좌표 정보를 추출할 수 있다.Coordinate information may include at least one of 2D and 3D coordinates. When the 2D coordinate information is extracted, the
좌표 정보는 다양한 방법을 통하여 추출될 수 있다. 특히, z축의 좌표 정보는 카메라(ex: RGB카메라 등) 또는 다양한 방식의 센서(EX: 거리 측정 센서 등)로부터 추출될 수 있다. 나아가, z축의 좌표 정보는 다양한 방식의 인공지능 알고리즘을 통해, 학습 대상 영상(300)으로부터 추출될 수 있다. 인공지능 알고리즘을 통해, z축의 좌표 정보가 추출는 경우, z축의 좌표 정보가 “추정” 또는 “예측”되었다고 표현될 수 있다. Coordinate information may be extracted through various methods. In particular, the z-axis coordinate information may be extracted from a camera (ex: RGB camera, etc.) or various types of sensors (EX: distance measurement sensor, etc.). Furthermore, the z-axis coordinate information may be extracted from the
한편, 학습부(51)는 복수의 학습 대상 관절 포인트(P1, P2) 각각의 위치 정보(411, 412)가, 제1 정보 속성(410a)에 대응되는 것에 근거하여, 제1 데이터 그룹(410)으로 분류하여 제1 데이터 그룹(410)을 생성하고, 제1 데이터 그룹(410)을 포함하는 학습 데이터 세트(400)를 생성할 수 있다. On the other hand, the
2차원 좌표 정보(x, y좌표 정보)가 추출됨을 예를 들어 살펴보면, 학습부(121)는 복수의 학습 대상 관절 포인트(P1, P2) 각각의 위치 정보(411, 412)를, x축, y축 좌표 정보가 쌍을 이룬 형태로 추출할 수 있다. 학습부(51)는 제1 학습 대상 관절 포인트(P1)의 위치 정보 “[599, 436]”을 추출하고, 제2 학습 대상 관절 포인트(P2)의 위치 정보 “[599, 436]”를 추출할 수 있다. 그리고, 학습부(51)는 상기 “[599, 436]” 및 “[599, 436]”를 포함하는 제1 데이터 그룹(410)으로 구성되는 학습 데이터 세트(400)를 생성할 수 있다. Looking at the fact that two-dimensional coordinate information (x, y coordinate information) is extracted as an example, the
학습부(51)는, 제1 데이터 그룹(410)을 구성하는 학습 대상 관절 포인트(P1, P2)의 위치 정보(411, 412)를 기반으로, 학습 대상 운동 영상(300)에 포함된 피사체(U)의 관절 포인트(P1, P2)의 위치를 추정하는 학습을 수행할 수 있다. The
한편, 도 8c의 (b)에 도시된 것과 같이, 학습부(51)는, 복수의 학습 대상 관절 포인트(P1, P2) 각각의 위치 정보(411, 412)를, 상기 복수의 학습 대상 관절 포인트(P1, P2)들 간에 기 정의된 순서에 기반하여, 제1 데이터 그룹(410) 내에서 순차적으로 배열하여, 학습 데이터 세트(400)를 구성(생성)할 수 있다. On the other hand, as shown in (b) of FIG. 8C, the
앞서 설명한 것과 같이, 데이터베이스(40)에는 복수의 학습 대상 관절 포인트(P1, P2)에 대한 순서가 미리 정의되어 존재할 수 있다. As described above, the
학습부(51)는 데이터베이스(40)를 참조하여, 복수의 학습 대상 관절 포인트(P1, P2)의 위치 정보(411, 412)를, 학습 대상 관절 포인트(P1, P2)에 대응하는 순서에 따라 제1 데이터 그룹(410) 내에서 순차적으로 배치하여, 학습 데이터 세트(400)를 생성할 수 있다. 그리고, 이러한 학습 데이터 세트(400)는 데이터베이스(40)에 저장되어, 자세 추정을 위한 데이터베이스(40)를 구축할 수 있다. The
구체적으로, 도 8c의 (b)에 도시된 것과 같이, 학습부(51)는 제1 데이터 그룹(410) 내에서, 제1 순서에 대응되는 제1 학습 대상 관절 포인트(P1)의 제1 위치 정보(411)를 우선하여 배열하고, 상기 제1 위치 정보(411)에 이어서, 제2 순서에 대응되는 제1 학습 대상 관절 포인트(P2)의 제2 위치 정보(412)를 배열할 수 있다. Specifically, as shown in (b) of FIG. 8C, the
한편, 학습부(51)는, 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)의 가시(visible) 여부에 근거하여, 학습 대상 관절 포인트(P1, P2)의 위치 정보(411, 412)를 제1 프로세스 및 제2 프로세스 중 어느 하나의 프로세스에 따라 추출(또는 특정)할 수 있다. On the other hand, the
본 발명에서, 학습 대상 관절 포인트의 가시 여부는, 학습 대상 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이는지 여부를 의미하는 것으로 이해될 수 있다. In the present invention, whether or not the subject joint points to be studied may be understood to mean whether or not the subject joint points P1 and P2 are visible in the
본 발명에서는, 학습 대상 운동 영상에서의 가시 가능한 관절 포인트를, “학습 대상 가시 관절 포인트”로 명명하고, 학습 대상 운동 영상에서의 비가시(invisible) 관절 포인트를 “학습 대상 비가시 관절 포인트”로 명명할 수 있다. In the present invention, visible joint points in a motion image to be learned are named “visible joint points to be learned”, and invisible joint points in a motion image to be learned are designated as “invisible joint points to be learned”. can be named
학습부(51)는, 학습 대상 운동 영상(300)에, 학습 대상 관절 포인트(P1, P2)에 대응하는 피사체(U)의 신체 일부가 포함되어 있으면, 학습 대상 운동 영상(300)에서 학습 대상 관절 포인트가 보이는 것으로 판단할 수 있다. The
학습부(51)는, 학습 대상 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2) 가 보이는 것에 근거하여, 제1 프로세스에 따라, 학습 대상 운동 영상(300)으로부터, 학습 대상 관절 포인트(P1, P2)가 위치하는 실제 위치의 위치 정보를 추출할 수 있다. Based on the fact that the learning-target joint points P1 and P2 are visible in the learning-
본 발명에서는 제1 프로세스에 따라 추출된 학습 대상 관절 포인트(P1, P2)의 위치 정보를, “제1 타입의 정보(제1 타입의 위치 정보)” 또는 “실체 위치 정보”로 명명하여 설명할 수 있다. In the present invention, the location information of the joint points to be studied (P1, P2) extracted according to the first process will be described by naming “first type information (first type location information)” or “entity location information”. can
반면에, 학습부(51)는 운동 영상(300)에 학습 대상 관절 포인트(P1, P2)에 대응하는 피사체(U)의 신체 일부가 포함되어 있지 않으면, 학습 대상 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이지 않는 것으로 판단할 수 있다. On the other hand, if the
학습부(51)는, 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이지 않는 것에 근거하여, 제2 프로세스에 따라, 학습 대상 관절 포인트(P1, P2)의 예상 위치를 예측하여, 예측 위치 정보를 추출(또는 특정)할 수 있다. Based on the fact that the learning target joint points P1 and P2 are not visible in the
본 발명에서는 제2 프로세스에 따라 추출된 학습 대상 관절 포인트(P1, P2)의 위치 정보를, “제2 타입의 정보(제2 타입의 위치 정보)” 또는 “예측 위치 정보”로 명명하여 설명할 수 있다. In the present invention, the location information of the joint points to be studied (P1, P2) extracted according to the second process will be described by naming “second type information (second type location information)” or “predicted location information”. can
이와 같이, 본 발명에서, 제1 데이터 그룹(410)에 포함된 복수의 위치 정보(411, 412)는, 학습 대상 운동 영상(300)에서 복수의 학습 대상 관절 포인트(P1, P2)의 가시(visible) 여부에 따라, 추출 프로세스 및 타입 정보가 서로 다르게 정의될 수 있다. As such, in the present invention, the plurality of positional information 411 and 412 included in the first data group 410 are visible ( visible), the extraction process and type information may be defined differently.
한편, 제2 프로세스는, 운동 영상(300)에서 보이지 않는 학습 대상 관절 포인트(P1, P2)의 예상 위치 정보를 추출(특정)하는 다양한 데이터 처리를 포함할 수 있다. Meanwhile, the second process may include various data processing to extract (specify) expected position information of joint points to be learned (P1, P2) that are not visible in the
예를 들어, 제2 프로세스에 따라 예상 위치 정보를 추출하는 학습부(51)는, 운동 영상(300)에서 보이는 학습 대상 관절 포인트의 실제 위치 정보에 근거하여, 운동 영상(300)에서 보이지 않는 학습 대상 관절 포인트(P1, P2)의 예측 위치 정보를 예측할 수 있다.For example, the
이 경우, 학습부(51)는 운동 영상(300)에서 보이는 복수의 학습 대상 관절 포인트(P1, P2)에 대해, 운동 영상(300)에서 보이지 않는 학습 대상 관절 포인트(P1, P2)와의 연관성에 근거한 가중치를 부여하여, 예측 위치 정보를 특정할 수 있다. In this case, the
예를 들어, 학습 대상 관절 포인트 사이의 연관성은, 학습 대상 관절 포인트(P1, P2)에 대응되는 순서가 가까울수록 높게 설정될 수 있다. 제3 순서에 대응되는 학습 대상 관절 포인트와의 연관성은, 제2 순서에 대응되는 학습 대상 관절 포인트가, 제1 순서에 대응되는 학습 대상 관절 포인트 보다 높게 설정될 수 있다. For example, the correlation between the subject joint points to be learned may be set higher as the order corresponding to the subject joint points P1 and P2 is closer. As for the correlation with the subject joint points to be learned corresponding to the third order, the subject joint points to be learned corresponding to the second order may be set higher than the subject joint points to be learned corresponding to the first order.
다른 예를 들어, 학습 대상 관절 포인트(P1, P2) 사이의 연관성은, 피사체(U)의 좌우 각각에 대응되어 존재하는 학습 대상 관절 포인트(P1, P2) 사이에서 가장 높게 설정될 수 있다. 예를 들어, 왼쪽 손목 중심에 대응하는 학습 대상 관절 포인트(P3)와의 연관성은, 오른쪽 손목 중심에 대응하는 학습 대상 관절 포인트(P3)가 가장 높게 설정될 수 있다(도 8c의 (a) 참조). For another example, the correlation between the subject joint points P1 and P2 to be studied may be set to be the highest between the subject joint points P1 and P2 corresponding to the left and right sides of the subject U. For example, the correlation with the subject joint point P3 corresponding to the center of the left wrist may be set to the highest for the joint point P3 to be studied corresponding to the center of the right wrist (see (a) of FIG. 8C). .
나아가, 학습부(51)는 운동 영상(300)에서 피사체(U)가 수행하는 운동 동작의 모션(motion) 정보에 근거하여, 운동 영상(300)에서 보이지 않는 학습 대상 관절 포인트(P1, P2)의 예측 위치 정보를 추출할 수 있다. Furthermore, the
데이터베이스(40)에는, 운동 동작에 따른 신체(또는 관절 포인트)의 이동 경로(ex: 이동 위치, 이동 방향)를 포함하는 모션 정보가 저장되어 존재할 수 있다. In the
학습부(51)는, 운동 영상(300)에서 보이는 학습 대상 관절 포인트(P1, P2)의 위치 정보 및 데이터베이스(40)의 모션 정보를 참조하여, 운동 영상(300)에서 보이지 않는 학습 대상 관절의 예상 위치 정보를 특정할 수 있다. The
한편, 도 8c에 도시된 것과 같이, 복수의 데이터 그룹(410 내지 450) 중 제2 데이터 그룹(420)은, 운동 영상(300)에 포함된 피사체(U)의 학습 대상 관절 포인트(P1, P2)의 가시(visible) 여부를 나타내는 데이터 값(value, 421, 422)으로 이루어질 수 있다. On the other hand, as shown in FIG. 8C , the second data group 420 among the plurality of data groups 410 to 450 is the learning target joint points P1 and P2 of the subject U included in the exercise image 300. ) may be made of data values (value, 421, 422) indicating whether or not to be visible.
도 5의 (b)에 도시된 것과 같이, 제2 데이터 그룹(420)에 포함된 데이터(421, 422)의 데이터 값은, 학습 대상 관절 포인트(P1, P2)의 가시 여부에 대응하여, 제1 데이터 값(ex: “1”) 및 제2 데이터 값(ex: “2”) 중 어느 하나로 이루어질 수 있다. As shown in (b) of FIG. 5, the data values of the data 421 and 422 included in the second data group 420 correspond to whether or not the joint points to be learned P1 and P2 are visible. It may consist of one of a first data value (ex: “1”) and a second data value (ex: “2”).
제1 데이터 값(ex: “1”)을 갖는 데이터는, 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이는 것을 나태나는 데이터로, 제1 데이터 그룹(410)에 포함된 위치 정보가 제1 타입(실제 위치 정보)임을 나타내는 정보로 이해될 수 있다. Data having a first data value (ex: “1”) is data indicating that the joint points to be learned (P1, P2) are visible in the
학습부(51)는, 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이는 경우, 학습 대상 관절 포인트의 제1 타입의 위치 정보(실제 위치 정보)를 추출할 수 있다. 학습부(51)는 운동 영상(300)으로부터 제1 타입의 위치 정보(실제 위치 정보)를 추출한 것에 근거하여, 제2 데이터 그룹(420)에 제1 데이터 값(ex: “1”)을 갖는 데이터를 포함시켜 학습 데이터 세트(400)를 생성(구성)할 수 있다. The
반면에, 제2 데이터 값(ex: “2”)은, 운동 영상(300)에서 학습 대상 관절 포인트(P1, P2)가 보이지 않는 것을 나타내는 데이터로, 제1 데이터 그룹(410)에 포함된 위치 정보가 제2 타입(예측 위치 정보)임을 나타내는 정보로 이해될 수 있다. On the other hand, the second data value (ex: “2”) is data indicating that the joint points to be learned (P1, P2) are not visible in the
학습부(51)는, 운동 영상(300)에서 학습 대상 관절 포인트가 보이지 않는 경우, 학습 대상 관절 포인트의 제2 타입의 위치 정보(실제 위치 정보)를 추출(또는 특정)할 수 있다. 학습부(51)는 운동 영상(300)으로부터 제2 타입의 위치 정보(예측 위치 정보)를 추출(또는 특정)한 것에 근거하여, 제2 데이터 값(ex: “2”)을 갖는 데이터를, 제2 데이터 그룹(420)에 포함시켜습 데이터 세트(400)를 생성(구성)할 수 있다.The
한편, 도 8c의 (b)에 도시된 것과 같이, 학습부(51)는, 제2 데이터 그룹(420)에 포함된 데이터(또는 데이터 값, 421, 422)는, 복수의 학습 대상 관절 포인트(P1, P2) 각각의 가시 여부를 나타내도록, 복수의 학습 대상 관절 포인트 각각의 위치 정보(411, 412)가 배열된 기 정의된 순서와 동일한 순서로, 제2 데이터 그룹(420) 내에서 배열하여, 학습 데이터 세트(400)를 생성(구성)할 수 있다.On the other hand, as shown in (b) of FIG. 8C, the
학습부(51)는, 복수의 학습 대상 관절 포인트 각각의 가시 여부를 나태내는 데이터(421, 422)를, 복수의 학습 대상 관절 포인트(P1, P2)들 간에 기 정의된 순서에 기반하여, 제2 데이터 그룹(420) 내에서 순차적으로 배열할 수 있다. The
예를 들어, 도 8c의 (b)에 도시된 것과 같이, 학습부(51)는, 제1 학습 대상 관절 포인트(P1)가 운동 영상(300)에서 보이는 것에 근거하여, 제2 데이터 그룹(420) 내에서, 제1 학습 대상 관절 포인트(P1)에 대응되는 제1 순서상에, 제1 데이터 값(ex: “1”)을 갖는 데이터(421)를 배열할 수 있다. For example, as shown in (b) of FIG. 8C, the
그리고, 비록 도 8c의 (a) 도면에서는, 제2 학습 대상 관절 포인트(P2)가 운동 영상(300)에서 보이는 것으로 도시되어 있으나, 제2 학습 대상 관절 포인트(P2)가 운동 영상(300)에서 보이지 않는다고 가정하자. 학습부(51)는, 제2 학습 대상 관절 포인트(P2)가 운동 영상(300)에서 보이는 것에 근거하여, 제2 학습 대상 관절 포인트(P2)에 대응되는 제2 순서상에, 제2 데이터 값(ex: “2”)을 갖는 데이터(422)를 배열할 수 있다. In addition, although in (a) of FIG. 8C, the second learning target joint point P2 is shown as visible in the
한편, 본 발명에서, 제1 데이터 그룹(410)에 포함된 위치 정보에 대한 타입의 정의는, 제2 데이터 그룹(420)에 포함된 데이터가 갖는 데이터 값에 의해 이루어지는 것으로 이해될 수 있다. Meanwhile, in the present invention, it may be understood that the type of location information included in the first data group 410 is defined by a data value of data included in the second data group 420 .
도 5의 (b)에 도시된 것과 같이, 제2 데이터 그룹(420) 내에, 제1 순서에 배열된 데이터(421)는 제1 데이터 값(ex: “1”)을 갖고, 제2 순서에 배열된 데이터(422)는 제2 데이터 값(ex: “2”)을 갖는 경우를 가정하자. As shown in (b) of FIG. 5, in the second data group 420, the data 421 arranged in the first order has a first data value (ex: “1”) and is in the second order. Assume that the arrayed data 422 has a second data value (ex: “2”).
본 발명에서는, 제2 데이터 그룹(420) 내에, 제1 순서에 배열된 데이터(421)가 제1 데이터 값(ex: “1”)을 갖는 것에 근거하여, 제1 데이터 그룹(410) 내에서 제1 순서에 배열된 위치 정보(411)의 타입을, 제1 타입의 위치 정보(실제 위치 정보)로 정의될 수 있다.In the present invention, based on the fact that the data 421 arranged in the first order in the second data group 420 has the first data value (ex: “1”), the first data group 410 The type of location information 411 arranged in the first order may be defined as the first type of location information (actual location information).
반면에, 제2 데이터 그룹(420) 내에, 제2 순서에 배열된 데이터(422)가 제2 데이터 값(ex: “2”)을 갖는 것에 근거하여, 제1 데이터 그룹(410) 내에서 제2 순서에 배열된 위치 정보(411)의 타입을, 제2 타입의 위치 정보(예측 위치 정보)로 정의될 수 있다.On the other hand, based on the fact that the data 422 arranged in the second order in the second data group 420 has the second data value (ex: “2”), the first data group 410 The type of location information 411 arranged in the order of 2 may be defined as the second type of location information (predicted location information).
한편, 본 발명에 따른 자세 추정 모델(52)은, 제2 데이터 그룹(420)에 포함된 데이터 값에 근거하여, 제1 데이터 그룹(410)에 포함된 복수의 학습 대상 관절 포인트 각각의 위치 정보(411, 412)에 대한 학습 가중치를 다르게 설정하여, 학습을 수행할 수 있다. On the other hand, the
구체적으로, 제2 데이터 그룹(420) 내에, 제1 순서에 배열된 데이터(421)가, 제1 데이터 값(ex: “1”)을 갖는 경우, 자세 추정 모델(52)은, 제1 데이터 그룹(410) 내에서 제1 순서에 배열된 위치 정보(411)에 대해 제1 학습 가중치를 설정하여 학습을 수행할 수 있다. Specifically, when the data 421 arranged in the first order in the second data group 420 has a first data value (ex: “1”), the
반면에, 제2 데이터 그룹(420) 내에, 제2 순서에 배열된 데이터(422)가, 제2 데이터 값(ex: “2”)을 갖는 경우, 자세 추정 모델(52)은, 제1 데이터 그룹(410) 내에서 제2 순서에 배열된 위치 정보(412)에 대해 제2 학습 가중치를 설정하여 학습을 수행할 수 있다. On the other hand, when the data 422 arranged in the second order in the second data group 420 has a second data value (ex: “2”), the
즉, 자세 추정 모델(52)은, 제2 데이터 그룹(420)의 데이터 값에 근거하여, 제1 타입의 위치 정보(실제 위치 정보)와, 제2 타입의 위치 정보(예측 위치 정보) 각각에 서로 다른 학습 가중치를 설정하여 학습을 수행할 수 있다. That is, the
이 경우, 자세 추정 모델(52)은, 제1 학습 가중치를 제2 학습 가중치보다 높게 설정할 수 있다. In this case, the
한편, 도 8b에 도시된 것과 같이, 복수의 데이터 그룹(410 내지 450)은 운동 영상(300)에 포함된 피사체에 대한 촬영 방향과 관련된 정보를 포함하는 제3 데이터 그룹(430)을 더 포함할 수 있다. 제3 데이터 그룹(430)에는, 운동 영상(300)에 포함된 피사체(U)가 촬영된 촬영 방향을 나타내는 데이터 값(value)으로 이루어질 수 있다. Meanwhile, as shown in FIG. 8B, the plurality of data groups 410 to 450 may further include a third data group 430 including information related to a photographing direction of a subject included in the
도 8e의 (a)에 도시된 것과 같이, 피사체(U)는, 서로 다른 촬영 방향(ex: “정면” 또는 “측면”)에서 촬영될 수 있다. As shown in (a) of FIG. 8E, the subject U may be photographed in different photographing directions (eg, “front” or “side”).
여기에서 “촬영 방향”은, 피사체(U)에 대한 카메라(도 1에서 도면부호 “201” 참조) 축의 방향으로 이해될 수 있다. 여기에서, 카메라(201)는, 피사체(U)가 포함된 운동 영상(300)을 촬영한 카메라(201)로 이해될 수 있다. 이러한 카메라(201)는 사용자 단말(10, 20)에 구비된 카메라(201)를 포함할 수 있다. Here, “capturing direction” may be understood as a direction of an axis of a camera (refer to reference numeral 201 in FIG. 1 ) with respect to the subject U. Here, the camera 201 may be understood as a camera 201 that captures a
도 8e (b)에 도시된 제3 데이터 그룹(430)에 포함된 데이터 값은, 피사체(U)에 대한 촬영 방향에 대응하여, 서로 다른 데이터 값(ex: “0” 또는 “1”)을 가질 수 있다. 제3 데이터 그룹에 포함된 데이터 값은, 상기 피사체를 촬영한 카메라를 기준으로 하는, 상기 피사체의 촬영 방향에 따라 서로 다른 데이터 값을 갖도록 이루어질 수 있다. 이하에서는 제2 데이터 그룹(420)에 포함된 데이터 값과의 용어 혼동을 피하기 위하여, 촬영 방향에 대응하는 데이터 값을, “데이터 객체 값”으로 명명하여 설명하도록 한다. The data values included in the third data group 430 shown in FIG. 8E (b) have different data values (ex: “0” or “1”) corresponding to the photographing direction of the subject U. can have Data values included in the third data group may have different data values according to a photographing direction of the subject based on a camera that captures the subject. Hereinafter, in order to avoid term confusion with data values included in the second data group 420, data values corresponding to photographing directions will be named and described as “data object values”.
제1 데이터 객체 값(ex: “0”)을 갖는 데이터는, 학습 대상 운동 영상(300)에 대한 촬영 방향이 제1 방향(ex: 정면 방향)을 나타내는 데이터로 이해될 수 있다(도 8e의 (b) 참조). Data having a first data object value (ex: “0”) may be understood as data representing a first direction (ex: front direction) in which the shooting direction of the
학습부(51)는, 학습 대상 운동 영상(300)에 포함된 피사체(U)에 대한 촬영 방향이, 제1 방향(ex: 정면 방향)에 해당하는 것에 근거하여, 제3 데이터 그룹(430)에 제1 데이터 객체 값(ex: “0”)을 갖는 데이터를 포함시켜 학습 데이터 세트(400)를 생성할 수 있다. The
반면에, 제2 데이터 객체 값(ex: “1”)은, 운동 영상(300)에 대한 촬영 방향이 제1 방향과는 다른 제2 방향(ex: 측면 방향)을 나타내는 데이터로 이해될 수 있다(도 8e의 (b) 참조).On the other hand, the second data object value (ex: “1”) may be understood as data indicating a second direction (ex: lateral direction) in which the direction of capturing the
학습부(51)는, 운동 영상(300)에 포함된 피사체(U)에 대한 촬영 방향이, 제2 방향(ex: 측면 방향)에 해당하는 것에 근거하여, 제3 데이터 그룹(430)에 제2 데이터 객체 값(ex: “1”)을 갖는 데이터를 포함시켜 학습 데이터 세트(400)를 생성할 수 있다. The
나아가, 비록 도시되지는 않았지만, 제3 데이터 객체 값(ex: “2”)은, 운동 영상(300)에 대한 촬영 방향이 제1 방향 및 제2 방향과는 다른 제3 방향(ex: 사선 방향)을 나태나는 데이터로 이해될 수 있다. Furthermore, although not shown, a third data object value (ex: “2”) indicates that the shooting direction of the
학습부(51)는 학습 대상 운동 영상(300)에 포함된 피사체(U)에 대한 촬영 방향이, 제3 방향(ex: 사선 방향)에 해당하는 것에 근거하여, 제3 데이터 그룹(430)에 제3 데이터 객체 값(ex: “2”)을 갖는 데이터를 포함시켜 데이터베이스(40)에 저장할 수 있다.The
한편, 본 발명에서 설명되는 제1 방향 내지 제3 방향은, 피사체(U)와 카메라(201) 축이, 기 설정된 방향(ex: 시계 방향)을 기준으로 이루는 각도가, 제1 범위 내지 제3 범위 각각에 대응되는 경우로 이해될 수 있다. Meanwhile, in the first to third directions described in the present invention, the angle between the subject U and the axis of the camera 201 relative to a preset direction (ex: clockwise direction) is within a first range to a third range. It can be understood as a case corresponding to each of the ranges.
예를 들어, 제1 방향은, 피사체(U)와 카메라(201) 축이 이루는 각도가, 제1 각도에서 상기 제1 각도 보다 큰 제2 각도 범위 사이에 대응하는 것으로 이해될 수 있다. 제2 방향은, 피사체(U)와 카메라(201) 축이 이루는 각도가 제2 각도에서 제2 각도 보다 큰 제3 각도 범위 사이에 대응하는 것으로 이해될 수 있다. 그리고, 제3 방향은, 피사체(U)와 카메라(201) 축이 이루는 각도가 제2 각도에서 제2 각도 보다 큰 제3 각도 범위 사이에 대응하는 것으로 이해될 수 있다.For example, the first direction may be understood as corresponding to a second angle range in which an angle between the subject U and the axis of the camera 201 is greater than the first angle in the first angle. The second direction may be understood as corresponding to a third angle range in which an angle between the subject U and the axis of the camera 201 is greater than the second angle. Also, the third direction may be understood as corresponding to a third angle range in which an angle between the subject U and the axis of the camera 201 is greater than the second angle from the second angle.
한편, 학습부(51)는, 피사체(U)와 카메라(201) 축이, 기 설정된 방향(ex: 시계 방향)을 기준으로 이루는 각도(또는 각도 값)를, 제3 데이터 그룹(430)에 포함된 데이터의 데이터 값으로 구성할 수 있다. 예를 들어, 피사체(U)와 카메라(201) 축이 시계 방향을 기준을 직각을 이루는 경우, 학습부(51)는 “90”의 데이터 값을 제3 데이터 그룹(430)의 데이터로 구성할 수 있다. 한편, 학습부(51)는, 제3 데이터 그룹(430)에 포함된 촬영 방향 정보가 서로 다른 학습 데이터 세트(400)를 연계하여, 피사체(U)의 자세 추정을 위한 학습을 수행할 수 있다. Meanwhile, the
예를 들어, 제3 데이터 그룹(430)에 포함된 데이터가, 제1 데이터 객체 값(ex: “0”)을 갖는 제1 학습 데이터 세트와, 제2 데이터 객체 값(ex: “1”)을 갖는 제2 학습 데이터 세트가 존재한다고 가정하자. 학습부(51)는 제1 데이터 세트에 포함된 제1 데이터 그룹(410)의 위치 정보와, 제2 데이터 세트에 포함된 제1 데이터 그룹의 위치 정보를 서로 연계하여, 피사체(U)의 자세 추정에 대한 학습을 수행할 수 있다. For example, the data included in the third data group 430 includes a first training data set having a first data object value (ex: “0”) and a second data object value (ex: “1”). Assume that there exists a second training data set with . The
한편, 학습부(51)는, 제1 방향에서 촬영된 분석 대상 운동 영상으로부터 피사체(U)의 운동 자세를 추정하는 경우, 제1 방향에서 촬영된 학습 대상 운동 영상(300)에서 촬영된 학습 대상 운동 영상(300)에 대해 학습을 수행한 자세 추정 모델에 기반하여, 피사체(U)의 운동 자세를 추정할 수 있다. On the other hand, the
본 발명에 따른 운동 치료 제공 시스템(1000)은 분석 대상 운동 영상의 촬영 방향에 대응하는 촬영 방향 정보(데이터 객체 값 또는 데이터 값)을 포함하는 학습 데이터 세트(400)를 이용하여 학습된 자세 추정 모델로부터 추출되는 키포인트에 기반하여, 피사체(U)의 운동 동작을 분석할 수 있다. The exercise
한편, 동작 분석부(120, 210)는 제1 방향에서 촬영된 분석 대상 운동 영상(300)으로부터 피사체(U)의 운동 자세를 추정하는 경우, 제1 방향 및 제2 방향 각각에서 촬영된 학습 대상 운동 영상(300)에 대해 학습을 수행한 자세 추정 모델로부터 추정되는 자세 추정 정보를 이용하여, 피사체(U)의 운동 동작을 분석할 수 있다. Meanwhile, when the
즉, 동작 분석부(120, 210)는, 제1 촬영 방향으로 촬영된 분석 대상 운동 영상(300)으로부터 피사체(U)의 운동 동작이 촬영되는 경우, 제1 촬영 방향에 대응하는 데이터 객체 값을 포함하는 제1 학습 데이터 세트 및, 상기 제1 촬영 방향과는 다른 제2 촬영 방향에 대응하는 데이터 객체 값을 포함하는 제2 학습 데이터 세트에 대해 학습을 수행한 자세 추정 모델로부터 추정되는 자세 추정 정보를 이용하여, 피사체(U)의 운동 동작을 분석할 수 있다. 이 경우, 자세 추정 모델(122)은, 제1 학습 데이터 세트에 대해 가중치를 설정하여 학습을 수행한 자세 추정 모델에 해당할 수 있다. That is, when the movement motion of the subject U is captured from the analysis
이와 같이, 자세 추정 모델(52)은, 학습 대상 영상에 포함된 피사체의 촬영 방향에 따라 서로 다른 데이터 값을 갖는 상기 학습 데이터 세트를 통해, 상기 피사체의 촬영 방향이 고려되어 학습되도록 이루어질 수 있다. 나아가, 사용자의 운동 동작 분석 결과는, 자세 추정 모델에서 상기 운동 영상에 포함된 상기 사용자의 촬영 방향이 고려되어 추출된 자세 추정 정보에 기반하여, 상기 사용자의 특정 운동 동작이 분석된 결과일 수 있다.In this way, the
한편, 도 8b에 도시된 것과 같이, 복수의 데이터 그룹 중 제4 데이터 그룹(440)은, 학습 대상 운동 영상(300)에 포함된 피사체(U)가 수행하는 운동 동작에 매칭된 운동 코드(Code)를 포함할 수 있다. Meanwhile, as shown in FIG. 8B, the fourth data group 440 among the plurality of data groups is an exercise code (Code Code) matched to the exercise motion performed by the subject U included in the
도 8f에 도시된 것과 같이, 데이터베이스(40)에는, 서로 다른 복수의 운동 동작(710, 720, 730) 각각에는, 서로 다른 운동 코드(ex: “502”, “503”, “504”)가 매칭되어 존재할 수 있다. As shown in FIG. 8F, in the
본 발명에서 설명되는 “운동 코드”는, 서로 다른 운동 동작을 구분하는 데이터 값으로, “운동 키(Key)”, “동작 코드”, “동작 키” 와 혼용되어 사용될 수 있다. The “exercise code” described in the present invention is a data value for distinguishing different exercise motions, and may be used interchangeably with “exercise key”, “action code”, and “action key”.
학습부(51)는, 제4 데이터 그룹(440)에, 학습 대상 운동 영상(300)에 포함된 피사체(U)가 수행하는 특정 운동 동작(ex: “한발 서서 앞으로 발 뻗기”, 710)에 매칭된 특정 운동 코드(“502”)를 포함시켜 학습 데이터 세트(400)를 생성할 수 있다. In the fourth data group 440, the
학습부(51)는, 동일한 운동 코드를 포함하는 복수의 학습 데이터 세트(400)를 서로 연계하여, 자세 추정을 위한 학습을 수행할 수 있다. The
예를 들어, 제1 학습 대상 운동 영상에 기반한 제1 학습 데이터 세트와, 제2 학습 대상 운동 영상(300)에 기반한 제2 학습 데이터 세트가, 존재한다고 가정하자. 학습부(51)는 제1 학습 데이터 세트와 제2 학습 데이터 세트에 포함된 운동 코드(ex: “502)”가 동일한 것에 근거하여, 제1 학습 데이터 세트와 제2 학습 데이터 세트를 서로 연계하여, 자세 추정을 위한 학습을 수행할 수 있다. For example, suppose that a first learning data set based on a first training object exercise image and a second learning data set based on a second learning
이러한 운동 코드는, 사용자 단말(10, 20)로부터 수신된 정보, 시스템 관리자 또는 학습부(51) 중 적어도 하나에 의해 피사체(U)가 수행하는 운동 동작이 특정되는 것에 근거하여, 제4 데이터 그룹(440)에 포함될 수 있다. This exercise code is a fourth data group based on the information received from the
학습부(51)는, 사용자 단말(10, 20)로부터 수신되는 정보에 근거하여, 피사체(U)가 수행하는 운동 동작을 특정할 수 있다. 예를 들어, 학습부(51)는 사용자 단말(10, 20)로부터 “운동 시작”에 대응되는 그래픽 객체가 선택되는 것에 근거하여, 사용자 단말(10, 20)에 구비된 카메라(201)가 운동 영상을 촬영하도록, 카메라(201) 상태를 활성화 상태로 제어할 수 있다. The
이 경우, 그래픽 객체는, 특정 운동 동작에 대응될 수 있으며, 학습부(51)는 사용자 단말(10, 20)로부터 수신되는 운동 영상(300)에 포함된 피사체(U)가, 특정 운동 동작을 수행한 것으로 판단할 수 있다. In this case, the graphic object may correspond to a specific exercise motion, and the
나아가, 학습부(51)는, 시스템 관리자가 입력하는 정보에 근거하여, 피사체(U)가 수행하는 운동 동작을 특정할 수 있다.Furthermore, the
나아가, 학습부(51)는, 운동 영상(300)에 포함된 피사체(U)의 학습 대상 관절의 위치 정보에 근거하여, 피사체(U)가 수행하는 운동 동작을 특정할 수 있다. 이 경우, 데이터베이스(40)에 저장된 운동 동작에 대한 모션 정보를 참조하여, 피사체(U)가 수행하는 운동 동작을 특정할 수 있다. Furthermore, the
한편, 학습부(51)는 제4 데이터 그룹(440)에 포함된 운동 코드를 기준으로, 동일한 운동 코드를 포함하는 복수의 학습 데이터 세트(400)를 서로 매칭하여, 데이터베이스(40) 상에 저장할 수 있다. On the other hand, the
이 경우, 학습부(51)는 학습 코드를 기준으로, 데이터베이스(40)의 메모리(또는 메모리 공간)을 구분하여 할당할 수 있다. 본 발명에서, 데이터베이스(40)의 메모리(또는 메모리 공간)을 구분한다는 것은, 운동 코드를 기준으로 데이터베이스(40) 상에 폴더(folder)를 생성하는 것으로 이해할 수 있다. 그리고, 학습부(51)는 특정 운동 코드에 대응하는 폴더 내에, 특정 운동 코드를 포함하는 학습 데이터 세트(400)를 저장할 수 있다. In this case, the
한편, 동작 분석부(120, 210)는, 분석 대상 운동 영상에서, 피사체(U)가 수행하는 특정 운동 동작에 대응하는 운동 코드를 포함하는 학습 데이터 세트를 이용하여 학습된 자세 추정 모델로부터 추정되는 자세 추정 정보를 이용하여, 운동 동작을 분석할 수 있다. Meanwhile, the
나아가, 동작 분석부(120, 210)는, 분석 운동 대상에 포함된 피사체(U)와 동일한 특정 운동 동작과 관련된 학습 대상 운동 영상(300)에 기반하여 학습된 자세 추정 모델로부터 추정된 자세 추정 정보를 이용하여, 이용하여, 특정 운동 동작에 대한 피사체(U)의 운동 동작을 추정할 수 있다. Furthermore, the
한편, 도 8c에 도시된 것과 같이, 복수의 데이터 그룹(410 내지 450) 중 제5 데이터 그룹(450)은, 학습 대상 운동 영상(300)에 포함된 피사체(U)에 대한 바운딩 박스(bounding box, 301)의 사이즈(Size) 정보(451) 및 상기 바운딩 박스(301) 중심의 위치 정보(452)를 포함할 수 있다. Meanwhile, as shown in FIG. 8C, the fifth data group 450 among the plurality of data groups 410 to 450 is a bounding box for the subject U included in the
본 발명에서, 바운딩 박스(301)의 “사이즈 정보”는, “스케일(scale)”과 혼용될 수 있다. In the present invention, “size information” of the bounding box 301 may be used interchangeably with “scale”.
학습부(51)는, 학습 대상 운동 영상(300)에서 탐지된 피사체(U)에 대응되는 바운딩 박스(301)의 사이즈 정보(451)을 추출하고, 바운딩 박스(301)의 중심 위치 정보(452)를 추출하고, 이를 제5 데이터 그룹(450)에 포함시켜 학습 데이터 세트(400)를 생성할 수 있다. The
앞서 설명한 것과 같이, 학습부(51)는, 학습 대상 운동 영상(300)으로부터 피사체(U)를 탐지하기 위하여, 다양한 객체 탐지(Object Detection)를 위한 알고리즘을 이용할 수 있다. 예를 들어, 학습부(51)는 예를 들어, 복수의 바운딩 박스(Bounding Box)를 앙상블(ensemble)하는 알고리즘(Weighted Box Fusion, WBF)을 이용할 수 있다. 다만, 학습부(51)는 상술한 객체 탐지 알고리즘에 한정되지 않고, 학습 대상 운동 영상(300)으로부터 피사체(U)에 대응하는 객체를 탐지할 수 있는 다양한 객체 탐지 알고리즘을 이용할 수 있음은 당연하다. As described above, the
학습부(51)는, 객체 탐지 알고리즘에 기반하여, 학습 대상 영상(300)으로부터 피사체(U)에 대응하는 바운딩 박스의 사이즈 정보(451) 및 중심 위치 정보(452)를 추출하고, 상기 사이즈 정보(451) 및 중심 위치 정보(452)를 제5 데이터 그룹(450)에 포함시켜, 학습 데이터 세트(400)를 생성할 수 있다. Based on the object detection algorithm, the
이 경우, 학습부(51)는 바운딩 박스(301)의 중심 위치 정보(452)를, x축, y축 좌표 정보가 쌍을 이룬 형태로 추출할 수 있다.In this case, the
한편, 학습부(51)는, 학습 대상 운동 영상(300)의 영상 식별 정보를 포함시켜 학습 데이터 세트(400)를 구성할 수 있다. Meanwhile, the
여기에서, “영상 식별 정보”는, 학습 데이터 세트에 포함된 정보가 추출된 영상(300)을 식별하기 위한 정보로, 예를 들어, 학습 대상 운동 영상(300)의 파일명 정보, 파일 포맷 타입 정보(또는 확장자 정보, ex: “JPG”, “TIF”)를 포함할 수 있다. Here, “image identification information” is information for identifying the
본 발명에서는, 영상 식별 정보를, 제6 정보 속성에 대응하는 제6 데이터 그룹으로 ?명할 수 있다. In the present invention, the video identification information may be identified as a sixth data group corresponding to the sixth information attribute.
학습부(51)는, 영상 식별 정보로 구성된 제6 데이터 그룹을 포함시켜, 학습 데이터 세트(400)를 생성할 수 있다. The
한편, 본 발명에서는, 동작 분석부(120, 210)에 기반하여, 환자의 운동 동작에 대한 분석이 완료되는 것에 근거하여, 운동 동작 분석 결과를 환자 단말기(10)에 제공할 수 있다. 도 9a, 도 9b 및 도 9c에 도시된 것과 같이, 운동 동작 분석 결과는, 환자 단말기(10)에 설치된 운동 치료 애플리케이션(100)을 통해, 제공될 수 있다. Meanwhile, in the present invention, based on the analysis of the patient's exercise motion being completed based on the
도 9a의 (a)에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 본 발명에서 제공하는 복수의 서비스 각각에 접근 가능하도록 이루어진 서비스 페이지를, 환자 단말기(10) 상에 제공할 수 있다. 예를 들어, 상기 서비스 페이지는, i) 환자 계정에 할당된 운동 플랜에 대한 운동 가이드 정보 제공 기능에 연계된 운동 가이드 페이지, ii) 환자 계정에 할당된 운동 플랜 수행과 관련된 운동 페이지(도 9a의 (b) 참조), iii) 기능 평가에 연계된 기능 평가 페이지(도 9a의 (c) 참조) 및 iv) 운동 플랜 평가 기능에 연계된 플랜 평가 페이지 중 적어도 하나에 접근 가능하도록 이루어질 수 있다. As shown in (a) of FIG. 9A , the
나아가, 도 9b에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 운동 동작 분석 결과 및 운동 수행 결과에 기초한 운동 리포트를 제공하는 운동 리포트 페이지를, 환자 단말기(10) 상에 제공할 수 있다. 예를 들어, 운동 리포트 페이지에는, 운동 수행률 정보(도 9b의 (a) 및 (b) 참조) 및 운동 플랜 난이도 정보(도 9b의 (c) 참고) 중 적어도 하나를 포함할 수 있다. Furthermore, as shown in FIG. 9B , the
나아가, 도 9c에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 환자의 운동 동작 분석 결과를 환자 단말기(10) 상에 제공할 수 있다.Furthermore, as shown in FIG. 9C , the
도9c의 (a)에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 특정 처방 운동(ex: “옆으로 팔 벌리기”)을 수행하는 피사체(U)의, 복수의 관절 포인트 별 운동 동작 분석 정보를 환자 단말기(10)상에 제공할 수 있다. 예를 들어, 운동 치료 애플리케이션(100)은, 환자의 제1 측(ex: 왼쪽)에 위치하는 관절 포인트의 관절 가동 범위 및 제2 측(ex: 오른쪽)에 위치하는 관절 포인트의 관절 가동 범위를 그래프로, 환자 단말기(10)상에 제공할 수 있다. As shown in (a) of FIG. 9C, the
도 9c의 (b)에 도시된 것과 같이, 운동 치료 애플리케이션(100)은, 일정 기간에 운동 플랜에 따라 처방 운동을 수행한 환자의, 운동 동작 분석 결과를, 일별로 제공할 수 있다. 예를 들어, 운동 치료 애플리케이션(100)은 제1 운동일에 대응하는 관절 가동 범위 정보 및 제2 운동일에 대응하는 관절 가동 범위 정보를 제공할 수 있다. 그리고, 운동 치료 애플리케이션(100)은 제1 운동일 및 제2 운동일의 평균 관절 가동 범위를 제공할 수 있다. As shown in (b) of FIG. 9C , the
도 9c의 (c)에 도시된 것과 같이, 운동 치료 애플리케이션(100)는, 운동 영상(300)에 키포인트(P1, P2)에 대응하는 그래픽 객체를 렌더링(rendering)하여 환자 단말기(10)상에 제공할 수 있다. 이 경우, 운동 치료 애플리케이션(100)은, 환자의 관절 가동 범위 정보(각도 정보)를 함께 제공할 수 있다. As shown in (c) of FIG. 9C, the
한편, 본 발명에 따른 운동 치료 제공 시스템(1000)은, 의사가, 환자의 운동 플랜 수행에 대한 모니터링을 수행할 수 있도록, 환자 단말기(10)에 제공하는 운동 동작 분석 결과를 의사 단말기(20)에도 제공할 수 있다. On the other hand, in the exercise
위에서 살펴본 것과 같이, 본 발명에 따른 인공 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 시스템 및 방법은, 의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하고, 상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당할 수 있다. 이를 통해, 근골격계 질환에 대한 운동 치료를 위해 의사와 환자의 대면이 없더라도, 의사는 환자에게 처방이 가능하고, 환자는 의사의 처방에 따른 운동 플랜을 제공받음으로써, 운동 치료에 대한 장소적, 시간적, 경제적 제약을 해결하고, 운동 치료에 대한 접근성을 높일 수 있다. As described above, the system and method for providing exercise treatment using an artificial intelligence posture estimation model and motion analysis model according to the present invention receive prescription information related to exercise for a patient from a doctor terminal, Based on the prescription information, an exercise plan including at least one prescription exercise may be assigned to the patient's account. Through this, even if there is no face-to-face meeting between a doctor and a patient for exercise treatment for musculoskeletal disorders, the doctor can prescribe to the patient and the patient is provided with an exercise plan according to the doctor's prescription, thereby providing a spatial and temporal improvement in exercise treatment. , can address economic constraints and increase access to exercise therapy.
나아가, 본 발명에 따른 인공, 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 시스템 및 방법은, 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출함으로써, 근골격계 질환의 운동 치료에 필요한 관절에 포커스(Focus)를 맞추어 사용자의 운동 동작을 분석할 수 있다. Furthermore, a system and method for providing exercise therapy using an artificial, intelligent posture estimation model and a motion analysis model according to the present invention extracts key points corresponding to a plurality of preset joint points from the motion image, thereby providing exercise for musculoskeletal disorders. The user's motion may be analyzed by focusing on the joint required for treatment.
나아가, 본 발명에 따른 인공, 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 시스템 및 방법은, 관절 포인트에 대한 위치 정보를 포함하는 학습 데이터 세트(data set)를 이용하여 학습된 자세 추정 모델에 기반하여, 운동 영상에 포함된 사용자의 특정 운동 동작과 관련된 운동 동작을 분석할 수 있다. 이를 통해, 본 발명에서는 운동 영상으로부터 환자의 자세에 대한 정확한 분석이 가능하며, 특히, 환자의 관절 가동 범위, 정렬 상태 및 이탈 상태 등에 대한 정보를 획득하여 의료 서비스의 퀄리티(quality)를 향상시킬 수 있다.Furthermore, a system and method for providing exercise therapy using an artificial, intelligent posture estimation model and a motion analysis model according to the present invention is a posture estimation model learned using a learning data set including position information on joint points. Based on , an exercise motion related to a user's specific exercise motion included in the exercise image may be analyzed. Through this, in the present invention, it is possible to accurately analyze the patient's posture from the motion image, and in particular, it is possible to improve the quality of medical service by obtaining information on the patient's joint range of motion, alignment state, and deviation state. there is.
나아가, 본 발명에 따른 인공, 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 시스템 및 방법은, 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송함으로써, 환자는 먼 거리에 위치하는 병원에 직접 방문하지 않더라도 운동 영상에 대한 피드백(feedback)을 제공받아 운동 치료 효과를 제고할 수 있다.Furthermore, a system and method for providing exercise therapy using an artificial, intelligent posture estimation model and a motion analysis model according to the present invention transmits analysis results of a patient's exercise motion to the patient terminal, so that the patient is located at a long distance. Even if you do not visit the hospital directly, it is possible to improve the effect of exercise treatment by receiving feedback on the exercise image.
한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체(또는 기록 매체)에 저장 가능한 프로그램으로서 구현될 수 있다.Meanwhile, the present invention described above may be implemented as a program that is executed by one or more processes in a computer and can be stored in a computer-readable medium (or a recording medium).
나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명은 프로그램의 형태로 제공될 수 있다. Furthermore, the present invention described above can be implemented as computer readable codes or instructions in a medium on which a program is recorded. That is, the present invention may be provided in the form of a program.
한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. On the other hand, the computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. there is
나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or cloud storage that includes storage and can be accessed by electronic devices through communication. In this case, the computer may download the program according to the present invention from a server or cloud storage through wired or wireless communication.
나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the above-described computer is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit), and there is no particular limitation on its type.
한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.On the other hand, the above detailed description should not be construed as limiting in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.
Claims (10)
상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 단계;
환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 단계;
학습 데이터 세트(data set)에 기반하여 학습된 인공 지능 자세 추정 모델을 이용하여, 상기 환자의 피사체를 포함하는 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 단계;
인공 지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하는 단계; 및
상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 단계를 포함하고,
상기 학습 데이터 세트로 학습된 상기 자세 추정 모델은,
상기 동작 분석 모델이, 상기 운동 영상에서 가시(visible) 가능한 상기 피사체의 가시 관절 포인트 및 가시 불가능한 비가시(invisible) 관절 포인트 모두에 근거하여 상기 환자의 운동 동작을 분석하도록, 상기 운동 영상으로부터 상기 피사체의 가시 관절 포인트 및 상기 비가시 관절 포인트 각각을 상기 키포인트로서 추출하고,
상기 자세 추정 모델이 학습하는 상기 학습 데이터 세트는,
서로 다른 정보 속성에 각각 대응되는 복수의 데이터 그룹으로 구성되고,
상기 복수의 데이터 그룹 중 제1 데이터 그룹에는, 학습 대상 운동 영상에 포함된 피사체의 관절 포인트들 중 기 지정된 복수의 학습 대상 관절 포인트 각각의 위치 정보가, 상기 학습 대상 관절 포인트 각각에 대응되는 기 정의된 순서에 기반하여 순차적으로 배열되어 있고,
상기 복수의 데이터 그룹 중 제2 데이터 그룹에는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트 각각의 가시 여부를 나타내는 데이터 값(value)이, 상기 제1 데이터 그룹에 포함된 위치 정보와 동일 순서로 배열되어 있으며,
상기 제1 데이터 그룹에서 특정 순서에 배열된 위치 정보는, 상기 제2 데이터 그룹에서 상기 특정 순서에 배열된 데이터 값에 근거하여 제1 타입 및 상기 제1 타입과는 다른 제2 타입 중 어느 하나의 위치 정보로 정의되고,
상기 제1 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트가 실제 위치하는 영역의 실제 위치 정보이고,
상기 제2 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 예측된 상기 학습 대상 관절 포인트의 예측 위치 정보이며,
상기 자세 추정 모델은, 상기 제2 데이터 그룹의 상기 특정 순서에 배열된 상기 데이터 값에 근거하여, 상기 제1 데이터 그룹의 상기 특정 순서에 배열된 상기 위치 정보에 대한 학습 가중치를 다르게 설정하는 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.Receiving prescription information related to exercise for a patient from a doctor terminal;
allocating an exercise plan including at least one prescription exercise to the patient's account based on the prescription information;
receiving, from a patient terminal, an exercise image obtained by photographing an exercise according to the prescribed exercise;
extracting keypoints respectively corresponding to a plurality of preset joint points from the exercise image including the subject of the patient using an artificial intelligence posture estimation model learned based on a learning data set;
Analyzing a relative positional relationship between the key points through an artificial intelligence motion analysis model, and analyzing the motion motion of the patient for the prescribed exercise based on the analysis of the positional relationship; and
Transmitting an analysis result of the exercise motion of the patient to the patient terminal;
The posture estimation model learned with the learning data set,
The motion analysis model analyzes the motion motion of the patient based on both visible joint points and invisible joint points of the subject that are visible in the motion image, and the subject from the motion image. Each of the visible joint point and the non-visible joint point of is extracted as the key point,
The learning data set for which the posture estimation model learns,
It consists of a plurality of data groups each corresponding to different information properties,
In a first data group among the plurality of data groups, location information of each of a plurality of pre-designated joint points to be learned among joint points of a subject included in a target exercise image to be learned is defined as a predetermined value corresponding to each of the joint points to be learned. are arranged sequentially based on the order in which
In the second data group among the plurality of data groups, data values indicating whether each joint point to be learned is visible in the exercise image to be learned are displayed in the same order as the location information included in the first data group. are arranged,
The location information arranged in a specific order in the first data group is one of a first type and a second type different from the first type based on data values arranged in the specific order in the second data group. defined as location information,
The location information of the first type is actual location information of an area where the joint point to be studied is actually located in the exercise image to be studied,
The position information of the second type is predicted position information of the joint point to be learned predicted in the exercise image to be learned,
The posture estimation model sets different learning weights for the location information arranged in the specific order of the first data group based on the data values arranged in the specific order of the second data group. A method for providing exercise treatment using an artificial intelligence motion analysis model.
상기 환자 단말기에서 상기 운동 영상이 촬영되는 것에 연동하여, 상기 환자 단말기에 상기 운동 영상을 실시간으로 출력하는 단계; 및
상기 환자가, 상기 환자의 운동 자세에 대해 분석이 이루어지는 관절 포인트를 인지가능 하도록, 상기 운동 영상 중 상기 환자에 대응되는 피사체가 위치한 영역에, 추출된 상기 키포인트에 해당하는 그래픽 객체를 오버랩하여 제공하는 단계를 더 포함하는 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.According to claim 1,
outputting the exercise image to the patient terminal in real time in association with the motion image being captured by the patient terminal; and
A graphic object corresponding to the extracted key point is overlapped and provided in an area where a subject corresponding to the patient is located in the exercise image so that the patient can recognize the joint point at which the motion posture of the patient is analyzed. A method for providing exercise therapy using an artificial intelligence motion analysis model, further comprising the step of:
상기 키포인트를 추출하는 단계에서는,
상기 기 설정된 복수의 관절 포인트 중, 상기 운동 영상에서 가시 가능한 상기 가시 관절 포인트를 특정하고,
상기 기 설정된 복수의 관절 포인트 중 상기 운동 영상에서 가시 불가능한 상기 비가시 관절 포인트를 예측하는 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.According to claim 2,
In the step of extracting the keypoint,
Among the plurality of preset joint points, specifying visible joint points visible in the exercise image;
Method for providing exercise treatment using an artificial intelligence motion analysis model, characterized in that for predicting the non-visible joint points that are not visible in the motion image among the plurality of preset joint points.
상기 환자의 운동 동작을 분석하는 단계에서는,
상기 처방 운동과 관련된 규칙 정보를 기준으로, 상기 키포인트 간의 상대 위치 관계를 분석하고,
상기 키 포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 판단하는 것을 통해 상기 환자의 운동 동작을 분석하는 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.According to claim 2,
In the step of analyzing the patient's motor motion,
Based on the rule information related to the prescription exercise, analyzing the relative positional relationship between the key points,
A method for providing exercise treatment using an artificial intelligence motion analysis model, characterized in that for analyzing the motion motion of the patient by determining whether the relative positional relationship between the key points satisfies the rule information.
상기 운동 영상에 오버랩되는 그래픽 객체의 시각적 외관은, 추출된 상기 키포인트 간의 상대 위치 관계가 상기 규칙 정보를 만족하는지 여부에 따라 서로 다른 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.According to claim 6,
The visual appearance of the graphic object overlapping the motion image is different depending on whether the relative positional relationship between the extracted keypoints satisfies the rule information.
상기 환자의 운동 동작에 대한 분석 결과는,
상기 운동 영상이 상기 환자 단말기에서 촬영되고 있는 상태에서, 상기 키포인트에 해당하는 상기 그래픽 객체를 상기 규칙 정보에 근거한 서로 다른 시각적 외관으로, 상기 운동 영상에 실시간으로 오버랩하여 제공하는 제1 분석 결과 및
상기 운동 영상을 구성하는 복수의 프레임들 각각으로부터 추출된 키포인트에 기초하여 상기 처방 운동에 대한 상기 환자의 평가 점수를 포함하는 제2 분석 결과를 포함하고,
상기 제1 분석 결과는 상기 환자 단말기에 설치된 애플리케이션의 동작 분석 모델에 의해서 생성되고,
상기 제2 분석 결과는, 상기 애플리케이션과 연동하는 클라우드 서버에서 이루어지며,
상기 제1 분석 결과 및 상기 제2 분석 결과 모두는, 상기 의사 단말기로 전송되는 것을 특징으로 하는 인공 지능 동작 분석 모델을 이용한 운동 치료 제공 방법.According to claim 7,
The analysis result of the patient's exercise behavior is,
A first analysis result of overlapping and providing the graphic object corresponding to the key point to the exercise image in real time with different visual appearances based on the rule information while the exercise image is being captured by the patient terminal; and
A second analysis result including an evaluation score of the patient for the prescription exercise based on a key point extracted from each of a plurality of frames constituting the exercise image;
The first analysis result is generated by a motion analysis model of an application installed in the patient terminal,
The second analysis result is made in a cloud server that works with the application,
Both the first analysis result and the second analysis result are transmitted to the doctor terminal.
상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 제어부를 포함하고,
상기 제어부는,
환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하고,
학습 데이터 세트(data set)에 기반하여 학습된 인공 지능 자세 추정 모델을 이용하여, 상기 환자의 피사체를 포함하는 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하고,
인공 지능 동작 분석 모델을 이용하여, 상기 운동 영상으로부터, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하고
상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하며,
상기 학습 데이터 세트로 학습된 상기 자세 추정 모델은,
상기 동작 분석 모델이, 상기 운동 영상에서 가시(visible) 가능한 상기 피사체의 가시 관절 포인트 및 가시 불가능한 비가시(invisible) 관절 포인트 모두에 근거하여 상기 환자의 운동 동작을 분석하도록, 상기 운동 영상으로부터 상기 피사체의 가시 관절 포인트 및 상기 비가시 관절 포인트 각각을 상기 키포인트로서 추출하고,
상기 자세 추정 모델이 학습하는 상기 학습 데이터 세트는,
서로 다른 정보 속성에 각각 대응되는 복수의 데이터 그룹으로 구성되고,
상기 복수의 데이터 그룹 중 제1 데이터 그룹에는, 학습 대상 운동 영상에 포함된 피사체의 관절 포인트들 중 기 지정된 복수의 학습 대상 관절 포인트 각각의 위치 정보가, 상기 학습 대상 관절 포인트 각각에 대응되는 기 정의된 순서에 기반하여 순차적으로 배열되어 있고,
상기 복수의 데이터 그룹 중 제2 데이터 그룹에는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트 각각의 가시(visible) 여부를 나타내는 데이터 값(value)이, 상기 제1 데이터 그룹에 포함된 위치 정보와 동일 순서로 배열되어 있으며,
상기 제1 데이터 그룹에서 특정 순서에 배열된 위치 정보는, 상기 제2 데이터 그룹에서 상기 특정 순서에 배열된 데이터 값에 근거하여 제1 타입 및 상기 제1 타입과는 다른 제2 타입 중 어느 하나의 위치 정보로 정의되고,
상기 제1 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트가 실제 위치하는 영역의 실제 위치 정보이고,
상기 제2 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 예측된 상기 학습 대상 관절 포인트의 예측 위치 정보이며,
상기 자세 추정 모델은, 상기 제2 데이터 그룹의 상기 특정 순서에 배열된 상기 데이터 값에 근거하여, 상기 제1 데이터 그룹의 상기 특정 순서에 배열된 상기 위치 정보에 대한 학습 가중치를 다르게 설정하는 것을 특징으로 하는 운동 치료 제공 시스템.A communication unit for receiving prescription information related to exercise for a patient from a doctor terminal; and
A control unit allocating an exercise plan including at least one prescription exercise to the patient's account based on the prescription information;
The control unit,
Receiving an exercise image obtained by photographing an exercise according to the prescribed exercise from the patient terminal;
Using an artificial intelligence posture estimation model learned based on a learning data set, extracting key points respectively corresponding to a plurality of preset joint points from the motion image including the subject of the patient,
Analyzing the motion motion of the patient for the prescribed motion from the motion image using an artificial intelligence motion analysis model,
Transmitting an analysis result of the patient's motion to the patient terminal;
The posture estimation model learned with the learning data set,
The motion analysis model analyzes the motion motion of the patient based on both visible joint points and invisible joint points of the subject that are visible in the motion image, and the subject from the motion image. Each of the visible joint point and the non-visible joint point of is extracted as the key point,
The learning data set for which the posture estimation model learns,
It consists of a plurality of data groups each corresponding to different information properties,
In a first data group among the plurality of data groups, location information of each of a plurality of pre-designated joint points to be learned among joint points of a subject included in a target exercise image to be learned is defined as a predetermined value corresponding to each of the joint points to be learned. are arranged sequentially based on the order in which
In the second data group among the plurality of data groups, a data value representing whether each joint point to be learned is visible in the exercise image to be learned is included in the first data group, and are arranged in the same order,
The location information arranged in a specific order in the first data group is one of a first type and a second type different from the first type based on data values arranged in the specific order in the second data group. defined as location information,
The location information of the first type is actual location information of an area where the joint point to be studied is actually located in the exercise image to be studied,
The position information of the second type is predicted position information of the joint point to be learned predicted in the exercise image to be learned,
The posture estimation model sets different learning weights for the location information arranged in the specific order of the first data group based on the data values arranged in the specific order of the second data group. Exercise therapy providing system to be.
상기 프로그램은,
의사(doctor) 단말기로부터, 환자(patient)에 대한 운동과 관련된 처방 정보를 수신하는 단계;
상기 처방 정보에 근거하여, 상기 환자의 계정에, 적어도 하나의 처방 운동을 포함하는 운동 플랜을 할당하는 단계;
환자 단말기로부터, 상기 처방 운동에 따른 운동을 촬영한 운동 영상을 수신하는 단계;
학습 데이터 세트(data set)에 기반하여 학습된 인공 지능 자세 추정 모델을 이용하여, 상기 환자의 피사체를 포함하는 상기 운동 영상으로부터, 기 설정된 복수의 관절 포인트에 각각 대응되는 키포인트를 추출하는 단계;
인공 지능 동작 분석 모델을 통해, 상기 키포인트 간의 상대적인 위치 관계를 분석하고, 상기 위치 관계에 대한 분석에 기초하여, 상기 처방 운동에 대한 상기 환자의 운동 동작을 분석하는 단계; 및
상기 환자의 운동 동작에 대한 분석 결과를, 상기 환자 단말기에 전송하는 단계를 포함하고,
상기 학습 데이터 세트로 학습된 상기 자세 추정 모델은,
상기 동작 분석 모델이, 상기 운동 영상에서 가시(visible) 가능한 상기 피사체의 가시 관절 포인트 및 가시 불가능한 비가시(invisible) 관절 포인트 모두에 근거하여 상기 환자의 운동 동작을 분석하도록, 상기 운동 영상으로부터 상기 피사체의 가시 관절 포인트 및 상기 비가시 관절 포인트 각각을 상기 키포인트로서 추출하고,
상기 자세 추정 모델이 학습하는 상기 학습 데이터 세트는,
서로 다른 정보 속성에 각각 대응되는 복수의 데이터 그룹으로 구성되고,
상기 복수의 데이터 그룹 중 제1 데이터 그룹에는, 학습 대상 운동 영상에 포함된 피사체의 관절 포인트들 중 기 지정된 복수의 학습 대상 관절 포인트 각각의 위치 정보가, 상기 학습 대상 관절 포인트 각각에 대응되는 기 정의된 순서에 기반하여 순차적으로 배열되어 있고,
상기 복수의 데이터 그룹 중 제2 데이터 그룹에는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트 각각의 가시 여부를 나타내는 데이터 값(value)이, 상기 제1 데이터 그룹에 포함된 위치 정보와 동일 순서로 배열되어 있으며,
상기 제1 데이터 그룹에서 특정 순서에 배열된 위치 정보는, 상기 제2 데이터 그룹에서 상기 특정 순서에 배열된 데이터 값에 근거하여 제1 타입 및 상기 제1 타입과는 다른 제2 타입 중 어느 하나의 위치 정보로 정의되고,
상기 제1 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 상기 학습 대상 관절 포인트가 실제 위치하는 영역의 실제 위치 정보이고,
상기 제2 타입의 위치 정보는, 상기 학습 대상 운동 영상에서 예측된 상기 학습 대상 관절 포인트의 예측 위치 정보이며,
상기 자세 추정 모델은, 상기 제2 데이터 그룹의 상기 특정 순서에 배열된 상기 데이터 값에 근거하여, 상기 제1 데이터 그룹의 상기 특정 순서에 배열된 상기 위치 정보에 대한 학습 가중치를 다르게 설정하는 것을 특징으로 하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램.
A program that is executed by one or more processes in an electronic device and stored in a computer-readable recording medium,
said program,
Receiving prescription information related to exercise for a patient from a doctor terminal;
allocating an exercise plan including at least one prescription exercise to the patient's account based on the prescription information;
receiving, from a patient terminal, an exercise image obtained by photographing an exercise according to the prescribed exercise;
extracting keypoints respectively corresponding to a plurality of preset joint points from the exercise image including the subject of the patient using an artificial intelligence posture estimation model learned based on a learning data set;
Analyzing a relative positional relationship between the key points through an artificial intelligence motion analysis model, and analyzing the motion motion of the patient for the prescribed exercise based on the analysis of the positional relationship; and
Transmitting an analysis result of the exercise motion of the patient to the patient terminal;
The posture estimation model learned with the learning data set,
The motion analysis model analyzes the motion motion of the patient based on both visible joint points and invisible joint points of the subject that are visible in the motion image, and the subject from the motion image. Each of the visible joint point and the non-visible joint point of is extracted as the key point,
The learning data set for which the posture estimation model learns,
It consists of a plurality of data groups each corresponding to different information properties,
In a first data group among the plurality of data groups, location information of each of a plurality of pre-designated joint points to be learned among joint points of a subject included in a target exercise image to be learned is defined as a predetermined value corresponding to each of the joint points to be learned. are arranged sequentially based on the order in which
In the second data group among the plurality of data groups, data values indicating whether each joint point to be learned is visible in the exercise image to be learned are displayed in the same order as the location information included in the first data group. are arranged,
The location information arranged in a specific order in the first data group is one of a first type and a second type different from the first type based on data values arranged in the specific order in the second data group. defined as location information,
The location information of the first type is actual location information of an area where the joint point to be studied is actually located in the exercise image to be studied,
The position information of the second type is predicted position information of the joint point to be learned predicted in the exercise image to be learned,
The posture estimation model sets different learning weights for the location information arranged in the specific order of the first data group based on the data values arranged in the specific order of the second data group. A program stored on a computer-readable recording medium, characterized in that to.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220176241A KR102566211B1 (en) | 2022-12-15 | 2022-12-15 | Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220176241A KR102566211B1 (en) | 2022-12-15 | 2022-12-15 | Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102566211B1 true KR102566211B1 (en) | 2023-08-11 |
Family
ID=87565800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220176241A KR102566211B1 (en) | 2022-12-15 | 2022-12-15 | Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102566211B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150096550A (en) * | 2014-02-14 | 2015-08-25 | 부경대학교 산학협력단 | Apparatus and Method for Supporting Rehabilitation Exercise |
JP2021514512A (en) * | 2018-02-20 | 2021-06-10 | アップリフト ラブズ インコーポレイテッド | Motion identification and generation of normative analysis using motion information |
KR102355008B1 (en) * | 2021-10-26 | 2022-01-25 | 아이픽셀 주식회사 | Method of providing personal training service and recording medium thereof |
-
2022
- 2022-12-15 KR KR1020220176241A patent/KR102566211B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150096550A (en) * | 2014-02-14 | 2015-08-25 | 부경대학교 산학협력단 | Apparatus and Method for Supporting Rehabilitation Exercise |
JP2021514512A (en) * | 2018-02-20 | 2021-06-10 | アップリフト ラブズ インコーポレイテッド | Motion identification and generation of normative analysis using motion information |
KR102355008B1 (en) * | 2021-10-26 | 2022-01-25 | 아이픽셀 주식회사 | Method of providing personal training service and recording medium thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11557215B2 (en) | Classification of musculoskeletal form using machine learning model | |
CN103127691B (en) | Video-generating device and method | |
KR102341985B1 (en) | Exercise assistant device and exercise assistant method | |
Semblantes et al. | Visual feedback framework for rehabilitation of stroke patients | |
Yi et al. | Home interactive elderly care two-way video healthcare system design | |
JP6884306B1 (en) | System, method, information processing device | |
Patil et al. | Body posture detection and motion tracking using ai for medical exercises and recommendation system | |
JP2023168557A (en) | Program, method, and information processing device | |
KR102566211B1 (en) | Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model | |
EP3122253A1 (en) | Activity and exercise monitoring system | |
JP7419616B2 (en) | Measurement systems, methods and programs | |
KR102593277B1 (en) | Method and system for creating a customized treatment program | |
JP6774582B1 (en) | Measurement system, program | |
KR102593279B1 (en) | Method and system for posture estimation and motion analysis | |
JP6811349B1 (en) | Information processing equipment, methods, programs | |
KR20230018239A (en) | Remote rehabilitation system and method using real-time pose estimation | |
KR102566213B1 (en) | Method and system for digital based musculoskeletal rehabilitation treatment | |
US20240149115A1 (en) | Method and system for providing digitally-based musculoskeletal rehabilitation therapy | |
KR102609706B1 (en) | System for providing internet of things based home training service | |
Celesti et al. | Adopting Machine Learning-Based Pose Estimation as Digital Biomarker in Motor Tele-Rehabilitation | |
US20240112367A1 (en) | Real-time pose estimation through bipartite matching of heatmaps of joints and persons and display of visualizations based on the same | |
KR20240063751A (en) | Method and system for digital based musculoskeletal rehabilitation treatment | |
US20220157427A1 (en) | Remote physical therapy and assessment of patients | |
KR102457571B1 (en) | Augmented reality-based lumbar core twist exercise treatment system and lumbar core twist exercise treatment method | |
Bhatambarekar et al. | A Study on Physiotherapy Exercise Corrector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |